Waymo-Robotaxis: US-Behörde ermittelt nach Schulbus-Vorfällen
24.01.2026 - 12:44:12Die US-Verkehrssicherheitsbehörde NTSB hat eine formelle Sicherheitsuntersuchung gegen Googles autonome Tochter Waymo eröffnet. Grund sind wiederholte Vorfälle in Austin, bei denen die fahrerlosen Taxis an haltenden Schulbussen vorbeifuhren – ein klarer Verstoß gegen das Verkehrsgesetz.
Bundesermittler nehmen Schulbus-Zwischenfälle ins Visier
Im Fokus der Ermittler steht eine Serie von Vorfällen, bei denen Waymos fahrerlose Jaguar I-PACE Fahrzeuge nicht vor Schulbussen anhielten, die Kinder ein- oder ausluden. Die NTSB, deren Sicherheitsempfehlungen großes Gewicht haben, schickt ein Team nach Austin, um Daten, Videomaterial und die Betriebsparameter des autonomen Fahrsystems zu prüfen.
Der Untersuchung vorausgegangen waren mindestens 24 dokumentierte Verstöße seit August 2025, wie der Schulbezirk von Austin (AISD) berichtet. Nach texanischem Recht müssen alle Fahrzeuge vollständig stoppen, wenn ein Schulbus seine roten Warnblinker aktiviert und das Stopp-Schild ausfährt – es sei denn, eine physische Barriere trennt die Fahrbahnen.
Autonome Fahrsysteme geraten immer mehr ins Visier von Regulierern. Die neue EU-KI-Verordnung verlangt klare Risikoklassifikation, umfassende Dokumentation und Nachweise zur Sicherheit von Hochrisiko-KI – Anforderungen, die Betreiber autonomer Fahrzeuge unmittelbar betreffen können. Unser kompakter Umsetzungsleitfaden erklärt praxisnah, welche Pflichten jetzt relevant sind und wie Entwickler und Betreiber ihre Systeme rechtssicher dokumentieren. Jetzt kostenlosen KI-Verordnung-Leitfaden herunterladen
Schulbehörde meldet anhaltende Sicherheitsrisiken
Die Spannungen zwischen den lokalen Bildungseinrichtungen und dem Tech-Riesen haben sich in den letzten Monaten verschärft. Trotz Kommunikationsversuchen hätten die Verstöße das gesamte Schuljahr über angehalten, so der Bezirk.
Im Dezember 2025 eskalierte der Konflikt: Die Schulbehörde forderte Waymo formell auf, den Betrieb während der Bring- und Abholzeiten einzustellen. Waymo lehnte dies ab und setzte stattdessen auf Software-Updates, um das Problem zu beheben. Besorgniserregend ist für die Behörde die Unberechenbarkeit der Vorfälle. In mehreren Fällen umfuhren die Robotaxis Busse mit ausgefahrenem Stopp-Schild – ein Manöver, das für menschliche Fahrer strikt verboten ist, da Kinder die Straße überqueren könnten. Bislang wurden keine Unfälle oder Verletzungen gemeldet.
Waymos technische Reaktion und Software-Rückruf
Waymo räumte die Vorfälle ein und betont sein Sicherheitsengagement. Im Dezember 2025 rief das Unternehmen freiwillig über 3.000 Fahrzeuge zurück, um ein Update einzuspielen. Der Chief Safety Officer, Mauricio Peña, sieht in der NTSB-Untersuchung eine Chance für transparente Einblicke in die Sicherheitsarbeit. Das System meistere wöchentlich tausende Schulbus-Begegnungen sicher und übertreffe die Leistung menschlicher Fahrer, so Peña.
Doch die Wirksamkeit der Patches wird angezweifelt. Laut AISD gab es im November 2025 mindestens fünf weitere Verstöße – nachdem der angeblich wirksame Fix installiert worden sein soll. Dies deutet auf ein komplexeres technisches Problem hin, das möglicherweise in der Interpretation der Sensoren (Lidar, Radar, Kameras) unter variierenden Licht- und Verkehrsbedingungen liegt.
Doppelte Regulierungsprüfung und Branchenfolgen
Die NTSB-Ermittlung läuft parallel zu einer bereits seit Oktober 2025 laufenden Vorprüfung der Straßenverkehrsbehörde NHTSA. Diese doppelte Prüfung unterstreicht den wachsenden Fokus der US-Behörden auf die Sicherheitsvalidierung autonomer Technologien.
Branchenbeobachter sehen weitreichende Folgen. Für Unternehmen wie Waymo, die in neue Märkte wie Los Angeles, Phoenix und Atlanta expandieren, ist der strikte Gesetzesgehorsam – besonders im Umgang mit schutzbedürftigen Gruppen wie Schulkindern – entscheidend für öffentliches Vertrauen und regulatorische Zustimmung.
Die NTSB wird voraussichtlich innerhalb von 30 Tagen einen Vorbericht veröffentlichen. Ein abschließender Bericht mit Ursachenanalyse und Sicherheitsempfehlungen dauert typischerweise 12 bis 14 Monate. Der Fall in Austin wird so zum Prüfstein für die Sicherheit des autonomen Fahrens der Zukunft.
PS: Betreiber und Entwickler autonomer Fahrzeuge sollten jetzt handeln – die neuen Regeln zur Kennzeichnung, Dokumentation und Risikobewertung können Marktzugang und Haftungsrisiken erheblich beeinflussen. Unser kostenloser Umsetzungsleitfaden zur EU-KI-Verordnung bietet eine Schritt-für-Schritt-Checkliste für die Klassifizierung Ihres Systems, die erforderliche Dokumentation und praktische Vorlagen für Compliance-Berichte. KI-Verordnung-Umsetzungsleitfaden gratis anfordern


