Die US-Verkehrssicherheitsbehörde NHTSA hat eine Untersuchung gegen Tesla eingeleitet. Grund sind zahlreiche Beschwerden über die „Full Self-Driving“-Software (FSD), die zu gefährlichen Fahrmanövern und Unfällen geführt haben soll. Die Ermittlung soll klären, ob das System ein Sicherheitsrisiko darstellt.
In einem offiziellen Bericht vom 7. Oktober führt die National Highway Traffic Safety Administration (NHTSA) mindestens 18 Beschwerden von Fahrern auf. In diesen Fällen sollen Tesla-Fahrzeuge mit aktiviertem FSD-System rote Ampeln überfahren, in den Gegenverkehr geraten oder andere schwerwiegende Verkehrsregeln missachtet haben. Diese Vorfälle führten zu mindestens sechs Unfällen, bei denen vier Personen verletzt wurden.
Wichtige Erkenntnisse
- Die US-Behörde NHTSA untersucht Teslas „Full Self-Driving“-Software (FSD).
- Grundlage sind 18 Beschwerden über gefährliche Fahrmanöver wie das Überfahren roter Ampeln.
- Mindestens sechs Unfälle mit vier Verletzten werden mit dem System in Verbindung gebracht.
- Die Untersuchung prüft, ob das System die Fahrer ausreichend vor unerwarteten Manövern warnt.
- Tesla klassifiziert FSD als Fahrassistenzsystem, bei dem der Fahrer die volle Verantwortung trägt.
Details der Untersuchung durch die NHTSA
Die Ermittlungsakte der NHTSA, genauer des Office of Defects Investigation (ODI), listet eine Reihe von spezifischen Problemen auf. Die gemeldeten Vorfälle deuten auf wiederkehrende Muster von Fehlverhalten der Software hin, die ein erhebliches Sicherheitsrisiko im Straßenverkehr darstellen könnten.
Zu den häufigsten Beschwerden gehört das Versäumnis der Software, an roten Ampeln anzuhalten oder nach einem Stopp korrekt auf das Verkehrssignal zu reagieren. Ein besonders schwerwiegender Fall, der von der Behörde zitiert wird, beschreibt einen Unfall, bei dem ein Tesla mit aktivem FSD eine rote Ampel missachtete und in eine Kreuzung fuhr, wo er mit anderen Fahrzeugen kollidierte.
Gefährliche Manöver im fließenden Verkehr
Neben Problemen an Kreuzungen wurden auch andere besorgniserregende Verhaltensweisen gemeldet. Mehrere Fahrer berichteten, dass ihre Fahrzeuge unerwartet doppelte gelbe Linien überquerten und in den Gegenverkehr fuhren. In anderen Fällen versuchte das System, falsch in Einbahnstraßen abzubiegen oder führte Abbiegevorgänge von der falschen Fahrspur aus durch. Beispielsweise fuhren Fahrzeuge von einer reinen Abbiegespur geradeaus durch eine Kreuzung.
Statistik der Vorfälle
Die Untersuchung der NHTSA basiert auf einer Analyse von mindestens 18 separaten Beschwerden. Diese führten nachweislich zu 6 Unfällen, bei denen 4 Personen Verletzungen erlitten. Die Behörde prüft nun, ob es sich um Einzelfälle oder um ein systematisches Problem der FSD-Software handelt.
Verantwortung des Fahrers und Systemwarnungen
Ein zentraler Punkt der Untersuchung ist die Frage, ob Tesla die Fahrer ausreichend vor den plötzlichen und unerwarteten Manövern des Fahrzeugs warnt. Laut NHTSA gaben einige der betroffenen Fahrer an, dass das FSD-System die gefährlichen Aktionen ohne Vorwarnung oder ausreichende Möglichkeit zum Eingreifen durchführte.
„Einige der gemeldeten Vorfälle schienen einen Spurwechsel in den Gegenverkehr zu beinhalten, mit wenig Vorankündigung für den Fahrer oder Gelegenheit zum Eingreifen“, so die NHTSA in ihrem Bericht.
Die Untersuchung wird daher prüfen, ob die Warnmechanismen und die Zeitspanne, die dem Fahrer zum Übernehmen der Kontrolle bleibt, den Sicherheitsstandards entsprechen. Dies ist entscheidend, da Tesla sein System rechtlich als Fahrassistenzsystem der Stufe 2 einstuft.
Was bedeutet Autonomiestufe 2?
Systeme der Stufe 2, wie Teslas FSD, können Lenk-, Beschleunigungs- und Bremsvorgänge selbstständig durchführen, erfordern aber die ständige Überwachung durch den Fahrer. Laut NHTSA bleibt der Mensch hinter dem Lenkrad „jederzeit voll verantwortlich für das Führen des Fahrzeugs, einschließlich der Einhaltung der geltenden Verkehrsregeln“.
Teslas Ambitionen und die Realität
Die Untersuchung wirft einen Schatten auf die ehrgeizigen Ziele von Tesla-CEO Elon Musk im Bereich des autonomen Fahrens. Musk hat wiederholt versprochen, dass Teslas Fahrzeuge bald vollständig autonom fahren können. Erst im Sommer startete das Unternehmen ein Pilotprojekt für einen Robotaxi-Dienst in Austin, Texas, um die neueste Version der FSD-Software zu demonstrieren.
Die aktuellen Ermittlungen zeigen jedoch die Kluft zwischen den Marketingversprechen und der tatsächlichen Leistungsfähigkeit der Technologie auf öffentlichen Straßen. Die Ergebnisse der NHTSA-Untersuchung könnten weitreichende Konsequenzen für Tesla haben, von verpflichtenden Software-Updates bis hin zu einem möglichen Rückruf.
Rechtliche und technische Herausforderungen
Die Unterscheidung zwischen einem „Fahrassistenzsystem“ und einem „vollständig autonomen System“ ist nicht nur technisch, sondern auch rechtlich von großer Bedeutung. Während Tesla die Verantwortung auf den Fahrer überträgt, suggeriert der Name „Full Self-Driving“ eine Fähigkeit, die die Software möglicherweise noch nicht besitzt.
Die NHTSA hat in den letzten Jahren ihre Überwachung von automatisierten Fahrsystemen verstärkt, da die Technologie immer weiter verbreitet wird. Die Untersuchung gegen Tesla ist Teil einer breiteren Anstrengung, die Sicherheit dieser neuen Systeme zu gewährleisten und klare regulatorische Rahmenbedingungen zu schaffen.
Tesla hat sich zu der laufenden Untersuchung bisher nicht öffentlich geäußert. Der Ausgang wird von der gesamten Automobilbranche aufmerksam beobachtet, da er die Zukunft der autonomen Fahrtechnologie maßgeblich beeinflussen könnte.




