Teslas neueste Full Self-Driving (FSD)-Software zeigt weiterhin Mängel, wie eine aktuelle Testfahrt in Los Angeles belegt. Das System ignorierte ein blinkendes Schulbusschild, missachtete Verkehrssignale und führte unberechenbare Spurwechsel durch. Diese Beobachtungen werfen Fragen zur Sicherheit der Technologie auf, insbesondere angesichts des Namenszusatzes "Full Self-Driving" und der Einstufung als Level-2-Fahrassistenzsystem.
Wichtige Punkte
- FSD-Software ignorierte Schulbusschild und Verkehrssignale.
- Das System führte unberechenbare Spurwechsel durch.
- Der Test wurde von Forbes mit einem 2024 Model Y durchgeführt.
- Kritiker fordern eine genauere Prüfung der Marketingaussagen.
- Regulierungsbehörden und Gerichte erhöhen den Druck auf Tesla.
Details der Testfahrt in Los Angeles
Eine 90-minütige Testfahrt in Los Angeles offenbarte mehrere Sicherheitsmängel von Teslas FSD-Software. Ein 2024er Model Y, ausgestattet mit Teslas neuester Hardware 4 und der FSD-Version 13.2.9, wurde dabei von Forbes dokumentiert. Das Fahrzeug wurde vom Dawn Project bereitgestellt, einer Gruppe, die Teslas Fahrerassistenzsysteme seit Längerem kritisiert. Der Test zeigte, dass das System ein blinkendes Schulbusschild nicht beachtete, rote Ampeln ignorierte und willkürliche Spurwechsel vornahm.
Dan O’Dowd, der Leiter des Dawn Project, äußerte sich auf X zu den Ergebnissen. Er berichtete, dass das Fahrzeug insgesamt sieben sicherheitskritische Fehler machte. Dazu gehörte der Versuch, eine Einbahnstraße in falscher Richtung zu befahren, sowie das illegale Überfahren eines angehaltenen Schulbusses. Diese Vorfälle deuten auf anhaltende Probleme in der Software hin.
Faktencheck: Schulbus-Problem
- Das Problem, dass das Fahrzeug nicht für blinkende Schulbusschilder anhält, ist nicht neu.
- Bereits vor zwei Jahren identifizierte das Dawn Project diesen Mangel bei ähnlichen Tests.
- Forbes stellte fest, dass dieser Fehler bis heute nicht behoben wurde.
Marketing und Realität der FSD-Technologie
Tesla bewirbt sein FSD-System als "Full Self-Driving (Supervised)". Es wird als kostenpflichtiges Add-on für 8.000 US-Dollar oder als monatliches Abonnement für 99 US-Dollar angeboten. Trotz des Namens ist das System als Level-2-Teilautomatisierung eingestuft. Dies bedeutet, dass ein vollständig aufmerksamer Fahrer jederzeit erforderlich ist. Kritiker bemängeln, dass die Namensgebung und das Marketing die tatsächlichen Fähigkeiten des Systems übertreiben.
"Das Auto machte sieben sicherheitskritische Fehler, darunter der Versuch, eine Einbahnstraße in der falschen Richtung zu befahren und illegal an einem angehaltenen Schulbus vorbeizufahren."
Die Diskrepanz zwischen Marketing und technischer Realität führt zu Missverständnissen bei den Verbrauchern. Die Bezeichnung "Full Self-Driving" suggeriert eine Autonomie, die das System nach aktueller Einstufung nicht besitzt. Dies kann zu einem falschen Sicherheitsgefühl bei den Fahrern führen, was das Risiko von Unfällen erhöht.
Hintergrund: Autonomie-Level
Die Society of Automotive Engineers (SAE) definiert sechs Level des autonomen Fahrens (Level 0 bis Level 5). Level 2 bedeutet, dass das Fahrzeug Lenkung und Beschleunigung/Verzögerung autonom steuern kann, der Fahrer jedoch die Umgebung überwachen und jederzeit eingreifen muss. Level 5 beschreibt ein vollständig autonomes Fahrzeug, das unter allen Bedingungen ohne menschliches Eingreifen operieren kann.
Zunehmender regulatorischer und rechtlicher Druck
Die jüngsten Vorfälle ereignen sich zu einem Zeitpunkt, an dem der regulatorische Druck auf Tesla zunimmt. Die US-amerikanische Aufsichtsbehörde für den Automobilsektor hat eine Untersuchung eingeleitet. Diese Untersuchung betrifft Teslas Umgang mit Unfallberichten, die Autopilot und Full Self-Driving involvieren. Die Behörde betont, dass die Automobilhersteller selbst für die Sicherheit ihrer Systeme verantwortlich sind. Sie kündigte jedoch an, einzugreifen, falls diese Technologien Fahrer gefährden sollten.
Auch vor Gericht steht Teslas Fahrerassistenztechnologie unter Beobachtung. Im vergangenen Monat verurteilte eine Jury in Florida das Unternehmen zur Zahlung von 243 Millionen US-Dollar. Der Fall betraf einen Unfall aus dem Jahr 2019, der mit dem Autopilot-System in Verbindung stand. Zudem wurden kürzlich Klagen in Kalifornien beigelegt. Die kalifornische Kfz-Behörde (DMV) versucht außerdem, Tesla die Verwendung von Namen wie "Autopilot" und "Full Self-Driving" zu untersagen. Die Behörde argumentiert, dass diese Namen Verbraucher irreführen könnten.
Robotaxi-Pilotprojekt und zukünftige Ziele
Trotz der wachsenden Kritik und des regulatorischen Drucks testet Tesla einen Robotaxi-Dienst in Austin. Auch dieses Pilotprojekt nutzt die FSD-Technologie. Im Gegensatz zu vollständig autonomen Konkurrenten wie Waymo von Alphabet ist bei Teslas Testfahrten ein Sicherheitsfahrer am Steuer. Berichte über Unfälle während des Pilotprojekts verstärken die Zweifel, ob das System für einen breiteren Einsatz bereit ist.
CEO Elon Musk bleibt jedoch optimistisch und bewirbt FSD weiterhin als zentralen Bestandteil von Teslas Zukunft. Sein Vergütungspaket ist an ehrgeizige Ziele geknüpft. Dazu gehören eine Million Tesla-Robotaxis auf den Straßen und zehn Millionen aktive FSD-Nutzer innerhalb des nächsten Jahrzehnts. Diese Ziele unterstreichen die strategische Bedeutung der FSD-Technologie für das Unternehmen, auch wenn die aktuellen Herausforderungen beträchtlich sind.
Die öffentliche Wahrnehmung auf Plattformen wie Stocktwits zeigt ein "neutrales" Anleger-Sentiment für Tesla, begleitet von einem "hohen" Nachrichtenvolumen. Dies spiegelt die gemischten Gefühle der Anleger wider, die zwischen Musks Vision und den aktuellen Sicherheitsproblemen abwägen.