Technologie7 Aufrufe5 Min. Lesezeit

US-Senatoren fordern Untersuchung von Tesla-Software

Zwei US-Senatoren fordern eine formelle NHTSA-Untersuchung von Teslas „Full Self-Driving“-Software, nachdem Berichte über die Nichterkennung von Zügen an Bahnübergängen aufgetaucht sind. Sie warnen vo

Clara Weber
Von
Clara Weber

Clara Weber ist eine erfahrene Journalistin mit über 15 Jahren Erfahrung in der globalen Nachrichtenberichterstattung. Sie konzentriert sich auf internationale Angelegenheiten, Geopolitik und die Analyse weltweiter Ereignisse.

Autorenprofil
US-Senatoren fordern Untersuchung von Tesla-Software

Zwei US-Senatoren haben die Verkehrssicherheitsbehörde NHTSA aufgefordert, eine offizielle Untersuchung von Teslas „Full Self-Driving“-Software (FSD) einzuleiten. Dies geschieht nach Berichten, wonach die Software an Bahnübergängen Züge nicht immer erkannt hat. Die Senatoren Edward Markey (D-Mass.) und Richard Blumenthal (D-Conn.) äußerten ihre Bedenken in einem Schreiben an die National Highway Traffic Safety Administration (NHTSA).

Wichtige Punkte

  • Zwei US-Senatoren fordern eine formelle NHTSA-Untersuchung der Tesla FSD-Software.
  • Grund sind Berichte über Nichterkennung von Zügen an Bahnübergängen durch die Software.
  • Kollisionen an Bahnübergängen bergen ein hohes Risiko für schwere Unfälle.
  • NHTSA war bereits über Vorfälle informiert und hatte Tesla kontaktiert.
  • Experten sehen mangelnde Trainingsdaten als mögliche Ursache für Softwarefehler.

Forderung nach formeller Untersuchung

Die Senatoren Markey und Blumenthal haben am Montag in einem Brief an die NHTSA ihre Besorgnis über die Sicherheit der Tesla FSD-Software ausgedrückt. Sie kritisierten die als „Full Self-Driving (Supervised)“ vermarktete Technologie scharf. Die NHTSA ist die zuständige Behörde für Fahrzeugsicherheit in den Vereinigten Staaten.

In ihrem Schreiben betonten die Senatoren die Gefahr. „Kollisionen zwischen Zügen und Autos verursachen oft erhebliche Todesfälle und Verletzungen“, schrieben sie. „Das Versagen von FSD, Bahnübergänge sicher zu navigieren, schafft ein ernstes Risiko für einen katastrophalen Unfall.“

„Wir fordern die NHTSA dringend auf, unverzüglich eine formelle Untersuchung dieses beunruhigenden Sicherheitsrisikos einzuleiten und alle notwendigen Maßnahmen zum Schutz der Öffentlichkeit zu ergreifen.“

Faktencheck: FSD

  • Name: Full Self-Driving (Supervised)
  • Hersteller: Tesla
  • Funktion: Teilautonomes Fahrsystem
  • Anforderung: Permanente menschliche Überwachung

Hintergrund der Beschwerden

Die Forderung der Senatoren folgt auf eine Untersuchung von NBC News. Diese hatte Anfang des Monats über Beschwerden von Tesla-Fahrern berichtet. Diese Fahrer gaben an, dass die FSD-Software an Bahnübergängen manchmal herannahende Züge nicht erkannt habe. Solche Vorfälle können schwerwiegende Folgen haben.

Die NHTSA hat auf die aktuelle Anfrage der Senatoren zunächst nicht reagiert. Die Behörde hatte jedoch bereits früher im Monat erklärt, dass sie über die Vorfälle informiert sei. Sie habe das Problem auch direkt bei Tesla angesprochen. Dies zeigt, dass die Behörde die Situation bereits im Blick hatte.

Kontext: Rolle der NHTSA

Die National Highway Traffic Safety Administration (NHTSA) ist eine Behörde des US-Verkehrsministeriums. Ihre Hauptaufgabe ist die Reduzierung von Todesfällen, Verletzungen und wirtschaftlichen Verlusten durch Verkehrsunfälle. Sie entwickelt und setzt Fahrzeugsicherheitsstandards durch und untersucht Sicherheitsmängel bei Kraftfahrzeugen.

Berichte von Fahrern und Online-Videos

NBC News führte Interviews mit sechs Tesla-Fahrern, die die FSD-Software nutzen. Alle sechs berichteten von Problemen mit der Technologie an Bahnübergängen. Vier dieser Fahrer legten Videos vor, die diese Fehlfunktionen dokumentierten. Dies unterstreicht die Ernsthaftigkeit der Situation.

Darüber hinaus fand NBC News sieben weitere Tesla-Fahrvideos online. Diese zeigten ähnliche Vorfälle an Bahnübergängen. Zusätzlich wurden 40 schriftliche Beschwerden in Tesla-Internetforen und sozialen Medien entdeckt. Diese Häufung von Berichten deutet auf ein wiederkehrendes Problem hin.

Einige Tesla-Fahrer, die ansonsten zufrieden mit ihren Fahrzeugen sind, äußerten Frustration. Sie berichteten, dass ähnliche Fehler bereits seit 2023 online gemeldet wurden, die Probleme aber weiterhin bestehen. Dies wirft Fragen zur Behebung bekannter Softwarefehler auf.

Beispiel eines Vorfalls

Die Senatoren zitierten ein konkretes Beispiel aus dem Jahr 2024. Ein Video zeigte einen Tesla im FSD-Modus in Ohio. Das Fahrzeug erkannte einen sich bewegenden Zug nicht und stoppte nicht von selbst. Es fuhr stattdo gegen eine Schranke und kam von der Straße ab. Solche Vorfälle verdeutlichen das potenzielle Risiko.

Tesla hat auf eine Anfrage zur Stellungnahme nicht sofort reagiert. Im Handbuch des Unternehmens steht, dass FSD jederzeit eine aktive menschliche Überwachung erfordert. Dies betont die Verantwortung des Fahrers, auch wenn die Software aktiv ist.

Technische Erklärungen und zukünftige Software

Experten für autonome Technologie erklären, dass Teslas FSD-Software ein Black-Box-KI-Modell ist. Bei solchen Modellen können Fehler selbst von den Entwicklern nicht immer leicht erklärt werden. Die Komplexität der KI macht die Fehleranalyse schwierig.

Die Experten vermuten, dass Tesla-Ingenieure möglicherweise nicht genügend Beispiele für Bahnübergänge in den Videos verwendet haben. Diese Videos dienen dem Training der FSD-Software. Eine unzureichende Datenbasis könnte zu den beobachteten Erkennungsproblemen führen.

Tesla-CEO Elon Musk kündigte letzte Woche auf X an, eine neue Version der FSD-Software veröffentlichen zu wollen. Es ist derzeit unklar, welche Änderungen diese neue Version beinhalten wird. Auch ist nicht bekannt, ob sie die Beschwerden der Fahrer bezüglich der Bahnübergänge adressieren wird.

Kritik an Teslas Technologie und Branding

Die Senatoren kritisierten die Vorfälle scharf. Sie schrieben: „Diese erschreckenden Vorfälle zeigen sowohl die Grenzen der Tesla-Technologie als auch die Verwirrung um das Branding von FSD.“ Der Name „Full Self-Driving“ könnte bei Nutzern falsche Erwartungen wecken.

Sie fügten hinzu, dass sie die bisherige Reaktion der NHTSA, nämlich Gespräche mit dem Hersteller, für nicht ausreichend halten. Eine formelle Untersuchung sei notwendig, um die Sicherheit der Öffentlichkeit zu gewährleisten. Dies zeigt den Druck auf die Regulierungsbehörde, entschiedener zu handeln.