Tesla plant eine massive Ausweitung seiner Kapazitäten für künstliche Intelligenz und wird seinen neuen KI-Chip, den AI5, von zwei der weltweit größten Halbleiterhersteller fertigen lassen. CEO Elon Musk bestätigte, dass sowohl Samsung in Texas als auch TSMC in Arizona die Produktion übernehmen werden. Diese Strategie zielt darauf ab, einen Überschuss an Chips zu erzeugen, die nicht nur in Fahrzeugen und Robotern, sondern auch in den eigenen Rechenzentren des Unternehmens zum Einsatz kommen sollen.
Die Entscheidung unterstreicht Teslas Ambitionen, seine Unabhängigkeit im Bereich der KI-Hardware weiter auszubauen und die Entwicklung des autonomen Fahrens voranzutreiben. Obwohl das Unternehmen weiterhin auf die leistungsstarken Grafikprozessoren von Nvidia für das Training seiner KI-Modelle setzt, stellt der eigene AI5-Chip einen entscheidenden Schritt in der Hardware-Strategie dar.
Wichtige Erkenntnisse
- Teslas neuer KI-Chip, der AI5, wird von Samsung und TSMC in den USA hergestellt.
- Das Unternehmen strebt eine Überproduktion an, um Chips in Fahrzeugen, Robotern und Rechenzentren zu nutzen.
- Tesla wird weiterhin Nvidia-GPUs für das KI-Training einsetzen, aber eigene Chips für die Inferenz in Produkten verwenden.
- Der AI5-Chip ist speziell für Teslas Bedürfnisse optimiert und soll eine deutlich höhere Kosteneffizienz bieten.
Teslas duale Fertigungsstrategie
Die Ankündigung, die Produktion des AI5-Chips auf zwei führende Foundries zu verteilen, ist ein strategischer Schachzug. CEO Elon Musk erklärte während der Telefonkonferenz zu den Ergebnissen des dritten Quartals, dass das explizite Ziel ein "Überangebot an AI5-Chips" sei. Dies sichert nicht nur die Lieferkette ab, sondern ermöglicht auch eine flexible Nutzung der Komponenten über verschiedene Geschäftsbereiche hinweg.
Jeder Chip, der nicht für die Autopilot-Hardware in Fahrzeugen oder für zukünftige Roboterprojekte benötigt wird, kann direkt in Teslas wachsende Rechenzentrumsinfrastruktur integriert werden. Diese Infrastruktur ist entscheidend für das Training der neuronalen Netze, die das Herzstück der autonomen Fahrtechnologie bilden.
Hintergrund: Von Nvidia zu eigener Hardware
Tesla hat eine bemerkenswerte Entwicklung in seiner Chip-Strategie durchlaufen. Bis 2019 verließ sich das Unternehmen auf die Drive-Chips von Nvidia, einem führenden Anbieter im Bereich der KI-Hardware. Mit der Einführung eigener Prozessoren vollzog Tesla jedoch einen entscheidenden Schritt zur vertikalen Integration, um die Hardware perfekt auf die Anforderungen seiner Software abzustimmen.
Standorte in den USA im Fokus
Die Wahl der Produktionsstandorte ist ebenfalls von Bedeutung. Sowohl die Anlage von Samsung in Texas als auch die von TSMC in Arizona befinden sich in den Vereinigten Staaten. Dies reduziert die Abhängigkeit von globalen Lieferketten und passt zur zunehmenden Tendenz, die Halbleiterproduktion strategisch in den USA anzusiedeln. Bereits im Juli hatte Samsung einen Vertrag über 16,5 Milliarden US-Dollar mit einem ungenannten Kunden bekannt gegeben, bei dem es sich, wie Musk später bestätigte, um Tesla handelte.
Die Rolle von Nvidia bleibt bestehen
Trotz der Investitionen in eigene Hardware machte Musk deutlich, dass Nvidia weiterhin ein wichtiger Partner bleibt. Die Grafikprozessoren (GPUs) des Unternehmens sind der De-facto-Standard für das Training komplexer KI-Modelle und werden auch von Tesla weiterhin in großem Umfang genutzt.
"Wir sind nicht dabei, Nvidia zu ersetzen, um das klarzustellen, aber wir nutzen beides in Kombination", sagte Musk.
Diese hybride Strategie ermöglicht es Tesla, von den Stärken beider Ansätze zu profitieren: die unübertroffene Trainingsleistung der Nvidia-Hardware und die Effizienz der maßgeschneiderten Tesla-Chips für die Ausführung der KI-Algorithmen direkt im Fahrzeug (Inferenz).
Enorme Rechenleistung
Tesla gab bekannt, über eine Rechenkapazität zu verfügen, die dem Äquivalent von 81.000 Nvidia H100 Chips entspricht. Dies verdeutlicht das Ausmaß der Investitionen des Unternehmens in die für das autonome Fahren erforderliche KI-Infrastruktur.
Vorteile des maßgeschneiderten Designs
Der Hauptvorteil eines eigens entwickelten Chips wie dem AI5 liegt in seiner Spezialisierung. Im Gegensatz zu Nvidia, das die Anforderungen einer Vielzahl von Kunden bedienen muss, kann Tesla seinen Chip exakt auf einen einzigen Anwendungsfall zuschneiden.
"Tesla muss nur die Anforderungen eines einzigen Kunden erfüllen", erklärte Musk. "Das macht die Designaufgabe radikal einfacher und bedeutet, dass wir eine Menge Komplexität aus dem Chip entfernen können."
Radikale Vereinfachung für mehr Effizienz
Laut Musk hat das Designteam von Tesla veraltete Komponenten wie ältere GPUs und Signalprozessoren entfernt, die den Chip verlangsamen könnten. Diese "radikale Einfachheit" soll zu einer überlegenen Leistung pro Dollar führen. Musk prognostizierte, dass der AI5-Chip in dieser Hinsicht "vielleicht um den Faktor 10" besser sein könnte als alternative Lösungen.
Der Chip wird zudem auf einem "halben Retikel" gefertigt, was bedeutet, dass er etwa halb so groß ist wie die Designs von Konkurrenten wie Nvidia oder AMD. Eine kleinere Chipgröße kann zu geringeren Produktionskosten und einem niedrigeren Energieverbrauch führen – beides kritische Faktoren für den Einsatz in Elektrofahrzeugen.
Wettlauf um die KI-Vorherrschaft
Tesla ist nicht das einzige Unternehmen, das in eigene KI-Chips investiert. Große Technologiekonzerne wie Google, Amazon und Microsoft entwickeln ebenfalls eigene Halbleiter, um eine Alternative zu Nvidia zu schaffen und die Kosten für ihre riesigen Rechenzentren zu senken.
Experten sind der Meinung, dass maßgeschneiderte Chips für bestimmte Aufgaben kosteneffizienter und schneller sein können. Außer Tesla verfolgt derzeit nur Apple eine ähnliche Strategie, bei der selbst entworfene Chips sowohl in den Endprodukten als auch in den Rechenzentren für KI-Dienste zum Einsatz kommen.
Die Entwicklung des AI5-Chips, der erstmals 2024 auf der Tesla-Aktionärsversammlung angekündigt wurde, ist der jüngste Schritt in der Evolution der Autopilot-Hardware. Diese Hardware ist entscheidend für die Verarbeitung der riesigen Datenmengen, die von den Kameras und Sensoren eines Tesla-Fahrzeugs erfasst werden, um autonome Fahrfunktionen zu ermöglichen. Mit der doppelten Produktionsstrategie stellt Tesla sicher, dass die Versorgung mit dieser Schlüsselkomponente für die Zukunft gesichert ist.




