Autonomes Fahren Das Gehirn von Tesla – so arbeitet der Elektropionier an der Künstlichen Intelligenz

Einmal die Woche informiert sich der Tesla-Chef über den Stand der Dinge beim automatisierten Fahrsystemen.
San Francisco, Düsseldorf Wer kein Experte war, der brauchte schon einen Übersetzer, als Tesla-Chef Elon Musk vor wenigen Tagen zum Jubelsturm über die neue Version seines autonomen Fahrprogramms ansetzte. Der „FSD Beta 9.2“ verfüge über eine „int8 Quantization“ und ein neues „VRU model“ mit „12 percent improvement“, jubelte Musk.
Was der Tesla-Chef meint: „int8 Quantifizierung“ ist eine Methode, mit der neuronale Netzwerke lernen. Der neue Autopilot von Tesla kann also noch schneller noch größere Datenmengen verarbeiten. „VRU“ steht für „vulnerable road user“, also weniger geschützte Verkehrsteilnehmer wie Fußgänger oder Radfahrer – die laut Musk künftig vom Tesla-Autopiloten um zwölf Prozent besser erkannt werden sollen.
Dass Elon Musk ins Fachchinesisch wechselt, hat einen guten Grund: Der Vorstandschef von Tesla will mit seinen Tweets eigentlich die Experten und Talente beeindrucken. Diesem Ziel dient normalerweise auch der KI-Tag, den Tesla am Donnerstag am späten Abend deutscher Zeit abhält. Mit der Veranstaltung will Musk „die besten KI-Talente davon überzeugen, für Tesla zu arbeiten“.
Seit einigen Tagen hat die Veranstaltung aber noch einen weiteren Zweck: Sie soll Investoren und Kunden beruhigen. Denn die US-Behörden untersuchen aktuell mehrere Unfälle mit dem Autopiloten. Elfmal raste ein Tesla-Fahrzeug seit 2018 laut der US-Verkehrssicherheitsbehörde in Polizeifahrzeuge oder Krankenwagen, die an einer Unfallstelle standen. Warnhinweise, Blinklichter, das alles half nicht: Das autonome Fahrsystem schätzte die Situation falsch ein. Nach der Bekanntgabe der Untersuchungen hatte Tesla zuletzt rund 50 Milliarden Dollar an Börsenwert eingebüßt.
Verzicht auf Lidar und Radar
KI spielt eine entscheidende Rolle bei Tesla. Anders als andere Autohersteller verzichtet der Elektropionier beim automatisierten Fahren auf Lidar und Radar. Tesla Vision setzt ganz auf die Daten der acht Kameras, über die jedes Modell verfügt. „Sichtdaten sind viel präziser, daher ist es viel sinnvoller, noch viel mehr auf Sichtdaten zu setzen als auf das Zusammenführen von verschiedenen Sensoren“, sagte Musk.
Statt den dreidimensionalen Raum um das Auto mit Radar und Laser zu erfassen, schätzen ihn Algorithmen auf Basis der zweidimensionalen Kamerabilder - Pseudo-Lidar nennen Experten diese Technik.
Dafür braucht es aber ein extrem gutes neuronales Netz – eine selbstlernende KI, die visuelle Daten auswertet, um auf alle möglichen Verkehrssituationen trainiert zu sein. Daran arbeitet das Autopilot-Team von Tesla. 300 Hard- und Software-Ingenieure sowie 500 Daten-Labeler werten Bilder aus und kennzeichnen sie. Die Zahl dieser Datenanalysten solle auf 1000 wachsen, sagte Musk vor einem Jahr dem Tesla-Fan-Portal „Clean Technica“. „Niemand ist wirklich ihr Chef“, sagte Musk, der sich einmal die Woche mit den Leitern des Autopilot-Teams trifft.
Richtige Markierungen setzen
„Die wenigsten unserer Entwickler schreiben noch Algorithmen, die meisten sammeln und kuratieren Datensätze“, sagte Teslas KI-Chef Andrej Karpathy kürzlich in einem Podcast. In diesen Datensätzen wurden Millionen Bilder von Verkehrssituationen gesammelt, vor allem solche, in denen der Autopilot überfordert war oder falsche Entscheidungen getroffen hat – etwa weil er Schwierigkeiten hatte, ein Stoppschild zu erkennen oder zu wenig Abstand zu einer fremden Autotür gehalten hat. Wann immer ein Tesla-Fahrer ins Steuer eingreift und den Autopiloten korrigiert, beschert das Karpathys Team neue Trainingsdaten.

Der KI-Chef von Tesla setzt auf Neuronale Netze.
Die Entwickler versehen die Bilder dann mit den richtigen Labels – Stoppschild, Autotür, durchgezogene Linie – sodass der Autopilot die Situation beim nächsten Mal besser meistert. „Viele vergeben das Labeling an externe Firmen. Wir haben eine ganze interne Organisation mit bestens ausgebildeten Leuten“, sagt Karpathy.
Inzwischen setze das neuronale Netz die Bilder aus allen acht Kameras selbstständig zusammen und erzeuge eine Vogelperspektive auf das Auto und seine Umgebung. „Solange wir diese Datensätze immer weiter verbessern und genug Rechenleistung haben, gibt es keine Grenze, wie viel besser diese neuronalen Netze werden können“, sagt Karpathy.
Neuigkeiten zum Supercomputer
Für die Rechenleistung soll Teslas Supercomputer „Dojo“ sorgen, den Karpathy im Juni vorstellte. Auch an Teslas KI-Tag wird der mit 5760 Grafikprozessoren des Chipherstellers Nvidia fünftgrößte Supercomputer der Welt wohl eine Hauptrolle spielen.
Dennis Hong, Robotik-Professor an der University of California in Los Angeles (UCLA), twitterte vor wenigen Tagen das Bild eines dreidimensional integrierten Chips mit dem Datum des KI-Tags. Auf die Frage, ob sein Robotikinstitut an der UCLA nun mit Tesla zusammenarbeite, schrieb Hong vielsagend: „Ich kann noch nichts dazu sagen“, gefolgt von einem schweigenden und fröhlichen Emoji.
Vermutlich hat der Experte für autonomes Fahren einen Serverchip entwickelt, der die Nvidia-Prozessoren in Dojo ergänzen oder ersetzen soll. Ähnlich hatte es Tesla schon mit seinem FSD-Chip gemacht, der den Autopiloten steuert. Tesla hatte für dessen Entwicklung 2016 Jim Keller angeworben, der unter anderem für Apple den ersten iPad-Chip entwickelt hatte. 2019 ersetzte Tesla Halbleiter von Nvidia in seinen Autos mit eigenen.
Dass es um Chips für FSD und Dojo gehen wird, hatte auch Musk schon angedeutet. „Wir werden über Fortschritte von Teslas KI-Software und -Hardware sprechen, sowohl Training als auch Inferenz“, schrieb er in einem Tweet im Juli, in dem er den KI-Tag ankündigte. Die neuronalen Netze zu trainieren ist Aufgabe der Chips im Supercomputer. Der FSD-Chip im Auto ist dagegen ein sogenannter Inferenz-Chip, der das Gelernte in die Tat umsetzt.
Phantombremsungen vermeiden
Unter Experten ist aber umstritten, ob Kameradaten und KI für die Entwicklung eines selbstfahrenden Autos reichen. Der Ansatz werde „an eine gläserne Decke stoßen“, sagte Mobileye-Chef Amnon Shashua im Januar. Die Intel-Tochter, die unter anderem Fahrerassistenzsysteme für BMW und VW entwickelt, arbeitete bis 2016 mit Tesla beim Autopiloten zusammen. Dann gingen die Partner im Streit auseinander, weil Musk dem System mehr zutraute als Mobileyes Entwickler.
Die Probleme des Mobileye-Ansatzes beschrieb Teslas KI-Chef Karpathy vor wenigen Wochen auf einer Fachkonferenz. Mit Radar käme es zu sogenannten „Phantombremsungen“. Das Phänomen wurde von Tesla-Fahrern berichtet: Abrupt verlangsame sich das Fahrzeug mit aktiviertem Autopiloten aus nicht nachvollziehbaren Gründen.
Laut Karpathy würden die Radarsensoren ständig im Weg stehende Objekte melden, die mit Kameradaten abgeglichen werden. Würde sich das Fahrzeug beispielsweise in einer Unterführung befinden, könnten die visuellen Daten die Radarmeldung bestätigen – es kommt zu einer unnötigen Bremsung. Mit dem rein visuellen Ansatz erledige sich das Problem – vorausgesetzt, die KI erkennt die Situation.
Mehr: 5760 Grafikprozessoren: Tesla-Supercomputer soll autonomes Fahren ermöglichen.
Das Kommentieren dieses Artikels wurde deaktiviert.