Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Digitale Revolution

Digitale Revolution Das sind die fünf Hürden auf dem Weg zum autonomen Fahren

Autos sollen in Zukunft dank Radar, Lidar, Kameras und KI ohne menschliche Fahrer auskommen. Doch die technischen Hürden sind enorm.
Kommentieren
Ein vollkommen autonom fahrendes Auto muss mit zahlreichen Sensoren und Kameras ausgestattet sein.
Roboterauto

Ein vollkommen autonom fahrendes Auto muss mit zahlreichen Sensoren und Kameras ausgestattet sein.

Düsseldorf, Hannover, Berlin, Aachen In einer Garage auf dem Gelände der Freien Universität Berlin steht ein alter silberfarbener VW Passat, der wohl einzigartig in Deutschland ist. Von Weitem fällt der Kombi, Baujahr 2006, nur durch eine ungewöhnliche Konstruktion auf dem Dach auf. Nähert man sich dem Fahrzeug, wird aber ein ganzes Sammelsurium an Radaren, Kameras, Lidar-Lasern, GPS-Empfängern und Ultraschallsensoren sichtbar.

Im Kofferraum verarbeitet ein leistungsstarker Rechner alle Sensordaten. Ein Forscherteam unter Leitung der FU-Professoren Daniel Göhring und Raul Rojas hat die Sensoren und Prozessoren in den Wagen eingebaut.

Die Technik sorgt dafür, dass der alte VW mit dem Namen „MadeInGermany“ beschleunigt, bremst und lenkt, ohne dass ein Mensch eingreifen muss. Göhrings Passat ist ein hochautomatisiertes Roboterauto – die Vorstufe zum autonomen Fahren.


Das Verkehrsbild und die Art, wie wir uns fortbewegen, könnte sich mit Roboterautos grundlegend verändern.

Wir müssten unsere Zeit nicht mit der Steuerung eines Autos verschwenden. Die Fahrzeugauslastung könnte gesteigert, Staus könnten vermieden, die Zahl der Unfälle und der Abgasausstoß könnten gesenkt werden – oder anders gesagt: Roboterautos sind die Komplettlösung.

Unternehmen stecken Milliarden in die Entwicklung autonomer Fahrzeuge. Einer UBS-Studie zufolge könnte der Markt für das autonome Fahren bis 2030 auf ein Volumen von zwei Billionen US-Dollar anwachsen.

Ausgebrochen war die Roboterauto-Euphorie 2005, als ein Forscherteam der Stanford University unter Leitung des deutschen Professors Sebastian Thrun mit einem modifizierten VW Touareg die DARPA Grand Challenge gewann. Bei dem Wettbewerb mussten Fahrzeuge eine Strecke von knapp 213 Kilometern durch die Wüste Nevadas selbstständig bewältigen. Noch ein Jahr zuvor kapitulierten die besten Testfahrzeuge bereits nach weniger als zwölf Kilometern.

Grafik

Euphorisiert von dieser Entwicklung dachten viele, dass Autos schon in naher Zukunft ohne menschliche Fahrer auskommen würden. Doch Forscher in Unternehmen und Universitäten auf der ganzen Welt stießen auf neue technische Herausforderungen. Mittlerweile sind sich Experten weitgehend einig, dass vollautomatisierte Roboterautos erst in ferner Zukunft über die Straßen fahren werden – wenn überhaupt.

Beim autonomen Fahren wird zwischen fünf Levels unterschieden. Level 5 ist die höchste Autonomiestufe und bedeutet, dass die Maschine alle Fahrentscheidungen übernimmt. Der Mensch ist nur noch Passagier.

Level-1- und Level-2-Fahrzeuge sind bereits serienreif. Erst einige Jahre nach dem Wettbewerb in der Wüste Nevadas kamen Fahrzeuge mit Level 3 auf den Markt. Audi bewirbt seine Luxuslimousine A8 als erstes Serienfahrzeug, dass dieses Level erreicht hat.

Tesla macht keine Level-Angaben, Experten sprechen aber auch hier von Level-3-Fahrzeugen. Die Google-Tochter Waymo, das Fahrdienstunternehmen Uber , die Zulieferer Bosch sowie Continental und Mobilitäts-Start-ups in San Francisco und China experimentieren mit Fahrzeugen, die laut eigenen Angaben an Level 4 kratzen.

Doch was müssen Roboterautos leisten, welche Komponenten benötigten sie und welche Rolle spielt dabei die Künstliche Intelligenz?

Level 1: Das assistierte Fahren

Auf der ersten Autonomiestufe wird der Fahrer von Assistenzsystemen unterstützt, beispielsweise von einem Abstandsregelautomaten (ACC). Im Gegensatz zum herkömmlichen Tempomat kann ein ACC einen bestimmten Abstand zum vorausfahrenden Auto halten. Das Fahrzeug beschleunigt und bremst selbstständig. Auch die Hinderniserkennung im toten Winkel ist eine Level-1-Funktion.

Nah- und Fernbereichsradare ermöglichen die erste Stufe der Autonomie. Mit ihnen lassen sich Geschwindigkeit und Entfernung mehrerer Objekte bestimmen. Radare haben den Vorteil, dass sie zu allen Licht- und Witterungsverhältnissen brauchbare Daten liefern.

Allerdings sinkt die Auflösung der Daten ab Entfernungen von über 300 Metern – zu wenig für das autonome Fahren. Bei einem Überholvorgang auf der Landstraße muss der Fahrer meist über 500 Meter weit vorausschauen können. Ein weiterer Nachteil des Radars ist die schwache visuelle Objekterkennung, etwa bei Schildern, Ampeln oder der Straßenführung. Ein ACC kann weder auf Geschwindigkeitsbegrenzungen reagieren, noch den Fahrer warnen, wenn er die Fahrspur verlässt.

Level 2: Das teilautomatisierte Fahren

Erst ab Level 2 können Fahrerassistenzsysteme Objekte erkennen. Dafür benötigen sie neben Radaren eine Monokamera mit einer einfachen Objekterkennungssoftware, die auf regelbasierten Algorithmen basiert. Eine KI ist für Level 2 nicht nötig.
Spurhalteassistenten nutzen die zweidimensionalen Bilddaten der Monokamera. Die Kombination aus Radar und Kamera ermöglicht teilautomatisiertes Fahren in Stausituationen. Das Fahrzeug kann zudem Gefahrenbremsungen durchführen.

Mithilfe von Ultraschallsensoren können sich Level-2-Fahrzeuge selbstständig in Parklücken manövrieren. Die Ultraschallsensoren scannen den Nahbereich ab, die Monokamera hilft bei der Objekterkennung und somit bei der Planung des Parkvorgangs. Alle Level-2-Funktionen sind – bis auf den Parkassistenten – auf die Längsführung beschränkt. Lenkentscheidungen können diese Autos nicht treffen.

Bleibt autonomes Fahren eine Utopie?

Level 3: Das bedienungsautomatisierte Fahren

Während auf Level 1 und Level 2 der Fahrer unterstützt wird, erreichen Level-3-Fahrzeuge die Schwelle zum automatisierten Fahren. „Level 3 bedeutet, dass man auf einer Autobahn längere Zeit die Hände vom Lenkrad nehmen kann und der Fahrer nur in Problemfällen eingreifen muss“, sagt FU-Professor Göhring. Die Fahrzeuge sind nun auch in der Lage, Spurwechsel vorzunehmen.

Drei zusätzliche Komponenten sind dafür nötig: Stereokameras, Lidar und KI. Stereokameras haben zwei Linsen und liefern im Gegensatz zur Monokamera dreidimensionale Bilddaten. Dadurch lassen sich auch über Bilddaten Abstände zu Objekten ermitteln.

Lidar ist die Abkürzung für „Light Detection and Ranging“ und eine Art „Laserradar“. Dabei werden statt Funkwellen Laserstrahlen ausgesendet, deren Reflexion ein dreidimensionales Lichtbild ergibt. Lidar liefert gegenüber Radaren höher aufgelöste Daten. Es kann Verkehrszeichen, Fahrbahnmarkierungen und Bewegungen – beispielsweise von Passanten – erkennen. Im Vergleich zur Kamera liefert ein Lidar auch nachts brauchbare Daten. Lidar ist das Bindeglied zwischen Radar und Kamera und gewinnt im Bereich des autonomen Fahrens an Bedeutung, seit die Preise dafür sinken.

Ohne Lidar-Daten müsste sich das Roboterauto einen Großteil der Umgebung mit dem Kamerasystem erschließen. Die Software der Kamera müsste deutlich mehr leisten als derzeit möglich, und die zu verarbeitende Datenmenge wäre größer, da Kamerabilder mehr Speicherplatz beanspruchen als Lidar-Bilder.

Besonders stark steigen bei Level-3-Fahrzeugen die Anforderungen an die sogenannte ADCU, die Kontrolleinheit. Sie besteht aus der Rechnereinheit und der Software, die die Sensorikdaten verarbeitet und Schlüsse daraus zieht. Die ADCU muss zwischen statischen und dynamischen Objekten unterscheiden. Bei den dynamischen Objekten muss die ADCU Vorhersagen treffen, in welche Richtung sich die Objekte wahrscheinlich bewegen könnten.

„Die Fahrerassistenzfunktionen, also Level 1 und Level 2, kann man noch ganz gut mit klassischen Verfahren abbilden“, sagt Kay Talmi, Geschäftsführer von Hella Aglaia, einer Softwaretochter des Zulieferers Hella. „Ab Level 3 und Level 3+ gehe ich davon aus, dass eine KI Sinn machen würde, weil komplexe Zusammenhänge entstehen, die nur schwer in regelbasierten Algorithmen beschreibbar sind.“

Ein Beispiel: Auf der rechten Spur einer Autobahn fährt ein Auto mit eingeschaltetem linken Blinker, auf der linken befindet sich ein anderes Auto im Überholvorgang. Obwohl der Rechtsfahrende signalisiert, die Spur wechseln zu wollen, tut er es nicht. Der linksfahrende menschliche Fahrer kann intuitiv daraus schließen, dass er vergessen hat, den Blinker auszustellen und würde anschließend vorsichtig den Überholvorgang fortsetzen. Mit einem regelbasierten Algorithmus lässt sich so eine Entscheidung kaum abbilden. Eine KI hingegen ist in der Lage, die menschliche Intuition nachzuahmen.

Bei Level 3 würde das Roboterauto den Überholvorgang allerdings erst nach Freigabe durch den menschlichen Fahrer fortsetzen. Bei besonders komplexen Verkehrssituationen auf der Autobahn, beispielsweise an einer Baustelle mit verengten Fahrspuren, würde ein Level-3-Fahrzeug zudem die Kontrolle an den Menschen abgeben. Eine Innenraumkamera überwacht dabei die Bereitschaft des menschlichen Fahrers und gibt, sobald eine für das Roboterauto überfordernde Verkehrssituation eintritt, einen Hinweis an den Fahrer, die Kontrolle über das Fahrzeug zu übernehmen.

Level 4: Das hochautomatisierte Fahren

Erst ab Level 4 können Roboterautos auch solche Verkehrsszenarien bewältigen. Die Experimentalfahrzeuge von Daniel Göhring, Waymo, Bosch, Continental und vielen Autoherstellern reichen an diese Autonomiestufe heran. Serienfahrzeuge des Levels 4 gibt es allerdings noch nicht. Auch ist nicht klar, wie Level-4-Fahrzeuge validiert werden sollen und wie das Zulassungsprozedere, die sogenannte Homologation, aussehen wird.

Die Realisierung der vierten Autonomiestufe scheitert bislang aber nicht nur daran. Auch sind die Kosten zu hoch. Auf der Mobilitätskonferenz Metropolian Cities 2019 in Aachen sprach e.Go-Mobile-Gründer Günther Schuh von Kosten zwischen 120.000 bis 140.000 Euro pro Fahrzeug – nur für die Komponenten. Es werden zwar keine neuen Sensoren benötigt, dafür aber deutlich mehr. Je nach Hersteller werden die Autos mit bis zu zehn Radaren und Kameras, neun Lidar-Lasern und zwölf Ultraschallsensoren ausgestattet. Außerdem müssen die Fahrzeuge mindestens über eine 4G-Datenverbindung verfügen, um für die Verortung auf hochaufgelöstes Kartenmaterial zurückgreifen zu können.

Während es bei den Komponenten vor allem eine Kostenfrage ist, gibt es hinsichtlich der Software und Prozessoren größere Defizite. Im Vergleich zu Level 3 müssen deutlich komplexere Berechnungen durchgeführt werden. Zeitgleich muss der Prozessor mit wenig Strom auskommen.

„Deep-Learning-basierte Objekterkennung erfordert sehr viel Rechenleistung und damit auch viel elektrische Leistung, wir sprechen hier von mehreren 100 bis 1 000 Watt“, sagt FU-Professor Göhring. Demetrio Aiello, Chef der KI-Abteilung von Continental, versucht daher mit seinem Team die Algorithmen so klein wie möglich zu halten, ohne die Qualität der Datenverarbeitung zu verschlechtern. „Wir arbeiten außerdem an neuen Hardware-Architekturen, die besser geeignet sind, um mit KI-gestützten Algorithmen zu arbeiten.“

Wie Continental greifen Zulieferer, Autohersteller und Start-ups dabei auf spezielle Prozessoren von Nvidia zurück. Dessen Grafikkarten haben sich in den Anfängen des autonomen Fahrens als besonders leistungsfähig erwiesen. Nvidia hat daraufhin neuartige Prozessoren angefertigt und die auf das autonome Fahren spezialisierte Drive-PX-Plattform gegründet. „Nvidia geht mit den Grafikprozessoren in eine richtige Richtung“, sagt Aiello. „Allerdings ist es noch ein langer Weg bis zum idealen KI-Rechner, der die speziellen Algorithmen wirklich effizient verarbeiten kann.“

Level 5: Das vollautomatisierte Fahren

Es ist daher fraglich, ob die fünfte Stufe jemals erreicht wird. „Level 5 wird es nicht so schnell geben, wie es oftmals von vielen Start-ups und größeren Unternehmen kommuniziert wird“, glaubt Göhring. Nicht nur fehlt eine KI, die den menschlichen Fahrer ersetzen und dabei stromsparend arbeiten könnte, auch müssten Komponenten verbaut werden, die derzeit nicht existieren.

Sowohl Radar als auch Lidar müssten größere Reichweiten erreichen, die Lidar-Daten höher aufgelöst sein und Kameras bei allen Licht- und Witterungsverhältnissen brauchbare Daten liefern, ohne dass die dabei anfallende Datenmenge steigt. Die Fahrzeuge müssten untereinander kommunizieren, was als V2V bezeichnet wird. Nur so könnten Roboterautos Entscheidungen anderer Roboterautos, aber auch von Fahrzeugen, die von Menschen gesteuert werden, antizipieren.

Derzeit wird darüber diskutiert, ob das per WLAN oder 5G passieren soll. Darüber hinaus müssten Level-5-Fahrzeuge mit Ampeln, Schildern, Parkplätzen oder Gebäuden kommunizieren, im Fachjargon auch V2X genannt. Ampeln können zwar auch mit Kameras erfasst werden, allerdings besteht das Risiko, dass sie bei starker Sonneneinstrahlung rote Ampeln nicht erkennen. Mit kommunizierenden Ampeln gäbe es diese Fehlerquelle nicht.

Kay Talmi von Hella Aglaia sieht noch eine weitere Hürde für Level 5: „Ich kann mir das in Städten wie Berlin nicht vorstellen. Man muss zum Teil Verkehrsregeln brechen, wenn man sich mit dem Auto durch die Städte fortbewegen möchte. Das würde ein autonomes System nicht tun, allein aus Haftungsgründen.“

Selbst wenn Sensorik und Kommunikation auf Level 5 angehoben werden, sind die Herausforderungen an die ADCU gigantisch. Reichen für Level 3 ein paar Millionen Rechenoperationen pro Sekunde, geht es bei Level 5 in den Bereich der Tera-Operationen. Die Prozessoren müssten mehrere Billionen Rechenoperationen pro Sekunde verarbeiten – in einem Auto mit begrenzter Stromzufuhr.

Doch wie für viele technologischen Fortschritte gilt auch für das autonome Fahren das „Amara-Gesetz“, dass auf den 2007 verstorbenen Präsidenten des Institute for the Future aus Palo Alto zurückgeht. Demnach würden die Auswirkungen von Technologie kurzfristig oft überschätzt, langfristig jedoch unterschätzt.

„Das autonome Fahren wird so schnell nicht kommen“, sagt deswegen Göhring. „Aber wenn es dann kommt, wird es einen viel größeren Impact haben, als wir es uns derzeit vorstellen können.“

Mehr: In Handarbeit bereiten Arbeiter weltweit Daten auf, mit denen etwa Systeme für autonome Fahrzeuge trainiert werden. Viele der Clickworker arbeiten unter harten Bedingungen.

Interaktive Grafik
Seite 12Alles auf einer Seite anzeigen

Mehr zu: Digitale Revolution - Das sind die fünf Hürden auf dem Weg zum autonomen Fahren

0 Kommentare zu "Digitale Revolution: Das sind die fünf Hürden auf dem Weg zum autonomen Fahren"

Das Kommentieren dieses Artikels wurde deaktiviert.

Serviceangebote