Autonomes Fahren Softwarefehler führte wohl zu tödlichem Uber-Unfall

Im März erfasste ein selbstfahrendes Uber-Auto eine Frau, die Passantin starb. Nun steht offenbar die Unfallursache fest: ein Softwarefehler.
4 Kommentare

Dieses Video zeigt den Uber-Unfall

Dieses Video zeigt den Uber-Unfall

DüsseldorfDie Ursache für den tödlichen Unfall mit einem selbstfahrenden Auto von Uber, bei dem im März eine Frau getötet wurde, ist offenbar ein Softwarefehler gewesen. Das berichtet das Tech-Nachrichtenportal „The Information“, das sich auf Insider beruft.

Bei dem Unfall in der Stadt Tempe im US-Bundesstaat Arizona war eine 49-jährige Fußgängerin ums Leben gekommen. Das Fahrzeug, das autonom mit einem Sicherheitsfahrer am Steuer unterwegs war, hatte die Frau erfasst, als sie auf die Fahrbahn getreten war. Die Frau hatte eine Straße neben dem eigentlichen Fußgängerüberweg überquert.

Laut „The Information“ gab es ein Problem mit der Software, die bestimmt, wie der Wagen Objekte wahrnimmt und auf sie reagiert. Die Sensoren des Autos erkannten die Frau zwar, doch die Uber-Software entschied sich dazu, das Signal zu ignorieren. Dazu ist das Programm berechtigt, wenn es Objekte als sogenannte „False Positives“ erkennt, hieß es.

In diese Kategorie sollen aber eigentlich nur Gegenstände fallen, die kein Hindernis für das Fahrzeug darstellen – zum Beispiel Plastiktüten, die über die Fahrbahn geweht werden. Offenbar hatte die Software die Frau falsch eingestuft, nicht als Hindernis wahrgenommen und entschieden, nicht zu bremsen.

Der Vorfall hat das Vertrauen in die neue Technologie erschüttert. Als Reaktion auf den Unfall stoppten gleich mehrere US-Bundesstaaten alle Testfahrten von Uber. Mit den Hinterbliebenen des Opfers erzielte Uber einen Vergleich. Auch der Chiphersteller Nvidia, dessen Produkte zentral für selbstfahrende Autos sind, setzte seine Probefahrten aus, ebenso wie Toyota und das Start-up NuTonomy.

Es blieb nicht der einzige Unfall mit selbstfahrenden Wagen: Nur wenige Tage nach dem Uber-Vorfall war ein Tesla Model X im Autopilot-Modus auf einer Autobahn in Kalifornien gegen die Beton-Abgrenzung gefahren, die die Fahrbahn-Hälften voneinander trennt. Danach fuhren zwei Fahrzeuge in das Auto.

Der 38-jährige Tesla-Fahrer starb bei dem Crash. Offenbar hatte er Warnsignale ignoriert und die Hände nicht am Steuer gehabt, obwohl ihn das Computer-System sowohl visuell als auch mit Tonsignalen mehrfach dazu aufgefordert habe.

Erst vor wenigen Tagen ist ein Roboterwagen der Google-Schwesterfirma Waymo in einen Unfall verwickelt worden, bei dem es zu leichten Verletzungen kam und der durch menschliche Fehler verursacht wurde. Waymo-Chef John Krafzik hatte nach dem Uber-Unfall gesagt, er sei sicher, dass die Technik der Fahrzeuge seiner Firma einen solchen Unfall verhindert hätte.

Uber-Rivale Lyft hingegen ist jüngst einen Schritt weiter gegangen und schickt 30 autonom fahrende Autos als Robotertaxis auf die Straßen von Las Vegas. Die Wagen mit Technologie des Autozulieferers Aptiv können über die App des Fahrzeugvermittlers gebucht werden und sollen in ganz Las Vegas einsetzbar sein. Die von Aptiv zu Roboterwagen umgebauten BMW-Fahrzeuge sind mit Sicherheitsfahrern an Bord unterwegs, die in kritischen Situationen eingreifen sollen.

Die wichtigsten Neuigkeiten jeden Morgen in Ihrem Posteingang.
  • pal
  • dpa
  • rtr
Startseite

Mehr zu: Autonomes Fahren - Softwarefehler führte wohl zu tödlichem Uber-Unfall

4 Kommentare zu "Autonomes Fahren: Softwarefehler führte wohl zu tödlichem Uber-Unfall"

Das Kommentieren dieses Artikels wurde deaktiviert.

  • Da in Programmen immer unentdeckte Fehler übrigbleiben ( auch nach Update Nr. XXX; XXX ist eine beliebig große Zahl) ist es verwunderlich, warum Automobile autonom Fahren sollen, zumal jeder Hersteller wahrscheinlich seine eigene Softwate programmieren wollen wird. In der Informatik rechnet man mit einem unentdeckten Fehler pro tausend Programmzeilen - bei Programmen mit hunderttausenden Programmzeilen

    Es bleiben also immer Softwarefehler übrig, die potentiell zu tödlichen Unfällen fühtren werden. Dann kann man auch weiterhin Menschen die Kontrolle von Automobilen erlauben.

    Zum Glück war es "nur" ein PKW und kein Chemikalien-Tanklaster, bei dem der Programmfehler auftrat.

    Die Idee vom autonomen Fahren ist erledigt.

  • Ohne die Software zu kennen, kann man natürlich nur spekulieren, aber ich gehe davon aus, dass die Personen- und Gesichtserkennung in Smartphones, von der Sie reden, nur bei Tageslicht funktioniert (da durch Bildverarbeitung von Aufnahmen mit optischen Kameras o.ä).

    Die Unterscheidung bei Nacht, um die es hier geht, ist also wohl eher auf der Basis von Daten von Radar- oder Lasersensoren gemacht worden. Das macht es zwar nicht weniger fatal, hat aber überhaupt nichts mit Ihrem Kommentar zu tun.

  • aber so etwas von krass

    Gesichtserkennung geht überall und selbst billige Handy-Cams erkennen Menschen und Gesichter und dieser Schrott-Karren kann nicht einmal einen Menschen von einer Plastiktüte unterscheiden??

    WOW Made in USA.

  • Ach so, nur ein Softwarefehler. Na dann ist ja alles in Butter. Ich dachte schon, es wäre etwas schlimmeres.

Serviceangebote
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%