Zukunftstechnologie Wie gefährlich ist künstliche Intelligenz?

Der tödliche Unfall mit einem Roboterauto in den USA wirft ein Schlaglicht auf die Risiken künstlicher Intelligenz. Experten fordern eine Regulierung.
1 Kommentar
Der Mensch denkt, die Software auch. Quelle: picture alliance / Stephan Goerl
Audi-Produktion in Neckarsulm

Der Mensch denkt, die Software auch.

(Foto: picture alliance / Stephan Goerl)

BerlinFür Union und SPD ist es eines der großen Projekte dieser Legislaturperiode: Gemeinsam mit Frankreich soll ein Zentrum für künstliche Intelligenz (KI) errichtet werden. Parallel soll ein „Masterplan künstliche Intelligenz auf nationaler Ebene“ erarbeitet werden. So steht es im Koalitionsvertrag.

Für die neue Bundesforschungsministerin Anja Karliczek liegt auf der Hand, wohin die Reise gehen soll. „Wir haben jetzt die Chance, gemeinsame Schritte ins Auge zu fassen, damit wir bei der künstlichen Intelligenz weltweit mitgestalten können“, sagte die CDU-Politikerin am Donnerstag in Paris. Dort stellte Frankreichs Staatspräsident Emmanuel Macron die Strategie seines Landes zur künstlichen Intelligenz vor.

Karliczek betonte vor allem die Vorteile der Zukunftstechnologie, doch davon muss sie auch die Skeptiker überzeugen. Denn Künstliche Intelligenz birgt auch etliche Risiken. Deshalb halten Experten wie der Hamburger Datenschützer Johannes Caspar eine Regulierung für unumgänglich.

„Trotz der unbestreitbaren positiven Potentiale, die der Einsatz selbstlernender Systeme, etwa für die Verkehrssicherheit, mit sich bringen kann, stellt die Künstliche Intelligenz dennoch eine Risikotechnologie ersten Ranges dar“, sagte Caspar dem Handelsblatt. „Automatisierte Einzelentscheidungen, die durch selbstlernende Systeme ausgeführt werden, ersetzen die menschliche Entscheidungsfreiheit durch eine intransparente Maschinenlogik.“

Die Entwicklung vollziehe sich zunächst in kleinen Schritten, sagte Caspar weiter. Bereits beim voll automatisierten Fahren würden die Probleme sichtbar. „Die Entscheidung über Leben und Tod im Straßenverkehr darf nicht einem System überlassen werden, das sich unkontrolliert selbst fortschreibt und steuert“, betonte der Datenschützer. Das gelte auch, wenn es gelingen sollte, menschliches Fehlverhalten dadurch zu minimieren. „Insoweit bedarf der Einsatz selbstlernender Steuerungssoftware einer staatlichen Zulassung und einer Kontrolle durch unabhängige Stellen“, forderte Caspar.

Die Forderung des Datenschützers kommt nicht von ungefähr. Erst kürzlich kam eine Frau bei einem Unfall mit einem Roboterwagen von Uber ums Leben. Der Vorfall, bei dem die Frau, eine mehrspurige Straße überquerte, ereignete sich bei einer nächtlichen Testfahrt in der Stadt Tempe im US-Bundesstaat Arizona. Der Unfall-Hergang warf die Frage auf, warum der Wagen weder abbremste noch auswich, obwohl die Sensoren die Fußgängerin, die ein Fahrrad neben sich schob, erkannt haben müssten.

Uber setzte daraufhin alle Fahrten mit seinen Roboterwagen aus, Arizona verbannte die Wagen zudem vorerst von der Straße. Neben Arizona und San Francisco war Uber bisher auch in Pittsburgh und Toronto unterwegs. Andere Entwickler wie Toyota und das Start-up NuTonomy stoppten ihre Fahrten vorsichtshalber auch.

Auch der frühere Verfassungsrichter Udo di Fabio sieht einen Regulierungsbedarf. Er forderte den deutschen und den europäischen Gesetzgeber auf, schnell Konsequenzen aus dem tödlichen Unfall zu ziehen. „Wenn in der Fläche automatisierte Fahrsysteme zugelassen werden, müssen sie signifikant sicherer sein als menschliche Fahrer. Der Schutz menschlichen Lebens genießt höchste Priorität“, schrieb er in ein Gastbeitrag für das Handelsblatt.

Di Fabio kann einerseits zwar nachvollziehen, dass die Politik in Zeiten „eines harten Wettbewerbs um die künftige Mobilität“ unter einem einen großen Zeitdruck bei Entscheidungen steht. Wer auch morgen seine ethischen und rechtlichen Regeln durchsetzen wolle, müsse heute zwar technisch innovativ und wirtschaftlich wettbewerbsfähig sein, sonst werde er sich bald entweder hinter protektionistischen Mauern verstecken müssen oder aber Zulieferbetrieb einer globalen Werkbank mit Firmensitz in Kalifornien oder Shanghai werden. Dennoch aber dürften sich politische Entscheidungen nicht allein diesem Druck beugen, mahnte der Staatsrechtler.

„Wir sollten heute in Europa und in der ganzen westlichen Welt ein paar Grundsätze in Erinnerung rufen. Der Westen ist immer offen für neue Technik, aber er unterwirft sich nicht blind, sondern fördert die Entwicklung und lässt die Menschen wählen, was sie wirklich wollen.“ Was auf die Straße gelange, müsse nach herrschenden Maßstäben hinreichend sicher sein, so di Fabio.

Forschungsministern Karliczek plädierte in Paris für ein Netzwerk aus deutschen und französischen „Exzellenz-Standorten“ für die Erforschung und Nutzung von künstlicher Intelligenz. „Auf dieser Basis stelle ich mir bilaterale Programme vor, bei denen Wissenschaft und Industrie aus beiden Ländern gemeinsam an konkreten Projekten arbeiten können.“ Die Absicht sei es, diese Aktivitäten dann als Bausteine in einen nationalen deutschen Aktionsplan einzubinden. „Künstliche Intelligenz ist eine Schlüsseltechnologie, ein Treiber für wirtschaftliche Entwicklung, ein Chancengeber für Forschung, Gesundheit und Mobilität“, sagte Karliczek.

Die wichtigsten Neuigkeiten jeden Morgen in Ihrem Posteingang.
„Künstliche Intelligenz ist sehr viel gefährlicher als Atomwaffen“
Seite 12Alles auf einer Seite anzeigen

1 Kommentar zu "Zukunftstechnologie: Wie gefährlich ist künstliche Intelligenz?"

Das Kommentieren dieses Artikels wurde deaktiviert.

  • Ein Problem scheint mir zu sein, dass Aussagen über das Risiko menschlichen Fahrverhaltens auf statistischen Werten beruhen, die über die Gesamtheit aller Autofahrten und -fahrer gemittelt sind. Sie erfassen also nicht die dem Menschen mögliche Sicherheit. Verglichen werden diese Werte mit einer Art MTBF berechnet aus den MTBF`s der Hardware- und Softwarekomponenten, wobei letztere fiktiv sind, denn die konkreten Lernvorgänge von selbstlernenden Algorithmen sind ebensowenig vollumfassend darstell- und vorhersehbar, wie das auch beim Menschen der Fall ist. Man vergleicht also Äpfel mit Birnen. Ein weiteres Problem scheint mir das Vertrauen auf die Kontrollfähigkeit und den Kontrollwillen von staatlichen Stellen zu sein. Diese unterliegen nämlich politischer, also interessengesteuerter Regulierung. Also NI (natürlicher Intelligenz).

Serviceangebote
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%