Künstliche Intelligenz Unternehmen und Wissenschaft verbünden sich gegen autonome Kampfroboter

In Zukunft könnten statt Soldaten Kampfroboter in den Krieg ziehen. Mehr als 2400 Forschende wollen sich nicht an deren Entwicklung beteiligen.
Kommentieren
Völkerrechtliche Beschränkungen für den Einsatz oder die Entwicklung von Kampfrobotern gibt es bislang nicht. Quelle: imago/ITAR-TASS
Russischer Kampfroboter Platform-M

Völkerrechtliche Beschränkungen für den Einsatz oder die Entwicklung von Kampfrobotern gibt es bislang nicht.

(Foto: imago/ITAR-TASS)

DüsseldorfTausende Wissenschaftler, Ingenieure und teils weltbekannte Unternehmer, die an künstlicher Intelligenz (KI) forschen, haben öffentlich versprochen, sich nicht „an der Entwicklung, Herstellung, dem Handel oder dem Gebrauch von tödlichen autonomen Waffen“ zu beteiligen.

Hinter der Aktion steht das „Future of Life Institute“ (FLI), eine Forschungsorganisation, die auf Risiken der künstlichen Intelligenz aufmerksam machen möchte.

Zu den Unterzeichnern des Dokuments gehören Googles KI-Unternehmen DeepMind und dessen Gründer Demis Hassabis, Shane Legg und Mustafa Suleyman, das University College London, die European Association for Artificial Intelligence, Tesla-Chef Elon Musk, Skype-Entwickler Jaan Tallinn und der Leiter der Google-Forschungsabteilung zu künstlicher Intelligenz, Jeffrey Dean.

Unterzeichner in 90 Ländern

Bis Mittwochmorgen hatten bereits über 160 Unternehmen und Organisationen aus 36 Ländern und mehr als 2400 Personen aus 90 Ländern den Aufruf unterschrieben.

Bürger, Politiker und Führungskräfte müssten dringend „zwischen akzeptablen und inakzeptablen Anwendungen von KI unterscheiden“, heißt es in dem Text. Die Unterzeichner stimmen überein, „dass die Entscheidung, ein menschliches Leben zu nehmen, niemals an eine Maschine delegiert werden sollte.“

Konkret geht es bei dem Protest um Waffensysteme, die ohne menschliche Intervention Ziele auswählen und angreifen können: Kriegsdrohnen, autonome Panzer oder Kampfroboter, die auch fest installiert sein könnten – etwa auf Kriegsschiffen oder an Grenzanlagen. Völkerrechtliche Beschränkungen für den Einsatz oder die Entwicklung von Kampfrobotern gibt es bislang nicht.

Zwar werden beispielsweise Drohnen heutzutage noch von Menschen kontrolliert, selbstständig agierende Systeme sind jedoch heute schon technisch möglich – und kommen auch zum Einsatz: An der Grenze Südkoreas zu Nordkorea patrouillieren bereits von Samsung konstruierte Maschinen, die den Grenzstreifen beobachten, Eindringlinge identifizieren und das Feuer eröffnen könnten. Menschen wären in die Entscheidung über Leben und Tod nicht eingebunden.

Folglich werfen die autonomen Waffensysteme eine Reihe an rechtlichen und ethischen Fragen auf. Wer wird bei tödlichen Fehlern zur Verantwortung gezogen? Womöglich eben keine konkrete Person mehr, was das Töten anderer Menschen erleichtern würde, schreiben die Unterzeichnenden des FLI-Manifests.

Sie warnen: „Tödliche autonome Waffen könnten zu mächtigen Instrumenten der Gewalt und Unterdrückung werden, insbesondere, wenn sie mit Überwachungssystemen verbunden sind.“

Kritiker fürchten Hackerangriffe

Die Kritiker befürchten zudem, dass die Killerroboter schwieriger zu kontrollieren sein könnten als derzeitige Waffensysteme: Sie könnten Ziel von Hackerangriffen werden und auf dem Schwarzmarkt in die falschen Hände geraten – beispielsweise in den Besitz von Terrororganisationen. Bislang seien keine ausreichenden technischen und politischen Kontrollmechanismen vorhanden, die den Missbrauch oder ein globales KI-Wettrüsten verhindern könnten, schreibt das FLI.

In dem Statement fordern die Unterstützer des FLI nun eine strenge gesetzliche Regulierung autonomer Waffensysteme. Sie sind nicht die ersten: Schon 2016 warnten 100 IT-Spezialisten – darunter Elon Musk –, dass intelligente autonome Waffen nach der Erfindung des Schießpulvers und der Atombombe die „dritte große Revolution“ in der Waffentechnik seien und forderten die Vereinten Nationen auf, den Einsatz von intelligenten Killerrobotern international zu ächten.

Die UN versucht seit 2013, ein Wettrüsten mit autonom operierenden Waffensystemen zu verhindern, konnte bislang aber wenig erreichen. Immerhin haben sich 26 UN-Mitgliedsländer für ein Verbot von Killerrobotern ausgesprochen, darunter Österreich, China und Mexiko.

Befürworter autonomer Waffensysteme argumentieren, dass künstliche Intelligenz auch die taktische Planung auf dem Schlachtfeld übernehmen würde. Zudem minimiere sie die Risiken für Soldaten.

FLI-Präsident Max Tegmark zeigte sich über die rege Unterstützung seiner Initiative erfreut. „Künstliche Intelligenz hat ein riesiges Potenzial, der Welt zu helfen“, sagte er – „wenn wir ihren Missbrauch stigmatisieren und verhindern.“

Startseite

Mehr zu: Künstliche Intelligenz - Unternehmen und Wissenschaft verbünden sich gegen autonome Kampfroboter

0 Kommentare zu "Künstliche Intelligenz: Unternehmen und Wissenschaft verbünden sich gegen autonome Kampfroboter"

Das Kommentieren dieses Artikels wurde deaktiviert.

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%