Nach Kritik von Elon Musk Warum die Politik künstliche Intelligenz regulieren will

Künstliche Intelligenz gefährlicher als Atomwaffen? Die Warnung von Tesla-Gründer Musk kommt in Berlin nicht gut an. Dennoch hält man Regeln für die Technologie für unabdingbar.
2 Kommentare

„Gefahr von Künstlicher Intelligenz ist größer als die bei Atomwaffen“

BerlinMan kann von künstlicher Intelligenz (KI) halten, was man will. Aber die Warnungen, die SpaceX- und Tesla-Gründer Elon Musk bei der Digital-Konferenz South by Southwest (SXSW) im texanischen Austin verbreitet hat, sind manchem dann doch etwas zu dick aufgetragen.

Ein solcher „Alarmismus“ sei nicht angesagt, sagte der Digitalexperte der Grünen-Bundestagsfraktion, Dieter Janecek, dem Handelsblatt. Und auch der CDU-Digitalpolitiker Thomas Jarzombek hält Musks eindringliche Warnung vor der Zukunftstechnologie für unangebracht.

„Künstliche Intelligenz ist sehr viel gefährlicher als Atomwaffen“, hatte Musk gesagt. Er selbst sei zwar kein Fan von Regulation und Aufsicht. Die „Superintelligenz“ sei aber eine „sehr ernste Bedrohung für die Öffentlichkeit“. Es sei daher extrem wichtig, dass die Technologie sicher entwickelt werde.

Nicht wenige KI-Forscher teilten die Auffassung von Musk nicht, hielt Jarzombek dagegen. Zumal die Technologie heute zwar sehr schnell sehr spezifische Aufgaben lernen und umsetzen könne, das allgemeine Denken aber eben „noch gar nicht“. Und auch Janecek gab zu bedenken: „Wir werden es nicht morgen schon mit irgendeiner Superintelligenz zu tun haben.“

Gleichwohl würden Prototypen selbstfahrender Autos bereits im Straßenverkehr eingesetzt, während wichtige technische, strafrechtliche und Haftungsfragen bisher nicht zufriedenstellend geklärt seien. „Hier haben wir eindeutigen Nachholbedarf“, betonte der Grünen-Politiker. „Denn welche Chancen oder welche Bedrohungen mit technologischem Fortschritt einhergehen, hängt immer davon ab, welchen Regeln der Einsatz der Technologie unterliegt und inwiefern Transparenz und demokratische Kontrolle hergestellt sind.“

Janecek fordert denn auch wie Jarzombek einen Regulierungsrahmen für künstliche Intelligenz. „Eine Regulierung beziehungsweise ethische Begrenzung von KI ist absolut denkbar, allerdings nicht auf der nationalen Ebene“, sagte Jarzombek. „Das muss ähnlich wie der Sperrvertrag für Atomwaffen global verabredet werden, ansonsten würde sich Deutschland oder Europa aus dem Markt rausnehmen.“

Union und SPD würden nun, wie in der Koalitionsvereinbarung festgeschrieben, einen „Masterplan“ zur künstlichen Intelligenz auflegen und auch ein gemeinsames Forschungszentrum mit Frankreich dazu aufbauen. „Erste Gespräche laufen bereits“, so Jarzombek. In der vergangenen Woche haben sich nach Informationen des Handelsblatts auf parlamentarischer Ebene Arbeitsgruppen sowohl in Berlin als in Paris konstituiert.

Wichtig sei, dass Deutschland bei der gesamten Entwicklung den Anschluss nicht verliere. „Russland und China beispielsweise sind hier sehr aggressiv unterwegs“, betonte der CDU-Politiker.

Auch der Grünen-Politiker Janecek mahnte für den Einsatz von künstlicher Intelligenz „dringend klare Regeln, transparente Kriterien und definierte Aufgabenbeschreibungen“ an. „Hier hinkt die Politik der faktischen Standardsetzung durch international agierende Unternehmen hinterher“, sagte Janecek.

Künstliche Intelligenz spielt nicht etwa nur beim selbstfahrenden Auto eine Rolle. Im praktischen Alltag arbeitet die Technologie mittels Algorithmen etwa beim Antrag auf einen Bankkredit oder beim Online-Einkauf im Hintergrund. Wer aber über den Einsatz wacht, ist noch eine offene Frage.

Es sei eine breite politische und gesellschaftliche Diskussion um die Regulierung künstlicher Intelligenz erforderlich, mahnten am Montag in Berlin Vertreter aus Politik und Wirtschaft an. „Wir wollen für die Bedeutung des Themas werben“, sagte Jens Zimmermann, netzpolitischer Sprecher der SPD-Fraktion im Bundestag. Es brauche künftig Institutionen, die für die nötige Transparenz sorgten.

Solche Institutionen müssten die relevanten Anwendungen auf Diskriminierungsschutz ganz ähnlich wie in der analogen Welt überprüfen können, sagte Klaus Müller, Chef des Verbraucherzentrale Bundesverbands (VZBV). Müller schlug eine Stelle vor, die ähnlich wie die Finanzmarktaufsicht Bafin arbeite.

Um die Kreditwürdigkeit eines Kunden zu prüfen, setzen zum Beispiel Banken Algorithmen zur Prüfung ein. Die Frage sei aber, welche Daten eingegeben würden, sagte Müller. Was könne der Verbraucher tun, wenn es dort bei der Dateneingabe Fehler gegeben habe? „Verbraucher dürfen nicht unter die Räder kommen.“ In solchen Fälle müsse es die Möglichkeit der Einzelfallklärung geben.

Unternehmen sehen allerdings die von ihnen eingesetzten Algorithmen in der Regel als Betriebsgeheimnis an. „Dabei muss es aber nicht darum gehen, das Heiligste vom Heiligsten offenzulegen“, sagte Zimmermann. Coca-Cola müsse auch nicht gezwungen werden, ihr Rezept zu veröffentlichen, um die Möglichkeit zu haben, das Getränk als nicht besonders gesund einzustufen.

In Deutschland sei die Debatte um künstliche Intelligenz noch immer von Angst getrieben, sagte Tanja Böhm, Leiterin der Hauptstadtrepräsentanz von Microsoft. Dabei habe sie ein enormes Potenzial für zahlreiche Lebens- und Arbeitsverhältnisse, sei es in der Gesundheitsversorgung, der Landwirtschaft oder beim Umweltschutz.

Algorithmen könnten helfen, kreative, strategische und effizientere Entscheidungen zu treffen. Microsoft setze sich dafür ein, dass bereits bei der Entwicklung Aspekte der Fairness, des Datenschutzes, der Inklusion, Transparenz und Verantwortlichkeit berücksichtigt würden.

Die Idee eines Algorithmen-TÜVs war in der Diskussion, zu der das Wirtschaftsforum der SPD geladen hatte, schnell vom Tisch. Mit einem Siegel sei es nicht getan, sagte Zimmermann. Das würde die Menschen eher in einer „gefährlichen Sicherheit wiegen“.

Startseite

2 Kommentare zu "Nach Kritik von Elon Musk: Warum die Politik künstliche Intelligenz regulieren will"

Das Kommentieren dieses Artikels wurde deaktiviert.

  • Mein PC ist schlauer als die EU-Loser und die künstliche Intelligenz regulieren die Eingeschränkten schon gar nicht.

  • Grüne Digitalexperten und CDU Digitalpolitiker waren vor Alarmismus? Natürlich warnt Elon Musk zu Recht. Vor allem kennt er den Stand der Forschung im Silicon Valley ausgesprochen gut. Vor allem wird AI bald in Waffen eingesetzt werden.

    "CDU und SPD würden einen Masterplan für künstliche Intelligenz auflegen..." Da sind wir gespannt. Wieviele Jahre wird dieser Masterplan dauern? Die notwendigen Kernkompetenzen sind in der Regierung nicht vorhanden und ein Digitalministerium wird es mit dieser Kanzlerin nicht geben.

    Bei deutschen Regierungsvertretern gelten grüne Kommunikationsberatern oder diverse IT Berater bereits als "Digitalexperten", die Webseiten bauen, Server einrichten, warten oder Blogs mit TwitterAccounts unterhalten!

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%