Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Kommentar Künstliche Intelligenz braucht staatliche Kontrolle

Die EU hat Ethikregeln für Künstliche Intelligenz entwickelt. Richtig so. Die Selbstregulierung der Tech-Konzerne reicht nicht aus.
Kommentieren
Bislang wird die Entwicklung der KI von einer Handvoll international agierender Konzerne dominiert. Quelle: dpa
Humanoider Roboter

Bislang wird die Entwicklung der KI von einer Handvoll international agierender Konzerne dominiert.

(Foto: dpa)

Von großen Umbrüchen ist gerade wieder oft die Rede, von einer vierten industriellen Revolution zum Beispiel. Und glaubt man ihren Verfechtern, wird die jüngste Revolution von Künstlicher Intelligenz (KI) angetrieben. Von selbstlernenden Algorithmen, die den Menschen so einiges abnehmen sollen: das Autofahren, die Suche nach neuen Mitarbeitern und das Steuern von Fabriken.

Auf welchen (Vor)urteilen die Entscheidungen dieser Algorithmen basieren, hat ihre Macher lange nicht wirklich interessiert. So entstanden Programme, die Bewerberinnen benachteiligten, weil die selbstlernende Software eben lernte, dass Männer in technischen Berufen erfolgreicher sind. Oder Algorithmen, die Menschen mit schwarzer Hautfarbe als unzuverlässige Kreditnehmer einstufen.

Es ist daher richtig, dass die EU Experten damit beauftragt hat, Leitlinien für die Entwicklung von KI zu entwickeln. Die liegen nun vor: Algorithmen sollen demnach sicher, transparent und diskriminierungsfrei sein und die Privatsphäre achten. Bislang ist allerdings noch offen, ob die EU-Kommission die Unternehmen regulieren will oder ob sie es bei einer Selbstverpflichtung der Branche belassen wird.

Letzteres wäre ein Fehler. Um es in Abwandlung eines Politikerzitats zu sagen: Eher legt der Hund einen Wurstvorrat an, als dass sich die Tech-Branche wirksam selbst reguliert. Das hat Facebook-Chef Mark Zuckerberg gerade erst wieder deutlich gemacht, als er nach weltweiten Datenschutzregeln rief. Sein Unternehmen hätte solche Regeln schließlich längst selbst entwickeln und befolgen können.

Google wiederum hatte extra einen KI-Rat einberufen, um die nach großem Druck aus der Belegschaft formulierten eigenen Ethikregeln im Unternehmen zu etablieren. Doch nach wenigen Tagen löste der Konzern das Gremium wieder auf, weil es Streit über die Besetzung der Runde gab.

Zahlreiche Tech-Unternehmen haben mittlerweile solche Ethikräte installiert. Doch in der Regel haben diese Gremien nur eine beratende Funktion, dürfen nicht öffentlich über ihre Arbeit sprechen, und vor allem ist ihr Input nicht bindend für das Management. Kritiker sprechen daher vom „Ethik-Washing“ der Branche, um staatlicher Regulierung vorzubeugen.

Deshalb ist es umso wichtiger, die Regeln für diese neue Zeit – und vor allem die Kontrolle über die Einhaltung dieser Regeln – in staatliche Hände zu geben. Die EU kann hier nur den Anfang machen. Bislang wird die Entwicklung der KI von einer Handvoll international agierender Konzerne dominiert, darunter Google, Facebook, Amazon, Alibaba und Tencent. Deren ethischer Selbstverantwortung sollten wir uns in Europa nicht ausliefern.

Die wichtigsten Neuigkeiten jeden Morgen in Ihrem Posteingang.
Startseite

0 Kommentare zu "Kommentar: Künstliche Intelligenz braucht staatliche Kontrolle"

Das Kommentieren dieses Artikels wurde deaktiviert.