Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Künstliche Intelligenz EU-Experten legen ethische Richtlinien für Künstliche Intelligenz vor

Ein Moralkodex für Maschinen: Experten haben Leitlinien für Künstliche Intelligent erarbeitet. Diese dürften die Debatte um den richtigen Umgang mit KI befeuern.
Kommentieren
Die EU will ethische Rahmenbedingungen für Künstliche Intelligenz festlegen. Quelle: Visual China Group/Getty Images
Roboter

Die EU will ethische Rahmenbedingungen für Künstliche Intelligenz festlegen.

(Foto: Visual China Group/Getty Images)

Brüssel, BerlinZehn Monate lang hat eine Expertengruppe diskutiert und gestritten. Die 52 Vertreter aus Wirtschaft, Wissenschaft und Zivilgesellschaft trafen sich mehrfach in großer Runde, um ihren von der EU-Kommission formulierten Auftrag zu erfüllen: ethische Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz (KI) zu erarbeiten. Am Dienstag werden sie ihre Vorschläge im Rahmen des EU-Digitaltages in Brüssel der Öffentlichkeit präsentieren.

Der 41-seitige Abschlussbericht liegt dem Handelsblatt bereits vor. „Vertrauenswürdigkeit“, heißt es darin, „ist eine Voraussetzung dafür, dass Menschen und Gesellschaften KI-Systeme entwickeln, einsetzen und nutzen“. Ohne ethischen Rahmen könnten Fehlentwicklungen die Verbreitung von Künstlicher Intelligenz erschweren und damit „die Realisierung der potenziell enormen sozialen und ökonomischen Vorteile verhindern“, warnen die Fachleute.

In ihrem Bericht formulieren sie sieben Anforderungen an KI-Systeme, damit diese als vertrauenswürdig gelten: Sie sollen vom Menschen kontrollierbar, technisch robust und sicher sein sowie einzelne Personen oder gesellschaftliche Gruppen nicht diskriminieren. Zudem sollen die Algorithmen gesellschaftlich nützlich, transparent und überprüfbar sein sowie die Privatsphäre achten.

Damit Entwickler und Anbieter diese Anforderungen in der Praxis auf ihre Produkte anwenden können, haben die Experten einen konkreten Kriterienkatalog entwickelt – etwa für Fragen wie: „Welcher Mensch hat die Kontrolle, und zu welchem Zeitpunkt oder mit welchem Werkzeug kann ein Mensch eingreifen?“

Die Ethik-Leitlinien dürften die Diskussion um den richtigen Umgang mit Künstlicher Intelligenz zusätzlich befeuern. Viele Beobachter erwarten, dass die Verbreitung selbstlernender Maschinen im kommenden Jahrzehnt rasant zunehmen wird. Die Unternehmensberatung McKinsey etwa prognostiziert, dass KI allein in Deutschland das Wachstum um 1,3 Prozentpunkte pro Jahr erhöhen könnte.

Grafik

Mit dem richtigen Rahmen könne Europa „führend werden bei innovativer und ethischer Technologie“, schreibt die Expertengruppe. Auf Grundlage der Empfehlungen wird die EU-Kommission bereits am Montag einen Fahrplan vorstellen, wie die Leitlinien zunächst in einer Testphase in die Praxis umgesetzt werden sollen.

Anhand des Rücklaufs wird die Kommission dann entscheiden: Soll die Politik die KI-Entwicklung regulieren? Oder soll das die Industrie lieber selber tun? Oder beides? Die Leitlinien sind ein weiterer Baustein der KI-Strategie, die die EU auf Augenhöhe mit den USA und China heben soll. Auch in Deutschland wird an Ethikregeln gearbeitet: Der Bundestag hat eine KI-Enquetekommission gegründet, die Bundesregierung lässt sich von einer Datenethik-Kommission beraten.

Kritiker aber warnen, unverbindliche Ethikregeln seien nicht genug – sie fordern einen gesetzlichen Rahmen. Die Leitlinien seien „ein guter Anfang“, sagt Ursula Pachl vom europäischen Verbraucherschutzverband BEUC, „aber sie dürfen die Diskussion darüber nicht verdrängen, welche Regulierung nötig ist“.

So sollten Unternehmen dazu verpflichtet werden zu erklären, auf welcher Grundlage die Künstliche Intelligenz etwa über eine Bewerbung für einen Job oder einen Studienplatz entscheidet. „Patienten sollten verlangen können, dass ein Arzt eine von Algorithmen getroffene medizinische Diagnose überprüft“, sagt Pachl, die selbst Mitglied der EU-Expertengruppe ist.

Wirtschaftsvertreter sind in Expertengruppe stark überrepräsentiert

Die Verbraucherschützerin fordert daher die EU-Kommission auf, ambitionierter zu prüfen, wo der heutige Rechtsrahmen angepasst werden müsse. Die Expertengruppe soll im Mai auch noch Vorschläge zur Regulierung von KI-Systemen vorlegen. Es sei aber „problematisch“, kritisiert Pachl, dass in der 52-köpfigen Runde Wirtschaftsvertreter „stark überrepräsentiert“ seien.

Die Industrie sieht das Kräfteverhältnis anders und wehrt sich dagegen, reguliert zu werden. Der Kunde solle immer wissen, dass ethische Standards eingehalten werden, sagt Iris Plöger, die den Bundesverband der Deutschen Industrie (BDI) in der Expertenrunde vertritt. „Gleichzeitig dürfen Innovationen aber nicht mit zu starren Regeln abgewürgt werden“, warnt sie.

Sonst bestehe die Gefahr, „dass unsere Unternehmen im internationalen Wettbewerb zurückfallen“. Deshalb müsse es auch das Ziel sein, dass andere Länder der Welt vergleichbare ethische Leitlinien annehmen.

Das Problem: In anderen Ländern, allen voran China, gibt es weit weniger Regeln, etwa was die Nutzung persönlicher Daten angeht. Auch Susanne Dehmel, Mitglied der Geschäftsleitung beim deutschen IT-Verband Bitkom, spricht sich für eine Selbstregulierung der Wirtschaft aus. Und beteuert: „Die Techbranche hat in den vergangenen Jahren dazugelernt.“

„Es kann sein, dass wir bald die erste Fabrik ohne Arbeiter sehen“

Brexit 2019
Startseite

0 Kommentare zu "Künstliche Intelligenz: EU-Experten legen ethische Richtlinien für Künstliche Intelligenz vor"

Das Kommentieren dieses Artikels wurde deaktiviert.