EU-Kommission Künstliche Intelligenz: So schwierig gestaltet sich die rechtliche Regulierung

Die EU-Kommission empfiehlt eine strenge menschliche Aufsicht auf allen Stufen des Entwicklungsprozesses.
Berlin Der erste Paragraf des Bürgerlichen Gesetzbuchs (BGB) lautet: „Die Rechtsfähigkeit des Menschen beginnt mit der Vollendung der Geburt.“ Dadurch, dass ein Mensch ab dem ersten Tag seiner Existenz ein eigenständiges Wesen ist, muss er sich vom ersten Moment an in einem rechtssicheren Rahmen bewegen, so die Annahme des BGB.
Was aber, wenn der Mensch sein Alleinstellungsmerkmal autonomer Handlungen an Maschinen, Computer und Algorithmen verliert? Wie kann ein guter Rechtsrahmen für Künstliche Intelligenz (KI) aussehen?
Die Antwort auf diese Frage gestaltet sich schwierig. 2018 bereits hatte die EU-Kommission damit begonnen, Experten zu konsultieren, und im April dieses Jahres hat sie dann einen Vorschlag für eine europaweite KI-Regulierung vorgelegt. „Bei Künstlicher Intelligenz ist Vertrauen ein Muss und kein Beiwerk“, sagte Kommissionsvizepräsidentin Margrethe Vestager.
Die Skepsis gegenüber lernfähigen Maschinen in der Bevölkerung ist groß, das weiß auch Brüssel. Mit einheitlichen Standards will die Kommission Europa zu einem „globalen Zentrum für vertrauenswürdige Künstliche Intelligenz“ machen. Die Herausforderung: Regeln schaffen, ohne die Innovationsfähigkeit Europas zu sehr einzuschränken.
Bis zum vergangenen Donnerstag konnten Interessengruppen ihre Einschätzungen zu dem Papier einreichen. An den Stellungnahmen der Digitalverbände zeigt sich, wie viele politische, wirtschaftliche, aber auch philosophische Fragestellungen es für eine rechtsgültige KI-Regulierung noch zu beantworten gilt.
Mit ihrem Vorschlag betritt die EU rechtlich neues Terrain. Dabei steht sie sogleich vor einem Definitionsproblem und der Frage, was KI eigentlich ist. Der Bundesverband Künstliche Intelligenz kritisiert in seiner Stellungnahme, dass im Kommissionsentwurf „fast alle existierenden und zukünftigen Softwares als KI definiert“ seien. Auch der Bundesverband Digitale Wirtschaft kritisiert die „zu weit gefasste Definition von KI“.
Das könne vor allem in der Praxis zum Problem werden, meint Nicole Formica-Schiller, die sich für den KI-Bundesverband mit Haftungsfragen und Regulierung beschäftigt. Sie fordert mehr konkrete Beispiele, um die rechtliche Anwendung etwa für Richter einfacher und greifbarer zu machen.
Verbot von manipulierendem Verhalten
In ihrem Vorschlag teil die EU-Kommission KI-Anwendungen in Risikogruppen ein, die jeweils unterschiedlichen Regulierungsstandards unterliegen sollen. Systeme mit einem „unannehmbaren Risiko“, die etwa menschliches Verhalten manipulieren oder Behörden zur Bewertung von Sozialverhalten dienen („Social Scoring“), sollen komplett verboten werden.
Für KI mit „hohem Risiko“, die zum Beispiel in der Schule oder Krankenhäusern zum Einsatz kommen könnte, hat die Kommission außerdem strenge Vorgaben definiert. Bei solchen Techniken soll es immer auch eine menschliche Aufsicht geben. Auch hier, kritisieren die Digitalverbände, sei die Definition zu weit gefasst. Stattdessen sollten die Risiken einzelfallbasiert beurteilt werden, raten etwa der KI-Verband und der Digitalverband Bitkom.
Eine weitere große Rechtsfrage im KI-Bereich ist die Haftung. Die Frage, wer für fehlerhafte Produkte, aber auch unerwünschte Nebeneffekte einer KI-Software verantwortlich gemacht werden soll, ist so komplex, dass sie die EU-Kommission in ihrem jetzigen 120 Seiten langen Entwurf größtenteils ausgeklammert hat.
Im Februar ließ die Kommission Rat und Parlament allerdings einen Bericht zukommen, der sich mit den Grundsätzen der Haftungsfragen auseinandersetzt.
Ein großes Problem laut Kommission: KI ist in der Lage, selbstständig zu lernen und vom Hersteller möglicherweise unvorhergesehene Entscheidungen zu treffen. Die Kommission empfiehlt deshalb eine strenge menschliche Aufsicht auf allen Stufen des Entwicklungsprozesses. Die abschließende Frage nach der Verantwortung für maschinelles Lernen löst sie damit allerdings nicht.
Wer haftet?
So stellt sich am Ende die große rechtsphilosophische Frage, ob Künstliche Intelligenz selbst in Zukunft für ihr eigenes Handeln verantwortlich gemacht werden kann. „Das ist eine berechtigte Frage, aber auch ein sehr komplexer Bereich“, sagt Formica-Schiller. Sie befürchtet, dass jeder Mitgliedstaat auf diese Frage eine eigene Antwort finden könnte, und rät davon ab, vor einer europaweiten Haftungsregelung lange Debatten zu führen: „Dabei würde sehr viel Zeit vergehen. Die Rechtsunsicherheiten würden noch vergrößert.“
Ein weiteres Problem liegt darin, dass die Gesetzgebung mit dem Tempo der Entwicklungen im KI-Bereich nicht Schritt halten kann. So muss die EU in ihrer Regulierung auch Software mitbedenken, die es heute noch gar nicht gibt.
Im nächsten Schritt können nun das Europäische Parlament und der Rat noch Änderungsvorschläge einbringen und dann über den Entwurf abstimmen. Bis die Verordnung in Kraft tritt, dürften also noch einige Monate, wenn nicht Jahre vergehen. „Die KI, die wir dann regulieren, wird nicht mehr die sein, die wir im heutigen Vorschlag diskutieren“, gibt Formica-Schiller zu bedenken.
Mehr: Drei Bücher, die sich kritisch mit Künstlicher Intelligenz auseinandersetzen
Das Kommentieren dieses Artikels wurde deaktiviert.