Gastkommentar: So ließe sich Künstliche Intelligenz intelligent regulieren

Wolf-Georg Ringe ist Professor für Law and Finance an der Universität Hamburg und derzeit Gastprofessor an der Stanford University.
Foto: Getty, privatDie Diskussion darüber, wie Künstliche Intelligenz reguliert werden soll, gewinnt an Bedeutung, insbesondere angesichts des immer schnelleren Fortschritts bei der Entwicklung neuer Anwendungen wie ChatGPT und allgemein generativer KI.
Zwei Lager stehen sich dabei unversöhnlich gegenüber: das Pro-Regulierungslager, das strenge Regeln zur Bewältigung von möglichen Risiken fordert, und die Befürworter des freien Marktes, die argumentieren, dass übermäßig restriktive Regeln Innovationen behindern könnten.
Es ist an der Zeit, einen innovativeren, dritten Weg in Betracht zu ziehen, der versucht, die Vorteile beider Ansätze zu kombinieren. Ein erfolgsversprechendes Konzept ist die regulatorische „Sandbox“ – eine kontrollierte Umgebung, die es Unternehmen in einem strukturierten Kontext ermöglicht, neue KI-Technologien in realer Umgebung unter reduzierten Regulierungsanforderungen zu testen und zu entwickeln.
So handelt der Staat bei der künstlichen Intelligenz richtig
Der Staat tritt dabei nicht als prohibitiv regulierender Gegner auf, sondern als Partner, der den Markteintritt einer neuen Technologie unter selektiver Anpassung von Rechtsregeln begleitet.
Wie funktioniert eine solche Sandbox? Innovative Firmen mit einem KI-basierten Geschäftsmodell würden nach erfolgreicher Bewerbung in das Förderprogramm aufgenommen. Die Experimentierphase wäre über mehrere Jahre angelegt.
>> Lesen Sie hier: Was ist Künstliche Intelligenz?
Der Staat stellt dabei Ressourcen bereit: ein spezielles Team betreut die neuen Geschäftsfelder in ständigem Austausch und kann dabei Chancen und Risiken frühzeitig verstehen; zugleich können Firmen mit ihren Innovationen wertvolle Hinweise auf regulatorische Risiken und Bedenken gewinnen. Am Ende der Förderung kann die Anwendung in die reguläre Marktsituation entlassen werden.
Der AI Act erwähnt zwar die Idee einer Sandbox am Rande, ähnelt jedoch eher einem Marketingtrick als einer ernsthaften Sandbox.
Foto: IMAGO/ZoonarEin derartiger Experimentierraum verspricht eine Reihe von Vorteilen. Erstens fördert er Innovationen: Dies hat sich in anderen Bereichen wie etwa der Fintech-Regulierung oder der Zulassung von neuen Medikamenten gezeigt, wo eine Sandbox die Marktzulassungsgeschwindigkeit („Time-to-Market“) für Innovationen deutlich reduziert hat, was neuen Unternehmen erhöhte Rechtssicherheit gibt und damit insgesamt zu größerer Innovationskraft in der Gesellschaft führt.
Ein damit verbundener Vorteil ist die Beschleunigung des gesamten Regulierungsprozesses. Derzeitige Bemühungen wie der EU-„AI Act“ sind langsam – das Regelwerk wird seit vier Jahren verhandelt und wird nicht vor 2025/26 rechtsverbindlich. Schlimmer noch: Wenn es einmal in Kraft ist, wird es schwierig sein, es in Zukunft anzupassen, um mit neuen Entwicklungen Schritt zu halten.
Das lehrt die Erfahrung von vielfach in Stein gemeißelter EU-Gesetzgebung. Der AI Act ist bereits jetzt veraltet, da er ursprünglich in einer Welt ohne generative KI und ChatGPT konzipiert wurde. Ein Sandbox-System hingegen bietet ein flexibles Instrument zur Reaktion auf neue Entwicklungen und kann schnell angepasst werden, um neuen Herausforderungen gerecht zu werden.
KI-Expertin Ait Si Abbou: Was passiert, wenn Künstliche Intelligenz Gefühle lesen kann
Gleichzeitig bietet die Sandbox Schutzvorkehrungen für Verbraucher und Anwender. Es liegt auf der Hand, dass KI-Systeme Risiken bergen und das Potenzial haben, Verbrauchern etwa durch ein Eindringen in die Privatsphäre oder durch die Generierung von Fake News zu schaden.
Eine regulatorische Sandbox kann solchen Gefahren vorbeugen und dazu beitragen, dass KI-Systeme sicher verwendet werden können. So kann die Erprobung in der Sandbox dem Staat ein bisher unerkanntes Gefährdungspotenzial von bestimmten Anwendungen vor Augen führen.
Der AI Act ähnelt eher einem Marketingtrick
Der AI Act erwähnt zwar die Idee einer Sandbox am Rande, ähnelt jedoch eher einem Marketingtrick als einer ernsthaften Sandbox. In seiner derzeitigen Fassung gäbe er nationalen Behörden keine Möglichkeit, von den Anforderungen des AI Acts im Einzelfall abzuweichen und ein wirklich innovatives Regulierungsumfeld zu schaffen.
>> Lesen Sie hier: AI Act – Wie die EU künftig ChatGPT regulieren will
Benötigt wird vielmehr eine echte Experimentierklausel, wonach die Aufsichtsbehörde bei der Anwendung des Rechtsrahmens flexibel agieren könnte. Nur dann wird die Sandbox wirklich attraktiv und eine verantwortungsvolle Begleitung von KI möglich sein.
Insgesamt kann eine echte Sandbox eine wertvolle Plattform für die Entwicklung neuer KI-Technologien bieten und zugleich sicherstellen, dass sie sicher und vorteilhaft für die Gesellschaft sind. Sie wäre zudem auch ein Standortvorteil für Europa im weltweiten Wettbewerb um die Entwicklung von Zukunftstechnologien.
Es gibt dabei sicherlich keinen „free lunch“: Eine wirklich funktionale Sandbox ist eine kostspielige Angelegenheit, die ausreichende personelle Ressourcen und Expertise erfordert. Aber solche Kosten scheinen gering im Vergleich zu den Vorteilen, die diese neue Technologie uns bringen kann.
Der Autor:
Wolf-Georg Ringe ist Professor für Law and Finance an der Universität Hamburg und derzeit Gastprofessor an der Stanford University.