Gastkommentar SPD-Minister Barley und Heil: Künstliche Intelligenz braucht klare Regeln
Künstliche Intelligenz verändert unser Leben radikal. Auf ihr beruhen bereits heute Anwendungen, die das Leben und unsere Arbeit besser machen. Gerade weil die Technologie erhebliches Potenzial in sich trägt, fordert uns die Nutzung von Künstlicher Intelligenz auf, darüber nachzudenken, wie wir zukünftig arbeiten, lernen und leben wollen.
Bei allen technischen Möglichkeiten ist dabei für uns klar: Der Mensch steht im Mittelpunkt. So steht es in der KI-Strategie der Bundesregierung. Diesen Anspruch müssen wir jetzt erfüllen! Für die EU bedeutet dies: Eine europäische Strategie der Künstlichen Intelligenz muss sich einpassen in unsere Vorstellung eines sozialen Europas, das Arbeitnehmerrechte sichert, die Technologie für die Menschen nutzbar macht und zugleich die Souveränität des Einzelnen schützt.
Deshalb müssen unsere Grundwerte bei der Entwicklung und Anwendung Künstlicher Intelligenz von Anfang an mitgedacht werden.
Wir stehen vor einer Zeitenwende. Die Ära des „move fast and break things“, lange Wahlspruch der digitalen Avantgarde, ist vorbei. Und zwar zu Recht: Die zahlreichen und wiederholten Skandale großer Digitalkonzerne und die kritische Debatte über die wahllose Verknüpfung von personenbezogenen Daten bis hin zu neuer Überwachung durch das „social scoring“ sind Anlass genug, einen neuen Umgang mit digitalen Innovationen zu finden.
Mark Zuckerbergs Ruf nach staatlicher Regulierung hat überrascht. Die Datenkonzerne haben alle Möglichkeiten, um ein höchstmögliches Datenschutzniveau zu gewährleisten, sind jedoch immer wieder für massive Sicherheitsskandale verantwortlich. Deshalb brauchen wir einen verlässlichen Ordnungsrahmen für die Entwicklung und Anwendung digitaler Technologien. Innovationen und gesellschaftliche Grundwerte müssen in Einklang gebracht werden. Und das wird nicht von allein passieren.
Nur mit einer engagierten und aufgeklärten Zivilgesellschaft und einem starken Staat kann aus technologischem Fortschritt sozialer Forstschritt werden.
Mit dem Aufkommen Künstlicher Intelligenz haben viele Unternehmen und Verbände begonnen, ethische Leitlinien und Prinzipien für den zukünftigen Umgang mit KI zu formulieren. Auch die von der EU eingesetzte High-Level Expert Group on Artificial Intelligence hat in der vergangenen Woche ihre Leitlinien vorgelegt, auf der globalen Ebene wird die OECD in Kürze folgen.
Es braucht wirksame Kontrollmechanismen
Unter allen Beteiligten besteht Einigkeit, dass wir eine KI wollen, die nachvollziehbar, transparent, diskriminierungsfrei, sicher und vertrauenswürdig ist. Wir sind uns sicher: Der Erfolg der Künstlichen Intelligenz wird nicht davon abhängen, wie viele neue Produkte wir entwickeln, sondern davon, ob die Menschen Vertrauen in diese Technologie und ihre Anwendung haben.
Und dieses Vertrauen muss erworben und immer wieder aufs Neue unter Beweis gestellt werden. Wir dürfen bei der Debatte um den Umgang mit Künstlicher Intelligenz nicht auf halber Strecke stehen bleiben oder uns nur auf die Technologie fokussieren. Wir brauchen wirksame Regularien, Standards und Kontrollmechanismen, um die ethischen Leitlinien und Prinzipien zum Umgang mit Künstlicher Intelligenz in der Praxis ebenso umzusetzen, wie Arbeits- und Sozialrechte zu wahren.
Ob Chatbots, die unsere Serviceanfragen bearbeiten, Software, die Stellenbewerber bewertet, oder Algorithmen, die Entscheidungen über die Vergabe von Krediten treffen: Es geht um weitreichende Entscheidungen, die den Einzelnen und die gesamte Gesellschaft betreffen. Die Diskussion um das autonome Fahren zeigt, worum es im Kern geht: Die Nutzung von KI ist nicht nur eine Frage der Ethik, sondern eine Frage der Verantwortung, die klarer Regeln bedarf.
Wir müssen im Umgang mit Künstlicher Intelligenz die Sicherheit und den Schutz des Individuums sicherstellen sowie den gesellschaftlichen Nutzen erhöhen. Der Einsatz von gut gemachter Software zur Personalauswahl könnte zum Beispiel dazu führen, dass Bewerber unabhängig von menschlichen Vorurteilen ausgewählt werden.
Richtig umgesetzt können KI-Systeme Wohlstand schaffen und die Gesellschaft gerechter und sicherer machen. Wenn Grundwerte von Anfang an in den Systemen verankert werden, kann KI Diskriminierungen und Benachteiligungen aufdecken und abbauen.
Die Frage, wer die Verantwortung für mögliche Fehler von Künstlicher Intelligenz trägt, ist derzeit nicht eindeutig geklärt.
Der Mensch muss in der Verantwortung bleiben
Wenn Algorithmen zukünftig in immer größerem Umfang Aufgaben und Entscheidungen für den Menschen vorbereiten oder gar übernehmen sollen, brauchen wir klare Regeln und Rechtssicherheit. Ohne diese wird es kein Vertrauen in die Anwendung von KI geben.
Algorithmenbasierte Entscheidungssysteme müssen deshalb nachvollziehbar und überprüfbar gestaltet werden. Wir müssen von Anfang an die Voraussetzungen schaffen, die Entscheidung einer KI überprüfbar zu machen und gegebenenfalls dagegen vorgehen zu können, wenn zum Beispiel eine diskriminierende Entscheidung getroffen wurde oder eine Person zu Schaden kommt.
Ebenso muss gelten, dass Menschen die Letztverantwortung für derlei Entscheidungen behalten. Kein System kann perfekt sein, daher dürfen Fehler in der Technologie niemals als Alibi dienen.
Die Anwendung von Künstlicher Intelligenz braucht klare Regeln. Aber: Wir dürfen dabei nicht alle Anwendungen über einen Kamm scheren. Ob ein System eine Musikplaylist zusammenstellt oder eine medizinische Therapie empfiehlt, bringt sehr unterschiedliche regulatorische Anforderungen mit sich.
„Wir sind natürlich im Nachteil zu China und den USA“
Wir brauchen daher einen differenzierten Umgang mit KI. Entscheidend müssen der Kontext des jeweiligen Anwendungsbereichs, die Auswirkung auf den einzelnen Menschen, der Autonomiegrad der KI und das mögliche Schadenspotenzial sein.
Der Anspruch „KI made in Germany“ der deutschen KI Strategie muss dem Anspruch „Safety, Quality and Ethics by Design“ gleichermaßen gerecht werden. Und dort, wo Künstliche Intelligenz in besonders kritischen Bereichen zum ‧Einsatz kommt, wie zum Beispiel im Straßenverkehr, in Krankenhäusern oder in grundrechtsrelevanten und persönlichkeitssensiblen Bereichen, bedarf es regelmäßiger Kontrollen.
Test-, Auditierungs- und Zertifizierungsverfahren können dabei – neben staatlicher Aufsicht – ein bewährtes Mittel sein.
Keine Erosion von Grund- oder Arbeitnehmerrechten zulassen
Auch deshalb werden wir das Betriebsverfassungsgesetz überarbeiten und die Mitbestimmungsrechte des Betriebsrats bei der Einführung von KI in Unternehmen stärken. Mit der Datenethikkommission haben wir zudem hochrangige Expertinnen und Experten darum gebeten, Handlungsempfehlungen hierfür zu entwickeln. Dazu gehören wirksame Instrumente und Strukturen, mit denen wir die Umsetzung und Einhaltung dieser Regeln sicherstellen.
Der Anspruch einer „KI made in Germany“ muss noch weiter gehen. Sie ist auch als ein Gegenentwurf zu den Ansätzen der Staaten zu verstehen, die Künstliche Intelligenz für kommerzielle, staatliche oder machtpolitische Interessen nutzen. Es darf keine Erosion von Grund- und Arbeitnehmerrechten im Interesse einzelner Unternehmen oder Staaten geben.
Wer in Europa eine KI-Anwendung in den Verkehr bringt und betreibt, muss sich an unseren Werten orientieren und den rechtlichen und technischen Regularien zu deren Einhaltung und Durchsetzung folgen. Wir brauchen eine Gestaltung von Künstlicher Intelligenz auf europäischer Ebene, die unsere Werte schützt. Die Datenschutz-Grundverordnung hat erst kürzlich gezeigt, dass Europa in diesen Themen weltweit Maßstäbe setzen kann.
Daher sind wir uns sicher: Europa sollte mit großem Selbstvertrauen eigene Wege der Digitalisierung beschreiten. Denn ein menschenzentrierter Weg wird am Ende nicht nur gerechter, sondern auch wirtschaftlich erfolgreicher und nachhaltiger sein als der der großen Konkurrenten in den USA oder China.
Das Kommentieren dieses Artikels wurde deaktiviert.