1. Startseite
  2. Meinung
  3. Kolumnen
  4. Konsequente Produkthaftung ist der Schlüssel zur KI-Regulierung

Globale TrendsKonsequente Produkthaftung ist der Schlüssel zur KI-Regulierung

KI-Bosse warnen mehr vor den Risiken ihrer Schöpfungen, als deren Chancen herauszustellen. Wenn ihnen aber bei Missbrauch der Technologie Gefängnisstrafen drohen, werden sie für Sicherheit sorgen.Torsten Riecke 14.06.2023 - 10:44 Uhr
Artikel anhören

Nicht das technologische Mikromanagement des Staates bringt eine gute Regulierung.

Foto: IMAGO/Silas Stein

Von Wirtschaftsnobelpreisträger Robert Solow stammt die legendäre Beobachtung: „Das Computerzeitalter ist überall zu spüren, nur nicht in den Produktivitätsstatistiken.“ Das war 1987. Schaut man auf die meist stagnierenden Produktivitätsfortschritte in den 20 größten Industrie- und Schwellenländern (G20), rätseln wir heute immer noch über das sogenannte „Solow Computer Paradox“.

Der jüngste Durchbruch bei der Entwicklung der Künstlichen Intelligenz (KI) soll das jetzt ändern. Glaubt man einer jüngst erschienenen Prognose des McKinsey Global Institute (MGI), werden die lernenden Maschinen in der Weltwirtschaft einen wahren Produktivitätsschub auslösen.

Um bis zu 4,4 Billionen Dollar könnte die globale Wirtschaftsleistung jährlich zusätzlich wachsen, wenn Unternehmen die Effizienzpotenziale der neuen Technologie ausschöpfen. Das ist mehr als das gesamte Bruttoinlandsprodukt Großbritanniens.

Angesichts solcher Prognosen erstaunt es umso mehr, dass die Zukunftsmacher der Künstlichen Intelligenz derzeit mehr vor den Risiken ihrer Schöpfungen warnen, als deren Chancen herauszustellen. Die Warnungen der KI-Bosse von OpenAI, Google und Co. vor einer Machtübernahme der intelligenten Maschinen und dem Ende der Menschheit erinnern an die verzweifelten Mahnungen Victor Frankensteins in Mary Shelleys gleichnamiger Saga. Zugleich wirken die öffentlichen Aufrufe der KI-Schöpfer wie die frühzeitige Bitte von Missetätern um eine Generalamnestie.

Das führt zu der zentralen Frage in der globalen Debatte über die richtige Regulierung der Künstlichen Intelligenz: Wer sollte für die von KI-Algorithmen getroffenen Entscheidungen zur Verantwortung gezogen werden? Die Antwort darauf – und nicht der Versuch von staatlichen Aufsichtsbehörden, mit einem Mikromanagement den technischen Fortschritt zu steuern – sollte die künftige Regulierung der Künstlichen Intelligenz leiten.

Idee einer Selbstverpflichtung

Ähnlich wie bei der Entwicklung neuer Heilmittel oder Finanzprodukte kann die Haftung für mögliche Schäden, die durch den Einsatz Künstlicher Intelligenz verursacht wurden, ein zentraler Hebel sein, um die Kreativität der Tech-Pioniere in die richtigen Bahnen zu lenken.

Wenn die Vorstandschefs großer Technologieunternehmen mit Gefängnisstrafen rechnen müssen, sollten Kriminelle oder Diktatoren ihre intelligenten Produkte missbrauchen, werden sie alles daransetzen, um die Technologien sicherer zu machen.

Die Idee einer Selbstverpflichtung der Unternehmen bei der Entwicklung Künstlicher Intelligenz ist deshalb gar nicht so weltfremd, wenn sie mit einer strikten Haftung für den Missbrauch kombiniert wird.

Damit wird die Kontrolle des technischen Fortschritts stärker auf seine Quelle und damit in die Unternehmen verlagert. Es sind dann nicht nur scheinbar allwissende Staatswächter, die den Entwicklern über die Schultern schauen, sondern die Zukunftsmacher selbst haben ein existenzielles Interesse daran, dass ihre Schöpfungen dem hippokratischen Eid folgen: Do no harm!

Handelsblatt-International-Correspondent Torsten Riecke analysiert jede Woche in seiner Kolumne interessante Daten und Trends aus aller Welt. Sie erreichen ihn unter riecke@handelsblatt.com

Foto: Klawe Rzeczy

Alle Risiken der Künstlichen Intelligenz lassen sich dadurch jedoch nicht ausschließen. Die Idee einer strikten Haftung funktioniert nur, wenn sie konsequent umgesetzt wird. Nur dann sorgen die Anreize von Anfang an dafür, dass technologische Missbräuche unterbleiben beziehungsweise ausreichende Kontrollen mitentwickelt werden. Gelingt es Big Tech mithilfe des politischen Lobbyings aber, sich aus der Haftung zu stehlen, ist die Haftung bestenfalls ein Reparaturbetrieb.

KI muss zum ständigen Motor schöpferischer Zerstörung werden

Umso wichtiger ist es deshalb, die wirtschaftliche und politische Macht von Big Tech zu begrenzen. Das wird nur gelingen, wenn nicht nur ein kleiner Kreis mächtiger Tech-Konzerne die wirtschaftlichen Erfolge des Einsatzes intelligenter Maschinen einfahren kann, sondern die KI-Technologie als „Open Source“ ein ständiger Motor für Disruption und „schöpferische Zerstörung“ wird.

All das lässt sich auf internationaler Ebene jedoch nur im Kreise gleichgesinnter Nationen umsetzen. Den Einsatz Künstlicher Intelligenz durch Diktaturen wie in China oder Russland wird man dadurch bestenfalls nur mittelbar beeinflussen können.

Verwandte Themen
Künstliche Intelligenz
Software
Digitalisierung

Umso wichtiger ist es deshalb, dass sich die EU, die USA und die restlichen G7-Staaten auf gemeinsame Leitlinien für eine Regulierung der Künstlichen Intelligenz einigen. Nur dann wird man endlich auch die Produktivitätsgewinne sehen, auf die wir schon so lange warten.

Mehr zum Thema
Unsere Partner
Anzeige
remind.me
Jetziges Strom-/Gaspreistief nutzen, bevor die Preise wieder steigen
Anzeige
Homeday
Immobilienbewertung von Homeday - kostenlos, unverbindlich & schnell
Anzeige
IT Boltwise
Fachmagazin in Deutschland mit Fokus auf Künstliche Intelligenz und Robotik
Anzeige
Presseportal
Direkt hier lesen!
Anzeige
STELLENMARKT
Mit unserem Karriere-Portal den Traumjob finden
Anzeige
Expertentesten.de
Produktvergleich - schnell zum besten Produkt