1. Startseite
  2. Meinung
  3. Kommentare
  4. Angst essen KI auf: Alarmismus hilft in der Technologiedebatte nicht weiter

KommentarAlarmismus hilft in der Technologiedebatte nicht weiter

Wer KI richtig regulieren will, muss mehr über ihre Chancen und genauer über ihre Risiken reden. Beginnen sollten wir mit einer Einsicht.Torsten Riecke 02.11.2023 - 17:23 Uhr
Artikel anhören

Elon Musk warnte am ersten Tag des Gipfeltreffens vor den Gefahren Künstlicher Intelligenz für die Menschheit. 

Foto: ddp/Marcel Grabowski / UK Government/eyevine

„Drückt die Pause-Taste!“, fordert eine Gruppe von Demonstranten, die sich vor dem von Sicherheitskräften streng abgeriegelten KI-Gipfel im englischen Bletchley Park versammelt hat. Die Protestler wollen auf existenzielle Risiken der Künstlichen Intelligenz hinweisen.

Drinnen scheinen die meisten der rund 100 Teilnehmer des Gipfeltreffens aus Politik, Wirtschaft und Wissenschaft ein ähnlich mulmiges Gefühl zu haben. In der Abschlusserklärung warnen 28 Länder vor „katastrophalen Gefahren“ beim Einsatz von KI. Von den Chancen der neuen Technologie findet sich dagegen kaum etwas in der „Bletchley Deklaration“. 

Wenn sich jetzt die Vertreter der großen Technologiekonzerne allerdings darüber beschweren, dass die KI-Skeptiker und ihr „moralischer Alarmismus“ die Hoheit über den Diskurs gewonnen hätten und so den Fortschritt hemmten, dann ist das wohlfeil.

Waren es doch die führenden Köpfe der Tech-Branche, die mit ihren Weltuntergangsszenarien Politiker und Öffentlichkeit erst aufgeschreckt haben. So bezeichnete Tech-Ikone Elon Musk noch in Bletchley Park Künstliche Intelligenz als eine der „größten Gefahren für die Menschheit“. 

Es ist dringend notwendig, dass wir die aufgeregte KI-Debatte zurück in rationale Bahnen lenken. Das heißt: Wir müssen mehr über die Chancen reden und genauer über die Risiken. Beginnen sollten wir mit der Einsicht, dass wir bislang nur erahnen können, welche Chancen und Risiken die neue Technologie mit sich bringt.

„Wir wissen im Moment nicht, wie wir ein KI-System bauen können, das sich so verhält, wie wir es wollen – also so, dass es mit unseren Werten, Normen, ethischen Grundsätzen, Gesetzen usw. übereinstimmt“, räumt Yoshua Bengio ein, einer der KI-Pioniere. 

Die Entwicklung von KI stoppen oder sei es nur eine Pause dabei einlegen zu wollen, indem wir den Entwicklern bereits früh Grenzen setzen, ist jedoch weder sinnvoll noch möglich. Voraussetzung für die Freiheit der Forschung sollte jedoch der hippokratische Eid sein: „First, do no harm.“ 

Handelsblatt Disrupt

Florian Stegmann über Verwaltungs-KI: „Das Interesse ist riesig“

12.10.2023
Abspielen 42:00

Außerdem müssen wir dafür sorgen, dass Künstliche Intelligenz nicht in falsche Hände gerät. Es ist deshalb wichtig und richtig, wenn auf dem Gipfel 28 Staaten – darunter auch die führenden KI-Nationen USA und China – gemeinsam dagegen vorgehen wollen, dass die Technologie in die Hände von Terroristen und Kriminellen fällt. 

Wenn das Risikomanagement der Innovation nicht im Wege stehen soll, müssen die staatlichen Risikomanager mehr über die Technologie wissen. Das bedeutet auch, die großen Tech-Konzerne, in deren Laboren die Pionierarbeit geleistet wird, müssen offenlegen, mit welchen Daten die maschinellen Schlaumeier gefüttert und mit welchen Algorithmen sie programmiert werden. 

Ob das zwangsläufig dazu führt, dass KI eine Open-Source-Technologie sein muss, ist damit noch nicht gesagt und selbst unter den Tech-Firmen umstritten. Die aktuelle Debatte darüber ist jedoch notwendig. Und sie kann nur gewinnen, je mehr Wettbewerb bei der Entwicklung Künstlicher Intelligenz herrscht.

Wer soll die KI-Entwicklung wie regulieren?

Wenn also der Staat frühzeitig eingreifen will, damit KI zu einem Segen und nicht zu einem Fluch wird, dann sollte er mit dem Mittel des Wettbewerbsrechts dafür sorgen, dass die Marktmacht von Big Tech dem nicht im Wege steht. 

Eine Schlüsselfrage bleibt dennoch: Wer soll eigentlich die KI-Entwicklung regulieren? Bislang setzen die führenden Industrienationen dabei auf eine freiwillige Selbstregulierung, wie der gerade von der G7 verabschiedete Verhaltenskodex zeigt.

Verwandte Themen
Elon Musk
Fake News
Internet

Auch hier gilt es, nüchtern und genau hinzusehen: Die negativen Erfahrungen mit der Selbstregulierung der sozialen Medien sprechen eindeutig dafür, dass man eben nicht den Bock zum Gärtner machen sollte. Allerdings sollten die Tech-Pioniere mit am Tisch der Aufseher sitzen.

Nur so ist es möglich, dass wir das Potenzial der neuen Technologie auch dafür nutzen, ihre Risiken zu minimieren – etwa um die Verbreitung von „fake news“ zu verhindern. Vielleicht werden wir dann im nächsten Jahr einen globalen Gipfel über die Chancen von KI erleben. 

Mehr zum Thema
Unsere Partner
Anzeige
remind.me
Jetziges Strom-/Gaspreistief nutzen, bevor die Preise wieder steigen
Anzeige
Homeday
Immobilienbewertung von Homeday - kostenlos, unverbindlich & schnell
Anzeige
IT Boltwise
Fachmagazin in Deutschland mit Fokus auf Künstliche Intelligenz und Robotik
Anzeige
Presseportal
Direkt hier lesen!
Anzeige
STELLENMARKT
Mit unserem Karriere-Portal den Traumjob finden
Anzeige
Expertentesten.de
Produktvergleich - schnell zum besten Produkt