Kommentar: ChatGPT ist keine Superintelligenz – aber trotzdem gefährlich


Da der Chat-Bot viel Zeit einsparen kann, plant bereits jetzt jede sechste Firma in Deutschland ChatGPT einzusetzen.
ChatGPT fasziniert und gruselt die Menschen weltweit gleichermaßen. Italien hat diese neue Form von Künstlicher Intelligenz (KI), die täuschend menschenähnlich Texte produziert, vorläufig verboten, weil sie die Privatsphäre nicht respektiert. Forscher und Unternehmer fordern ein Moratorium bei der Entwicklung.
Das führt zu der Frage: Kann man technischen Fortschritt aufhalten? Und wenn ja, wäre es denn vernünftig? Wo also verläuft der richtige Weg zwischen Technikfurcht und blinder Fortschrittseuphorie? Geht es um Verbote, oder doch eher um eine gute Regulierung?
Es gibt gute Gründe für das Verbot mancher Technologien: etwa zur Veränderung des Erbgutes von Embryonen. Um menschenunwürdige Experimente zu verhindern, wird dabei bewusst medizin-technischer Fortschritt aufgehalten. Doch ist das mit ChatGPT, von Kritikern als mächtige Super-KI gefürchtet, vergleichbar?
Die Tatsache allein, dass die KI in Sekunden Texte schreibt, wofür Menschen Tage oder Wochen brauchen, kann kein Grund zur Panik sein. Schon jetzt plant jede sechste Firma in Deutschland, ChatGPT einzusetzen, schlicht weil der Bot viel Zeit sparen kann. Technischer Fortschritt soll das Leben erleichtern – sonst ist er sinnlos.
Landmaschinen pflügen und ernten schneller als wir, Züge fahren schneller als Pferde laufen, Röntgengeräte sehen, was das menschliche Auge nicht sieht, und rechnen können Computer weit besser als der Homo sapiens. Für solche Technologien wären Verbote unsinnig, es gibt aber gesetzliche Auflagen.
>> Lesen Sie auch: Wie gut können Algorithmen Geld anlegen?
Warum also die Aufregung um ChatGPT? Im Falle Italiens geht es um Datenschutz. Das ist legitim: Bei einer neuen Technologie muss zunächst geklärt werden, dass sie nicht schadet. Anders gelagert ist der Ruf von Tech-Pionieren – unter ihnen Tesla-Gründer Elon Musk – nach einer halbjährigen Entwicklungspause für diese KI. Hier sind Zweifel angebracht: Manchen Unterzeichnern geht es wohl eher um die Behinderung der vorauseilenden Konkurrenz.
Skeptisch machen sollte zudem die Dämonisierung der KI als mythische Superintelligenz, die den Menschen die Kontrolle über die Zivilisation raubt. Davon ist ChatGPT weit entfernt. Das Programm baut Texte nach Wahrscheinlichkeitsregeln zusammen und weiß selbst nicht, ob die Fakten stimmen.
So intelligent diese Programme wirken, so dumm sind sie zugleich. Deshalb wäre ein Stopp der Entwicklung, selbst wenn er durchsetzbar wäre, nur Aktionismus.
KI darf nicht zum Werkzeug der Macht werden
Dennoch muss KI wie ChatGPT zumindest in sensiblen Anwendungsbereichen reguliert werden. Nicht für einfache Dinge wie Anschreiben an Kunden oder Hausaufgaben. Selbst Zeugnisformulierungsvorschläge oder Arztbriefe brauchen keine gesetzliche Einhegung. Kritisch wird es jedoch überall dort, wo wie etwa in der Justiz hoheitliche Aufgaben betroffen sind, wo automatisierte Entscheidungen großen Schaden anrichten können – weit über den Datenschutz hinaus.
Bei KI geht es vor allem um Transparenz: Es muss klar sein, nach welchen Prinzipien sie funktioniert und mithilfe welcher Daten sie trainiert wird. Auf dieser Basis muss geregelt werden, wer sie auch in sensiblen Bereichen wie Justiz, Kreditvergabe, Medizin oder gar Waffeneinsatz unter welchen Bedingungen nutzen darf. Anderenfalls wird KI zu mächtigen, unkalkulierbaren Werkzeugen in Händen einiger weniger.






In den USA ist eine solche Regulierung nicht in Sicht. Die EU plant immerhin den AI Act. Er wird im günstigsten Fall schon 2023 verabschiedet – vermutlich aber doch noch später – und muss dann noch national umgesetzt werden. Die Zeit drängt.
Mehr: China und USA dominieren bei KI. Doch es gibt hoffnungsvolle Ansätze auch in Deutschland





