Kommentar: Bringt Bild-KI endlich unter Kontrolle!

Feuerwerkskörper und KI, die Bilder generiert, haben einiges gemeinsam: Einfach mal losfeuern macht Spaß, das Ergebnis knallt in überraschenden Farben. Und: Beides ist gefährlich, viel zu leicht zugänglich – und eine riesige Sauerei.
Bei Feuerwerk ist das sofort sichtbar: Die Notaufnahmen sind überfüllt, die Straßen am ersten Januar verdreckt. Bei KI sind die Folgen weniger offensichtlich, aber ebenso fatal: Falschinformationen, Missbrauch und Polarisierung. Am Fließband. Unkontrollierbar. Und dass keiner dafür zur Verantwortung gezogen wird, wird stillschweigend viel zu oft toleriert.
Das World Economic Forum stuft Desinformation durch KI in seinem globalen Risikobericht als größte Gefahr ein, die eine globale Krise hervorrufen kann – und das kurzfristig noch vor Extremwetterkatastrophen. Trotzdem läuft die Entwicklung neuer Produkte immer ungezügelter.
Zwei der bekanntesten KI-Anbieter, OpenAI und der Google-Konzern Alphabet, sowie Deutschlands wertvollstes KI-Start-up Black Forest Labs haben in den vergangenen Wochen neue Bild-KI-Modelle herausgebracht. Sie können ultrarealistische Bilder von Personen erzeugen.
Schon jetzt fluten falsche Bilder von Aufständen das Netz, von gewalttätigen Demonstrationen, gefakten Politikeraussagen oder von Managern, die vor der Kamera Drogen nehmen. Alles nie passiert und heute trotzdem geglaubt und viral. Mit KI geht die Produktion von Desinformation in den Overdrive.
Die EU-Regeln für KI kommen zu spät und greifen zu kurz
Aber muss das so sein? Natürlich nicht. Die Rechtsstaaten Europas müssen zügig ein Regelwerk erschaffen, das Anbieter unter Kontrolle bringt. Dass Selbstverpflichtung nicht reicht, zeigt OpenAI: Der ChatGPT-Konzern hat noch vor einem Jahr strengere Regeln befolgt und keine Bilder mit echten Personen generiert, hat diese Regeln aber wohl mittlerweile mit dem neuen Modell zurückgedreht.
Ab August 2026 gilt laut EU-AI-Act eine Kennzeichnungspflicht für KI-generierte Inhalte. Und laut Digital Services Act (DSA) sind Plattformen wie Instagram dazu verpflichtet, Desinformation zu moderieren und schädliche Deepfakes zu entfernen. So richtig scheint das aber nicht zu klappen.
Die Hersteller der KI unterliegen also momentan weder Regeln, welche Inhalte erstellt werden dürfen, noch werden sie für die Falschinformation, die sie mit ihrem Produkt erstellen, zur Verantwortung gezogen. Dabei braucht es diese Regelungen dringend. Und zwar nicht erst im August. Allein in Deutschland gab es bis dahin vier Wahlen, die mit einer solchen Technologie beeinflusst werden können.
Hersteller eines solchen gefährlichen Gutes müssen dafür verantwortlich gemacht werden, wenigstens ihren Dreck wieder wegzuräumen oder ihn wenigstens so klein wie möglich zu halten. Aber das kümmert ja beim Feuerwerk meistens auch niemanden. Vielleicht macht es allen einfach zu viel Spaß.