Künstliche Intelligenz: Warum KI-Unternehmen strengere Gesetze fordern und die Politik nicht liefert
Altman und andere KI-Unternehmer wünschen sich strenge Gesetze. Kritiker sehen dahinter eine Strategie gegen kleinere Konkurrenten.
Foto: BloombergBerlin, Brüssel. Anfang der Woche war es wieder so weit. Der Chef der Firma OpenAI, Sam Altman, wandte sich mit einem neuen Vorschlag an die Politik, seine Technologie zu bändigen. Das Unternehmen hat das Sprachmodell ChatGPT entwickelt – eine Künstliche Intelligenz (KI), die seit Monaten für Aufsehen sorgt. Sie kann, sehr vereinfacht gesagt, große Texte analysieren und schreiben.
Niemand, sagte Sam Altman in Abu Dhabi, wolle damit „die Welt zerstören“. Aber Künstliche Intelligenz sei eine ernste und existenzielle Gefahr für die Menschheit. Deswegen brauche es eine Aufsichtsbehörde nach dem Vorbild der Internationalen Atomenergiebehörde.
So ist es seit Monaten: KI-Unternehmer treten mit apokalyptischer Sprache für eine Regulierung nach ihren Wünschen ein. Altman drohte gar mit einem Abzug aus Europa, Twitter- und Tesla-Chef Elon Musik wiederum forderte einen Entwicklungsstopp.
Diese Vehemenz setzt die Politik unter Druck, die sich bei der KI-Regulierung Zeit lässt. EU-weite Regeln für den richtigen Umgang mit KI gibt es derzeit nicht, die Mitgliedstaaten sind gespalten. Am kommenden Mittwoch will das Europaparlament seine Position zum sogenannten AI Act nach jahrelangen Verhandlungen beschließen. Daraufhin werden die EU-Länder eingebunden. Es sind alles entscheidende Wochen und Monate.