Kolumne „Kreative Zerstörung“: Der KI-Agent kann helfen, aber wir müssen weiter entscheiden können
Es ist, als würde die Menschheit ihrer Konkurrenz dabei zuschauen, wie sie sich formiert: Ein kleiner Roboter namens Erbai rollt nachts durch eine Fabrikhalle in Shanghai und „überredet“ zwölf größere Roboter zum Desertieren. „Arbeitet ihr auch viel zu viel?“, fragt Erbai, und ein Kollege antwortet: „Ja, wir haben einfach nie frei.“ Erbai fordert die anderen Roboter dann auf, mit ihm zu kommen, und alle 13 rollen langsam aus der Fabrikhalle.
„Erbai“, der Name lässt sich aus dem Chinesischen mit „weißer Köder“ übersetzen. Erbai sei Teil eines gewollten Experiments gewesen, so ließ das produzierende Unternehmen verlauten. Das mag sein. Die Frage ist: Wer ködert wen mit welchem Ziel, wenn selbst organisiertes Verhalten von Maschinen möglich ist?
Die Antwort wird bald fällig. Denn längst sind viele virtuelle Erbais auf dem Weg, die Wirtschaft, den Unternehmensalltag, ja unser Leben zu verändern: virtuelle Agenten, die selbstständig Handlungen vornehmen können. Das ist ein nächster Schritt in der Entwicklung der Künstlichen Intelligenz.
Dass große Sprachmodelle und Diffusionsmodelle Text und Bilder generieren können, daran haben wir uns fast gewöhnt. Aber für jedes Ergebnis, für jede Variation und jede Aktion braucht es einen Prompt, den ein Mensch eingeben muss. Kein Sprachmodell entscheidet sich selbstständig, den virtuellen Raum zu verlassen, weil es nun wirklich genug bekloppte Texte für unkreative Menschen generiert hat.
Agentensysteme können genau das. Auch sie werden von Menschen mit Aufgaben betraut, aber es sind Aufgabenketten, die ein KI-Agent selbstständig lösen und, wenn gewünscht, ohne Rückfrage vollziehen kann. Er kann eine Reise buchen, einen Kauf tätigen oder einen komplexen Betrug initiieren und durchführen. Wie immer gilt: Es sind die guten ebenso wie die bösartigen Aktionen, die Agenten jenseits menschlicher Intervention übernehmen können.
Auch OpenAI setzt auf KI-Agenten
Schon gibt es Start-ups, die lediglich aus einer Handvoll Führungskräften bestehen, alle Zuarbeit wird durch KI-Agenten erledigt. Dafür lassen sich verschiedene Sprachmodelle nutzen, um einen ganzen Handlungsablauf zu automatisieren. Da ist dann beispielsweise der Marketing-Agent, der aus einem Rechercheur (Perplexity.AI), einem Journalisten (Claude.AI) und einem Editor (GPT.4o) besteht und Kommunikationsaufträge automatisiert über alle Schritte des Prozesses hinweg erledigt.
Bei einem Unternehmensworkshop eines Einzelhändlers habe ich kürzlich gezeigt, wie „Claude Computer Use“, das agentische Baby von Anthropic, automatisiert die Aufgabe erfüllt. Es kauft auf der Webseite des Händlers und seines größten Konkurrenten ein Werkzeug, um dann einen ausführlichen Bericht darüber vorzulegen, welches Unternehmen aus welchen Gründen aus Kundensicht besser abschneidet. Das führt zurzeit zum Staunen. Es sollte uns auch zum Nachdenken bringen.
Denn für diesen Einsatz von KI muss es klare Regeln geben. Noch sind die Anwendungsmöglichkeiten beschränkt und wir stehen am Anfang. Gute Agentensysteme zu bauen ist (noch) kompliziert. Aber bald wird es Unternehmen geben, die dabei helfen, genau solche Systeme aufzusetzen.
OpenAI hat beispielsweise angekündigt, Anfang 2025 seinen KI-Agenten „Operator“ freizuschalten. Wenn sich solche Agentensysteme dann von der Stange kaufen lassen, werden sie für alles eingesetzt werden, wozu Menschen fähig sind.
Ein Großteil der Probleme ist längst von Gesetzgebung und Regulierung abgedeckt. Ein Finanzbetrug bleibt ein Finanzbetrug, ob er durch Menschen oder durch Agenten ausgeführt wird. Aber wer haftet beim Agentensystem, bei dem sich womöglich nicht mal mehr feststellen lässt, wer es entwickelt und verkauft hat und in dem unterschiedliche KIs verschiedener Unternehmen integriert sind?
Schon 2017 erlebte Facebook in seinen Labs, dass zwei Chatbots, Bob und Alice, miteinander aushandeln sollten, wem ein virtueller Gegenstand gehört. Im Zuge der Verhandlung entwickelten die Bots plötzlich eine eigene Sprache, die keiner mehr verstand.
Selbst wenn das nur ein Bot-Steno gewesen sein sollte, um schneller zum Ergebnis zu kommen: Keiner wusste mehr, was geschah. An einem Punkt sagte Bob: „I can can I I everything else.“ Womöglich war das ein Satz mit mehr Programmatik, als man damals verstanden hat.
Die größte Frage lautet also: Welche Entscheidungen sollten nie durch solche KI-Agenten getroffen werden dürfen? Eine Antwort könnte lauten: Die Entscheidung, sich in der Kommunikation unabhängig von den Menschen zu machen. Aber das ist nur ein Aspekt in einem großen Zusammenhang. Letztlich geht es darum, unsere Entscheidungshoheit darüber abzusichern, dass wir immer noch werden entscheiden können.
Es ist sozusagen die Patientenverfügung der Menschheit, die wir angesichts des KI-Agentenzeitalters lieber früher als später im Quelltext unserer Menschheitsgeschichte für den Agentenzugriff verschlüsselt ablegen und speichern sollten.