Cybersicherheit: Wie Open-Source-KI Europas Cybersicherheit bedroht
Düsseldorf. Der Start von ChatGPT im November 2022 löste einen Schock in der Cybersicherheitslandschaft aus. Können Kriminelle die Werkzeuge nutzen, um massenhaft Computersysteme zu kapern? Die Angriffswelle blieb zunächst aus. Das könnte sich nun ändern. Der Grund sind mächtige, frei nutzbare KI-Modelle, sogenannte Open-Source-Modelle, für die traditionelle Sicherheitsmechanismen nicht greifen.
Thomas Tschersich, Sicherheitschef der Deutschen Telekom, sagt: „Open-Source-Modelle wie Deepseek machen es einfacher, Cyberwaffen zu trainieren – und das passiert längst.“ Die Angreifer nutzten dieselben KI-Werkzeuge wie die Verteidiger, nur eben für „die dunkle Seite“.
Cisco-Manager Jeetu Patel warnte: „Cyberattacken passieren nicht mehr in Menschengeschwindigkeit, sondern in Maschinengeschwindigkeit.“ Der Markt wird überschwemmt mit mächtigen, frei zugänglichen Modellen – eine Herausforderung für jeden bisherigen Schutzmechanismus.
Open Source steht für Transparenz, Zusammenarbeit und Innovation. In der Cybersicherheit jedoch kann diese Offenheit zur Achillesferse werden. Denn dieselbe Offenheit, die Verteidigern hilft, bessere Tools zu bauen, erlaubt es auch Angreifern, die Werkzeuge umzuprogrammieren, zu testen – und auszunutzen.
Während proprietäre Modelle bestimmte Nutzungen einschränken oder Angriffe erkennen können, fehlen solche Sicherheitsnetze bei Open-Source-Varianten oft komplett. Die Folge: Die Verteidigungsmittel sind für beide Seiten identisch – doch die Angreifer haben oft den Zeitvorteil.
Der Erfolg der offenen Modelle des chinesischen Start-ups Deepseek verändert die Entwicklungen in der Branche. Immer mehr Firmen haben angekündigt, ihre Modelle frei zur Verfügung zu stellen. Das macht deren Einsatz einfach. Kunden können die Systeme besser an ihre Bedürfnisse anpassen und haben potenziell geringere Kosten.
Bald könnte es ChatGPT „Open Source“ geben
ChatGPT ist bekannt für relativ enge Sicherheitsvorgaben. Viele Eingaben lehnt das System einfach ab. Das Team von OpenAI hat den Textroboter bewusst mit diesen Fesseln versehen. Doch diese dürften bald fallen.
OpenAI-Chef Sam Altman kündigte auf der TED-Konferenz in Vancouver im April einen Kurswechsel an. Statt verschlossener Systeme werde OpenAI auch wieder offene Systeme auf den Markt bringen. „Wir werden ein sehr leistungsfähiges Open-Source-Modell veröffentlichen. Ich halte das für wichtig“, sagte Altman. Dieses Modell werde von der Leistungsfähigkeit nahezu gleichauf mit den besten Modellen der Welt liegen.
Dabei warnte Altman zugleich vor möglichen negativen Konsequenzen. „Natürlich wird es nicht nur positive Anwendungen geben“, räumte er ein. Ein offenes Modell bedeute, dass Sicherheitsvorkehrungen wegfallen.
Dark-GPT, MachiavelliGPT und EvilAI
Für Cybersicherheitsexperten ist es schwer zu bewerten, wie weit KI-Werkzeuge bereits von böswilligen Hackern eingesetzt werden. Ein Forscherteam um Zilong Lin von der Indiana University Bloomington hat erstmals systematisch untersucht, wie KI-Systeme für Cyberattacken genutzt werden. Dabei werteten die Forscher 198 Projekte aus, wie Dark-GPT, MachiavelliGPT und EvilAI.
Die Technology Experience Convention Heilbronn (TECH) ist die neue Zukunfts-Konferenz von Handelsblatt und Schwarz Digits. Vom 25. bis 27. Mai 2025 kommen in Heilbronn Expertinnen und Experten aus Wirtschaft, Politik, Wissenschaft und Technologie zusammen. Sie können alle Inhalte auch live im Stream verfolgen: Blue Stage: Zum Livestream | Purple Stage: Zum Livestream
Diese Systeme bezeichnet das Forscherteam als Malla, das Wort setzt sich aus „Malicious“ (bösartig) und „LLM“ (Large Language Model) zusammen. „Mit Malla können selbst Personen mit begrenzten technischen Fähigkeiten komplexe Cyberangriffe durchführen – das hebt die Bedrohungslage auf ein bislang ungekanntes Niveau“, heißt es in dem Papier.
Die Forschenden von der Indiana University warnen: „Ihr potenzieller Missbrauch verschärft nicht nur bestehende Sicherheitsprobleme, sondern wirft auch Zweifel an der Zuverlässigkeit und Vertrauenswürdigkeit modernster LLM-Technologien auf.“ Mit neuen Open-Source-Modellen könnte sich die Lage verschlimmern.
Der Cybersicherheitsspezialist Crowdstrike registriert in seinem jährlichen Bericht zur Bedrohungslage in diesem Jahr einen starken Anstieg bei Attacken, die sich auf KI-Werkzeuge stützen. So schleusten Angreifer Bewerber mit gefälschten Bildern und sogar gefälschten Videos bei virtuellen Vorstellungsgesprächen in Firmen ein, berichtete Crowdstrike.
Zudem registrierte die Firma, dass bei Attacken zunehmend neuer Code für Angriffe verwendet wurde. Vermutlich wurde dieser Schadcode von KI-Systemen generiert. Das ist besonders relevant, denn viele Virenscanner und andere Verteidigungsprogramme beruhen darauf, bekannte Schadmuster zu erkennen, um Attacken abzuwehren. Kreiert eine KI jedoch völlig neuen Code, ist dieser besonders schwer als schädlich zu erkennen.
Crowdstrike hat eine Attacke der Gruppe APT INC dokumentiert, bei der manipulierter Code dazu führte, dass bei einer Opfer-Firma Daten gelöscht wurden. Der Code der Schadsoftware gebe Hinweise darauf, dass er nicht von einem versierten Hacker, sondern von einem KI-Modell geschrieben wurde, schrieb das Team von Crowdstrike in der Analyse.
KI in der Cyber-Verteidigung
Firmen in Europa sind dieser neuen Form der Bedrohung aber nicht hilflos ausgeliefert. Auch Sicherheitsfirmen setzen vermehrt Künstliche Intelligenz ein. Cisco-Manager Patel hat im April ein neues Open-Source-Modell der Firma vorgestellt, das speziell für die Abwehr von Cyberattacken entwickelt wurde.
Das Modell mit dem langen Namen „Llama-3.1-FoundationAI-SecurityLLM-base-8B“ soll Verteidigern ähnliche Möglichkeiten wie Angreifern geben. Die KI soll besonders gut darin sein, automatisiert Angriffe abzuwehren. Und da es sich hier auch um ein Open-Source-Modell handelt, sollen Verteidiger mehr Freiheiten im Einsatz des Werkzeugs bekommen.
Erstpublikation: 22.05.2025, 16:00 Uhr.