Studie Autos als Terrorwaffe, Enkeltrick per Roboter: So könnten Kriminelle KI nutzen

Mit Sprachaufnahmen und Porträtfotos könnten Roboter über KI trainiert werden, um besonders Ältere mit beispielsweise dem „Enkeltrick“ zu täuschen.
San Francisco Diese Fiktion ist nicht mehr weit von der Realität entfernt: Der alternde Juwelendieb Frank bringt seinen Haushaltsroboter das Schlösserknacken und Türenöffnen bei. Der elektronische Zimmergenosse Robot ist ein gelehriger Schüler – und erweist sich als Helfer in der Not, als zwielichtige Zugezogene Probleme machen: Nun öffnen nicht mehr Franks, sondern Robots ruhige Hände die Schlösser.
Was im Independent-Movie „Robot&Frank“ aus dem Jahr 2012 noch wie Science Fiction wirkte, könnte bald Realität sein. Videos zeigen jetzt schon Roboter der US-Firma Boston Dynamics, die Kartons schleppen, Türen öffnen, hinter sich wieder schließen und Treppen steigen.
Mit der entsprechenden Künstlichen Intelligenz (KI) ausgestattet, ließen sich Roboter nicht mehr nur zu Rettungseinsätzen schicken, sondern auch auf Raubzüge.
Flache Geräte wie heutige Staubsaugerroboter könnten durch Hundeklappen kriechen oder durch Briefschlitze geworfen werden, um von innen Türen oder Fenster zu entriegeln. Oder sie könnten direkt eigenständig Geld, Juwelen oder Autoschlüssel einsammeln und nach draußen bringen.
Jetzt die besten Jobs finden und
per E-Mail benachrichtigt werden.
Das University College London hat sich mit dem Thema Verbrechen der Zukunft im Zeitalter der Künstlichen Intelligenz in einer Studie unter Leitung von Lewis Griffin beschäftigt und die möglichen Tatfelder nach Gefährlichkeit und Lukrativität sortiert. Ein Einbrecher-Bot wäre relativ einfach zu stoppen, indem Postschlitz und Hundeklappe zugenagelt werden.
Auch die Profitabilität für die Gangster wäre nicht sehr groß. Es wären immer Einzelobjekte, die mühselig ausgeraubt werden müssten. Der Erfolg wäre mehr als unsicher.
Autohersteller in der Verantwortung
Cybercrime mit KI, egal ob mit oder ohne Roboter, lebt aber von der Skalierbarkeit – also der Chance, möglichst häufig, möglichst viel Schaden mit minimalem Aufwand anzurichten. Prägnante Beispiele wären hier „deep fake“-Videos oder Telefonate mit täuschend echt nachgemachten Stimmen und Videos.
Diese Technik ist heute bereits Realität. Viele Menschen haben Sprachaufnahmen und Porträtfotos von sich auf sozialen Netzwerken, mit denen Videos erstellt und KI trainiert werden kann. Der „Enkeltrick“ könnte so völlig neue Dimensionen erreichen.
Laut der Studie des University College stellen selbst fahrerlose Autos potenzielle Gefahrenquellen dar, die nicht unterschätzt werden dürfen. Es könnten auch relativ preisgünstige und risikolose Waffen für Terroristen sein, die – mit Sprengstoff gefüllt und ohne Fahrer – auf ihr Ziel zusteuern. Sie könnten ebenso für Diebe in Schaufensterscheiben oder Tore von Lagerhallen gelenkt werden. Die Autohersteller trügen hier eine hohe Verantwortung, ihre Systeme abzusichern.
Als besonders gefährlich erachten die Teilnehmer der Studie skalierbare Cyberangriffe, die hohe Schäden an Infrastruktur oder hohe Opferzahlen fordern, etwa Angriffe auf Strom- oder Wasserversorgung oder Krankenhäuser. Dabei könnten auch Künstliche Intelligenzen gegeneinander eingesetzt werden, um die systematischen Schwachstellen der anderen KI zu finden und sie außer Gefecht zu setzen.
Unternehmer sollten den Forschern zufolge dringend bedenken, dass eine KI hochgradig personalisierte Phishing-Angriffe auf ihre Organisationen und Mitarbeiter fahren könnte. Dabei könnten Daten mit Viren- oder Schadprogrammen gelöscht oder verschlüsselt werden. Und dann könnten hohe Lösegelder gefordert werden.
Mehr: Unternehmen sehen Cyberkriminalität als größtes Risiko
Das Kommentieren dieses Artikels wurde deaktiviert.