Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
 

Studie Autos als Terrorwaffe, Enkeltrick per Roboter: So könnten Kriminelle KI nutzen

Raub, Betrug und Anschläge mithilfe smarter Computerprogramme: Künstliche Intelligenz eröffnet Cyberkriminellen neue Möglichkeiten, wie das University College London analysiert hat.
11.09.2020 - 16:19 Uhr Kommentieren
Mit Sprachaufnahmen und Porträtfotos könnten Roboter über KI trainiert werden, um besonders Ältere mit beispielsweise dem „Enkeltrick“ zu täuschen. Quelle: dpa
Gesichtserkennungs-Software

Mit Sprachaufnahmen und Porträtfotos könnten Roboter über KI trainiert werden, um besonders Ältere mit beispielsweise dem „Enkeltrick“ zu täuschen.

(Foto: dpa)

San Francisco Diese Fiktion ist nicht mehr weit von der Realität entfernt: Der alternde Juwelendieb Frank bringt seinen Haushaltsroboter das Schlösserknacken und Türenöffnen bei. Der elektronische Zimmergenosse Robot ist ein gelehriger Schüler – und erweist sich als Helfer in der Not, als zwielichtige Zugezogene Probleme machen: Nun öffnen nicht mehr Franks, sondern Robots ruhige Hände die Schlösser.

Was im Independent-Movie „Robot&Frank“ aus dem Jahr 2012 noch wie Science Fiction wirkte, könnte bald Realität sein. Videos zeigen jetzt schon Roboter der US-Firma Boston Dynamics, die Kartons schleppen, Türen öffnen, hinter sich wieder schließen und Treppen steigen.

Mit der entsprechenden Künstlichen Intelligenz (KI) ausgestattet, ließen sich Roboter nicht mehr nur zu Rettungseinsätzen schicken, sondern auch auf Raubzüge.

Flache Geräte wie heutige Staubsaugerroboter könnten durch Hundeklappen kriechen oder durch Briefschlitze geworfen werden, um von innen Türen oder Fenster zu entriegeln. Oder sie könnten direkt eigenständig Geld, Juwelen oder Autoschlüssel einsammeln und nach draußen bringen.

Top-Jobs des Tages

Jetzt die besten Jobs finden und
per E-Mail benachrichtigt werden.

Standort erkennen

    Das University College London hat sich mit dem Thema Verbrechen der Zukunft im Zeitalter der Künstlichen Intelligenz in einer Studie unter Leitung von Lewis Griffin beschäftigt und die möglichen Tatfelder nach Gefährlichkeit und Lukrativität sortiert. Ein Einbrecher-Bot wäre relativ einfach zu stoppen, indem Postschlitz und Hundeklappe zugenagelt werden.

    Auch die Profitabilität für die Gangster wäre nicht sehr groß. Es wären immer Einzelobjekte, die mühselig ausgeraubt werden müssten. Der Erfolg wäre mehr als unsicher.

    Autohersteller in der Verantwortung

    Cybercrime mit KI, egal ob mit oder ohne Roboter, lebt aber von der Skalierbarkeit – also der Chance, möglichst häufig, möglichst viel Schaden mit minimalem Aufwand anzurichten. Prägnante Beispiele wären hier „deep fake“-Videos oder Telefonate mit täuschend echt nachgemachten Stimmen und Videos.

    Diese Technik ist heute bereits Realität. Viele Menschen haben Sprachaufnahmen und Porträtfotos von sich auf sozialen Netzwerken, mit denen Videos erstellt und KI trainiert werden kann. Der „Enkeltrick“ könnte so völlig neue Dimensionen erreichen.

    Laut der Studie des University College stellen selbst fahrerlose Autos potenzielle Gefahrenquellen dar, die nicht unterschätzt werden dürfen. Es könnten auch relativ preisgünstige und risikolose Waffen für Terroristen sein, die – mit Sprengstoff gefüllt und ohne Fahrer – auf ihr Ziel zusteuern. Sie könnten ebenso für Diebe in Schaufensterscheiben oder Tore von Lagerhallen gelenkt werden. Die Autohersteller trügen hier eine hohe Verantwortung, ihre Systeme abzusichern.

    Als besonders gefährlich erachten die Teilnehmer der Studie skalierbare Cyberangriffe, die hohe Schäden an Infrastruktur oder hohe Opferzahlen fordern, etwa Angriffe auf Strom- oder Wasserversorgung oder Krankenhäuser. Dabei könnten auch Künstliche Intelligenzen gegeneinander eingesetzt werden, um die systematischen Schwachstellen der anderen KI zu finden und sie außer Gefecht zu setzen.

    Unternehmer sollten den Forschern zufolge dringend bedenken, dass eine KI hochgradig personalisierte Phishing-Angriffe auf ihre Organisationen und Mitarbeiter fahren könnte. Dabei könnten Daten mit Viren- oder Schadprogrammen gelöscht oder verschlüsselt werden. Und dann könnten hohe Lösegelder gefordert werden.

    Mehr: Unternehmen sehen Cyberkriminalität als größtes Risiko

    Startseite
    Mehr zu: Studie - Autos als Terrorwaffe, Enkeltrick per Roboter: So könnten Kriminelle KI nutzen
    0 Kommentare zu "Studie: Autos als Terrorwaffe, Enkeltrick per Roboter: So könnten Kriminelle KI nutzen"

    Das Kommentieren dieses Artikels wurde deaktiviert.

    Zur Startseite
    -0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%