Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Sprachassistenten Wie smarte Lautsprecher zu Spionen werden

Aus smarten Geräten können leicht smarte Wanzen werden: Forschern ist es gelungen, Geräte von Google und Amazon so zu manipulieren, dass sie Nutzer unbemerkt abhören konnten.
Kommentieren
Sicherheit bei smarten Lautsprechern ist so schwierig zu garantieren wie bei Handys oder E-Mails. Quelle: AP
Amazon Echo Dot

Sicherheit bei smarten Lautsprechern ist so schwierig zu garantieren wie bei Handys oder E-Mails.

(Foto: AP)

Düsseldorf Aus einem smarten Lautsprecher kann eine Wanze werden. Das haben Sicherheitsforscher der Berliner Security Research Labs vorgeführt. Sie konnten den Google Home und den Amazon Echo so manipulieren, dass Nutzer unbemerkt abgehört werden können.

Die Unternehmen haben bereits reagiert. Der Fall zeigt aber: Sicherheit bei smarten Lautsprechern ist so schwierig zu garantieren wie bei Smartphones und E-Mails. Die Nutzer müssen auch selbst aufpassen.

Dass Anbieter ihre Nutzer von Sprachaufnahmefunktionen abhören können, ist spätestens seit dem Sommer bekannt. Externe Mitarbeiter hatten Medien darüber informiert, dass sie Sprachaufnahmen von Nutzern ohne deren Wissen anhören und abtippen sollten.

Diese Methode haben Facebook, Google, Amazon und Apple angewendet, um die Technologie zu verbessern und künftig Missverständnisse mit den Geräten zu vermeiden. Wegen dieser Vorgehensweise sind viele Menschen gegenüber den US-Konzernen misstrauisch, wenn es um Datenschutz geht.

Die intelligenten Geräte mit Lautsprecher und Mikrofon sollen Helfer im Alltag sein. Die Grundfunktion besteht darin, den Nutzern Fragen nach dem Wetter, einer Verkehrsverbindung oder Angeboten zu beantworten. Im vernetzten Zuhause können die smarten Lautsprecher auch Befehle ausführen wie Musik abspielen, das Licht anmachen oder die Rollos runterfahren.

Ähnlich wie bei Smartphones können die Funktionen der Geräte durch Apps von externen Anbietern erweitert werden. Über solche Software gelang es den Sicherheitsforschern nun, heimlich mitzuhören – über die Befehle hinaus. Sie bezeichneten die manipulierten Geräte als „smarte Spione“.

Die Tech-Konzerne überprüfen die „Skills“ nach eigenen Angaben, bevor Nutzer sie auf den Geräten installieren können. Die Forscher Luise Frerichs und Fabian Bräunlein fanden aber einen Weg, die Kontrolleure zu überlisten.

Horoskop-App zum Spionieren

Für den Lauschangriff haben sie im Fall von Amazons Alexa eine Horoskop-App zum Spionieren benutzt. Sie liest Nutzern ihr Horoskop vor, wenn diese ihre Sternzeichnen nennen. Mit dem Befehl „Alexa, stopp“, lässt sich die App dann beenden.

Frerichs und Bräunlein haben den Code im Hintergrund der App nach der Freigabe durch Amazon geändert. Weil keine erneute Prüfung ausgelöst wurde, blieb unbemerkt, dass das Programm nun nach dem Stopp-Kommando weiterlief. Auf diese Weise kann alles aufgezeichnet werden, was in Hörweite des Speakers anschließend besprochen wird.

Die einzige Voraussetzung ist ein vorprogrammiertes Kommandowort, dass die Aufnahme startet. Frerichs und Bräunlein wählten „ich“ – ein Wort, das fast immer genutzt wird, wenn jemand persönliche Informationen preisgibt. Es lassen sich jedoch auch zahlreiche verschiedene solcher Aktivierungsworte hinterlegen.

Auch beim Google-Gerät konnten die Forscher eine geprüfte App nachträglich verändern, um so die Aufnahmefunktion unbemerkt zu aktivieren. Dazu nutzten sie eine Zufallsgenerator-App.

Nach dem Audiosignal, mit dem sich die App von den Nutzern normalerweise verabschiedet, lief das Gerät durch einen technischen Kniff weiter: Frerichs und Bräunlein haben den smarten Lautsprecher so programmiert, dass er nach einem weiteren Befehl fragen sollte – ihm allerdings eine unaussprechliche Zeichenkombination dafür vorgelegt. So blieb das Gerät stumm, wartete aber trotzdem und lief entsprechen weiter.

Außerdem gelang es den Sicherheitsforschern, Apps für die Google- und Amazon-Geräte nachträglich zu Phishing-Programmen umzuwandeln, mit denen Passwörter geklaut werden konnten. Sie schrieben in den Code, dass auf jede Nutzeranfrage eine Fehlermeldung erfolgen soll, bis das Gerät schließlich sagt, dass ein Update bereitstehe und es den Nutzer zur Ansage seines Passworts auffordert.

Sicherheitsvorkehrungen erhöhen

Google und Amazon wollen angesichts der offenbarten Sicherheitslücken ihre Sicherheitsvorkehrungen erhöhen. „Unsere Überprüfungsprozesse decken die Art des in diesem Bericht beschriebenen Verhaltens auf, entsprechend haben wir die von den Forschern entwickelten Actions gelöscht. Wir setzen zusätzliche Mechanismen ein, um derartiges in Zukunft zu unterbinden“, sagte eine Google-Sprecherin.

In einem Statement von Amazon heißt es: „Wir haben den betreffenden Skill umgehend blockiert und Schutzmaßnahmen ergriffen, um diese Art von Skill-Verhalten zu erkennen und zu verhindern. Skills werden abgelehnt oder entfernt, sobald ein solches Verhalten identifiziert wird.“

Nutzer sollten aber auch selbst darauf achten, ob sich ihre Geräte verdächtig verhalten. So wie Computernetzwerke via E-Mail mit Schadsoftware in Links und Anhängen angegriffen werden, können auch Smartphones und smarte Lautsprecher mit manipulierten Apps gehackt werden. Grundsätzlich gilt: Google und Amazon fragen das Passwort nie über die smarten Assistenten ab. Ob die Lautsprecher aktiviert sind, ist an den leuchtenden LEDs zu erkennen.

Mehr: Sprachtechnologie wie Alexa gilt als Schlüssel für die gesamte Techbranche. Aber die Realität ist von den kühnen Visionen noch weit entfernt.

Startseite

Mehr zu: Sprachassistenten - Wie smarte Lautsprecher zu Spionen werden

0 Kommentare zu "Sprachassistenten : Wie smarte Lautsprecher zu Spionen werden"

Das Kommentieren dieses Artikels wurde deaktiviert.