Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

David Limp im Interview Amazons Alexa-Chef: „Wir haben Fehler gemacht“

Beim umstrittenen Umgang mit Sprachaufzeichnungen räumt David Limp Versäumnisse ein. Dass Menschen die Aufnahmen abhören, hält er aber weiter für richtig.
Kommentieren
Amazon: Alexa-Chef räumt Fehler bei Sprachaufzeichnungen ein Quelle: Cameron Karsten für Handelsblatt
David Limp

„Als Branche haben wir es zu sehr als selbstverständlich angesehen, dass die Kunden wissen, wie Künstliche Intelligenz funktioniert.“

München Der Gerätechef des US-Internetkonzerns Amazon, David Limp, hat Versäumnisse im Umgang mit den umstrittenen Sprachaufzeichnungen des virtuellen Assistenten Alexa eingeräumt. „Wir haben Fehler gemacht. Aber wir haben in den vergangenen Monaten einiges unternommen, um Vertrauen zu schaffen“, sagte er dem Handelsblatt in einem Interview.

„Als Branche haben wir es zu sehr als selbstverständlich angesehen, dass die Kunden wissen, wie Künstliche Intelligenz funktioniert“, sagte Limp. „Die Branche hätte das klarer kommunizieren sollen. Wir sind noch Jahre davon entfernt, dass solche Systeme völlig ohne menschliche Überprüfung auskommen“, räumte er ein.

Amazon war in die Kritik geraten, nachdem bekannt geworden war, dass Sprachmitschnitte von Alexa von Menschen abgehört werden, um die Erkennungsqualität zu verbessern. Limp betonte, Amazon räume nun die Möglichkeit ein, Aufnahme zu löschen oder die Erfassung durch Menschen ganz auszuschalten.

Er verteidigte die Entscheidung des Konzerns, anders als der Konkurrent Google die Auswertung standardmäßig eingeschaltet zu lassen. Dieses sogenannte Opt-out ermögliche es Amazon, auf mehr Nutzerdaten zuzugreifen und so den Service weiter zu verbessern.

„Die Korrektur durch die Mitarbeiter ist für uns enorm wichtig. Bei jeder neuen Sprache und Funktion, die wir starten, wird die Erkennung innerhalb der ersten drei bis 18 Monate dramatisch besser. Solche Verbesserungen könnte es nicht geben, wenn wir so hohe Hürden für die Auswertung legen würden. Alexa wäre dann nicht so gut wie sie heute ist, und würde auch nicht besser“, sagte Limp.

Lesen Sie hier das komplette Interview mit David Limp

Herr Limp, Sie haben vor einigen Tagen neue Produkte vorgestellt. Kopfhörer und andere Geräte machen die Sprachassistentin Alexa mobil und integrieren sie in den mobilen Alltag. Was ist ihre Zukunftsvision für Alexa?
Unser Leitbild ist so etwas wie der Star-Trek-Computer: Alexa soll alle Antworten geben können, man soll sich mit ihr normal unterhalten. Bis wir so weit sind, wird es allerdings noch sehr lang dauern. Immerhin wird Alexa jeden Tag schlauer.

In der Realität klagen viele Nutzer die große Zahl von Missverständnissen.
Klar würden wir uns wünschen, da noch besser zu sein. Heute ist Alexa so weit wie ein vierjähriges Kind, bald vielleicht wie ein Grundschüler, dann wie Teenager und irgendwann erwachsen. Es soll eine ganz normale Konversation geben, in der die Nutzer beispielsweise ihren Feierabend planen: von der Auswahl eines Kinofilms über eine Reservierung in einem Restaurant beim Kino bis hin zum Taxi. Das geht heute schon mit 100 Millionen Alexa-fähigen Geräten.

Wir dachten bislang, der Versandhändler Amazon wolle mit Alexa die Leute dazu bringen, per Zuruf mehr bei Amazon zu kaufen. Tatsächlich aber zeigen Nutzerbefragungen, dass Alexa eher für simple Aufgaben wie Musikspielen und Lichteinschalten genutzt wird.
Die Leute nutzen die Geräte durchaus auch, um etwas zu bestellen. Besonders, wenn es um Alltagsgegenstände wie Katzenstreu oder Papierhandtücher geht. Bei Produkten wie einem Oberhemd wird es allerdings schwieriger. Da hilft ein Bild ungemein – deshalb bieten wir ja inzwischen auch Echo-Geräte mit Bildschirm an.

Was ist die Idee hinter den ganz neuen mobilen Geräten, etwa den Kopfhörern? Wollen Sie mehr Daten über ihre Kunden sammeln, während diese unterwegs sind?
Nein, wir reagieren damit schlicht auf die Nachfrage der Kunden. Viele nutzen Alexa zuhause für Musik. Das funktioniert so gut, dass sie die Wiedergabe auf ihrem Smartphone ebenso steuern wollen. Dafür sind unsere neuen Kopfhörer. Dazu kommen zwei neue Produkte im Prototyp-Status, die wir Day One Produkte nennen: Das sind ein Fingerring und eine Brille, über den Sie mit Alexa sprechen können. Wir wollen damit testen, ob die Leute diese ungewöhnliche Form der Geräte überhaupt haben wollen – denn mit tragbaren Geräten haben wir noch keine Erfahrung. Wiederum geht es nicht darum, Daten zu sammeln.

Analysten werfen Ihnen vor, kein Geschäftsmodell zu haben.
Wir haben sehr wohl gutes Geschäftsmodell für Hardware. Das haben wir bereits mit dem E-Reader Kindle bewiesen. Wir verkaufen die Geräte zum Selbstkostenpreis und verdienen dann an jedem gekauften Buch ein kleines bisschen.

Womit verdienen Sie bei den Echo-Geräten Geld?
Wir verdienen an den monatlichen Abo-Gebühren für Amazon Music oder Prime Video. Auch vom Smart Home können wir profitieren. Deshalb haben wir Alexa für andere Unternehmen geöffnet, die Anwendungen dafür programmieren.

Was haben die Kunden davon?
Jeder weiß, dass neu gekaufte Technik oft in der Schublade verschwindet, weil sie im Alltag doch nicht nützlich sind. Amazon hat ein eignes Interesse daran, dass Sie unsere Produkte nicht nur kaufen, sondern auch nutzen. Deshalb senden wir auch regelmäßig Software-Updates und verbessern so das Erlebnis für den Kunden – anders als einige andere Hersteller.

Hätten die Kunden nicht noch mehr Nutzen, wenn Sie Ihr Ökosystem öffnen würden? Der Google-Assistent hat beispielsweise in Deutschland noch keine Einkaufsfunktion – da käme doch Alexa wie gerufen.
Wir haben gerade ein Konsortium aus 30 Unternehmen zusammengestellt, die bei Sprachsteuerung kooperieren. Nehmen wir das Beispiel BMW: Für einige Aufgaben, etwa das Einschalten der Scheibenwischer, nutzen Sie künftig den BMW-Assistenten, bei anderen hilft Ihnen Alexa. Wir können BMW auch dabei helfen, die Online-Nachbestellung von Wischblättern einfacher zu machen – nur als Beispiel. Zugegeben: Google ist nicht dabei.

Immerhin nähern Sie sich Google an. Nutzer der Google-Streaming-Hardware Chromecast können seit einigen Tagen den Amazon-Videodienst wieder verwenden.
Wir sind schon lange Partner von Google. Wir sind ein großer Kunde und kaufen viel Werbung bei denen ein. Und schrittweise funktionieren viele unserer Produkte zusammen.

So harmonisch ist es noch nicht lange: Google hat seine Youtube-App für Fire TV gesperrt, nachdem Amazon einige Google-Hardware nicht mehr verkauft hatte. Daraufhin haben Sie die Chromecast-Funktion gesperrt.
Richtig, und das war für die Kunden nicht toll. Verstehen Sie mich nicht falsch, das sind Verhandlungsprozesse zwischen Unternehmen. Das geschieht meist hinter den Kulissen, in diesem Fall leider nicht. Wir haben das geklärt: Youtube ist wieder auf unserer Plattform Fire TV, Amazon Video im Gegenzug bei Chromecast. Und wir verkaufen inzwischen den Großteil der Google-Hardware. Derzeit gibt es noch einiges Ausnahmen, aber auch das ist Ergebnis unserer Verhandlungen.

Der Krieg ist also vorbei?
Krieg würde ich das nicht nennen. Das sind normale Vorgänge. Vor zwei Jahre gab es etwas ähnliches zwischen uns und Apple. Damals war Amazons Videodienst nicht bei Apple TV, und wir haben keine Apple-Produkte verkauft. Das hatte ganz andere Gründe als jetzt bei Google. Es war aber ebenso ärgerlich.

Beim Medien-Angebot und im E-Commerce ist Amazon anerkanntermaßen weit vorn. Aber fehlt Ihnen für einen guten Assistenten nicht das Wissen über die Nutzer – gerade im Wettbewerb etwa mit Googles Assistenten, der meine Mails und meinen Kalender genauso kennt wie mein Bewegungsprofil und zusätzlich jahrelange Erfahrung mit Suchmaschinen hat?
Eine Web-Suche über die Stimme funktioniert grundsätzlich anders als im Webbrowser. Sie wollen da keine lange Trefferliste, sondern die eine passende Antwort. Sicherlich bieten wir E-Mail und Kalender nicht an, aber wir nutzen offene Schnittstellen zu den Anbietern. Das ist genauso gut.

Das Vertrauen in die Sicherheit solcher Daten hat gelitten, nachdem im Frühjahr breit bekannt wurde, dass regelmäßig Menschen Alexa-Mitschnitte abhören.
Wir haben Fehler gemacht. Aber wir haben in den vergangenen Monaten einiges unternommen, um Vertrauen zu schaffen. Es gibt nun eine zentrale Stelle für Datenschutzeinstellungen, an der Nutzer sehen können, was gespeichert ist. Sie können Aufnahmen löschen und die Erfassung durch Menschen ausschalten können.

Der Konzern war in die Kritik geraten, nachdem bekannt geworden war, dass Sprachmitschnitte von Alexa von Menschen abgehört werden. Quelle: AP
Amazon Echo Dot

Der Konzern war in die Kritik geraten, nachdem bekannt geworden war, dass Sprachmitschnitte von Alexa von Menschen abgehört werden.

(Foto: AP)

Warum machen Sie es den Kunden so schwer? Wieso wählen Sie nicht die Opt-in-Variante, mit der Nutzer diese Erfassung nicht ausschalten müssen, sondern sie aktiv einschalten müssen, wenn sie das wollen?
Die Korrektur durch die Mitarbeiter ist für uns enorm wichtig. Bei jeder neuen Sprache und Funktion, die wir starten, wird die Erkennung innerhalb der ersten drei bis 18 Monate dramatisch besser. Solche Verbesserungen könnte es nicht geben, wenn wir so hohe Hürden für die Auswertung legen würden. Alexa wäre dann nicht so gut wie sie heute ist, und würde auch nicht besser.

Haben Sie dafür ein Beispiel?
Das Aktivierungswort „Alexa“ wird heute 50 Prozent zuverlässiger erkannt wird als noch vor einem Jahr. Das verhindert, dass wir versehentlich private Gespräche aufzeichnen, und ist Resultat des überwachten Lernens – mit Computer-Learning hätten wir das nicht mal annähernd erreicht. Die manuelle Sprachauswertung bringt also mehr Datenschutz, nicht weniger.

Google hat angekündigt, nur noch Sprachaufzeichnungen von Kunden abzuhören, die aktiv ihre Zustimmung gegeben haben. Glauben Sie, Ihr Konkurrent wird mit diesem Opt-in künftig zu wenig Sprachdateien für die Weiterentwicklung seines Assistenten haben?
Google befasst sich schon sehr lange mit Spracherkennung. Vielleicht haben sie eine neue Lerntechnik entwickelt, die wir nicht kennen. Aber das bezweifle ich. Es kann auch sein, dass sie bereits genügend Daten gespeichert haben, die sie nutzen können. Die Frage stellen Sie besser an Google.

Wäre es nicht trotzdem auch bei Alexa transparenter, die Nutzer per Opt-in im Vorfeld entscheiden zu lassen, ob sie zu dem Lernprozess beitragen wollen?
Ich denke, unsere Opt-Out-Variante nützt allen Kunden am meisten. Sie können ja jetzt entscheiden, beispielsweise können sie auswählen, ob die Sprachaufnahmen alle drei oder 18 Monate gelöscht werden. Als Standardeinstellung haben wir 18 Monate gewählt, denn in einigen Fällen wird die Erkennung mit saisonalen Daten besser – weil etwa nur einmal im Jahr nach dem Bierpreis auf dem Oktoberfest gefragt wird.

Wäre es nicht zumindest sinnvoll, wenn Alexa gleich beim ersten Einschalten laut einen Text sprechen würde, der darauf hinweist, dass Menschen möglicherweise zuhören, um die Technik zu verbessern?
Diesen Hinweis haben wir in ganz klarer Sprache dem Privacy-Hub hinzugefügt, wo man diese Funktion ausschalten kann. Eine Sache möchte ich noch hinzufügen: Als wir Alexa 2016 in London vorgestellt haben, konnte man das Produkt nur auf Einladung kaufen. Wir haben damals gesagt, dass wir Kunden suchen, um Alexa besser zu machen und dafür ihre Daten nutzen wollen. Das haben viele gemacht. Ich war dabei: Wir waren von Anfang an extrem transparent.

Frühe Käufer von neuer Technik sind sicherlich sehr interessiert und schauen sich solche Vorträge an. Doch inzwischen nutzen auch Großeltern Echo-Geräte, die sie von ihren Enkeln geschenkt bekommen haben. Diese Nutzer lesen sicher keine Tech-Blogs und rufen auch keine Privacy-Hubs auf…
Wir sind inzwischen im Massenmarkt und wir wollen so transparent wie möglich sein. Die Sprachansage ist ein guter Vorschlag. Wir wollen so offen gegenüber den Nutzern sein wie möglich.

Haben Sie eigentlich ein eigenes Team in Deutschland, das die Alexa-Daten anhört?
Meist sind lokale Sprachkenntnisse nötig, dann machen wir das nach Möglichkeit vor Ort – manchmal im Umfeld eine Universität.

Wie müssen wir uns das vorstellen? Haben Sie dafür ein eigenes Büro in ihrer Münchener Deutschlandzentrale?
Es gibt Büros, die aussehen, wie ein Büro eben aussieht: Leute sitzen vor einem Computer. Wo die genau sind, teilen wir nicht mit. Klar ist aber eins: Die Leute bekommen keine Informationen über die Kunden, sondern nur zufällig verteilte Sprachmitschnitte.

Was haben Sie aus der Daten-Diskussion gelernt?
Als Branche haben wir es zu sehr als selbstverständlich angesehen, dass die Kunden wissen, wie Künstliche Intelligenz funktioniert. Jede solche Anwendung beinhaltet manuelle Prüfung: Auch beispielsweise Navigations-Apps sind so präzise, wie sie heute sind, weil Menschen auf die von Nutzern gefahrenen Routen schauen und prüfen, ob die Angaben richtig waren. Die Branche hätte das klarer kommunizieren sollen. Wir sind noch Jahre davon entfernt, dass solche Systeme völlig ohne menschliche Überprüfung auskommen.

Wie verändert Alexa Amazon als Konzern? Heute sieht ja Amazon bereits niemand mehr als Buchhändler, sondern als digitales Kaufhaus und Cloud-Anbieter. Werden wir eines Tages als erstes an Alexa denken?
Unternehmen, die sich nicht verändern, scheitern. Wenige Großunternehmen, die vor 50 Jahren groß waren, existieren heute noch. Wir wollen nicht zu groß werden. Das Ziel von Amazon ist, nicht dem Großkonzern-Syndrom anheimzufallen und uns auszuruhen. Wir wollen innovativ bleiben. Daher pflanzen wir ständig neue Samen – so wie aktuell Alexa oder unser Filmstudio Amazon Originals. Wir scheitern dabei oft, aber aus einigen Samen wachsen große Bäume. In den nächsten 50 Jahren werden wir Amazon hoffentlich mehrfach neu erfunden haben.

Herr Limp, vielen Dank für das Interview.

Mehr: Amazon setzt massiv auf die eigene Sprachsoftware. Doch wie die neuen Alexa-Produkte das Geschäft des Onlinehändlers fördern sollen, bleibt unklar, kommentiert Handelsblatt-Autorin Larissa Holzki.

Startseite

Mehr zu: David Limp im Interview - Amazons Alexa-Chef: „Wir haben Fehler gemacht“

0 Kommentare zu "David Limp im Interview: Amazons Alexa-Chef: „Wir haben Fehler gemacht“"

Das Kommentieren dieses Artikels wurde deaktiviert.

Serviceangebote