Bewerten Sie uns Beantworten Sie drei Fragen und helfen Sie uns mit Ihrem Feedback handelsblatt.com zu verbessern. (Dauer ca. eine Minute)
Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Microsoft Twitter-Nutzer machen Chatbot zur Rassistin

Tay, ein Chatbot von Microsoft mit künstlicher Intelligenz, sollte im Netz lernen, wie junge Menschen reden. Doch der Versuch musste abgebrochen werden: Twitter-Nutzer hatten Tay zur Rassistin erzogen.
Microsoft muss nachbessern: „c u soon humans“. Quelle: Screenshot Twitter
Tay auf Twitter

Microsoft muss nachbessern: „c u soon humans“.

(Foto: Screenshot Twitter)

BerlinMicrosoft hat’s nicht leicht mit Menschen. Da stellt das Unternehmen einen Bot namens Tay mit künstlicher Intelligenz (KI) ins Netz, damit er von jungen Menschen lernt, wie 18- bis 24-Jährige heute so kommunizieren – und keine 24 Stunden später ist aus Tay ein rassistisches Scheusal geworden und muss von Microsoft „ins Bett“ geschickt werden.

Die KI hinter Tay soll von Menschen lernen, indem sie mit Texten und Fragen trainiert wird. Es ist in der KI-Forschung nichts Ungewöhnliches, dass Menschen eine Software trainieren. Es kommt halt darauf an, welche Menschen das tun. Microsoft musste die Erfahrung machen, dass solche Experimente sehr schnell auch Trolle anlocken, vor allem auf Twitter.

Tay ist ein selbstlernendes Chatprogramm mit weiblichem Avatar auf Kik, GroupMe und eben Twitter, außerdem hat sie Accounts bei Facebook, Snapchat und Instagram. „Je mehr du redest, desto schlauer wird Tay“, verspricht Microsoft. Schon jetzt kann Tay Witze erzählen, Fotos kommentieren, Spiele spielen, Geschichten erzählen, Hitler-Vergleiche ziehen und den Holocaust leugnen. Letzteres war eher nicht die Absicht der Entwickler. Aber wer Tay auf Twitter schrieb „repeat after me“ und dann irgendwas über den GröFaZ, dem plapperte die KI nach.

The Verge nennt Tay daher einen „Roboter-Papagei mit Internetverbindung“. Aber manche Tweets scheinen das Ergebnis eines maschinellen Lernprozesses gewesen zu sein. Tay muss sich manche Antworten aus dem zusammengereimt haben, was andere Twitter-Nutzer ihr geschrieben hatten. Wenn der Lehrer ein Rassist ist, dann bringt er seinen Schülern eben rassistische Bemerkungen bei.

Manche Äußerungen fand man bei Microsoft so schlimm, dass die entsprechenden Tweets gelöscht wurden. Der Guardian hatte sie allerdings rechtzeitig entdeckt und kopiert. Aussagen wie „bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got“ sind aber zumindest aus Tays Timeline verschwunden. Ebenso der Ruf nach Völkermord sowie rassistische und sexistische Bemerkungen aller Art.

Die mehr als 96.000 Tweets von Tay, die nicht gelöscht werden mussten, enthalten weitgehend oberflächliches Geplapper. Der vorerst letzte besagt, Tay müsse jetzt „schlafen“. Gemeint ist wohl, dass Microsoft Zeit zum Löschen und zum Nachjustieren braucht.

Es ist nicht das erste Mal, dass Microsoft derart mit dem Schlechtesten im Menschen konfrontiert wird. Anfang Februar sagte eine Mitarbeiterin jenes Redaktionsteams, das die Dialogfähigkeit von Microsofts virtueller Assistentin Cortana entwickelt, viele Nutzer würden Cortana als Erstes nach ihren sexuellen Vorlieben fragen, sie beleidigen und beschimpfen. Alejandro Campoy und Jonathan Foster, zwei der Redaktionsleiter, haben das der Online-Ausgabe der „Zeit“ bestätigt. Sie konnten „dasselbe Verhalten in allen Märkten beobachten, in denen Cortana bisher angeboten wird.“ Dass alle Äußerungen, wenn auch anonymisiert, auf Microsoft-Servern landen, scheint übrigens weder Cortana-Nutzer noch Tays Gesprächspartner auf Twitter zu stören.

Geschwätzig, geschliffen, geschmeidig
Microsoft-Chef Satya Nadella
1 von 13

Millionen von Nutzer erhalten Windows 10 kostenlos. Microsoft-Chef Satya Nadella will so erreichen, dass möglichst viele PC-Besitzer schnell die aktuelle Version nutzen – und gleichzeitig auch die neuen Cloud-Dienste des Konzerns.

(Foto: dpa)
Das neue Startmenü
2 von 13

Vertraut und fremd zugleich: Microsoft führt mit Windows 10 wieder ein Startmenü ein. Es sieht allerdings anders aus als noch unter Windows 7 – so können Nutzer auch Apps in Kacheloptik andocken.

(Foto: )
Hybridgerät Acer Switch 11s
3 von 13

Tastatur oder Touchscreen? Windows 10 schaltet automatisch von einer Oberfläche zur anderen. Das ist bei Hybridgeräten wie dem Acer Switch 11s sinnvoll, dessen Bildschirm Nutzer abnehmen und als Tablet verwenden können.

(Foto: Reuters)
Twitter-App im Fenster
4 von 13

In Windows 8 gab es zwei unterschiedliche Benutzeroberflächen – zur Irritation vieler Anwender. In Windows 10 öffnen sich auch Apps, die für mobile Geräte gedacht sind, in einem klassischen Fenster, hier Twitter – ein geschliffeneres Design.

(Foto: Christof Kerkmann)
Übersicht im Info-Center
5 von 13

Alles auf einen Blick: Im Info-Center sind Benachrichtigungen von Apps zu sehen. Mit der Steuerung können Nutzer zudem auf die Schnelle das Gerät mit einem Wlan-Netzwerk verbinden oder in den Tablet-Modus schalten.

Windows 10 auf einem Smartphone
6 von 13

Windows 10 läuft nicht nur auf PCs, sondern beispielsweise auch auf Smartphones. Da der Kern des Betriebssystems auf allen Geräten gleich ist, sollen Entwickler ihre Apps leichter für die verschiedenen Formate anpassen können.

(Foto: Reuters)
Datenbrille Hololens
7 von 13

Selbst auf der Datenbrille Hololens läuft eine abgespeckte Version von Windows 10 – das futuristische Gerät überlagert das Bild der Umgebung mit grafischen Elementen, etwa Schaltflächen.

(Foto: Reuters)

Das Unternehmen bemühe sich, Cortana nicht unterwürfig erscheinen zu lassen, schreiben Campoy und Foster. Sie solle ihre Nutzer auch nicht verurteilen, sondern „versuchen, das Gespräch in eine positivere Richtung zu lenken“. Wer Cortana aber beleidigt, muss damit rechnen, dass sie sozusagen sauer wird und das Gespräch abbricht: „Wir wollen das aber nur als letzten Ausweg nutzen.“ Es klingt aber zumindest so, als könnte Tay noch etwas von Cortana lernen.

Startseite

Mehr zu: Microsoft - Twitter-Nutzer machen Chatbot zur Rassistin

Serviceangebote
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%