Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Zum The Spark - der deutsche Digitalpreis Special von Handelsblatt Online

Künstliche Intelligenz Auch Roboter entwickeln Vorurteile

Auch intelligente Maschinen können Vorurteile entwickeln, wie eine aktuelle Untersuchung zeigt. Sie brauchen dazu nicht einmal menschliche Vorbilder.
Kommentieren
Auch eine reine Maschinenwelt wäre wohl nicht frei von Vorurteilen. (Foto: dpa)
Vorurteile in der Maschinenwelt

Auch eine reine Maschinenwelt wäre wohl nicht frei von Vorurteilen. (Foto: dpa)

BerlinNur wenige Stunden benötigte Tay, um sich von einem harmlosen Chatprogramm auf Twitter in einen frauenverachtenden Rassisten mit Sympathien für Adolf Hitler zu verwandeln. Der im März 2016 von Microsoft gestartete Versuch, einen Chatbot mit künstlicher Intelligenz (KI) allein durch den Austausch mit Twitter-Nutzern lernen zu lassen, war damit krachend gescheitert.

Statt durch die Kommunikation mit der realen Welt immer klüger zu werden, hatte Tay vor allem Vorurteile und Verschwörungstheorien übernommen und sich in kurzer Zeit zu einem veritablen Troll entwickelt. Nur 16 Stunden nach seinem Start wurde der Chatbot wieder abgeschaltet.

Das Beispiel offenbart, wie anfällig auch KI für die Entwicklung von Vorurteilen sein kann. Im Fall von Tay waren es offenbar gezielte Angriffe, mit denen einzelne Nutzer den Chatbot zum Rassisten „umprogrammierten“. Doch überall, wo Maschinen von Menschen programmiert oder mit Daten gefüttert werden, können menschliche Vorurteile in die maschinelle Intelligenz einfließen. Und selbst reine Maschinen-Gesellschaften wären wohl nicht völlig vorurteilsfrei, wie eine aktuelle Untersuchung von Wissenschaftlern der Universität Cardiff nahelegt.

Die Forscher um den Informatiker Roger Whitaker ließen in Computersimulationen 100 intelligente Bots in Gruppen miteinander interagieren. Konkret ging es darum, in einem Geben-und-Nehmen-Spiel entweder einem Mitglied der eigenen Gruppe oder einem Bot aus einem anderen Team eine Belohnung zukommen zu lassen.

Im Laufe vieler tausend Simulationen zeigten die Bots eine zunehmend stärkere Sympathie für die eigene Gruppe: Wurde anfangs noch ohne erkennbare Bevorzugung belohnt, gingen Gruppenfremde mit fortschreitender Dauer des Experiments immer häufiger leer aus. Anders ausgedrückt: Die Maschinen entwickelten allmählich wachsende Vorbehalte gegen die „Fremden“ außerhalb der eigenen Gruppe.

„Indem wir die Simulationen tausende Male wiederholten, konnten wir allmählich verstehen, wie sich Vorurteile entwickelten und welche Verhältnisse diese Entwicklung begünstigten“, so Whitaker. Offenbar kopierten die Maschinen das Verhalten von Gruppenmitgliedern, die besonders erfolgreich agierten. Wobei sich der Erfolg an der Menge der kurzfristig gesammelten Belohnungen bemaß – ein Maßstab, der nicht zwingend höhere kognitive Fähigkeit voraussetzt.

„In Zukunft könnten also auch autonom agierende Maschinen anfällig sein für das aus menschlichen Gesellschaften bekannte Phänomen Vorurteil“, so Whitaker. Angesichts der erwartbar wachsenden Zahl autonomer KI-Systeme etwa im Straßenverkehr oder im Bereich Smart Home eine wichtige Erkenntnis.

Immerhin haben die Forscher auch schon eine Idee, wie sich maschinellen Vorurteilen begegnen ließe. In ihren Simulationen zeigten sich Vorbehalte vor allem dann, wenn es nur wenige Gruppen gab. Je mehr Untergruppen die Maschinengesellschaft aufwies, desto schwerer hatten es Vorurteile, darin Fuß zu fassen.

Streicheleinheiten für den Roboter
Return des Roboters
1 von 30

Der japanische Technikkonzern Omron stellt die vierte Generation seines Tischtennisroboters vor. Der kann jetzt Schmetterbälle blocken.

Künstliche Intelligenz
2 von 30

Bei der Entwicklung künstlicher Intelligenz werden sich Japan und Deutschland auf die Datensammlung, Auswertung und die Verbindung mit Maschinen konzentrieren, sagt Omrons Technikchef Kiichiro Miyata. „Genaue Datenerhebung ist der Schlüssel für die nächste Entwicklungsstufe künstlicher Intelligenz.“

Modul fährt mit
3 von 30

Ein Kameramodul Omrons kann erkennen, ob Fahrer autonomer Autos bereit sind, das Steuer wieder zu übernehmen oder dösen. Es funktioniert auch mit Gesichtsmaske und Sonnebrille.

Quasten-Computer
4 von 30

Panasonic zeigt wie Menschen digital geschminkt werden können.

Kalorienrechner
5 von 30

Für Gesundheitsbewusste: Dieser von jungen Ingenieuren Panasonics erdachte Kasten soll anhand eines speziellen reflektierten Lichts den Kaloriengehalt von Gerichten bestimmen können.

Computer im Ohr
6 von 30

Batterien werden immer kleiner und flexibler. Der nächste Schritt ist smarte Kleidung.

Ein Blick in den Warenkorb
7 von 30

Halbautomatische Kassen sind bereits auf dem Vormarsch in Japan. Panasonic will nun Roboterkassen entwickeln. Diese erkennt mit einem Blick, was im Warenkorb liegt.

Startseite

Mehr zu: Künstliche Intelligenz - Auch Roboter entwickeln Vorurteile

0 Kommentare zu "Künstliche Intelligenz: Auch Roboter entwickeln Vorurteile"

Das Kommentieren dieses Artikels wurde deaktiviert.