Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Zum The Spark - der deutsche Digitalpreis Special von Handelsblatt Online

Machine Learning Amazon verwirft sexistisches KI-Tool für Bewerber

Weil es Frauen klar benachteiligte, hat Amazon sein KI-gestütztes Tool zur Beurteilung von Bewerbern eingestellt. Die künstliche Intelligenz hatte sich die Haltung selbst beigebracht.
  • Oliver Nickel
Kommentieren
Sexistische KI wird nicht weiter entwickelt. Quelle: AP
Amazon

Sexistische KI wird nicht weiter entwickelt.

(Foto: AP)

BerlinAmazon verwirft sein von Machine Learning gestütztes Bewerbungstool, die das Unternehmen eigentlich zur Bewertung von Bewerbern nutzen wollte. Der Grund: Der Algorithmus offenbart sexistische Tendenzen und bewertete Männer grundsätzlich mit einer höheren Punktzahl als Frauen. Das System hatte sich dieses Fehlverhalten selbst beigebracht.

Das Tool sollte Bewerber auf einer Skala von eins bis fünf Sternen einsortieren. Bereits 2014 hatte sich die Nachrichtenagentur Reuters mit Entwicklern des Tools unterhalten, die anonym bleiben wollten. „Sie wollten, dass das Programm sprichwörtlich eine Maschine ist, bei der ich dir 100 Bewerbungen gebe, sie die fünf Besten ausspuckt und wir diese dann einstellen“, so einer der involvierten Entwickler seinerzeit.

Das Problem: Amazon nutzte als Vorlage zum Training des Systems hauptsächlich ältere Bewerbungen, die überwiegend von Männern stammten. Daraus zog die künstliche Intelligenz entsprechende Schlüsse: Das Wort „Frauen“ vom Programm als schlecht bewertet und floss negativ in die Endwertung ein.

Erkannt hatten die Entwickler das Problem schon 2015. Daraufhin änderten sie das System so, dass zumindest das Wort Frau als neutral angesehen wurde. Letztlich war das aber wohl keine ausreichende Lösung.

Laut dem britischen Nachrichtensender BBC sind etwa 40 Prozent aller Amazon-Mitarbeiter weltweit Frauen. Ein so vorurteilbehaftetes System wäre also mutmaßlich nicht entstanden, hätten die Entwickler ihre Quelldaten breiter gestreut.

Allerdings ist Amazon mit dem Problem ungerechter KI-Systeme nicht allein: Eine Forscherin am Massachussetts Institute of Technology hat etwa herausgefunden, dass Bilderkennungssysteme von IBM und Microsoft unfair bewerten.

Startseite

Mehr zu: Machine Learning - Amazon verwirft sexistisches KI-Tool für Bewerber

0 Kommentare zu "Machine Learning: Amazon verwirft sexistisches KI-Tool für Bewerber"

Das Kommentieren dieses Artikels wurde deaktiviert.