Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Kommentar Apple-Card-Skandal: Von wegen unparteiische Algorithmen

Auch Algorithmen sind nicht frei von Diskriminierung, wie das Beispiel Apple Card von Goldman zeigt. Programme dürfen nicht auf Autopilot fahren.
1 Kommentar
Apple-Card-Skandal: Von wegen unparteiische Algorithmen Quelle: AP
Apple-Pay-App auf einem iPhone

Ein niedriger Kreditrahmen für Frauen?

(Foto: AP)

New York Künstliche Intelligenz und Machine Learning sind längst nicht so unabhängig , wie wir oft meinen. Das hat das jüngste Beispiel der Kreditkarte von Apple und Goldman Sachs gezeigt.

Dort haben ausgerechnet ein bekannter Programmierer und IT- Unternehmer sowie der Apple-Mitgründer Steve Wozniak berichtet, dass ihre Ehefrauen jeweils nur einen Bruchteil des Kreditrahmens erhielten wie ihre Männer. Und das, obwohl sie ihre Konten und Vermögen teilen.

Das ist nicht nur schlechte PR für die neue Apple Card. Das ist vor allem ein neuer Beweis dafür, dass auch vermeintlich schlaue Algorithmen nur so schlau sein können wie die Daten, auf die sie zurückgreifen.

Wir wissen nicht genau, was bei Goldman und Apple geschehen ist. Aber grundsätzlich ist klar: Wenn Algorithmen auf der Basis von Daten lernen, besteht die Gefahr, dass sie in Zukunft weiter diskriminieren.

Wenn in der Vergangenheit etwa davon ausgegangen wurde, dass Frauen weniger verdienen und deshalb weniger Kredit bekommen, dann könnte das Programm entscheiden, in Zukunft grundsätzlich Frauen einen geringeren Kreditrahmen einzuräumen.

Das gleiche gilt für Computer-gestützte Auswahlverfahren für Online-Bewerbungen. Amazon hat vor zwei Jahren sein eigenes Programm eingestampft, weil es sich auf Daten der Männer-dominierten Vergangenheit stützte und sich selbst beigebracht hat, das Wort „Frau“ grundsätzlich als Malus zu werten.

Wir lagern immer mehr Entscheidungen aus

Wie eine Studie der Harvard Business School jüngst zeigte, beschränkt sich das nicht auf Frauen, sondern gilt auch für die Hautfarbe: So können Programme lernen, bestimmte – zum Beispiel typisch weiße – Namen zu bevorzugen, weil diese in der Vergangenheit häufig ausgewählt wurden. Historische Diskriminierung wird damit computerzertifiziert fortgesetzt.

In unserem Leben und unserer Wirtschaft lagern wir immer mehr unserer Entscheidungen an Algorithmen aus. Das ist an sich nicht böse.

In vielen Fällen können Computer sicher unabhängiger auswählen als wir, die wir uns doch oft unbewusst von unseren eigenen Erfahrungen und dem Umfeld beeinflussen lassen.

Aber wir müssen aufpassen, womit wir unsere vermeintlich schlauen Programme füttern. Bei der Apple Card hat es zwei Männer vom Fach und deren Frauen getroffen, und auch sie geben den Algorithmen die Schuld.

Da wir jetzt mit Algorithmen die Weichen für die Zukunft stellen und dann Maschinen darüber entscheiden , wer was darf oder bekommt, müssen wir verdammt aufpassen, womit wir die Rechner füttern.

Algorithmen dürfen nicht zu Autopiloten werden, bei denen der Mensch nicht mehr eingreifen kann.

Mehr: Das Auswärtige Amt warnt vor dem Aufstieg von Hightech-Autokratien und der wachsenden Macht der IT-Industrie. Deutschlands Wettbewerbsfähigkeit sei bedroht.

Der Handelsblatt Expertencall
Startseite

1 Kommentar zu "Kommentar: Apple-Card-Skandal: Von wegen unparteiische Algorithmen"

Das Kommentieren dieses Artikels wurde deaktiviert.

  • Interessant ist in diesem Zusammenhang die Aussage der deutschen Schufa, wonach in der Vergangenheit Frauen kreditwürdiger waren!