
Ein niedriger Kreditrahmen für Frauen?
New York Künstliche Intelligenz und Machine Learning sind längst nicht so unabhängig , wie wir oft meinen. Das hat das jüngste Beispiel der Kreditkarte von Apple und Goldman Sachs gezeigt.
Dort haben ausgerechnet ein bekannter Programmierer und IT- Unternehmer sowie der Apple-Mitgründer Steve Wozniak berichtet, dass ihre Ehefrauen jeweils nur einen Bruchteil des Kreditrahmens erhielten wie ihre Männer. Und das, obwohl sie ihre Konten und Vermögen teilen.
Das ist nicht nur schlechte PR für die neue Apple Card. Das ist vor allem ein neuer Beweis dafür, dass auch vermeintlich schlaue Algorithmen nur so schlau sein können wie die Daten, auf die sie zurückgreifen.
Wir wissen nicht genau, was bei Goldman und Apple geschehen ist. Aber grundsätzlich ist klar: Wenn Algorithmen auf der Basis von Daten lernen, besteht die Gefahr, dass sie in Zukunft weiter diskriminieren.
Wenn in der Vergangenheit etwa davon ausgegangen wurde, dass Frauen weniger verdienen und deshalb weniger Kredit bekommen, dann könnte das Programm entscheiden, in Zukunft grundsätzlich Frauen einen geringeren Kreditrahmen einzuräumen.
Das gleiche gilt für Computer-gestützte Auswahlverfahren für Online-Bewerbungen. Amazon hat vor zwei Jahren sein eigenes Programm eingestampft, weil es sich auf Daten der Männer-dominierten Vergangenheit stützte und sich selbst beigebracht hat, das Wort „Frau“ grundsätzlich als Malus zu werten.
Wir lagern immer mehr Entscheidungen aus
Wie eine Studie der Harvard Business School jüngst zeigte, beschränkt sich das nicht auf Frauen, sondern gilt auch für die Hautfarbe: So können Programme lernen, bestimmte – zum Beispiel typisch weiße – Namen zu bevorzugen, weil diese in der Vergangenheit häufig ausgewählt wurden. Historische Diskriminierung wird damit computerzertifiziert fortgesetzt.
In unserem Leben und unserer Wirtschaft lagern wir immer mehr unserer Entscheidungen an Algorithmen aus. Das ist an sich nicht böse.
In vielen Fällen können Computer sicher unabhängiger auswählen als wir, die wir uns doch oft unbewusst von unseren eigenen Erfahrungen und dem Umfeld beeinflussen lassen.
Aber wir müssen aufpassen, womit wir unsere vermeintlich schlauen Programme füttern. Bei der Apple Card hat es zwei Männer vom Fach und deren Frauen getroffen, und auch sie geben den Algorithmen die Schuld.
Da wir jetzt mit Algorithmen die Weichen für die Zukunft stellen und dann Maschinen darüber entscheiden , wer was darf oder bekommt, müssen wir verdammt aufpassen, womit wir die Rechner füttern.
Algorithmen dürfen nicht zu Autopiloten werden, bei denen der Mensch nicht mehr eingreifen kann.

1 Kommentar zu "Kommentar: Apple-Card-Skandal: Von wegen unparteiische Algorithmen"
Das Kommentieren dieses Artikels wurde deaktiviert.
Interessant ist in diesem Zusammenhang die Aussage der deutschen Schufa, wonach in der Vergangenheit Frauen kreditwürdiger waren!