Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Gesichtserkennung Wie IBM der Künstlichen Intelligenz die Vorurteile austreiben will

Der IT-Konzern veröffentlicht eine Datenbank mit einer Million Porträtfotos. Sie sollen Algorithmen dabei helfen, ein unverzerrtes Bild der menschlichen Vielfalt zu bekommen.
Kommentieren
Gesichtserkennung wird immer häufiger eingesetzt. Quelle: Heiko Specht / imagetrust
Biometrische Vermessung

Gesichtserkennung wird immer häufiger eingesetzt.

(Foto: Heiko Specht / imagetrust)

DüsseldorfManche Politiker in den USA lassen sich auf dubiose Machenschaften ein, das zeigen die Ermittlungen im Umfeld von Präsident Donald Trump. Die meisten Volksvertreter dürften aber als gesetzestreue Menschen gelten. Dementsprechend erregte ein Experiment Aufsehen, das die Menschenrechtsorganisation ACLU im Sommer 2018 durchführte.

Die Aktivisten wollten die Zuverlässigkeit der Gesichtserkennung von Amazon testen. Sie glichen die Porträts aller Kongressabgeordneten mit einer Datenbank öffentlich verfügbarer Fahndungsfotos ab. 28 Treffer gab das System aus, darunter überproportional viele Politiker mit dunkler Haut. Selbst den legendären Bürgerrechtler John Lewis zählte es zu den Delinquenten. Dabei waren alle Abgeordneten unbescholten: Das Programm hatte sie schlicht verwechselt.

Der Fehler liegt im System. Die Gesichtserkennung von Amazon und anderen IT-Konzernen nutzt Künstliche Intelligenz, um Personen zu erkennen. Das Wissen eignet sich die Software aus Daten an – und in denen sind einige Bevölkerungsgruppen meist unterrepräsentiert. Zum Beispiel Schwarze.

IBM will das künftig verhindern. Der IT-Konzern hat eine Datenbank mit Fotos entwickelt, die die Vielfalt der Menschheit abbildet, etwa was Hautfarbe und Alter betrifft. Künstliche Intelligenz, wie sie bei der Gesichtserkennung zum Einsatz kommt, soll aus den Daten ein ausgewogenes Bild der Welt ableiten. Dieses Prinzip könnte helfen, Fehler wie die der Amazon-Software in Zukunft zu vermeiden.

Qualität der Daten ist entscheidend

Denn wenn von Künstlicher Intelligenz die Rede ist, handelt es sich meist um statistische Verfahren wie das maschinelle Lernen. Die Systeme werten dabei große Datenmengen aus, um Muster und Wahrscheinlichkeiten zu ermitteln. Dieses Prinzip lässt sich auf viele Bereiche übertragen: Die Übersetzung von Sprachen beispielsweise funktioniert beeindruckend. Mediziner hoffen auf große Fortschritte bei der Erkennung von Krebs. Auch beim automatisierten Fahren kommt diese Technologie zum Einsatz.

Bei statistischen Verfahren habe die Forschung in den vergangenen Jahren „dramatische Fortschritte“ gemacht, sagt Christian Bauckhage, Professor für Informatik an der Universität Bonn und Spezialist für maschinelles Lernen am Fraunhofer-Institut IAIS. „Die Statistik ist aber nur so gut wie die Daten, die sie auswertet.“ Es gelte das Prinzip „garbage in, garbage out“ – wenn man Müll einspeist, kommt auch Müll heraus.

Immer wieder kommt es jedoch zu Fehlern, die auf die Datenbasis zurückzuführen sind. So machte der Dienst Google Photos, in dem Nutzer ihre eigenen Aufnahmen speichern können, im Jahr 2015 damit Schlagzeilen, dass bei der Suche nach dem Begriff „Gorilla“ Menschen mit schwarzer Hautfarbe angezeigt wurden. Und der sogenannte Autopilot von Tesla steuerte ein Fahrzeug in einen die Fahrbahn querenden Lastwagen, weil das System diesen offenbar mit einer Brücke verwechselte.

„Derartige Fälle zeigen die Probleme der aktuellen Systemgeneration“, sagt Informatiker Bauckhage. „Das Weltwissen, das Menschen haben, ist in den Daten nicht enthalten.“ Der Kontext sei jedoch wichtig, ob bei der Beurteilung von Fotos oder im Straßenverkehr. Die Forschung beschäftige sich daher immer intensiver mit der Frage, wie sie strukturelles Wissen auf die Maschinen übertragen könne.

Das ist nicht nur ein technisches, sondern auch ein gesellschaftliches Problem. Die Mathematikerin Cathy O’Neal warnt in ihrem Buch „Weapons of Math Destruction“ vor der Diskriminierung durch Algorithmen. Ob bei der Kreditvergabe oder der vorausschauenden Polizeiarbeit, im Technosprech Predictive Policing genannt: „Die Daten kodifizieren die Vergangenheit“, betont die Autorin.

Und es hat sich gezeigt, dass die Diskriminierung keine rein theoretische Gefahr ist: Die Gesichtserkennung von Amazon setzen bereits mehrere Polizeibehörden in den USA ein, auch bei Sicherheitskontrollen an Flughäfen oder in Firmenzentralen kommt die Technik zunehmend zum Einsatz. Der Konzern führt die fehlerhafte Erkennung im Experiment der ACLU übrigens auf eine fehlerhafte Kalibrierung zurück.

In der IT-Branche wächst das Bewusstsein für die Risiken der Künstlichen Intelligenz, teils aus Verantwortungsbewusstsein, teils aus Angst vor Regulierung. Die Unternehmen arbeiten an Ethikregeln und Werkzeugen, um Verzerrungen und Vorurteile zu verhindern.

„Wenn KI erfolgreich sein soll, müssen die Modelle nicht nur genau und robust sein, sondern auch fair“, sagt Dorothea Wiesmann, die am IBM-Standort in Rüschlikon bei Zürich die Abteilung für Künstliche Intelligenz leitet – der Konzern selbst spricht von „Cognitive Computing“.

Der IT-Konzern hat mehrere Initiativen gestartet. So fordert Vorstandschefin Ginni Rometty Ethikregeln für Künstliche Intelligenz. Forscher entwickeln einen Algorithmus, der moralische Regeln befolgen soll, im konkreten Fall bei der Empfehlung von Kinderfilmen. Es gibt einen „Bias Detector“, der in Datensätzen versteckte Verzerrungen entdeckt – und jetzt die Datenbank mit einer Million Gesichtern.

Regeln von weißen Programmierern

IBM will eine Lücke schließen. Forscher in Unternehmen und an Universitäten arbeiten meist mit öffentlich verfügbaren Daten, zum Beispiel Bibliotheken mit Gesichtern. So können sie einfach und schnell den Algorithmus trainieren, wie der Lernprozess im Fachjargon genannt wird.

Allerdings gibt es in diesem Fundus Verzerrungen: In der Technikbranche dominieren weiße Männer – das spiegelt sich auch in den Daten wider. „Als diese Datensätze geschaffen wurden, fehlte das Bewusstsein dafür“, sagt IBM-Forscherin Wiesmann.

IBM hat daher den Datensatz „Diversity in Faces“ veröffentlicht, der die Entwicklung einer möglichst genauen und fairen Gesichtserkennung erleichtern soll. Es handelt sich um eine Million Porträts aus einer öffentlichen Datenbank, die der Konzern aber um zusätzliche Informationen – sogenannte Metadaten – ergänzt hat. Zum Beispiel Geschlecht, Alter und Hautfarbe, zudem Eigenschaften wie der Augenabstand.

Die Idee: Wenn Forscher ein System für Gesichtserkennung entwickeln, können sie mithilfe der Kriterien festlegen, dass bestimmte Gruppen gleich repräsentiert sind – etwa Menschen mit verschiedenen Hautschattierungen oder Männer und Frauen.

Der Algorithmus bekommt somit ein ausgewogenes Bild der Bevölkerung vermittelt. Damit die Trainingsdaten gemäß den ausgewählten Kriterien ausgewogen sind, müsste gelegentlich ein Teil des Datensatzes verworfen werden, sagt Wiesmann. „Es sind weniger Trainingsdaten, die sind aber ausgewogen.“

Darauf können Unternehmen und Forschungseinrichtungen kostenlos zugreifen, IBM stellt den Datensatz öffentlich zur Verfügung, die Daten und den dazugehörigen Programmcode kann jeder nutzen – das ist in der Szene, die sich mit Künstlicher Intelligenz beschäftigt, guter Brauch.

Informatiker Bauckhage sieht darin ein positives Beispiel: „Es ist lobenswert, dass IBM Datensätze aufbauen will, die repräsentativ sind und alle relevanten Fälle abdecken.“ Der Konzern sei damit ein Vorbild für Google, Microsoft – und auch Amazon.

Die wichtigsten Neuigkeiten jeden Morgen in Ihrem Posteingang.
Startseite

Mehr zu: Gesichtserkennung - Wie IBM der Künstlichen Intelligenz die Vorurteile austreiben will

0 Kommentare zu "Gesichtserkennung: Wie IBM der Künstlichen Intelligenz die Vorurteile austreiben will"

Das Kommentieren dieses Artikels wurde deaktiviert.