Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Handelsblatt-Serie Köpfe der KI Die Informatik-Professorin Katharina Zweig berechnet den Faktor Mensch

Algorithmen werden von Menschen geschrieben – und die können Vorurteile haben. Als Informatikerin untersucht sie, welche Auswirkungen das auf die Algorithmen nimmt.
1 Kommentar
Die 42-Jährige hält den deutschlandweit einzigen Lehrstuhl für Sozioinformatik. Quelle:  Thorsten Jochim für Handelsblatt
Katharina Zweig

Die 42-Jährige hält den deutschlandweit einzigen Lehrstuhl für Sozioinformatik.

(Foto:  Thorsten Jochim für Handelsblatt)

DüsseldorfKatharina Zweig freut sich auf die Zukunft. Auf die Zeit, in der Autos selbst fahren. Künstliche Intelligenz wird das nicht nur möglich – sondern auch den Straßenverkehr sicherer machen, da ist sich die Professorin sicher. „Intelligente Systeme machen einen Fehler genau einmal. Erlerntes wird immer sofort auf alle Maschinen im System übertragen. Das ist bei Menschen anders“, lautete ihre Begründung. „Da muss im Zweifelsfall jeder einmal denselben Fehler machen.“

Das bedeutet aber nicht, dass sie deswegen Maschinen für besser hält. Sie will verstehen, wie Mensch und Algorithmus miteinander interagieren. Die 42-Jährige leitet das Algorithm Accountability Lab an der Technischen Universität Kaiserslautern und hat den Studiengang „Sozioinformatik“ federführend designt und koordiniere ihn bis heute. Sie erforscht seit sechs Jahren, welche Vorteile die massenhafte Auswertung von Daten bringen kann, aber auch, welche Fehler dabei gemacht werden können.

Den derzeitigen Hype um künstliche Intelligenz (KI) sieht sie kritisch. „Wir werden auf absehbare Zeit keine KI haben, die unabhängig entscheiden kann“, erklärt sie. Der Begriff erzeuge zudem oft Angst oder Euphorie, während die tatsächliche Auswirkung auf Menschen irgendwo dazwischen liegen werde.

„Aber maschinelles Lernen, also Systeme, die aus großen Datenmengen Muster erkennen, sind großartig, um Muster zu erkennen, die wir Menschen nicht gesehen hätten“, betont Zweig. „Mir kann man keinen größeren Gefallen tun, als einen Haufen Daten hinzuschmeißen und zu sagen: Schau, was du findest.“

Gerade erst hat die Mutter zweier Kinder herausgefunden, dass Google im vergangenen Bundestagswahlkampf Nutzern nur marginal unterschiedliche Inhalte angezeigt hat – also keine Beeinflussung stattgefunden hat. Nun ist sie unter anderem damit beschäftigt zu zeigen, wie Algorithmen zu dem Schluss kommen, wem welche Preise im Internet angezeigt werden – und ob das fair ist.

Nach der Insolvenz von Air Berlin im vergangenen Jahre hatte es etwa Beschwerden wegen erhöhter Preise bei der Lufthansa gegeben. Der Konzern hatte daraufhin zunächst auf computerbasierte Preissysteme verwiesen, die auf die gestiegene Nachfrage reagiert hätten. Kartellamtspräsident Andreas Mundt erklärte jedoch in einem Interview mit der „Süddeutschen Zeitung“: „Solche Algorithmen werden ja nicht im Himmel vom lieben Gott geschrieben.“ Unternehmen könnten sich „nicht hinter Algorithmen verstecken“.

Doch genau das passiert aus Sicht von Katharina Zweig manchmal schon – auch in äußerst kritischen Fällen: In den USA würde etwa in einigen Fällen ein Algorithmus befragt, ob ein Inhaftierter auf Bewährung freigelassen werden kann. Der Algorithmus gibt die Rückfälligkeitswahrscheinlichkeit an.

Dieser basiere aber unter anderem auf einem Fragenkatalog, in dem relativ eindeutig gesellschaftliche Vorurteile abgefragt wurden. Deswegen werden afroamerikanische Häftlinge nachweislich zu oft als „hoch rückfallgefährdet“ eingestuft und weiße zu selten.

Das Problem: Informatikern sei nicht immer klar, wann sie eine Entscheidung über einen Algorithmus treffen, die eigentlich die Gesellschaft demokratisch hätte entscheiden müssen, meint Zweig. Oft würden in einem Algorithmus an vielen Stellen ethische Grundannahmen der Person, die ihn geschrieben hat, stecken. Und das völlig unbewusst. „Deswegen müssen wir die Ergebnisse, die wir dank maschinellen Lernens erhalten, noch einmal mit klassischen wissenschaftlichen Werkzeugen hinterfragen.“

Es gebe schon Möglichkeiten, Algorithmen diskriminierungsfrei zu machen, erklärt die Professorin, aber das sei sehr schwierig, auch weil man selber häufig übersehe, welche Daten miteinander korrelieren.

Deswegen lehnt sie den Einsatz von künstlicher Intelligenz ab, wenn es etwa um autonome Waffensysteme oder die Identifizierung von Terroristen geht. Allerdings würde maschinelles Lernen durchaus gute Dienste leisten, wenn höchstens ein geringer gesellschaftlicher Schaden zu befürchten wäre, also etwa in Produktionsprozessen.

Zweig ist Mitgründerin von AlgorithmWatch. Die Organisation setzt sich für mehr Transparenz in algorithmischen Entscheidungsprozessen ein. Die gebürtige Hamburgerin wünscht sich für Deutschland und Europa einen einheitlichen Qualitätssicherungsprozess für Algorithmen. Kein Gesetz, sondern einen begleiteten Einbettungs- und Entwicklungsprozess. Denn dann, sagt sie bestimmt, hätten Deutschland und Europa einen wichtigen Standortvorteil bei künftigen Entwicklungen.

Die wichtigsten Neuigkeiten jeden Morgen in Ihrem Posteingang.
Startseite

Mehr zu: Handelsblatt-Serie Köpfe der KI - Die Informatik-Professorin Katharina Zweig berechnet den Faktor Mensch

1 Kommentar zu "Handelsblatt-Serie Köpfe der KI: Die Informatik-Professorin Katharina Zweig berechnet den Faktor Mensch"

Das Kommentieren dieses Artikels wurde deaktiviert.

  • ....intelligente Systeme machen einen Fehler nur einmal...ist er gelöst funktioniert das System an allen Wirkungsstellen....genauso verhält es sich aber auch umgekehrt...ein Fehler an zentraler Stelle unabsichtlich eingebaut kann verheerende Auswirkungen in IT Systemen haben und sich mit Lichtgeschwindigkeit ausbreiten...bleibt nur die Frage, ob sich menschliche Dummheit schneller als das Licht ausbreiten kann....