Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Künstliche Intelligenz Wer trägt die Verantwortung, wenn der Algorithmus sich irrt?

Intelligente Maschinen fällen in heiklen Fragen oft präzisere Urteile als das geschulte Fachpersonal. Doch wer ist verantwortlich, falls etwas schiefgeht?
Kommentieren
Das Verhältnis zwischen Mensch und Maschine muss neu definiert werden. Quelle: Getty Images/Blend Images
Gehirn contra Software

Das Verhältnis zwischen Mensch und Maschine muss neu definiert werden.

(Foto: Getty Images/Blend Images)

San Francisco Ein Mädchen humpelt durch den Raum. Lukasz Kidzinski deutet mit dem Finger auf den Bildschirm, der das Video der Neunjährigen bei der Geh-Übung im Krankenhaus Minnesota zeigt. Eine Software hebt Arme und Beine der Patientin farblich hervor und analysiert das Bild. Der Wissenschaftler rückt die Brille zurecht.

„Neuronale Netzwerke sind besser darin als Menschen, kleinste Veränderungen in Bewegungen der Patientin über einen langen Zeitraum hinweg zu registrieren“, sagt der promovierte Mathematiker vom Clark Center der Stanford-Universität. „Sie können deshalb bei gewissen Aufgaben bessere Entscheidungen treffen als ein Arzt.“

Wie auf dem Campus der Eliteschule in Palo Alto, mitten in Silicon Valley, entwickeln überall in der Technologiebranche Wissenschaftler und Unternehmer digitale Helfer, die unser Leben vereinfachen, indem sie uns Entscheidungen abnehmen. Das Team um Kidzinski etwa hofft, dass sich Diagnose und Behandlung verbessern, wenn Maschinen Ärzte bei medizinischen Entscheidungen unterstützen.

Algorithmen statt Arzt

Die herkömmliche Therapie für das neunjährige Mädchen im Video, das aufgrund einer Hirnschädigung an einer Bewegungsstörung leidet, wäre ziemlich schmerzhaft: eine Operation am Rückenmark. Künstliche Intelligenz soll nachweisen, dass Muskeltraining und weniger invasive Eingriffe bessere Resultate erzielen. „Ich würde bei einer Diagnose eher auf die Entscheidung einer Maschine vertrauen als auf die eines Arztes“, sagt der 32-jährige Mathematiker.

Bei einigen Aufgaben überflügeln Maschinen die Ärzte schon heute, etwa mit besseren Analysen radiologischer Aufnahmen. Auch Krebs auf der Haut anhand von Muttermalen entdecken Maschinen besser als Menschen. „Bald werden wir Angst haben, die Diagnose einem Arzt zu überlassen, weil es viel rationaler ist, dem Urteil der Maschine zu glauben“, meint Kidzinski.

Dank rascher Fortschritte beim Maschinenlernen greifen Algorithmen auch in den Alltag immer stärker ein. Google Maps leitet den Autofahrer durch den Stau. Amazons KI entscheidet, welches Produkt dem Kunden gefällt. Tinder präsentiert die Liebe des Lebens.

Intelligente Maschinen erleichtern das Leben, schaffen Fortschritt, werfen aber auch neue gesellschaftliche Fragen auf: Wie nachvollziehbar sind die automatisierten Entscheidungen für Menschen? Wer trägt die Verantwortung, wenn etwas schiefgeht?

„Wir, die Menschen, die Entscheidungen an Maschinen delegieren oder erlauben, dass sie delegiert werden“, urteilt die Design-Philosophin Shannon Vallor von der Universität Santa Clara. „Niemand anders ist verantwortlich als wir.“ KI-Systeme seien nicht in der Lage, selbst Verantwortung zu übernehmen, wenn sie etwas Unerwartetes und Unerwünschtes tun.

Vallor stellt deshalb eine Forderung an Alphabet, Facebook oder Amazon. Die entwickelnden Firmen sollen negative Auswirkungen besser vorhersehen, die von Algorithmen getroffen werden. „Designer müssen wissen, welche Gruppen ihre Systeme mit großer Wahrscheinlichkeit beeinflussen“, sagt Vallor. „Entwickler sollten nicht nur vermuten, welche Risiken und Nachteile ihre Design-Entscheidungen mit sich bringen.“

Nach Meinung von Experten stellt sich auch die Frage, welche Entscheidungen Maschinen überhaupt treffen sollten. „Es wird viele Bereiche unseres Lebens geben, die wir nicht automatisieren sollten“, sagt Eric Horvitz, Direktor von Microsofts Forschung zu Künstlicher Intelligenz. „Die Präsidentschaftswahl zum Beispiel oder die Jury im Gericht.“

Maschinen können Emotionen lesen

Nebeneffekte automatisierter Entscheidungen können heikel sein, unterstreicht Michal Kosinski, Assistant Professor an der Stanford University. Er wies nach, dass eine von ihm entwickelte Software zur Gesichtserkennung die sexuelle Orientierung von Männern und Frauen anhand eines Fotos besser bestimmen konnte als menschliche Betrachter.

Die Maschine unterschied homosexuelle und heterosexuelle Männer mit einer Genauigkeit von 81 Prozent, während ein Mensch nur in 61 Prozent der Fälle richtiglag. Homosexuelle Frauen ordnete die Künstliche Intelligenz zu 74 Prozent richtig ein, der Mensch kam auf 54 Prozent. In Ländern, in denen Homosexualität unter Strafe steht und Menschen verfolgt werden, ist der Einsatz einer solchen Software ein düsteres Szenario.

Eine Untersuchung sollte unerwünschte Nebeneffekte der Technologie aufzeigen, sagt Kosinski. „Technologie kann Emotionen und persönliche Züge von Menschen anhand verschiedener Punkte im Gesicht ablesen“, sagt der Stanford-Professor. Das Gesicht sei meistens frei sichtbar, Kameras seien inzwischen überall installiert – auf öffentlichen Plätzen, in Nahverkehrsmitteln, im Taxi, im Supermarkt, beim Friseur.

„Es ist möglich, Künstliche Intelligenz als Werkzeug einzusetzen, um öffentliche Plätze zu überwachen“, weiß Kosinski. Es stelle sich aber die grundsätzliche Frage, in welchem Maß Maschinen überhaupt Zugang zum menschlichen Innenleben erhalten dürften.

Startseite

Mehr zu: Künstliche Intelligenz - Wer trägt die Verantwortung, wenn der Algorithmus sich irrt?

0 Kommentare zu "Künstliche Intelligenz: Wer trägt die Verantwortung, wenn der Algorithmus sich irrt?"

Das Kommentieren dieses Artikels wurde deaktiviert.

Serviceangebote