Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Facebook-Gründer Mark Zuckerberg

Facebook hat in den vergangenen drei Monaten 25 Prozent Börsenwert eingebüßt.

(Foto: Getty Images)

Gefährlicher Kontrollverlust Das Silicon Valley denkt nach dem Facebook-Skandal bei Künstlicher Intelligenz um

Das soziale Netzwerk hat Algorithmen eingesetzt, um Nutzer zu manipulieren. Nun fordern Design-Ethiker neue Regeln für intelligente Maschinen.
Kommentieren

San FranciscoDie Luft am Strand schmeckt schon bitter. Giftige Rauchwolken kriechen vom Silicon Valley aus über die Berge Richtung Santa Cruz. Halb Kalifornien steht in Flammen. Bald wird der Qualm das abgelegene Surfer-Örtchen an der Küste bedecken.

Tom Gruber, der Vater von Apples Sprachassistentin Siri, blickt stirnrunzelnd aus dem Fenster des Restaurants „Aquarius”. Ihn sorgt, was aus dem IT-Tal auf ihn zukommt, die negativen Folgen der Technologien, die vom Valley aus in die Welt wabern wie Feuerdunst.

Der 59-jährige Vordenker der Künstlichen Intelligenz (KI) arbeitete bis vor Kurzem für Apple. Er fürchtet, dass seine Technologie in Verruf gerät. „Facebook nutzt Künstliche Intelligenz, um Menschen in großem Stil zu manipulieren.” Es gehe nur darum, Werbeumsätze maximal zu steigern. „Meiner Ansicht nach ist dies ein unethischer Einsatz der Technologie.“

Schon immer eröffnete der technische Fortschritt gewaltige Chancen – brachte aber auch neue Risiken und warf gesellschaftliche Fragen auf. Wie sieht die Zukunft aus, die das Silicon Valley mit KI erschafft?
Niemals zuvor stand die Branche derart in der Kritik, moderne „Monster” erschaffen zu haben, die digital ihr Unwesen treiben.

„Technologie ist nicht mehr der Underdog”, konstatiert Paula Goldman von Omidyar Network, einer von Ebay-Gründer Pierre Omidyar im Jahr 2004 ins Leben gerufene Investmentfirma, die sich als philanthropisch bezeichnet. „Für mehr als ein Jahrzehnt konnten wir uns damit davonstehlen, dass wir sagten, wir ,disrupten‘ alles“, so Goldman. Doch plötzlich würden Wahlen gehackt, es gebe die Angst, dass Technologien die Intelligenzentwicklung von Kindern negativ beeinflussen.

„Die meisten Investoren sehen ethische Probleme bei Technologien immer noch als ein PR-Risiko. Dabei ist es ein unternehmerisches Risiko”, kritisiert Goldman. Betroffene Firmen verlören Talente, müssten regulatorische Eingriffe befürchten.

Vertrauen geht verloren

Facebook büßte in den vergangenen drei Monaten 25 Prozent Börsenwert ein. Die US-Senatoren treiben föderale Datenschutzregeln voran und reagieren nur noch genervt auf die Entschuldigungen von Gründer Mark Zuckerberg und Co-Chefin Sheryl Sandberg. Lange sah es so aus, als sei das Führungsduo schlicht überfordert gewesen, ein globales Netzwerk mit 2,2 Milliarden Mitgliedern zu steuern, das zwangsläufig globale Probleme verursacht.

Keine Firma der Welt musste das bisher stemmen. Doch statt das Debakel um Wahlmanipulationen offen zu benennen, redete das Management die Situation schön, verschwieg und vertuschte, sorgte dafür, dass Kritiker in Misskredit gerieten.

Milliarden Menschen überall auf der Welt zahlten nun den „schmerzlichen“ Preis dafür, dass Firmen Technologien mit „kurzsichtigen, kommerziellen Werten“ entwickelten, kritisiert die Design-Philosophin Shannon Vallor. Sie warnt: „Das öffentliche Vertrauen in die KI-Technologie und entwickelnde Firmen erodiert schnell.“

Vor dem Hintergrund eines drohenden Imageverlusts sucht die Branche nach einem ethischen Kompass für KI. „Es gibt einen Konsens im Silicon Valley darüber, dass diese Art von Computern und Netzwerken die Gesellschaft mehr verändert als vorherige Generationen”, analysiert der Pulitzer-Preisträger und Autor John Markoff, der in Palo Alto und San Francisco lebt und seit den 70er-Jahren über Technologien schreibt.

Wirtschaftliche Faktoren spielen ebenfalls eine Rolle, beobachtet Tom Reichert, Senior Partner und Managing Director der Boston Consulting Group (BCG). „Die Technologie wird universaler eingesetzt als je zuvor.” 2019 fließen laut BCG 40 Prozent aller digitalen Investitionen in KI.

Wo sie können, stellen entwickelnde Konzerne ihre noblen Ziele heraus. In einem abgedunkelten Saal auf Googles Konzerngelände in Mountain View spaziert Jeff Dean, KI-Chef der Alphabet-Tochter, Ende Oktober vor einem Satelliten-Bild des Pazifischen Ozeans entlang.

Er erläutert, wie Google-Programmierer mit Meeresforschern und Biologen Rufe von Buckelwalen aus 15 Jahren Tonmaterial von verschiedenen Orten im Pazifik destillieren. „KI hat wirklich das Potenzial, das Leben der Menschen zu verbessern”, unterstreicht Dean. „Die Gesellschaft hat die Chance, diese Technologien fast überall anzuwenden.”

Der Konzern plant, soziale Projekte in der neuen Initiative „AI for Social Good” mit 25 Millionen Dollar zu fördern. Google, dessen Geschäftsmodell wie das von Facebook auf datengetriebener Werbung beruht, will zeigen, dass das Motto von „Do the right“ (zu Deutsch: „Tu das Richtige”) nach wie vor gilt.

Bei Microsoft in Redmond betont Policy-Chef Dave Heiner den Vorteil konzerneigener Richtlinien für Künstliche Intelligenz. Entwickler sollen lernen, „wann ein KI- System gut genug ist, um ausgeliefert zu werden”.
Doch selbst Milliarden-Konzerne wie Alphabet und Microsoft kämpfen mit Herausforderungen.

„Einem KI-System beizubringen, sich ethisch zu verhalten, ist unmöglich”, erklärt Design-Professorin Vallor, die an der Universität Santa Clara lehrt. „Aber wir können Maschinen beibringen, sich so zu verhalten, dass wir es ethisch akzeptabel finden.”

Zahlreiche Beispiele zeigen jedoch, dass entwickelnde Firmen nicht ausreichend kontrollieren, wie ihre KI sich in freier Wildbahn verhält. So geriet Facebook wegen antisemitischer Algorithmen in die Kritik. Werber konnten vergangenes Jahr im Netzwerk gezielt Nutzer ansprechen, die „Judenhasser” als Interesse angaben. Googles Foto-Algorithmus versah afroamerikanische Nutzer mit dem Schlagwort „Gorilla”.

Microsofts Bot „Tay” mutierte zur Rassistin. Amazons Software zur Gesichtserkennung ordnete Fotos von 28 amerikanischen Kongress-Abgeordneten fälschlich Kriminellen zu. Die Konzerne haben inzwischen gegengesteuert, doch der Schaden war da.

Beipackzettel für Daten

„Wenn wir nicht sorgfältig genug darauf schauen, was die Systeme tatsächlich tun, und nur vermuten, dass unsere guten Absichten und noble Firmenphilosophie ausreicht, wird das hilfreiche Potenzial von KI für die Menschheit geopfert”, warnt Vallor. „Wir haben diesen Fehler bereits mit sozialen Medien gemacht.”

„Du bist, was du isst“ – der Satz gilt auch für Künstliche Intelligenz. Die Software lernt durch die Daten, die Entwickler „zufüttern”. Designer von Modellen für tiefes Maschinenlernen greifen dabei häufig auf frei im Netz zugängliche Quellen zurück. Hier hapert es oft an der Qualität.

So stammten 75 Prozent aller Fotos in einem in der Industrie beliebten Datenset von Männern, förderte eine Studie von Joy Buolamwini, Wissenschaftler am Media Lab, zutage. 80 Prozent der Aufnahmen zeigten Weiße. Die Folge: Der Algorithmus identifizierte Frauen oder Afroamerikaner schlechter.

Um derartige Diskriminierungen zu verhindern, entwickelte die Wissenschaftlerin Timnit Gebru von der Universität Stanford mit einem Team von Microsoft ein neuartiges Verfahren. Es weist die Datensätze in einer Art Beipackzettel aus. Das digitale Informationsblatt hält fest, wann die Daten erhoben wurden, wie sie sich zusammensetzen und wann ihr Verfallsdatum beginnt.

Nicht alle negativen Folgen von Künstlicher Intelligenz seien vorhersehbar oder beabsichtigt, erklärt Apples langjähriger KI-Experte Gruber. Facebook hingegen habe seine Krise selbst verschuldet. Das oberste Ziel der Software sei es, Nutzer so lange wie möglich auf der Seite zu halten, kritisiert der KI-Pionier. „Facebook könnte sehr viel Gutes tun, wenn das Unternehmen einige Dinge ändert.”

Paula Goldman von Omidyar Network sieht jeden Designer in der Verantwortung. Die gern geäußerte Ausrede – „Ich bin ja nur der Programmierer” – gelte nicht mehr. „Das Problem betrifft uns alle, egal, ob Investor, Manager oder Entwickler. Wie wir es lösen, wird darüber entscheiden, wie unsere Kinder über unsere Industrie richten werden.”

Die wichtigsten Neuigkeiten jeden Morgen in Ihrem Posteingang.
Startseite

Mehr zu: Gefährlicher Kontrollverlust - Das Silicon Valley denkt nach dem Facebook-Skandal bei Künstlicher Intelligenz um

0 Kommentare zu "Gefährlicher Kontrollverlust: Das Silicon Valley denkt nach dem Facebook-Skandal bei Künstlicher Intelligenz um"

Das Kommentieren dieses Artikels wurde deaktiviert.