Künstliche Intelligenz Das Silicon Valley will Algorithmen Moral beibringen – große Konzerne schließen sich an

Der rasante KI-Fortschritt schürt Sorgen um die ethische Vertretbarkeit der neuen Technologien. Die Industrie will sich nun selbst Regeln aufsetzen.
Kommentieren
China hat künstliche Intelligenz zum Staatsziel erklärt. Quelle: AP
Lernender chinesischer Roboter

China hat künstliche Intelligenz zum Staatsziel erklärt.

(Foto: AP)

San Francisco An jene Fahrt vergangenen August erinnert sich Eric Horvitz genau. Der Direktor von Microsofts Forschung zu künstlicher Intelligenz (KI) brauste mit seinem Tesla über eine Straße in der Nähe der Konzernzentrale in Redmond, Washington. Er hatte den Autopiloten aktiviert. Plötzlich ließ ihn die Technologie im Stich. Das Auto sei aus der Spur ausgebrochen und habe die mittlere Fahrbahnabsperrung gestreift, erzählt Horvitz. Er habe das Steuer ergreifen und gegenlenken müssen.

Horvitz blieb unverletzt, der Tesla bekam nur ein paar Schrammen ab. Doch für den Softwareexperten ist spätestens seit dieser Erfahrung klar: „Kunden sollten die Möglichkeit haben, fehlerhafte KI bei den Behörden zu melden.“ Mehr noch: „Es wird künftig Normen, Sicherheitsstandards und Regulationen für künstliche Intelligenz geben.“ Künstliche Intelligenz (KI) oder amerikanisch AI (Artificial Intelligence) ist das Zukunftsthema der IT-Industrie.

Doch der große Hoffnungsträger hat ein ebenso großes Problem. Die Ängste vor negativen Folgen wachsen – vor einer noch größeren Macht der Internetgiganten etwa oder auch vor einem Einsatz der Systeme in Waffen gegen Menschen. Längst debattiert die Politik über mögliche Konsequenzen. Die IT-Riesen wollen einer möglichen Regulierung zuvorkommen.

Microsoft-Manager Horvitz hat deshalb zusammen mit Mustafa Suleyman von DeepMind, Alphabet, Facebook, IBM und Amazon die sogenannte „Partnership on Artificial Intelligence to Benefit People and Society“ (PAI) gegründet. Ihr Ziel: eine Art ethische und moralische Selbstverpflichtung für die lernenden Maschinen. Über 75 Mitglieder zählt PAI, darunter Konzerne, NGOs, Internet- und Menschenrechtsorganisationen aus Amerika, Europa, Japan und Korea.

Der neueste Zugang in dieser Woche ist Baidu, der chinesische Technologiegigant. „Sicherheit, Fairness und Transparenz“ müsse bei künstlicher Intelligenz an erster Stelle stehen, betont Baidu-Präsident Ya-Qin Zhang. PAI ist nicht alleine. Auch Tesla-Chef Elon Musk und Investor Sam Altman („Y Combinator“) haben eine solche Initiative ins Leben gerufen. Der Name lautet „OpenAI“.

Die Bündnisse wollen keine Lobbygruppen sein. Sie wollen Handlungsanweisungen zur Anwendung von künstlicher Intelligenz entwickeln, wissenschaftliche Forschung zu Ethik, Fairness, Transparenz der Technologie fördern und die Zusammenarbeit von Mensch und Maschine regeln. Auch wenn die Inhalte solcher Rahmenbedingungen noch nicht im Detail ausformuliert sind, gibt es schon erste konkrete Ideen.

„Maschinen sollten sich identifizieren, wenn sie wie Menschen klingen“, fordert Horvitz. Er erwarte, dass Menschen am Telefon künftig einen Hinweis bekommen, wenn sie es mit einer Maschine zu tun haben.

Meldepflicht für Roboter gefordert

Angesichts von intelligenten Robotern (Bots) in sozialen Netzwerken, die Fake News verbreiten und manipulieren, fordert er zudem eine Meldepflicht für KI: „Technologieplattformen sollten Nutzer warnen: Achtung, wir nutzen algorithmische Methoden.“ Auch müsse es Bereiche des menschlichen Lebens geben, die nicht von den Maschinen übernommen werden. „Die Geschworenen im Gericht sollten nie automatisiert sein.“

Der Handlungsdruck ist groß. Nach heftigen Mitarbeiterprotesten stoppte Google das Militärprojekt „Maven“. Es hatte das Pentagon mit künstlicher Intelligenz zur Analyse von Militärvideos und Ausrichtung von Drohnen versorgt. „Wir glauben, dass sich Google nicht am Geschäft des Krieges beteiligen sollte“, kritisierten 3100 Unterzeichner eines offenen Briefs an Google-Chef Sundar Pichai.

Die Amazon-Belegschaft wiederum forderte den Verkaufsstopp von „Rekognition“ an Behörden. CEO Jeff Bezos verkauft Algorithmen zur Gesichtserkennung an Polizei und Sicherheitsbehörden. Hinzu kommt: Die Politik entdeckt das Thema langsam für sich. Der französische Präsident Emmanuel Macron will bei seinem Plan zur landesweiten KI-Förderung „ethische und philosophische Grenzen“ berücksichtigen.

Technologie-Plattformen sollten Nutzer warnen: Achtung, wir nutzen algorithmische Methoden. Eric Horvitz – Microsoft

Die deutsche Regierung richtete eine Enquetekommission mit dem Titel „Künstliche Intelligenz – soziale Verantwortung und ökonomische Potenziale“ ein. Die Vereinten Nationen diskutieren den Bann tödlicher autonomer Waffen. Die Sorgen haben ihre Ursache unter anderem in den immer leistungsfähigeren Technologien.

Die jüngsten Fortschritte bei Algorithmen, die günstigen Computerkapazitäten und endlos verfügbare Datenmengen führen dazu, dass aus der Science-Fiction Realität wird. Googles Roboter-Telefonist „Duplex“ ahmt das Verhalten eines Anrufers täuschend echt nach, bis hin zum bestätigenden „Mhmhm“. China errichtet bis 2020 ein digitales Bewertungssystem, das neben der Kreditwürdigkeit der Einwohner auch deren Verhalten beurteilt.

In Kameras integrierte Gesichtserkennung erfassen dabei sogar, wenn ein Fahrer eine rote Ampel überfährt. Alles überwachende Technologie verändere die Art und Weise, wie Menschen miteinander kommunizieren, könne „zur Gefahr für die Menschheit“ werden, warnt Amie Stepanovich von „Access Now“. Wie groß der öffentliche Druck ist, zeigt der PAI-Beitritt von Baidu. IT-Firmen aus dem Reich der Mitte sind für Nähe zur Regierung bekannt.

Das Regime in Peking setzt Algorithmen zur Gesichtserkennung zur Maßregelung politischer Gegner ein, nebst der Erziehung seiner Bürger. „Es ist besser, Baidu innerhalb der Organisation zu haben, als dass sie Außenseiter sind“, verteidigt Horvitz, der auch Aufsichtsrats-Co-Chef  von PAI ist, die Entscheidung. Terah Lyons, die Direktorin von PAI, fügt hinzu: „Jedes Gespräch über die Zukunft von künstlicher Intelligenz, das China nicht involviert, ist unvollständig.“

Nur industrieübergreifende Maßnahmen sinnvoll

Ihre Organisation strebe nicht an, „eine Bibel mit zehn Prinzipien für KI“ zu kreieren, sondern sehe sich als „ein Forum für konstruktiven Dialog“. Nur industrieübergreifende Initiativen führen zum Ziel, glaubt Informatikprofessor Subbarao Kambhampati von der Association for Advancement of AI (AAAI).

„Bislang haben die meisten Unternehmen versucht, alleine Lösungen für die Probleme mit künstlicher Intelligenz zu finden, es gab keine breitere Diskussion darüber, keinen Industriestandard.“ PAI könne als Qualitätskontrolle fungieren: „Wenn wir die Standards für KI festgelegt haben, könnte unsere Organisation Gütesiegel an Unternehmen vergeben.“

Eine alles überwachende Technologie könnte zur Gefahr für die Menschheit werden. Amie Stepanovich – Access Now

Bis dahin wird es allerdings noch etwas dauern. Die Computerprofessorin Francesca Rossi, die IBM bei PAI vertritt und an der Universität Padova lehrt, plädiert dafür, bei den ethischen Regeln auf Vorgaben zurückzugreifen, die sich seit Jahren in den jeweiligen Anwendungsbereichen bewährt haben. „Eine Software, die in der Medizin zum Einsatz kommt, müsste dem hippokratischen Eid folgen, so wie ein Arzt. Das autonome Fahrzeug orientiert sich an den Straßenverkehrsregeln.“

In 90 Prozent der Fälle könnten existierende Gesetze auf softwaregestützte Szenarien angewandt werden, glaubt Jack Clark, Politikchef bei „Open AI“. Doch es müsse noch mehr geforscht werden, wie sich die Software in bestehende Regelwerke integriere. Und noch eine Herausforderung wartet auf die PAI-Mitglieder. Nach dem Statut der Initiative sollen alle Menschen gleichermaßen von den Fortschritten bei selbstlernenden Maschinen profitieren.

Doch die Unternehmensberatung PricewaterhouseCoopers schätzt, dass 70 Prozent des wirtschaftlichen Erfolgs von KI nach China und in die USA fließen. „Künstliche Intelligenz birgt die Gefahr, dass sie die Macht in den Händen einiger weniger Länder und Firmen weiter konzentriert“, warnt Joe Westby von Amnesty International. Eine weitere Gefahr ist die Benachteiligung bestimmter Gruppen.

Wie ein Bericht von Reuters enthüllte, entwickelte Amazon zwischen 2014 und 2017 eine Softwareanwendung, die automatisch die besten Kandidaten hervorsuchen sollte, dabei jedoch Frauen benachteiligte. Amazon hatte die KI nur anhand der Bewerbungen aus den vergangenen zehn Jahren trainiert, doch die stammten hauptsächlich von Männern. Selbst die Programmierer können oft nicht mehr nachvollziehen, wie eine KI-Maschine Entscheidungen trifft.

„Menschen können erklären, wie sie zu einer Entscheidung kamen, sie können zur Verantwortung gezogen werden für ihre Aktionen, sie verstehen den Kontext ihrer Handlungen – all das können Maschinen nicht“, sagt Horvitz.  Clark von „OpenAI“ ist deshalb überzeugt, dass es nicht reichen wird, wenn sich die Technologiefirmen in Initiativen organisieren.

„Niemand auf der Welt kennt den tatsächlichen Fortschritt bei selbstfahrenden Autos. All diese Daten sind in privater Hand.“ Die Regierung müsse die Tech-Industrie dazu „motivieren“, mehr Informationen über ihre Technologie preiszugeben.

Startseite

0 Kommentare zu "Künstliche Intelligenz: Das Silicon Valley will Algorithmen Moral beibringen – große Konzerne schließen sich an"

Das Kommentieren dieses Artikels wurde deaktiviert.

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%