1. Startseite
  2. Technologie
  3. IT + Telekommunikation
  4. Künstliche Intelligenz: US-Tech-Branche ringt um Leitlinien für KI

Künstliche IntelligenzUS-Tech-Branche ringt um Leitlinien für KI

Auch Elon Musk will jetzt ein eigenes KI-Sprachmodell entwickeln. Der Hype verstärkt in den USA die Debatte um einen verantwortlichen Einsatz der Technologie.Felix Holtermann 17.04.2023 - 09:41 Uhr Artikel anhören

US-Experten betonen die Bedeutung des Faktors Mensch beim Einsatz der Technik.

Foto: IMAGO/ZUMA Wire

New York. Nun also doch. Noch im März hatte Tesla-Chef Elon Musk in einem offenen Brief einen sechsmonatigen Entwicklungsstopp für neue Anwendungen basierend auf Künstlicher Intelligenz (KI) gefordert. Diese sei eine „Gefahr für die Menschheit“, warnte Musk. Jetzt wurde bekannt, dass er offenbar selbst ein KI-Sprachmodell entwickeln lässt.

Wie die „Financial Times“ am Freitag unter Berufung auf Insider meldete, arbeitet Musk am Aufbau einer Alternative zum KI-System ChatGPT, das bei Microsoft zum Einsatz kommt. Dafür habe der Milliardär die Firma X.AI gegründet, ein Entwicklerteam zusammengestellt und im großen Stil Grafikkarten gekauft. Er führe zudem Gespräche mit Investoren seiner Konzerne Tesla und SpaceX über einen Einstieg.

Die Kehrtwende zeigt, wie groß der Hype ist, den die Vorstellung von ChatGPT losgetreten hat. Auch Google und der Facebook-Konzern Meta, Banken und Start-ups sind im KI-Fieber. Erst am Donnerstag hatte Amazon einen neuen Dienst namens Bedrock vorgestellt, der den eigenen Cloud-Kunden ermöglichen soll, KI-generierte Texte zu erstellen. Bedrock sei „bereits groß und großartig“, schwärmte Amazon-Chef Andy Jassy.

Kritiker haben Zweifel an der „Großartigkeit“ der neuen Systeme. Viele Probleme sind ungelöst: Die KI-Systeme „halluzinieren“, strotzen vor Falschinformationen und legen allzu oft ihre Datenbasis nicht offen. Neueste Pläne der ChatGPT-Macher – etwa die Iris aller Menschen zu scannen – bestärken das Unbehagen.

Die US-Techbranche diskutiert so intensiv wie seit Jahren nicht mehr: Wie kann ein ethischer, verantwortlicher Einsatz von KI aussehen? Wo liegen die Grenzen der Technik, und welche Aufsicht brauchen KI-Anwendungen? Dabei zeichnen sich vier Leitlinien ab.

Leitlinie 1: Grenzen von KI verdeutlichen

Ein wichtiges Diskussionsforum ist die „Partnership on AI“ (PAI), eine gemeinnützige Organisation. Zu den rund 100 Partnern gehören Apple, Google und Meta, die Universität Berkeley und die US-Psychologievereinigung. Das Ziel ist die Entwicklung sicherer, fairer und transparenter KI-Anwendungen.

Vergangene Woche hat sich PAI in New York getroffen. Francesca Rossi, globale Leiterin AI Ethics bei IBM, berichtete, die Mitglieder seien sich einig, dass die Technologie „extrem große Chancen“ biete: Angst vor einem „Killerroboter“ wie im Science-Fiction-Film müsse niemand haben.

„Sprachmodelle schreiben das wahrscheinlichste nächste Wort nach den ersten 300 Worten auf. Sie denken nicht, können nicht lügen oder die Wahrheit sagen“, sagt Rossi. Von einer „selbst-bewussten“ KI, die sich gegen ihre menschlichen Erschaffer richten könnte, sei man weit entfernt.

Dennoch gebe es Risiken – wenn man sich die Grenzen der Technik nicht bewusst mache. „KI ist weder gut noch schlecht. Aber sie ist auch nicht neutral“, sagt Rossi. Große Sprachmodelle wie ChatGPT würden die Entwicklung auf eine neue Stufe heben.

Der Tesla-Chef forderte einen sechsmonatige KI-Entwicklungsstopp – und startet jetzt sein eigenes Start-up.

Foto: Reuters

In der Vergangenheit habe KI nur interpretiert. „Erstmals generiert sie nun Inhalte, erschafft also auf Basis von Input völlig Neues – seien es Texte, Bilder oder Videos“, sagt Rossi. „Dabei kann KI unangemessene Inhalte generieren oder sogar Halluzinationen.“

Das könne „zu falschen Schlussfolgerungen führen“. Statt in die ferne Zukunft zu schauen, müssten Forscher wie Unternehmen die heutigen Grenzen der Modelle analysieren. „Die größte Gefahr ist, die Fähigkeiten der KI zu überschätzen“, sagt Rossi.

Leitlinie 2: Transparenz herstellen

Ein Beispiel für die Grenzen der Technik stammt von Amazon. Der Konzern hatte ein KI-Programm zur Personalgewinnung entwickelt, das auf der Basis von Lebensläufen Toptalente unter seinen Bewerbern identifizieren sollte. Da die meisten Amazon-Programmierer männlich sind, schlussfolgerte die KI, dass Frauen schlechtere Leistungen bringen, und lehnte ihre Bewerbungen ab.

Selbst als die Entwickler der KI beibrachten, keine entsprechende Negativauswahl zu treffen, fand diese andere Wege, um nichtmännliche oder sogar nichtweiße Bewerber zu diskriminieren. Amazon verwarf das Projekt 2018.

In der Tech-Welt ist das Phänomen als „Alignment“-Problem bekannt. „KI-Systeme sind darauf trainiert, ein Ergebnis auf ein bestimmtes Ziel hin zu maximieren“, erklärt die PAI-Vorsitzende Rebecca Finlay. „Ist ihr Modell aber unterspezifiziert, entstehen unnütze Ergebnisse.“

„KI ist weder gut noch schlecht. Aber sie ist auch nicht neutral“, sagt die KI-Expertin von IBM.

Foto: Leverhulme Centre for the Future of Intelligence

Das Problem: Oft könne man nicht sehen, wie KI-Systeme ihre Entscheidungen treffen. Die Folge: „Wir müssen die Prozesse offenlegen.“

Die PAI-Mitglieder hätten sich dafür ausgesprochen, KI-Modelle stets mit sogenannten Model-Cards zu veröffentlichen, sagt Finlay. „In diesen Datenblättern wird während des gesamten Entwicklungsprozesses transparent dokumentiert, aus welchen Komponenten das System besteht.“

Leitlinie 3: Die Datenbasis kontrollieren

Eng verknüpft mit der Frage, aus welchen Komponenten der Algorithmus besteht, ist die Datenbasis, auf der er zu seinen Schlussfolgerungen kommt. Je größer die Datenmenge, mit der die KI gefüttert wird, desto schneller kann sie sich weiterentwickeln. Nicht umsonst betont Amazon-Chef Jassy den Vorteil des eigenen Datenschatzes.

Doch große Datenmengen allein führen noch nicht zu einer nützlichen KI. So musste Microsoft seinen Chatbot Tay 2016 nach nur 24 Stunden vom Netz nehmen. Das Programm Galactica des Facebook-Konzerns Meta, das sich aus 48 Millionen Quellen vor allem aus dem Internet bediente, hielt im November gerade mal drei Tage durch, bis rassistische oder sinnlose Aussagen zu seiner Abschaltung führten.

Lesen Sie hier mehr zu Künstlicher Intelligenz:

„Ein Weg, um Halluzinationen zu minimieren, besteht darin, die genutzte Datenbasis zu kontrollieren“, sagt IBM-Informatikerin Rossi. „Das KI-Modell bedient sich dann nicht frei aus dem Internet, sondern aus einem geprüften Informationspool. Das bietet sich in Unternehmensnetzwerken an.“

IBM setzt auf diesen Ansatz. Auch beim weltweit führenden Geoinformationsdienst Esri aus Kalifornien hält man ihn für empfehlenswert. „KI ist bei uns seit Langem im Einsatz, sowohl was Satellitenbilder als auch was Text angeht“, sagt Gründer Jack Dangermond. Man prüfe derzeit, wie man große Sprachmodelle wie ChatGPT in die eigenen Lösungen integrieren könne. „Aber wir setzen KI nur auf unsere eigenen Daten an, um Risiken und Plagiate zu vermeiden.“

Leitlinie 4: Menschen sollten KI-Einsatz regulieren

Die Beispiele zeigen: Der menschliche Faktor bleibt auch in Zukunft wichtig. Man könne nicht die Technologie selbst regulieren, dafür schreite ihre Entwicklung zu schnell voran, sagt Christina Montgomery, die das US-Handelsministerium in KI-Fragen berät. „Aber wir sollten ihren Einsatz regulieren.“

Die US-Regierung untersucht bereits mögliche Richtlinien. Manche Unternehmen haben den Einsatz von ChatGPT ganz untersagt. Andere experimentieren damit, unter menschlicher Aufsicht eine zweite KI die Ergebnisse des ersten Systems überprüfen zu lassen.

Laut Montgomery lautet der wichtigste Grundsatz, den auch die PAI vertrete: „Ein Nutzer muss immer wissen, wenn er mit einer KI spricht. Und bei der Entscheidungsfindung muss immer ein Mensch beteiligt sein.“

Für die Techbranche gleicht diese Empfehlung einem Weckruf: Im Rahmen ihrer jüngsten Entlassungsrunden hatten ausgerechnet die PAI-Mitglieder Microsoft, Meta, Google und Amazon viele Mitarbeiter ihrer KI-Ethik-Teams gefeuert. Und auch Musk geht nicht mit gutem Beispiel voran. Bei seinem Kurznachrichtendienst Twitter machte er kurzen Prozess – und feuerte die komplette KI-Ethik-Abteilung.

Verwandte Themen
ChatGPT
Amazon
Elon Musk
IBM
Microsoft
Tesla

Erstpublikation: 16.04.2023, 17:21 Uhr.

Mehr zum Thema
Unsere Partner
Anzeige
remind.me
Jetziges Strom-/Gaspreistief nutzen, bevor die Preise wieder steigen
Anzeige
Homeday
Immobilienbewertung von Homeday - kostenlos, unverbindlich & schnell
Anzeige
IT Boltwise
Fachmagazin in Deutschland mit Fokus auf Künstliche Intelligenz und Robotik
Anzeige
Presseportal
Direkt hier lesen!
Anzeige
STELLENMARKT
Mit unserem Karriere-Portal den Traumjob finden
Anzeige
Expertentesten.de
Produktvergleich - schnell zum besten Produkt