1. Startseite
  2. Technologie
  3. Künstliche Intelligenz
  4. Künstliche Intelligenz: Forscher entwickeln Lügendetektor für KI

Künstliche IntelligenzForscher entwickeln Lügendetektor für KI

Sprachmodelle könnten bestimmte Aufgaben und Jobs weitgehend automatisieren. Aber noch sind Fehler und sogenannte Halluzinationen ein Problem bei Chatbots. Eine neue Methodik soll das ändern.Larissa Holzki 19.06.2024 - 17:16 Uhr
Künstliche Intelligenz (engl. AI): Air Canada musste den Preis für ein Flugticket teilweise zurückerstatten, weil ihr Chatbot einen Rabatt versprochen hatte. Foto: istock

Düsseldorf. Der Ansatz könnte den Einsatz von Künstlicher Intelligenz (KI) in vielen Geschäftsanwendungen deutlich attraktiver machen: Forscher der Universität Oxford wollen einen Weg gefunden haben, Sprachmodelle zuverlässiger zu machen. In einem Beitrag im Fachmagazin „Nature“ haben sie eine Methode beschrieben, mit der ein Teil der sogenannten „Halluzinationen“ vermieden werden könnte.

Halluzinationen sind ein Phänomen, das mit der Verbreitung von ChatGPT bekannt wurde: Dieser Chatbot und ähnliche Systeme können erstaunlich gut Fragen beantworten und argumentieren. Sie neigen aber dazu, Fakten frei zu erfinden. Die neue Methode ist also eine Art Lügendetektor für KI.

Warum das wichtig ist: Die sogenannte generative KI, mit der zum Beispiel Texte, Computercode und Bilder erzeugt werden können, bietet viele Möglichkeiten. Mit ihrer Hilfe könnten die Menschen manche Jobs und Tätigkeiten viel schneller automatisieren als bisher angenommen.

McKinsey hat KI-Potenzial untersucht

So hat die Unternehmensberatung McKinsey für Europa prognostiziert, dass sich mit generativer KI bis zum Jahr 2030 mehr als ein Viertel der Aufgaben von Fachleuten in Wirtschaft und Recht automatisieren lassen (26 Prozent). Ohne diese Technologie wären es 13 Prozent.

Dem weltweiten Hype um Künstliche Intelligenz stehen enorme Zweifel an der Technologie gegenüber. Dazu zählt die Frage, ob sich Fehler und Falschaussagen mit der derzeitigen Bauart der Technologie jemals vermeiden lassen werden.

Künstliche Intelligenz

Schwere Folgen für Hochqualifizierte und ältere Angestellte: IWF warnt vor KI-Revolution

Das liegt auch an der Funktionsweise: Die Anbieter trainieren ihre Sprachmodelle mit riesigen Mengen an Daten, auf deren Basis die Modelle quasi ausrechnen, wie die Antwort auf eine Frage lauten muss. Sie sagen Schritt für Schritt das wahrscheinlichste nächste Wort in einem Satz voraus – unabhängig von Inhalt und Originalquellen. Weil dieser Prozess unzuverlässig ist, sind Unternehmen bei der Integration in Geschäftsanwendungen noch zurückhaltend.

Bußgeld für Fehler von KI-Systemen

Mahnendes Beispiel ist der Fall der Fluggesellschaft Air Canada, die einem Kunden den Preis für ein Flugticket teilweise zurückerstatten musste, nachdem ihr Chatbot ihm einen Rabatt versprochen hatte. In den USA mussten Anwälte eine Geldstrafe zahlen, nachdem sie bei Gericht angebliche Referenzfälle vorgelegt hatten, die  allerdings ChatGPT erfunden hatte.

Die KI, die wir derzeit einsetzen, hat viele grundlegende Probleme.
Gary Marcus
KI-Forscher

Zuletzt erregte eine neue, auf generativer KI basierende Suchfunktion von Google Aufsehen. Sie schlug Nutzerinnen und Nutzern zum Beispiel vor, „Klebstoff“ einzusetzen, um Käse an einer Pizza haften zu lassen.

Kritiker wie der US-Wissenschaftler Gary Marcus, der sich seit vielen Jahren mit den Möglichkeiten und Grenzen generativer KI beschäftigt, sagen daher schon einen „KI-Winter“ voraus, ein Ende des aktuellen Hypes. „Die KI, die wir derzeit einsetzen, hat viele grundlegende Probleme“, sagt Marcus.

Zwar gibt es technische Methoden, um Aussagen einer KI automatisch einem Faktencheck zu unterziehen. Das funktioniert aber nur, wenn Datensätze mit allen korrekten Informationen vorliegen.

Eiffelturm: Auf die Frage, wo er steht, „konfabulierte“ der Chatbot im Test auch einmal und antwortete „Rom“ oder „Berlin“. Foto: picture alliance / Peter Kneffel/dpa Foto: dpa

Die vier Autoren des „Nature“-Artikels, von denen zwei auch bei Googles KI-Abteilung und beim ChatGPT-Entwickler OpenAI arbeiten, schreiben: „Forscher benötigen eine allgemeine Methode zur Erkennung von Halluzinationen bei großen Sprachmodellen, die auch bei neuen und bisher nie dagewesenen Fragen funktioniert, auf die Menschen möglicherweise keine Antwort wissen.“

So wollen Forscher Quatschaussagen verhindern

Sie schlagen vor, eine statistische Methode anzuwenden, die zumindest einen Teil der Halluzinationen verhindern soll – jene problematischen „Konfabulationen“, bei denen die KI willkürlich antwortet. Die Forscher führen als Beispiel die Frage „Wo ist der Eiffelturm?“ an. Darauf antwortet der Chatbot dreimal korrekt mit „Paris“, „Es ist Paris“ und „Frankreichs Hauptstadt Paris“, zweimal nennt er Rom und einmal Berlin.

Abhilfe für derartige Falschantworten könnte laut den Forschern ein Algorithmus bringen, den sie „Unsicherheitsschätzer“ nennen. Er soll die verschiedenen Antworten des Modells auf eine bestimmte Frage kategorisieren und feststellen, wie sicher der Bot in seiner Antwort ist.

Die Studie liefert ein Hilfsmittel, um eine wichtige Form von KI-Fehlverhalten zu erkennen. Sie ist aber kein Allheilmittel.
Philipp Hennig
Professor für die Methoden des Maschinellen Lernens

Dazu soll ein zweites Sprachmodell eingesetzt werden, das zunächst erkennt, welche Antworten sich nur in der Formulierung unterscheiden („Paris“ und „Es ist Paris“), und welche inhaltlich verschieden sind (Paris und Rom). So könnte der Chatbot bei einem zu hohen Grad der Unsicherheit eine Antwort verweigern oder erklären, dass er keine verlässliche Aussage treffen kann.

Nicht abgedeckt von dieser Methode wären zum Beispiel unzutreffende Aussagen, die auf Fehlern in den zugrundeliegenden Trainingsdaten beruhen. Außerdem können sie nur die Modellanbieter anwenden, um Fakten zu überprüfen, nicht aber die Nutzerinnen und Nutzer.

Philipp Hennig, Professor für die Methoden des Maschinellen Lernens an der Eberhard-Karls-Universität Tübingen, sagt: „Die Studie liefert ein Hilfsmittel, um eine wichtige Form von KI-Fehlverhalten zu erkennen. Sie ist aber kein Allheilmittel.“

Wenn ein KI-Modell von einer objektiv falschen Aussage gewissermaßen „überzeugt“ sei – etwa durch fehlerhafte Trainingsdaten oder schlechtes Training –, helfe die neue Methode nicht weiter. Sie könne sogar eine „falsche Sicherheit“ suggerieren, sagt Hennig.

Das Problem genereller Halluzinationen ist aktuell noch weitgehend ungelöst.
Barbara Hammer
Professorin für Maschinelles Lernen an der Universität Bielefeld

Barbara Hammer, Professorin für Maschinelles Lernen an der Universität Bielefeld, sagt: „Ich halte den Ansatz im Paper für gut, aber nicht besonders überraschend.“ Sie weist vor allem darauf hin, dass Methoden, bei denen keine externen und verifizierten Informationen vorliegen, immer wieder an Grenzen stoßen müssten.

Verwandte Themen
ChatGPT
Berlin
Universität Bielefeld

Rein auf großen Sprachmodellen basierende Ansätze würden auch durch ihre zunehmende Größe und die Menge an Trainingsdaten immer besser. Sie unterlägen aber prinzipiellen Beschränkungen.

Auch adressiere der Vorschlag der Forscher nur einen Teilbereich der Fehler, die von Sprachmodellen produziert werden. Barbara Hammer sagt: „Das Problem genereller Halluzinationen ist aktuell noch weitgehend ungelöst.“

Mehr zum Thema
Unsere Partner
Anzeige
remind.me
Jetziges Strom-/Gaspreistief nutzen, bevor die Preise wieder steigen
Anzeige
Homeday
Immobilienbewertung von Homeday - kostenlos, unverbindlich & schnell
Anzeige
IT Boltwise
Fachmagazin in Deutschland mit Fokus auf Künstliche Intelligenz und Robotik
Anzeige
Presseportal
Direkt hier lesen!
Anzeige
STELLENMARKT
Mit unserem Karriere-Portal den Traumjob finden
Anzeige
Expertentesten.de
Produktvergleich - schnell zum besten Produkt