Digitale Revolution Das ist der Unterschied zwischen KI und erklärbarer KI

Der Algorithmus sucht nach statistischen Zusammenhängen, nicht nach Erklärungen. Korrelationen sind jedoch keine Kausalitäten.
Düsseldorf Ob beim automatisierten Fahren oder der Spracherkennung, ob bei der Suche nach neuen Medikamenten oder der Analyse der Kreditwürdigkeit: Künstliche Intelligenz (KI) hat das Potenzial, zahlreiche Lebensbereiche zu verändern. Die technischen Durchbrüche der vergangenen Jahre, die das ermöglichen, sind schwerpunktmäßig auf eine Teildisziplin zurückzuführen: das maschinelle Lernen oder Machine Learning (ML).
Dabei leiten Algorithmen aus gigantischen Datensätzen Regeln ab oder erkennen Muster, ohne dass dabei Programmierer jeden einzelnen Schritt genau vorgeben müssen – das Programm bringt sich also beispielsweise selbstständig bei, wie eine Katze aussieht oder welche Anomalien den Ausfall einer Produktionsmaschine ankündigen. Zumindest, sofern ausreichend Rechenleistung und Daten vorhanden sind, um das System zu trainieren.
Daran mangelt es heute nicht: Unternehmen und Behörden sitzen auf riesigen Datenbergen. Autohersteller können die Sensoren in den Fahrzeugen nutzen, Industrieunternehmen die Rückmeldungen der Maschinen, Krankenkassen haben Patientendaten und Städte Einwohnerdaten. Zudem bietet das Internet einen schier unendlichen Fundus an Videos und Sprachaufnahmen. Der Computer nimmt diese Daten als Grundlage.
Dieses Verfahren birgt jedoch ein Problem: Der Algorithmus sucht nach statistischen Zusammenhängen, nicht nach Erklärungen. Korrelationen sind jedoch keine Kausalitäten. Wenn Straftäter in den USA häufig schwarz sind, heißt das nicht, dass Schwarze automatisch ein größeres Risiko für die Allgemeinheit bedeuten, wie es Software für die Sozialprognosen von Häftlingen teilweise nahelegt: Womöglich spiegeln die Daten auch soziale Unterschiede in der Gesellschaft und rassistische Vorurteile im Justizsystem wider.
Die Folgen können gravierend sein. Ein System, auf das viele Behörden zugreifen, beeinflusst die Entscheidung zahlreicher Bewährungshelfer – auch derer, die keine Vorurteile gegenüber Schwarzen haben. Gleichzeitig ist es schwierig, die Ergebnisse anzufechten: Welche Kriterien dem Vorschlag zugrundeliegen, machen die wenigsten Systeme transparent.
Es gebe unzählige Beispiele, in denen eine KI versage, sagt Sandra Wachter, Forscherin an der Universität Oxford, und der Grund sei immer der gleiche: „Die Algorithmen beruhen auf Daten, die unsere Gesellschaft widerspiegeln, und in dieser werden bestimmte Gruppen nach wie vor benachteiligt.“
Bei einer erklärbaren KI hingegen – im Fachjargon Explainable AI (XAI) – werden die Daten bereits vor dem maschinellen Lernprozess auf mögliche Verzerrungen überprüft, damit es bei der Anwendung nicht zu falschen Gewichtungen kommt. Das Training der Algorithmen wiederum darf nicht abgeschirmt sein.
Für die KI, die auf Grundlage dieser Daten ihre Entscheidungen trifft, gelten beim XAI-Ansatz zwei Voraussetzungen: Sie muss erklärbar und transparent sein. Der Mensch muss den „Denkprozess“ und die Entscheidung der KI nachvollziehen und nachverfolgen können.
Bei Trufa zum Beispiel, der XAI-Software des Deloitte-Managers Andreas Mielke, kann der Nutzer über eine grafische Oberfläche die Entscheidungsfindung Schritt für Schritt zurückverfolgen, also welche Merkmale in den Daten zu welchen Entscheidungen geführt haben.
Der Vorteil: Falsche Entscheidungen einer KI, aufgrund unsauber erhobener Daten, können im Vorfeld vermieden werden. „Das Ziel ist das ‚Vollverstehen‘ der Entscheidungsfindung einer KI, und mit der erklärbaren KI sind wir auf einem guten Weg“, sagt die Informatikerin Wachter. „Wir verstehen noch nicht alles, aber wir verstehen immer größere Teile der KI.“ Für die IT-Branche ist das ein enorm wichtiges Thema: „Je mehr wir verstehen, desto größer wird auch das Vertrauen der Gesellschaft in die KI“, betont Wachter.
Mehr: Blick in die Blackbox: Warum Unternehmen einen neuen KI-Ansatz nutzen sollten.
Das Kommentieren dieses Artikels wurde deaktiviert.
Entschuldigung, aber wer sagt, das KI gleich "lernende Algorithmen" ist, und das dann auch noch im Datenbereich? Zumindest dort geht es nur um die gute alte Statistik, und damit um ziemlich wenig Intelligenz. Von KI sollte man doch allenfalls bei einer lernenden Mustererkennung sprechen, also etwa der Unterscheidung des Gesichts einer Katze von dem eines Hundes und - meinetwegen - des Gesichts von einem Herrn Trump.
Seit mindestens drei Jahrzehnten beschäftigt sich die KI jedoch vorwiegend mit dem Erkennen und Verstehen ganz spezieller Muster: denjenigen der natürlichen Sprachen, in denen sich menschliches und dann bitte auch digitales Denken vor allem abspielt. Denn letztlich hat auch die andere, bildorientierte Mustererkennung nur das Ziel, daß ich in meiner natürlichen Sprache sagen kann, das ist eine Katze, und vielleicht sogar auch noch deren Namen nennen: das ist Muschimietze vom Nachbarn ...
Das meiste wichtige Wissen enthalten jedoch Dokumente und andere Texte in den verschiedenen Sprachen der Menschheit, wobei natürlich einige dominierende wie Englisch, Chinesisch, Deutsch, Russisch und die wesentlichen romanischen Sprachen überwiegen, auch unter den inzwischen einigen Milliarden Dokumenten im Internet und zahlreichen proprietären Wissensbanken. Und damit wird inzwischen die "natürlichsprachige", Linguistische KI dominant, etwa in der Analyse von Gesetzen und Vorschriften sowie der Erzeugung von "Wissen" daraus: Anforderungen, Bewertungen und vieles andere. Wobei die dafür implementierten und immer häufiger eingesetzten Softwareobjekte natürlich zuweilen auch lernen können und sollen.
Aber bitte, die Hauptsache muß die Hauptsache bleiben. Das ist beim Denken nun einmal unsere natürliche Sprache. Und die ernstzunehmende KI hat das in den letzten drei Jahrzehnten oder so ganz ordentlich gelernt.