Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Gastkommentar Bessere Kontrolle für KI: Ein Tüv für Algorithmen muss her

Künstliche Intelligenz nimmt immer mehr Raum im Alltag ein. Gerade deswegen sollten intelligente Algorithmen Standards unterliegen.
  • Dirk Stenkamp, Isabel Skierka
Kommentieren
irk Stenkamp ist Vorstandschef des Tüv Nord. Isabel Skierka ist Analystin beim Digital Society Institute in Berlin.
Dirk Stenkamp und Isabel Skierka

irk Stenkamp ist Vorstandschef des Tüv Nord. Isabel Skierka ist Analystin beim Digital Society Institute in Berlin.

Intelligente Algorithmen, die Handlungs- und Entscheidungsstrukturen des Menschen nachbilden, gehören längst zum Alltag. Sie bewerten die Kreditwürdigkeit von Kunden, messen die Qualität von Jobbewerbungen, diagnostizieren Krankheiten oder lassen Autos autonom fahren. Die Auswirkungen solcher „Künstlicher Intelligenz“ (KI) auf unsere Gesellschaft werden immer weitreichender. Wer aber kontrolliert algorithmisch vorbereitete oder getroffene Entscheidungen?

Verbraucherzentralen, Wissenschaftler und Politiker fordern immer wieder einen „Algorithmen-Tüv“. Solch eine Institution soll für Transparenz von Algorithmen sorgen, die Sicherheit von KI-gesteuerten Prozessen gewährleisten und Datensubjekte vor Diskriminierung schützen.

Auch in der Bevölkerung spiegelt sich dieser Wunsch wider. Eine Forsa-Umfrage im Auftrag des Tüv-Verbands kam zu dem Ergebnis, dass sich 83 Prozent der Bundesbürger eine unabhängige Prüfung von KI-Anwendungen wünschen. Das ist keine Überraschung, schließlich würde auch niemand in ein Flugzeug einsteigen, dessen Sicherheit vorher nicht intensiv geprüft wurde.

Algorithmen, die selbstständig lernen und auf dieser Basis Entscheidungen über Leben und Tod treffen, können jedoch kein statisches Prüfverfahren durchlaufen, wie wir es aus der „alten“ mechanisch-elektrotechnischen Welt gewohnt sind. KI-Software ist dynamisch und entwickelt sich ständig weiter.

Die Steuerungssoftware eines selbstfahrenden Autos wird über große Datenmengen trainiert, deren Volumen für den Menschen kaum vorstellbar ist. Sie lernt aus der eigenen Praxiserfahrung stetig dazu und erfährt über das Funknetz Updates der Hersteller, die das ursprüngliche System und damit auch den Ausgang von Systementscheidungen verändern. Produkt- und Prozessprüfungen in Medizintechnik, Robotik und insbesondere die Typzulassung vernetzter Fahrzeuge müssen mit dieser Entwicklung Schritt halten.

Herausforderungen für Vorgaben

Prüforganisationen, die große Erfahrung mit Hard- und Software und deren Zertifizierung haben, müssen die bisherigen ausschließlich statischen Zertifikate durch dynamische Verfahren ersetzen, die zu jedem Zeitpunkt eine Aussage über die Funktionalität und Sicherheit des Systems ermöglichen.

Zunächst liegt die Herausforderung darin, die Kriterien für diese Sicherheitsprüfungen zu definieren. So arbeiten die deutschen Tüv-Unternehmen bereits intensiv an geeigneten Prüfungswerkzeugen, welche drei Fokuskriterien erfüllen müssen: zunächst Transparenz. Es muss nachvollziehbar sein, wie ein KI-Algorithmus entwickelt und trainiert wurde, wie er Entscheidungen ableitet und welche Lern- und Trainingsmuster angewendet wurden. Dann die Eignung.

Der eingesetzte KI-Algorithmus muss anhand von definierten Kriterien nachweislich für sein Einsatzgebiet geeignet sein. Entscheidend hierfür ist auch die Qualität der Trainingsdaten. Für sie müssen definierte Anforderungen gelten, denn sie entscheiden letztlich über den Ausgang von Systementscheidungen. So wird derzeit ein „Führerschein für Algorithmen“ für das autonome Fahren entwickelt, der das Entscheidungsverhalten des Systems in unterschiedlichsten Verkehrssituationen überprüfen soll. Drittens Manipulierbarkeit. Cyberangriffe dürfen die Systemsicherheit von KI-Systemen nicht kompromittieren. Für eine sichere KI-Funktionalität werden Angriffsszenarien digital simuliert oder mittels „guter Hacker“ verprobt.

KI-Technologien entwickeln sich rasant weiter. In Ermangelung einheitlicher Vorgaben setzen viele KI-Entwickler derzeit noch eigene Maßstäbe für Funktionalität, Sicherheit oder Ethik von Algorithmen. Es ist höchste Zeit, dass wir unter Einbindung von Herstellern, Anwendern sowie von neutralen Prüforganisationen wie den Tüv-Unternehmen konkrete Standards für transparente und sichere KI-Systeme definieren. Dazu muss den Prüfern auch der Zugang zu den Quellcodes der Systeme zugänglich gemacht werden.

Schon heute besitzen etablierte Tech-Unternehmen die Marktmacht, De-facto-Standards für algorithmische Entscheidungsfindungen zu setzen. Ein „Algorithmen-Tüv“ würde die europäischen Institutionen unterstützen, diese Macht demokratisch und wettbewerbsrechtlich konform zu kontrollieren, die digitale Souveränität des Bürgers zu erhalten und Innovationen in der Breite zu fördern.

Seitens der EU und der KI-Enquete-Kommission der Bundesregierung gibt es hierzu gute Ansätze. Auf dieser Grundlage sollten Stakeholder in Deutschland die Führung übernehmen und eine Roadmap für KI-Sicherheit in Europa entwickeln. Ein Konsens darüber, dass Algorithmen überprüfbar sein müssen, wäre auf diesem Weg ein erster, wichtiger Schritt.

Künstliche Intelligenz – wie gefährlich ist sie wirklich?

Mehr: Ein Schwerpunktthema der GroKo ist die Digitalisierung. Doch wieviel Geld dafür bereitsteht, kann die Regierung nicht sagen. Das sorgt für Unmut.

Der Handelsblatt Expertencall
Startseite

Mehr zu: Gastkommentar - Bessere Kontrolle für KI: Ein Tüv für Algorithmen muss her

0 Kommentare zu "Gastkommentar: Bessere Kontrolle für KI: Ein Tüv für Algorithmen muss her"

Das Kommentieren dieses Artikels wurde deaktiviert.