Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Speed Dating mit KI

Ein Roboter interagiert mit einer Frau.

(Foto: dpa)

Digitalisierung TÜV-Verband fordert Regulierung von Künstlicher Intelligenz

Eine Umfrage zeigt: Nur wenige Verbraucher trauen bei KI-Anwendungen den Sicherheitsversprechen der Anbieter. Der TÜV-Verband verlangt Konsequenzen.
27.01.2020 - 12:17 Uhr Kommentieren

Berlin Der TÜV-Verband (VdTÜV) sieht erhebliche Regelungslücken beim Einsatz von Künstlicher Intelligenz in sicherheitskritischen Bereichen und fordert Konsequenzen. „Immer dann, wenn Gefahren für die Gesundheit von Menschen oder deren elementare Grundrechte bestehen, sind klare Leitlinien für die Anbieter, Entwickler und Nutzer von KI-Anwendungen notwendig“, sagte der Präsident des VdTÜV, Michael Fübi, am Montag in Berlin.

Das betreffe zum Beispiel hoch automatisierte Fahrzeuge, mit KI-gesteuerte Maschinen oder die medizinische Diagnostik auf Basis von KI, so Fübi. Dass Handlungsbedarf in dieser Hinsicht besteht, zeigt eine repräsentative Ipsos-Umfrage im Auftrag des TÜV-Verbands unter 1.000 Personen ab 16 Jahren, die an diesem Montag vorgestellt wurde. Demnach halten nur 17 Prozent der Befragten eine Selbsterklärung der Anbieter von KI-Anwendungen darüber für ausreichend, dass ihre Produkte sicher sind.

Laut Fübi ergab die Umfrage zudem, dass der Ruf nach einer gesetzlichen Regulierung von Künstlicher Intelligenz lauter werde. 85 Prozent der Bundesbürger wollen, dass Produkte und Anwendungen mit Künstlicher Intelligenz klar gekennzeichnet werden.

Ebenfalls 85 Prozent sind der Meinung, dass KI-Produkte erst auf den Markt gebracht werden sollten, wenn ihre Sicherheit von unabhängigen Stellen überprüft wurde. Und 78 Prozent der Befragten sagen, dass der Staat Gesetze und Vorschriften zur Regulierung von KI verabschieden sollte.

Top-Jobs des Tages

Jetzt die besten Jobs finden und
per E-Mail benachrichtigt werden.

Standort erkennen

    Aus Sicht des TÜV-Verbands führt daher an einer angemessenen Regulierung auf nationaler und internationaler Ebene kein Weg vorbei. Die neue EU-Kommission hat angekündigt, eine KI-Strategie vorzulegen. In Deutschland plant das Bundesarbeitsministerium ein KI-Observatorium, um die Auswirkungen am Arbeitsmarkt zu beobachten und im Sommer will die Enquete-Kommission des Deutschen Bundestages zur Künstlichen Intelligenz ihren Abschlussbericht vorlegen.

    „Beim Einsatz von Künstlicher Intelligenz geht es in vielen Bereichen um die körperliche Unversehrtheit von Menschen und die Wahrung ihrer elementaren Grundrechte“, betonte Fübi. „Natürlich müssen wir darauf achten, dass die Regulierung nicht übers Ziel hinausschießt und Innovationen bremst.“

    Ein Weg, um das zu vermeiden, sei ein risikobasierter Ansatz. Nicht jede KI-Anwendung müsse umfangreich getestet werden. Es komme darauf an, wie groß der Schaden ist, den ein KI-System anrichten kann.

    Eine ähnliche Position vertritt auch die von der Bundesregierung eingesetzte Datenethikkommission. Im Oktober vergangenen Jahres haben die 16 Kommissionsmitglieder aus den Bereichen Technik, Ethik und Recht ein Gutachten zum Einsatz von Algorithmen und Künstlicher Intelligenz sowie dem Umgang mit Daten vorgelegt. Darin skizzieren sie einen Regulierungsrahmen.

    Anhand der Gefährlichkeit der Algorithmen, die das Gremium in fünf Risikoklassen einteilt, sollen den Betreibern von Algorithmen künftig bestimmte Pflichten auferlegt werden. Bei Anwendungen mit einem „gewissen Schädigungspotenzial“ müssen die Unternehmen etwa eine „angemessene Risikofolgenabschätzung“ erstellen und veröffentlichen. Algorithmen mit „unvertretbarem Schädigungspotenzial“ sollen nach Vorstellung der Ethiker auch verboten werden können.

    72 Prozent haben Sorgen vor Hackerangriffen

    Auch der TÜV-Verband empfiehlt, KI-Anwendungen in verschiedene Risikoklassen einzuteilen. „In Abhängigkeit vom Risiko können sie dann zugelassen, überprüft oder sogar laufend überwacht werden“, heißt es in einer Mitteilung des Verbands. Der Ansatz der Datenethikkommission der Bundesregierung weise genau in diese Richtung.

    Die Prüfung von KI-Systemen mit hohem oder sehr hohem Risiko sollte aus Sicht des TÜV von unabhängigen Prüforganisationen vorgenommen werden. Voraussetzung für herstellerunabhängige Prüfungen sei jedoch der Zugang zu den dafür notwendigen „sicherheitsrelevanten Daten“. Schon heute fehle den Prüforganisationen zum Beispiel der Zugang zu wichtigen Daten von digital gesteuerten Aufzügen oder Fahrerassistenzsystemen in Autos.

    Die Bundesbürger sehen den Einsatz von Künstlicher Intelligenz laut der Umfrage für den TÜV-Verband durchaus skeptisch, wenn sie selbst betroffen sein könnten. So hätten 72 Prozent der Befragten große oder sehr große Sorgen vor Hackerangriffen, die mit Hilfe von KI automatisiert oder personalisiert werden können.

    An zweiter Stelle steht mit 71 Prozent die Sorge, dass KI missbraucht wird, um Menschen zu manipulieren. Zwei von drei Befragten (67 Prozent) haben Angst, dass KI-Systeme bei sicherheitskritischen Anwendungen Fehler machen, zum Beispiel bei hoch automatisierten Fahrzeugen.

    Weitere Sorgen drehen sich um das Thema Entmenschlichung (62 Prozent) und eine noch stärkere Abhängigkeit von digitalen Technologien (61 Prozent). 56 Prozent der Befragten haben große oder sehr große Sorgen, dass KI-Anwendungen Arbeitsplätze von Menschen ersetzen. „Die Sorge vor Arbeitsplatzverlusten durch KI-Anwendungen ist berechtigt“, sagte Fübi. „Wir müssen schon heute diskutieren, wie unsere Gesellschaft diesen Strukturwandel gestalten will.“

    „Jetzt ist politisches Handeln gefragt“

    Positiv bewertet hingegen eine breite Mehrheit in der Bevölkerung die Weiterentwicklung von Künstlicher Intelligenz in der Forschung (75 Prozent), in der Industrie (73 Prozent) und in der Medizin (65 Prozent). Überwiegend positiv bewerten die Befragten auch Verbesserungen durch KI bei der Verbrechensbekämpfung (65 Prozent) oder bei der Vermittlung von Wissen, zum Beispiel durch den Einsatz persönlicher Assistenten (64 Prozent).

    Der TÜV-Verband sieht vor diesem Hintergrund für Gesetzesinitiativen im Bund und in der EU dringenden Handlungsbedarf. „Jeden Tag drängen viele neue KI-Anwendungen auf den Markt“, sagte Fübi. „Die Zeit der politischen Meinungsbildung sollte zu Ende gehen. Jetzt ist politisches Handeln gefragt.“

    Mehr: Künstliche Intelligenz gilt für viele als Allheilmittel. Lesen Sie hier, warum die Technologie in vielen Unternehmen trotzdem nur langsam ankommt.

    Startseite
    Mehr zu: Digitalisierung - TÜV-Verband fordert Regulierung von Künstlicher Intelligenz
    0 Kommentare zu "Digitalisierung: TÜV-Verband fordert Regulierung von Künstlicher Intelligenz"

    Das Kommentieren dieses Artikels wurde deaktiviert.

    Zur Startseite
    -0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%