Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Künstliche Intelligenz Regeln für den Einsatz von Algorithmen präsentiert

Wirtschaft und Politik gehen derzeit der Frage nach, wie die Technologie beherrschbar und fair bleiben kann. Erste Vorschläge liegen nun vor.
Kommentieren
Anwender und Programmierer der Algorithmen sollen genau wie bei anderen Technologien auch für ihre Systeme verantwortlich sein. Quelle: dpa
Künstliche Intelligenz

Anwender und Programmierer der Algorithmen sollen genau wie bei anderen Technologien auch für ihre Systeme verantwortlich sein.

(Foto: dpa)

BerlinDie Deutschen sehen Künstliche Intelligenz (KI) skeptisch. Laut einer repräsentativen Umfrage des Marktforschungsinstituts TNS Kantar im Auftrag des Bundesverbands Digitale Wirtschaft (BVDW) glauben 48 Prozent der Befragten, dass der Mensch die Kontrolle über die Künstliche Intelligenz verlieren wird.

Wirtschaftsverbände, Unternehmen, Stiftungen, Think Tanks und die Politik diskutieren derzeit, welche Regeln aufgestellt werden könnten, damit die immer komplexeren Programme und Algorithmen beherrschbar bleiben. Es soll sichergestellt werden, dass Gesetze und Werte eingehalten werden, wenn immer häufiger Computer im Einsatz sind.

Am Donnerstag hat die Bertelsmann Stiftung gemeinsam mit dem Berliner Think Tank iRights.Lab neun Regeln für die „Gestaltung algorithmischer Systeme“ vorgestellt. „Algorithmen brauchen Regeln“, sagte Jörg Dräger, Vorstandsmitglied der Bertelsmann Stiftung.

Ein Teil der neun Regeln zielt auf die klare Zuteilung von Verantwortung ab. „Für die Auswirkungen des Einsatzes eines algorithmischen Systems muss stets eine natürliche oder juristische Person verantwortlich sein“, heißt es in dem Papier. Eine ähnliche Forderung hatte bereits der Bundesverband der Deutschen Industrie (BDI) aufgestellt.

Die EU-Kommission hatte im Dezember einen ersten Entwurf für Ethikrichtlinien vorgestellt. In einer Stellungnahme zu dem Papier forderte der BDI, dass Anwender und Programmierer der Algorithmen genau wie bei anderen Technologien auch für ihre Systeme verantwortlich seien.

Das Potenzial der neuen Technik ist enorm. Laut Prognosen der Wirtschaftsberatung PwC könnte das deutsche Bruttoinlandsprodukt durch den Einsatz von KI bis 2030 um 430 Milliarden Euro steigen. Selbstlernende Systeme werden heute schon in der Kommunikation mit Verbrauchern eingesetzt, bei der Bekämpfung von Verbrechen oder zur Verbesserung von Industrieprozessen.

„Wir brauchen ganz konkrete Zuständigkeiten und Verantwortlichkeiten“, die Verantwortung könne nicht auf den Nutzer abgeladen werden, sagte Philipp Otto, Gründer und Direktor des iRights.Lab. Ein weiterer Punkt, der in dem Papier genannt wird, ist Transparenz. Zum einen solle stets klar sein, wenn ein Algorithmus zum Einsatz kommt. „Das gilt insbesondere dann, wenn der Algorithmus dazu dient, Menschen zu imitieren“, so Otto.

Zum anderen müsse klar sein, wie ein Programm zu einer Entscheidung kommt und die Beherrschbarkeit müsse abgesichert sein. „Kann das nicht gewährleistet werden, so ist auf den Einsatz eines algorithmischen Systems zu verzichten“, heißt es in dem Papier.

„Es geht nicht darum, dass der Programmiercode offengelegt wird“, stellte die ehemalige Bundesjustizministerin Sabine Leutheusser-Schnarrenberger klar, die an der Erstellung der neun Regeln für die „Gestaltung algorithmischer Systeme“ mitgearbeitet hat. Es gehe darum, „mehr Transparenz herzustellen ohne Geschäfts- und Betriebsgeheimnisse komplett aufgeben zu müssen“.

Freiwillige Selbstverpflichtung statt Gesetze

Statt neuer Gesetze setzt sie auf eine freiwillige Selbstverpflichtung der Anwender und Programmierer von Algorithmen. „Dass unverbindliche Regeln Verbindlichkeit entfalten können, dass sehen wir in vielen Bereichen“, so Leutheusser-Schnarrenberger.

Seit September trifft sich in Berlin regelmäßig eine Enquete-Kommission Künstliche Intelligenz, die sich zur Hälfte aus Mitgliedern des Deutschen Bundestages und Sachverständigen zusammensetzt. Im vergangenen Jahr hat die Bundesregierung eine KI-Strategie vorgelegt. Leutheusser-Schnarrenberger hofft, dass die neun Regeln auch in die Strategie miteinfließen.

Die wichtigsten Neuigkeiten jeden Morgen in Ihrem Posteingang.
Startseite

Mehr zu: Künstliche Intelligenz - Regeln für den Einsatz von Algorithmen präsentiert

0 Kommentare zu "Künstliche Intelligenz: Regeln für den Einsatz von Algorithmen präsentiert"

Das Kommentieren dieses Artikels wurde deaktiviert.