Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Gastkommentar Der Mensch bleibt bei Künstlicher Intelligenz das Maß der Dinge

Das wirtschaftliche Potenzial von Künstlicher Intelligenz ist gewaltig. Doch ohne staatliche Regulierung ist der Missbrauch nicht auszuschließen.
Kommentieren
Die Autorin ist Vorsitzende der Geschäftsführung von Microsoft Deutschland.
Sabine Bendiek

Die Autorin ist Vorsitzende der Geschäftsführung von Microsoft Deutschland.

ELIZA, der Prototyp aller Chatbots, konnte schon 1966 einen Dialog zwischen Psychiater und Patient so überzeugend simulieren, dass Menschen ihr ihre intimsten Gedanken anvertrauten. Ihr Schöpfer, der MIT-Wissenschaftler Joseph Weizenbaum, war darüber so erschrocken, dass er fortan vor allem als Kritiker „gedankenloser Computergläubigkeit“ auftrat und „die Einführung eines ethischen Denkens“ in die Naturwissenschaft forderte.

Diese Forderung ist heute aktueller denn je. Denn seit Weizenbaums Tod 2008 hat sich die Entwicklung im Bereich Künstlicher Intelligenz (KI) ungeheuer beschleunigt. Selbst der KI-Pionier Weizenbaum konnte sich nicht vorstellen, dass ein Programm geschaffen werden könnte mit der Fähigkeit, am Gesicht einer Mutter erkennen zu können, ob sie lacht oder traurig ist. Doch genau dazu ist modernste Gesichtserkennungstechnologie fähig.

Wie zum Beispiel die App „Seeing AI“, die Blinden dabei hilft, ihre Umgebung zu erkennen, Gesprächspartner zu identifizieren und sogar deren Emotionen zu deuten – für Menschen mit Sehbehinderung ein unglaublicher Gewinn an Lebensqualität.

Gleichzeitig häufen sich in letzter Zeit aber auch die Berichte darüber, dass Staaten Gesichtserkennungssoftware massiv zur flächendeckenden Überwachung ihrer Bevölkerung einsetzen. Das Beispiel zeigt, dass Chancen und Risiken von KI oft nahe beieinanderliegen. Deshalb müssen wir uns dringend mit dem ethischen Rahmen auseinandersetzen, den wir der Entwicklung und dem Einsatz von KI geben wollen.

Wie können wir KI für nachhaltige Entwicklung nutzen?

KI-Anwendungen stecken heute schon in Navigationssystemen und Smartphones. Sie begegnen uns in Form von Chatbots und Industrierobotern. Sie wählen für uns Nachrichten und Werbebotschaften aus, machen Vorschläge für Filme, Flüge oder sogar für den passenden Lebenspartner.

Aber all das ist erst der Anfang. Allein das wirtschaftliche Potenzial scheint gewaltig. Laut Prognosen von PwC könnte das deutsche BIP durch den Einsatz von KI bis 2030 um 430 Milliarden Euro steigen. KI wird uns aber auch dabei helfen, Krankheiten und Armut zu bekämpfen, Ressourcen besser zu nutzen oder Umweltrisiken zu kontrollieren.

Gerade erst haben wir zusammen mit Fraunhofer CeRRI 50 Umweltwissenschaftler und KI-Experten in einem Workshop zusammengebracht. In nur zwei Tagen sind beim „Earth Lab“ in Berlin mehr als 40 innovative Ideen zum Schutz von Mensch und Umwelt entstanden: von Brunnen in entlegenen Dörfern, die die Wasserqualität selbstständig kontrollieren, über die Überwachung von Insektenpopulationen durch akustische Systeme bis zur Bekämpfung von Raubfischerei oder illegalen Rodungen im Regenwald durch die automatisierte Auswertung von Satellitenbildern.

Was hilft gegen programmierte Diskriminierung?

All das sind eindrucksvolle Belege für das positive Potenzial, das KI entfalten kann – wenn wir die richtigen Rahmenbedingungen schaffen. Dafür müssen wir uns allerdings ganz neuen gesellschaftlichen Fragen stellen: Wie stellen wir sicher, dass KI gerecht, sicher und zuverlässig arbeitet?

Wie können wir die Vorteile von KI nutzen, ohne den Schutz der Privatsphäre aufzugeben? Wie verhindern wir, dass wir die Kontrolle über immer intelligentere und leistungsfähigere Maschinen verlieren? Und in welchen Bereichen wollen wir den Einsatz von KI vielleicht ganz ausschließen.

Um zumindest einige dieser drängenden Fragen zu beantworten, arbeitet Microsoft in der „Partnership on Artificial Intelligence“ eng mit anderen führenden IT-Unternehmen zusammen. Außerdem haben wir uns schon vor Jahren ethische Grundsätze für die Entwicklung von KI gegeben, über deren Implementierung ein unternehmensübergreifender „AETHER-Ausschuss“ (AI and Ethics in Engineering and Research) wacht.

Zu diesen Leitlinien gehört beispielsweise das Gebot der Fairness. Wenn KI zum Beispiel als Orientierungshilfe für medizinische Entscheidungen, für die Gewährung von Darlehen oder die Vergabe von Jobs eingesetzt wird, müssen die gleichen Empfehlungen für alle Personen gelten, die die gleichen Symptome, gleichen finanziellen Verhältnisse oder gleichen beruflichen Qualifikationen aufweisen. Das klingt zunächst simpel, ist es aber nicht. Zu Recht wird in der aktuellen Debatte um die Risiken Künstlicher Intelligenz die Gefahr betont, dass KI nicht vorurteilsfrei entscheidet.

 Das Problem liegt einerseits in den Daten, die zu Trainingszwecken verwendet werden. So erkennt KI beispielsweise die Gesichter weißer Männer am besten und die von farbigen Frauen am schlechtesten, weil mehr Bilder von weißen Männern zur Verfügung stehen. Andererseits fließen natürlich auch – menschliche – Vorurteile in die KI-Programmierung ein. Um das zu verhindern, müssen wir Entwickler massiv für das Thema sensibilisieren und gleichzeitig für mehr Vielfalt in den Entwicklerteams sorgen. Denn solange KI von einer homogenen Gruppe weißer, männlicher Softwareingenieure entwickelt wird, wird sie auch in erster Linie deren Weltsicht widerspiegeln.

Wie kann KI die menschliche Urteilskraft stärken?

Bei der der wichtigen Diskussion um programmierte Diskriminierung, die gern unter dem englischen Schlagwort ‚Bias‘ geführt wird, dürfen wir aber nicht vergessen, dass auch Menschen bei ihren Entscheidungen selten rein rational handeln.

Daniel Chen, ein amerikanischer Jura-Professor, hat jahrelang Daten zu Gerichtsurteilen gesammelt und – mithilfe von KI – analysiert. Dabei kam heraus, dass sowohl gängige Vorurteile als auch banale Einflussfaktoren wie das Wetter oder der Ausgang von Fußballspielen regelmäßig richterliche Entscheidungen beeinflussen. Chen schlägt deshalb vor, ein KI-basiertes Frühwarnsystem zu nutzen, um Richter für ihr eigenes ‚Bias‘ zu sensibilisieren.

Dieser Ansatz gefällt mir deshalb so gut, weil es eben nicht darum geht, wichtige Entscheidungen an KI zu delegieren. KI wird vielmehr zum Werkzeug, das hilft, die menschliche Urteilskraft zu stärken.

Das wäre sicher auch im Sinne von Joseph Weizenbaum, der stets betont hat, die eigentliche Entscheidungsgewalt müsse immer in menschlicher Hand bleiben, auch wenn künstliche intelligente Systeme als Hilfsmittel zur Informationsbeschaffung herangezogen werden.

Wie können wir die „Black Box“ knacken?

Transparenz und Nachvollziehbarkeit sind weitere Punkte, die in der Debatte um die ethische Entwicklung von KI eine zentrale Rolle spielen. Dass auch dieses Thema deutlich komplexer ist, als es auf den ersten Blick scheint, beweist ein Aufsatz von Kathrin Passig in der Zeitschrift „Merkur“. Der Text mit der Überschrift „Fünfzig Jahre Black Box“ macht klar, dass über die Nachvollziehbarkeit von Programmcodes schon seit gut einem halben Jahrhundert diskutiert wird und dass dabei meist unklar bleibt, was genau gemeint ist. Sicher geht es zunächst einmal darum, ob die Codes überhaupt öffentlich einsehbar sind.

Aber soll jeder Algorithmus auch für jeden Laien durchschaubar sein? Das wäre schlicht eine Illusion. Allein in der Software eines modernen Pkw stecken heute etwa 100 Millionen Codezeilen – und er ist immer noch weit davon entfernt, autonom zu fahren. Am sinnvollsten scheint es, eine Überprüfbarkeit von KI-Entscheidungen zu fordern.

Zwar ist auch das alles andere als einfach, dennoch sind die Anbieter von KI-Lösungen in der Pflicht, sowohl die kontextuellen Informationen als auch die notwendigen Schnittstellen bereitzustellen, damit zumindest Experten mögliche Fehlentscheidungen erkennen und korrigieren können.

Ähnliches gilt für das Thema Verantwortlichkeit. Es kann kein Zweifel bestehen, dass KI-Anbieter auch für deren Zuverlässigkeit, Sicherheit und Rechtskonformität verantwortlich sind.

Wie kriegen wir den Geist zurück in die Flasche?

Bis zu diesem Punkt wären viele der ethischen Fragen rund um die Entwicklung und den Einsatz von KI wohl tatsächlich durch eine – herstellerübergreifende – Selbstverpflichtung der Anbieter von KI-Systemen lösbar.

Angesichts der rasanten technologischen Entwicklung einerseits und der vielfältigen Missbrauchsmöglichkeiten andererseits werden wir ohne staatliche Regulierung nicht auskommen.

Beispiel Gesichtserkennung: Als „Geist, der gerade dabei ist, aus der Flasche zu steigen“, hat Microsoft-Präsident Brad Smith diese Technologie kürzlich beschrieben. Und davor gewarnt, dass wir diesen Geist vielleicht nicht mehr einfangen können, wenn wir jetzt nicht schnellstmöglich handeln.

Die neue Datenethikkommission der Bundesregierung schreibt in ihrem ersten Empfehlungspapier: „Der wesentliche Maßstab für einen verantwortungsvollen Umgang mit KI ist zunächst die Verfassung, insbesondere die Grundrechte und die Prinzipien der Rechts- und Sozialstaatlichkeit, sowie das Demokratieprinzip.“ Das ist natürlich unbedingt richtig, muss nun aber schnellstmöglich mit Leben gefüllt werden.

Um festzulegen, in welchen Bereichen wir den Einsatz von KI möglicherweise ganz ausschließen wollen oder nach welchen Regeln insbesondere auch staatliche Stellen KI einsetzen dürfen, ist jetzt ganz klar auch der Gesetzgeber gefragt.

Die wichtigsten Neuigkeiten jeden Morgen in Ihrem Posteingang.
Startseite

0 Kommentare zu "Gastkommentar: Der Mensch bleibt bei Künstlicher Intelligenz das Maß der Dinge"

Das Kommentieren dieses Artikels wurde deaktiviert.