ANZEIGE
Sämtliche Inhalte auf dieser Seite sind ein Angebot von McKinsey. Für den Inhalt ist nicht das Handelsblatt verantwortlich.

(Foto: Adobe Stock)

Künstliche Intelligenz Wie Unternehmenslenker verantwortungsvoll mit KI umgehen

Künstliche Intelligenz birgt enormes Potenzial, aber auch Gefahren wie vorurteilsbeladene Algorithmen. Firmenchefs müssen dafür sorgen, dass smarte Technologien verantwortungsvolle und nachvollziehbare Entscheidungen treffen. Das kann zum entscheidenden Wettbewerbsvorteil werden.
26.04.2019 - 10:52 Uhr Kommentieren

Künstliche Intelligenz (KI) vereinfacht unser Leben schon heute in vielen Bereichen. Statt Nachrichten zu tippen, können wir sie ins Smartphone diktieren. Digitale Kartendienste navigieren uns an Staus vorbei und Online-Shops geben Kaufempfehlungen aufgrund unserer Vorlieben und Interessen.

Doch damit ist das Potenzial von KI keineswegs erschöpft. KI kann in ihren unterschiedlichen Spielarten potenziell branchenübergreifend an jeder Stelle der Wertschöpfungskette eingesetzt werden: zur automatischen und deutlich genaueren Diagnose von Krankheitsbildern im Gesundheitsbereich, über besseres Antizipieren des Bedarfs von Teilen im Maschinenbau, bis hin zu personalisierten Lernprogrammen im Bildungsbereich.

Auch wenn die Unterschiede bei der Einsatzfähigkeit von KI bereits auf kontinentaler Ebene sichtbar sind, eruieren immer mehr Unternehmen Nutzungsszenarien für KI, um produktiver zu werden und den Umsatz zu steigern. Allerdings sollte der Einsatz von KI nicht nur aus Wertschöpfungsperspektive wohlüberlegt sein. Kritiker warnen etwa vor Gefahren wie Datenmissbrauch, vor dem massiven Abbau von Arbeitsplätzen oder vor Diskriminierung durch den Einsatz von smarten Robotern und Software.

CEOs müssen die Diskussion leiten

„Viele Dimensionen des gesellschaftlichen Zusammenlebens sind vom Einsatz Künstlicher Intelligenz betroffen, was sowohl zu ethischen als auch zu ökonomischen sowie sicherheitsrelevanten Fragestellungen führt”, heißt es beim Bundesverband KI. Die Organisation hat deshalb ein Gütesiegel entwickelt. Unternehmen, die es führen wollen, müssen sich zur Einhaltung ethischer Grundwerte verpflichten, zur Unvoreingenommenheit bei der Datenauswahl, einer sicheren, datenschutzkonformen Nutzung und einer transparenten Vorgehensweise bei der KI-Entwicklung.

Das Gütesiegel soll nicht nur den verantwortungsbewussten Umgang mit Daten sicherstellen, sondern auch zu einem prägenden Argument für den KI-Standort Deutschland werden. Dabei sind vor allem die Unternehmenslenker gefragt.

„Der CEO nimmt eine bedeutende Rolle ein bei der Ausgestaltung einer ‚ethisch‘ agierenden Künstlichen Intelligenz“, sagt Peter Breuer, Senior Partner bei McKinsey & Company. Wie Chefs ihre KI-Teams gestalten und deren Leistungen bewerten, habe Auswirkungen auf die Entscheidungen, die von diesen Teams getroffen werden.

Doch wie können CEOs sicherstellen, dass die in ihren Unternehmen genutzte KI moralischen und ethischen Ansprüchen genügt und nicht etwa beim Einsatz im Bewerbungsverfahren Kandidaten aufgrund ihres Geschlechts oder der Herkunft benachteiligt? Sie können auf mehreren Ebenen entscheidend auf die Ausgestaltung von KI einwirken.

Diskussionen pragmatisch führen

Zum einen müssen sie sehr deutlich die relevanten Unternehmenswerte definieren und anhand von Beispielen aufzeigen, wie mit diesen innerhalb der KI-Entwicklung umgegangen werden soll. Dazu gehört die Klarstellung, welche Ansprüche man an Bewerber hat, ebenso wie die Entscheidung darüber, welche Prozesse automatisiert werden sollen und welche Funktionen weiterhin von Menschen kontrolliert werden müssen.

Die Frage danach, wie Manager und Datenexperten diese Werte in ihrer Arbeit interpretieren und wie sie diese nutzen, um bessere Entscheidungen zu treffen, kann einen Dialog in Gang setzen, der dabei hilft, unklare Punkte zu identifizieren und zu klären. Damit dieser Austausch aufrechterhalten wird, empfiehlt McKinsey Führungskräften, Mitarbeiter mit interkulturellem und datentechnischem Verständnis zu identifizieren, die die Entwickler dabei unterstützen, diese Werte kontextspezifisch zu übersetzen.

Firmenchefs sollten darüber hinaus die Ziele und Werte für sämtliche Unternehmensbereiche festlegen und die verschiedenen Teams dazu aufrufen, diese Werte im Kontext der Datennutzung zu beachten. Bei einem Programm zur Bewertung von Bewerbungen etwa kann eine gewünschte Gleichberechtigung der Geschlechter dadurch erreicht werden, dass das System den gleichen Prozentsatz an weiblichen und männlichen Bewerbern auswählt. Eine Alternative könnte die Auswahl nach geschlechtsunabhängigen Kriterien sein, die künftigen Erfolg der Bewerber voraussagen.

Sollte sich ein Unternehmen jedoch dazu entschieden haben, den Frauenanteil unter den Mitarbeitern zu steigern, könnte es das Bewerbungssystem auch dahingehend anpassen, dass bei gleicher Qualifikation mehr weibliche als männliche Kandidaten ausgewählt werden.


McKinsey-Partner Breuer empfiehlt den CEOs, die Zusammenarbeit zwischen den Fachbereichen und den KI-Experten bei der datentechnischen Umsetzung stets zu fördern. „Der CEO hat dabei stets das große Ganze im Blick und muss im Rahmen der Unternehmensziele seine Teams zu den bestmöglichen Entscheidungen führen“, sagt Breuer. Dazu gehöre auch das Hinterfragen komplexer, undurchsichtiger Modelle.

Denn je größer die Datenmenge ist, die verarbeitet werden kann, desto genauer können zwar Vorhersagen getroffen werden, etwa zur Eignung eines Bewerbers für einen bestimmten Posten. Allerdings werden die dahinter laufenden Prozesse so immer weniger nachvollziehbar – und zu wenig Transparenz kann Stakeholder wie etwa Aktionäre abschrecken. Ein ausuferndes Ansammeln von Informationen ist zudem aus Datenschutzgründen problematisch und kann zu öffentlicher Kritik am Unternehmen führen.

Softwarelösungen wie SHAP (SHapley Additive exPlanations) und LIME (Local Interpretable Model-Agnostic Explanations) helfen dabei, KI-Prozesse transparenter und erklärbar zu machen. CEOs sollten deshalb auf sie setzen, nicht zuletzt auch, damit die Stakeholder nachvollziehen, warum Systeme bestimmte Entscheidungen treffen.

Verantwortungsbewusste KI: eine Perpetuum mobile

Doch selbst wenn die Grundlagen etabliert wurden, mit denen sich die Werte und Ziele eines Unternehmens zuverlässig in einer KI abbilden und erklären lassen, sind damit nicht alle Probleme gelöst. Denn der kontinuierliche technologische Fortschritt sowie der sich immer weiter ausdehnende Einsatz von intelligenten Systemen verändern stetig die Bedingungen. Ein CEO sollte daher seine Teams dazu anhalten, Entscheidungen und Handlungen regelmäßig zu hinterfragen.

„Eine Krankenkasse etwa könnte Daten von Drittanbietern kaufen, aus denen ersichtlich wird, wie viel Sport die Versicherten treiben und wie sie sich ernähren. So könnte die Kasse Ärzte dabei unterstützen, gesundheitliche Risiken besser zu bestimmen. Das läge zwar im Interesse der Kunden, allerdings könnten diese sich durch die Nutzung ihrer Daten in ihrer Privatsphäre verletzt fühlen“, erklärt Breuer.

Ein Algorithmus, der mit den besten Absichten entwickelt worden ist, kann so schnell das Gegenteil bewirken und Kunden und Öffentlichkeit gegen ein Unternehmen aufbringen. CEOs müssen deshalb mit ihren Datenexperten in ständigem Austausch stehen, um zu erfahren, mit welchen Informationen die KI gespeist wird und woher diese stammen.

Das gilt auch für die Daten, mit denen die KI trainiert wird. Wenn diese etwa bestimmte Bevölkerungsgruppen unterrepräsentieren, kann das später zu diskriminierenden Ergebnissen führen. Vorurteile finden so bewusst oder unbewusst Eingang in die Daten. Die Daten sind "biased". Das könnte beispielsweise dann der Fall sein, wenn eine Gesichtserkennungssoftware ausschließlich mit Bildern von weißen Männern trainiert würde. Frauen und Personen mit anderer Hautfarbe würde das System dann nicht erkennen und somit auch nicht berücksichtigen.

Neben der Qualität bestimmt auch die Quantität der Informationen, wie akkurat die Entscheidungen und Vorhersagen einer KI sind. So kann etwa ein Algorithmus für die vorausschauende Wartung bei einer Maschine besser beurteilen, ob ein Ausfall droht, wenn sie mit Daten der vergangenen zwei Jahre statt der vergangenen zwei Monate gefüttert wird.

In beiden genannten Fällen reflektieren die Daten nicht das tatsächliche Vorkommen in der realen Welt. Dieser „bias“ steht im Unterschied zur „fairness“, bei der es darum geht, ob die eingesetzten Daten und die KI tatsächlich vorkommende Verzerrungen in der realen Welt adäquat abbilden. Denn auch historisch überlieferte Ungleichheiten können zu fehlerhaften Ergebnissen führen. Denken wir an einen Algorithmus, der innerhalb eines Bewerbungsverfahrens eine Vorauswahl treffen soll, um den Bewerberkreis einzugrenzen. Haben sich in der Vergangenheit meist Männer im Bewerbungsverfahren durchgesetzt, kann es sein, dass der Algorithmus männliche Kandidaten bevorzugt, wenn kein Sicherungsmechanismus integriert wurde, der das Geschlecht in der Bewertung nicht berücksichtigt.

Sicherungsmaßnahmen installieren

CEOs sollten deshalb sicherstellen, dass die Datenexperten fairness in ihrer gesamten Arbeit berücksichtigen. Das betrifft das Abstecken des Projekts genauso wie den Prozess der Datenauswahl, die Frage, welche Merkmale der Rohdaten verwendet werden und die Entwicklung des Algorithmus.

„Auch mit dem Thema Compliance sollten sich CEOs beschäftigen und sich regelmäßig von ihren Teams über die geltenden Regularien und deren Berücksichtigung auf dem Laufenden halten lassen“, empfiehlt Breuer. Zusätzlich sollten sie dafür sorgen, dass klare Compliance-Regeln für KI bestimmt werden.

Der richtige Umgang mit Daten entscheidet schon heute in einigen Bereichen über Erfolg und Misserfolg. Weil das Thema in Zukunft noch wichtiger werden wird, bietet sich für Unternehmen, die sich einem ethischen Einsatz von KI verpflichten, hier ein Wettbewerbsvorteil: Denn Kunden sind eher bereit dazu, Daten von sich preiszugeben, wenn sie diese in vertrauenswürdigen Händen wissen.