Menü
Anzeige - Sämtliche Inhalte dieser Seite sind ein Angebot des Anzeigenpartners. Für den Inhalt ist der Anzeigenpartner verantwortlich.

Aus hoher Intelligenz folgt große Verantwortung: Ist „Responsible AI“ mehr Mythos als Realität?

Responsible AI

  • 10.02.2025
Kopfbild zum Artikel
© Horn & Company GmbH
Es herrscht Einigkeit: KI ist eine transformative Technologie mit enormen Möglichkeiten – von der Lösung globaler Herausforderungen bis hin zur Verbesserung individueller Lebensqualität. Im Geschäftsleben wird aktuell jede Veränderung in Zusammenhang mit KI gebracht – ob sinnvoll oder nicht. So ist es kein Wunder, dass in vielen Unternehmen KI-Anwendungen wie Pilze aus dem Boden schießen. Doch mit dem Einsatz von mehr Intelligenz, wie beispielsweise „Responsible AI“, geht auch für die Führungskräfte und Verantwortlichen die Verpflichtung einher, sie verantwortungsbewusst, ethisch und nachvollziehbar einzusetzen. Sie sind in der Rolle der Wächter, die sicherstellen müssen, dass die genannten Werte keine Buzzwords sind.

Responsible AI als Weg zur Trusted AI

Man stelle sich einen Mitarbeitenden vor, der von Tag eins an ununterbrochen Arbeiten erledigt. Nach den ersten sehr positiven Erfahrungen möchte man mehr davon. Verständlich. Doch nach einiger Zeit bemerkt man vereinzelte Fehler. Zunächst sehr wenige, aber irritierende, die für andere unvorstellbar wären. Das Vertrauen in die Leistungsfähigkeit schwindet zunehmend, und besonders wichtige Aufgaben gibt man schließlich doch an andere Teammitglieder. Man muss inhaltliche, ethische und soziale Grenzen setzen. Einsatzbereiche definieren. Planungs-, Steuerungs- und Kontrollmechanismen für die Arbeitsergebnisse einführen. Den Denkprozess des neuen Mitarbeitenden für andere nachvollziehbar machen. Und wirksame Mechanismen etablieren, falls etwas schiefgeht. Kurz: Leitplanken setzen. Genau damit setzt sich Responsible AI auseinander.

„Responsible AI als Weg zur 'Trusted AI' ist mehr als nur ein weiteres KI-Buzzword. Wir sprechen über die Kernfrage, wie KI mehrwertstiftend und verantwortungsvoll eingesetzt werden kann.“ sagt Dr. Oliver Laitenberger, geschäftsführender Partner und Transformationsexperte bei Horn & Company. Sie ist das – für jedes Unternehmen individuell ausgestaltete – Regelwerk zum Einsatz von KI und reflektiert, was passiert, wenn etwas passiert. Das klingt jetzt wieder nach deutscher Bürokratie – ist es aber nicht. Ein solches Regelwerk befähigt zum KI-Einsatz, weil Unsicherheiten zum Einsatz von KI reduziert und eben geregelt wird. Spätestens mit dem EU-AI-Act gibt es zudem den Anspruch und die Verpflichtung von Unternehmen, die Risiken aus dem Einsatz von Künstlicher Intelligenz zu minimieren.

Voraussetzungen für den erfolgreichen Einsatz

Was bedeutet nun Responsible AI für die Praktikerin beziehungsweise den Praktiker im Unternehmen? Ganz einfach. Wie bei anderen Werkzeugen und Maschinen auch muss darüber nachgedacht werden, wie mit KI-Fehlern umgegangen wird. Aus Unternehmenssicht ist es nicht wünschenswert, die Nutzung von KI uneingeschränkt zu gestatten. Zu welchem Grad passt es zu den Unternehmenswerten, den Kundenkontakt nur noch durch eine KI zu gestalten? Inwieweit ist der Einsatz von KI für die Personalentwicklung wünschenswert? Welche Risiken ergeben sich durch den KI-Einsatz? Prozessverbesserungen durch KI sind die Hoffnung, aber Absicherung und Dokumentation von Entscheidungen sind trotzdem in vielen Fällen notwendig. Das Monitoring von KI-Systemen bleibt unverzichtbar und kontinuierliche Verbesserung ist auch in der KI-Entwicklung ein Standard. Und natürlich muss auch die Mitarbeitendenbefähigung zum KI-Einsatz adressiert werden. Nicht umsonst nimmt der EU-AI-Act Unternehmen direkt in die Pflicht, ihre Mitarbeitenden hinreichend zu schulen.

Dazu ein praktisches Beispiel: Ein KI-Algorithmus für die Personalauswahl kann zwar die Effizienz steigern, aber auch bestehende Diskriminierungen reproduzieren oder sogar verstärken, wenn er nicht sorgfältig überwacht wird. Die Verantwortung liegt hier nicht nur bei den Entwicklern, sondern auch bei den HR-Teams, die sicherstellen müssen, dass die KI die gewünschten Werte widerspiegelt. Damit aber das HR-Team den Algorithmus nutzt, muss das HR-Team zum Einsatz geschult werden. Auch das ist nur eine notwendige und keine hinreichende Bedingung für einen erfolgreichen KI-Einsatz.

Laut Oliver Laitenberger sei ein Schlüsselaspekt von Responsible AI die Nachvollziehbarkeit von KI-Systemen. Nutzende, KundInnen und Mitarbeitende wollen wissen, wie und warum eine KI eine Entscheidung trifft. „Black Box“-Systeme, deren Entscheidungslogik undurchsichtig bleibt, sind nicht nur problematisch für das Vertrauen, sondern können auch regulatorische Risiken mit sich bringen. Nachvollziehbarkeit erfordert drei Kernelemente:

(1) „Explainable AI (XAI)“-Systeme, die Ergebnisse und Entscheidungen verständlich erklären können. Diese Frameworks ermöglichen eine direkte Nachvollziehbarkeit der vom KI-System generierten Ergebnisse.

(2) Dokumentation – Ein strukturiertes Protokoll aller Schritte – von der Datenerhebung und dem Training des KI-Systems bis zum vom KI-System generierten Ergebnis. Und ebenso aller Wartungsaktivitäten einschließlich Datenversionierung.

(3) Offene Kommunikation – Nutzer müssen informiert werden, wenn sie mit KI interagieren und haben das Recht, Entscheidungen infrage zu stellen.

In KI-Projekten sind diese drei Punkte die entscheidenden Faktoren für den Erfolg des Projektes. Um wie viel Prozent genauer ein Algorithmus ist als ein anderer steht nicht im Vordergrund.

Responsible AI als Katalysator der KI-Revolution

Doch wie erkennt man die richtigen Einsatzbereiche für KI und handelt dabei zugleich verantwortungsvoll? Wo fängt man an? Wie wählt man die richtigen Einsatzbereiche aus, ohne unnötige Risiken einzugehen? Horn & Company versteht diese Unsicherheiten. Der Schlüssel liegt in einer klaren Zieldefinition: Was möchte man mit KI erreichen? Und wie kann man sicherstellen, dass die Entscheidungen ethisch vertretbar und mehrwertstiftend sind? Genau hier setzt Horn & Company an – mit einer systematischen Herangehensweise, die Unternehmen von der Zielsetzung bis zur praktischen Umsetzung in Strukturen, Prozesse und Systeme begleitet.

Der Einstieg in Responsible AI wirkt für viele Unternehmen komplex und herausfordernd. Horn & Company beweist zielführende Expertise in Responsible AI und der Entwicklung betrieblicher KI. Die Top-Management-Beratung entwickelt skalierbare und zukunftssichere KI-Target Operating Modelle (KI-TOM), die eine passgenaue und effiziente Prozessintegration ermöglichen. Governance und Steuerungsmechanismen werden so gestaltet, dass Risiken minimiert und regulatorische Vorgaben, insbesondere die Anforderungen des EU-AI-Acts, vollständig erfüllt werden. In der Konsequenz steigt der Reifegrad von Unternehmen hinsichtlich Responsible AI.

Für Horn & Company bedeutet Responsible AI auch, die Grenzen von KI zu akzeptieren. Nicht jede Aufgabe ist für den Einsatz von KI geeignet, und nicht jedes Problem lässt sich durch Algorithmen lösen. Die Zukunft von Künstlicher Intelligenz liegt darin, einen Rahmen zu schaffen, der Innovation nicht hemmt, sondern gezielt lenkt. Responsible AI ist keine Bürde – es ist die Chance für Unternehmen, Technologie mit menschlicher Intuition zu verbinden und eine nachhaltige Innovationskultur zu schaffen.
Ach ja, da es sich hier natürlich um ein digitales System handelt, gelten natürlich auch die übrigen schnell vernachlässigten Nebenschauplätze wie Daten- und Cybersicherheit, Privacy-Regularien und Third Party Management… Warum also sollten „Responsible AI“-Methoden nicht synergiebringend in andere Digitalisierungs-Initiativen eines Unternehmens integriert werden?
Impressum
Horn & Company GmbH
Herr Dr. Oliver Laitenberger Kaistraße 20 40221 Düsseldorf Deutschland
T: 0049-211-3027260
F: 0049-211-30272625
@: oliver.laitenbergerhorn-company.de
www.linkedin.com
Lesen Sie auch
Bild zum Artikel: Transformativer Turnaround
Das Jahr 2025 wird für Unternehmen entscheidend – sie müssen ein Umfeld von geopolitischen Spannungen und wirtschaftlich herausfordernden Zeiten navigieren. Die vergangenen Monate haben noch e ...
Bild zum Artikel: Transformation in der Versicherungsbranche
Die Versicherungsbranche steht vor einer Zerreißprobe. Während traditionelle Geschäftsmodelle durch steigende Regulierung, Inflation und volatile Kapitalmärkte unter Druck geraten, verändert sich glei ...
Bild zum Artikel: Strategieprozess als Schlüssel zur Transformation
Die Bankenlandschaft befindet sich in einem fundamentalen Wandel: Digitalisierung, steigende Regulierungsanforderungen, sinkende Margen und ein zunehmender Fachkräftemangel setzen Finanzinstitute ...
Bild zum Artikel: Preisstrategie im Jahr 2025
Eisig war es zum Jahresstart 2025. Sowohl der Blick auf das Thermometer als auch in die Gemütslage von VerbraucherInnen lässt die Führungsetagen im Handel frösteln. Zurückkehrende Infl ...