Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Essay KI ist in der Finanzbranche Service wie Verkaufsstrategie – und braucht daher Regeln

Künstliche Intelligenz bringt viele Erleichterungen für Banken, Börsen, Kunden. Doch es sind faire Leitlinien und transparenter Datenschutz notwendig.
Kommentieren
In Hollywood verheißen Roboter meist Gefahr. Auch im wahren Leben geht von ihnen eine enorme Macht aus. Quelle: action press
Künstliche Intelligenz

In Hollywood verheißen Roboter meist Gefahr. Auch im wahren Leben geht von ihnen eine enorme Macht aus.

(Foto: action press)

Frankfurt Maschinenwesen in Menschengestalt, Roboter mit Superhirn – wenn Hollywood solche Figuren auf die Leinwand bringt, ist eines ganz klar: Die Menschheit ist in größter Gefahr. Lange Zeit war das reine Fiktion. Doch wer heute Künstliche Intelligenz (KI) erleben will, muss längst nicht mehr ins Kino gehen.

Vieles ist bereits Realität: Autos, die ohne menschliche Unterstützung ans Ziel fahren, Küchenmaschinen, die auf Zuruf das Essen kochen, persönliche Assistenten, die selbstständig einen Termin beim Friseur vereinbaren und dabei nicht von einem menschlichen Anrufer zu unterscheiden sind.

Im Vergleich zu den dystopischen Visionen der Filmemacher klingt das alles ebenso praktisch wie harmlos. Doch eines ist klar: KI ist nicht nur dabei, sämtliche Lebensbereiche inklusive der Finanzbranche zu erobern. Sondern die schöne neue Technologie kann durchaus auch für böse Zwecke missbraucht werden. Um das zu verhindern, brauchen wir klare Regeln – und zwar bald.

Lange Zeit war die KI-Forschung eine wissenschaftliche Disziplin ohne praktische Relevanz. Die Forscher entwickelten Theorien und Modelle, doch bei der Umsetzung wurden sie ausgebremst; zu langsam waren ihre Computer, und für die Unmengen an Daten gab es kein geeignetes Speichermedium. Das ist jetzt anders. Inzwischen sind schon die durchschnittlichen Computer für den Privatgebrauch wahre Hightech-Maschinen.

Weil die technischen Grenzen längst überwunden werden, ist es höchste Zeit, über ethische und gesetzliche Schranken zu sprechen. Schon jetzt ist klar: Künstliche Intelligenz hat ein disruptives Potenzial. Uns könnten Umbrüche wie in den Anfängen der Industrialisierung bevorstehen. In etlichen Bereichen werden Maschinen die Jobs von Menschen übernehmen.

Grafik

Und der Wettbewerb zwischen Unternehmen wird sich nochmals verschärfen – wer KI einsetzt, steigert nicht nur seine Effizienz, sondern auch seine Macht. Auch die Politik ist gefordert. Gerade hat die Bundesregierung eine längst überfällige KI-Strategie verfasst. Bis 2025 will der Bund die Zukunftstechnologie mit drei Milliarden Euro unterstützen und richtigerweise auch den Rechtsrahmen überprüfen.

Wie vielfältig Künstliche Intelligenz heute schon eingesetzt wird, zeigt die Finanzbranche. Der sprechende Roboter namens Pepper, der in Bankfilialen die Kunden begrüßt, ist dabei nur ein Marketing-Gag. Wirklich mächtig ist KI dann, wenn sie systematisch Kontodaten auswertet, Nutzerprofile erstellt, Zahlungsströme überwacht und Versicherer vor Betrügern schützt.

Von all dem sollen nach Darstellung der Unternehmen die Kunden profitieren. Doch auf solche Lippenbekenntnisse dürfen wir uns nicht verlassen: Damit aus dem vermeintlich traumhaften Service kein Überwachungsalbtraum wird und die Verantwortung nicht auf Maschinen abgewälzt wird, brauchen wir einen vernünftigen Ordnungsrahmen.

Datenschatz muss bewacht werden

Um ihren Kunden den Nutzen von KI-Systemen zu erklären, sprechen Banken und Versicherer gerne von „passgenauen Dienstleistungen“. Breit gestreute Massenware soll dagegen der Vergangenheit angehören.

Ein erster Schritt dahin sind persönliche Produktempfehlungen à la Amazon mit Hinweisen wie „Kunden, die diesen Artikel gekauft haben, kauften auch“. Das ist noch harmlos, und dafür braucht es noch nicht einmal KI. Doch Finanzinstitute und ihre Berater wollen noch mehr: Muster im Verhalten ihrer Kunden finden, die sie ohne intelligente Software nie entdecken könnten.

Diese Muster sollen vorhersagen, welches Produkt oder welche Dienstleistung ein Kunde gerade benötigt. So müssen Unternehmen nicht mehr warten, bis die Kunden einen Immobilienkredit oder eine Risikolebensversicherung bei ihnen abschließen. Stattdessen bieten sie das Darlehen oder die Police proaktiv an, sobald das Kundenverhalten für einen entsprechenden Bedarf spricht.

Was als hilfreicher Service daherkommt, ist zugleich eine raffinierte Verkaufsstrategie. Damit sie funktioniert, brauchen die Unternehmen vor allem eins: jede Menge Daten. Banken haben diese bereits. Sobald die Kunden bei ihnen ein Girokonto führen, kommt mit jeder Kartenzahlung, jeder Überweisung und jedem Bankeinzug ein neuer Datenpunkt hinzu.

Viele Verbraucher ahnen gar nicht, wie wertvoll solche Zahlungsdaten sind. Doch damit lassen sich erstaunlich genaue Profile erstellen: Wo hält sich eine Person auf, in welchen Geschäften kauft sie ein, in welchen Restaurants isst sie, treibt sie Sport, oder hat sie eine Familie?

Wissen ist Macht

Wer diesen Datenschatz heben und für Werbezwecke auswerten will, muss die Kunden um Erlaubnis fragen. Genau das regelt seit diesem Mai die europäischen Datenschutz-Grundverordnung (DSGVO) – und daran darf auch in Zukunft nicht gerüttelt werden. Im Gegenteil: Verbraucher sollten darüber hinaus die Möglichkeit bekommen, sehr genau zu bestimmen, wer welche Daten zu welchem Zweck auswerten darf.

Auch wenn sie ihre Kunden angeblich nur bestmöglich beraten wollen – deshalb dürfen sich Finanzhäuser noch lange nicht selbst einen Blankoschein zur Datennutzung ausstellen. Am Ende geht es schließlich allen Unternehmen darum, etwas zu verkaufen. Das ist auch völlig legitim. Sie sollten nur nicht vortäuschen können, dass sie etwas anderes bezwecken.

Ein Problem, das nicht erst durch den KI-Einsatz entsteht. Schon bisher sind „Beratungsgespräche“ in Geldhäusern und bei Versicherern oftmals reine Verkaufsgespräche. Doch mithilfe der modernen Technologie wächst der Wissensvorsprung der Unternehmen und damit ihre Macht stark an.

Verbraucher sollten deshalb umso so mehr auf ihren gesunden Menschenverstand vertrauen: Wenn ihnen kostenlose Empfehlungen angeboten werden, sollten sie skeptisch sein. Auch die Art und Weise, wie wir kommunizieren, ändert sich durch Künstliche Intelligenz. Die Systeme werden immer besser darin, Sprache zu erkennen, zu verarbeiten und zu imitieren.

Das wohl beeindruckendste Beispiel dafür hat Google auf seiner Entwicklerkonferenz im Mai gezeigt: Dank der Weiterentwicklung „Duplex“ vereinbarte der Google Sprachassistent per Telefon einen Termin beim Friseur und brachte mit einem Anruf im Restaurant in Erfahrung, dass am gewünschten Tag keine Reservierung nötig ist.

Die Vorstellung polarisierte, denn die Sprache des „Assistant“ wirkte durch die natürliche Betonung, Gesprächspartikel wie „hm“ und „ähm“ sowie umgangssprachliche Formulierungen so echt, dass die Angerufenen ihn nicht als Computerstimme erkannten.

In die Begeisterung über das technisch Machbare mischten sich bald auch ethische Bedenken. Werden wir in Zukunft noch unterscheiden können, ob wir uns gerade mit einem Menschen oder einer Maschine unterhalten? Und was bedeutet es für eine Gesellschaft, wenn wir bei unangenehmen Gesprächen den Computer vorschicken können? So weit dürfen wir es nicht kommen lassen.

Wenn uns KI-Systeme unterstützen, kann das eine große Hilfe sein. Aber wir dürfen uns damit nicht aus der Verantwortung ziehen. Egal, ob Privatleute oder Unternehmen die intelligenten Assistenten für Telefonate einspannen: Die KI muss sich outen. Das gilt auch dann, wenn wir die Hotline oder den Chat eines Unternehmens nutzen.

Verbrauchern, die mit Sprachassistenten wie Googles Assistant und Amazons Alexa kommunizieren, dürfte dagegen bewusst sein, dass ihnen kein Mensch antwortet. Praktisch sind solche Assistenten allemal, und einige Banken und Versicherer haben eigene Anwendungen für sie entwickelt. Nutzer können damit Aktienkurse und die Öffnungszeiten ihrer Filiale erfragen, Versicherungspolicen abschließen und sogar Geld überweisen.

Auch hier muss den Nutzern aber transparent gemacht werden, was mit all den Daten passiert, die die Assistenten über sie einsammeln. Und vor allem müssen die Daten viel besser geschützt werden. Die jüngste Datenpanne, bei der ein Kunde die Tonaufzeichnungen eines anderen Alexa-Nutzers erhielt, darf sich nicht wiederholen.

Enormes Potenzial entfalten KI-Systeme da, wo sie für Verbraucher unsichtbar bleiben: in der internen Verwaltung von Versicherern und Banken. Dort helfen sie, Identitäten der Kunden zu prüfen, internationale Geldflüsse zu überwachen oder gefälschte Schadensmeldungen zu erkennen. Sie entdecken Zusammenhänge, die dem menschlichen Mitarbeiter nie auffallen würden – zum Beispiel ungewöhnliche Muster in Transaktionen. So kann Kreditkartenbetrug effizienter verhindert werden.

Diskriminierende Algorithmen

Erleichterungen sollen die Systeme künftig auch den Juristen in den Finanzinstituten bringen. Regelmäßig müssen sie Dokumente wie Prospekte und Verträge prüfen und an neue Gesetzestexte anpassen. KI-Systeme können ihnen solch monotone Aufgaben abnehmen, in Windeseile Dokumente analysieren und problematische Passagen markieren. Auch handgeschriebene Texte können die Systeme erkennen und die Informationen schnell in digitale Dokumente einfügen. Solche Vereinfachungen erscheinen sinnvoll.

Problematisch kann es allerdings werden, sobald KI-Systeme unmittelbar in Vertragsentscheidungen eingebunden sind. Für Aufsehen sorgte etwa ein Versuch der BBC in Großbritannien. Die Reporter holten für zwei fiktive Personen Angebote für Autoversicherungen ein. Bei den Angaben zur Person variierten sie lediglich die Vornamen.

Das erschreckende Ergebnis: Muhammad hätte bis zu 360 Pfund mehr zahlen müssen als John. Die Algorithmen, mit denen die Versicherer ihre Prämien berechnen, scheinen bei Personen mit ausländischem Namen automatisch höhere Risiken zu unterstellen. Das Beispiel zeigt: Vermeintlich neutrale Algorithmen können ganze Bevölkerungsgruppen diskriminieren. Wenn KI-Systeme mit Daten gefüttert werden, müssen diese deshalb mit größter Vorsicht ausgewählt werden.

Merkmale wie Geschlecht oder Ethnie, die für die Höhe der Versicherungsprämie oder die Kreditentscheidung keine Rolle spielen sollten, dürfen gar nicht erst in die Berechnungen einfließen. Das sicherzustellen liegt in erster Linie in der Verantwortung der Unternehmen, die KI einsetzen. Es sollte aber auch von externer Stelle überwacht werden.

Der Mensch bleibt verantwortlich

Auch die Frage der Verantwortung muss geklärt werden. Unternehmen dürfen sich nicht darauf zurückziehen, dass es das KI-System war, das bestimmte Entscheidungen getroffen hat. Das sieht zum Glück auch Bafin-Präsident Felix Hufeld so. „Ich war’s nicht, die Maschine war’s“, das werde die Finanzaufsicht nicht akzeptieren, betonte er kürzlich.

Die Letztverantwortung dürfe nicht auf den Kollegen Computer oder auf Algorithmen abgewälzt werden – sie müsse beim Menschen bleiben. Das ist absolut richtig. Auch bei selbstlernenden KI-Systemen liefert immer noch der Mensch die Daten und den Anstoß für die Analyse.

Insofern scheint auch ein radikaler Job-Abbau unwahrscheinlich. Schließlich können wir die KI-Systeme nicht sich selbst überlassen. Gleichwohl: Verschiebungen wird es allemal geben. Wer bisher beispielsweise Schriftverkehr vom Papier ins elektronische System übertragen hat, dürfte in absehbarer Zeit von der KI abgelöst werden. Zugleich steigt der Bedarf an Mitarbeitern, die KI-Systeme programmieren und überwachen können.

Dass sich genau jene Angestellten, deren Stelle von der KI wegrationalisiert wurde, schnell genug fortbilden können, erscheint jedoch nahezu unmöglich. Trotzdem rechnet etwa die Unternehmensberatung Accenture bis 2020 dank KI mit einem Anstieg der Zahl der Arbeitsplätze in der Bankbranche.

Der Einsatz von KI wird die Finanzbranche verbessern – für die Unternehmen und die Kunden. Unvermeidlich sind dafür aber faire Spielregeln und Datenschutz. Und was ist mit den Super-Robotern, die ihre Schöpfer vernichten wollen? Hier geben Wissenschaftler Entwarnung.

„Dass sich eine Maschine ihrer selbst bewusst ist, gibt es bisher nur in Hollywood“, sagt Damian Borth, KI-Professor an der Uni St. Gallen. Zumindest für diesen Fall braucht es also (noch) kein Regelwerk.

Startseite

0 Kommentare zu "Essay: KI ist in der Finanzbranche Service wie Verkaufsstrategie – und braucht daher Regeln "

Das Kommentieren dieses Artikels wurde deaktiviert.

Serviceangebote