Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke

Gastkommentar Wir führen in Deutschland eine falsche KI-Debatte

Der Begriff KI lädt zu Missverständnissen ein. Denn wir tun so, als stünden sich Mensch und Maschine feindlich gegenüber – das ist ein Irrtum.
  • Jörg Dräger
Kommentieren
Jörg Dräger war Hamburger Wissenschaftssenator und ist Vorstand der Bertelsmann Stiftung.
Der Autor

Jörg Dräger war Hamburger Wissenschaftssenator und ist Vorstand der Bertelsmann Stiftung.

Intelligente Maschinen sind Teil unseres Lebens. Sie helfen Ärzten bei Krebsdiagnosen und schicken Polizisten auf Verbrecherjagd. Sie suchen für Personalabteilungen geeignete Bewerber aus und schlagen Richtern vor, welche Strafen sie verhängen sollen.

Das ist keine Science-Fiction, sondern Realität. Algorithmen und Künstliche Intelligenz sind viel mehr als Industrie 4.0. Sie umgeben uns und dringen in immer neue, sensible Lebensbereiche vor. Sie analysieren menschliches Verhalten und formen moderne Gesellschaften, indem sie für uns passende Informationen filtern oder Lebenspartner vorschlagen. Wir sollten uns mit ihnen beschäftigen, bevor wir uns an sie gewöhnen.

Künstliche Intelligenz oder kurz KI polarisiert. Die öffentliche Erwartung an die neue Technologie pendelt zwischen euphorischer Hoffnung auf eine bessere Welt und Ängsten vor einem Kontrollverlust des Menschen. Wobei im fortschrittsskeptischen Deutschland letztere Stimmen meist überwiegen.

Ein Teil des Problems ist schon unsere Wortwahl. Der Begriff „Künstliche Intelligenz“ lädt zu Missverständnissen ein. Er suggeriert, dass menschliche und maschinelle Intelligenz quasi dasselbe seien. Und er legt nahe, dass Künstliche Intelligenz die menschliche so ersetzen kann wie ein künstliches Hüftgelenk ein natürliches. Weil Algorithmen im Zweifel eh schneller, zuverlässiger und besser entscheiden als Menschen, werden sie uns verdrängen – so die Angst. Es scheint, als stünden sich Mensch und Maschine feindlich gegenüber.

Wir brauchen einen neuen KI-Begriff

Doch das ist falsch. So präzise Algorithmen analysieren und assistieren: Ohne uns wären sie aufgeschmissen. Menschen müssen die Ziele der Software festlegen und sie auf Fehler kontrollieren. Wir sind kreativ und reflektiert, schmieden intrinsisch motivierte Pläne, haben gesellschaftliche Konventionen, Normen und ethische Prinzipien.

All das sind und haben Maschinen nicht, selbst wenn sie intelligent heißen. Ihre Klugheit ist beschränkt, sie lernen und wirken innerhalb von durch Menschen vorgegebenen Grenzen; über einen eigenen ethischen Kompass verfügen sie nicht. Daraus ergibt sich gegenseitige Abhängigkeit: Maschinen kommen nicht ohne uns aus, aber auch wir würden ohne sie vieles im Datenzeitalter nicht mehr oder nicht so gut bewältigen können.

Deswegen brauchen wir einen neuen Begriff. Erweiterte Intelligenz wäre das bessere Wort. Denn genau darum geht es: um Maschinen, die nur im Zusammenspiel mit Menschen funktionieren und unsere Fähigkeiten punktuell erweitern. Wie das Leitbild Mensch mit Maschine gelingen kann, zeigen die Beispiele Medizin, Polizeiarbeit und Personalauswahl.

Ärzte profitieren schon heute von algorithmisch erweiterten Fähigkeiten. Selbstlernende Software kann oft schneller diagnostizieren, in einigen Fällen auch präziser. Besonders gut wertet sie bildgebende Verfahren wie MRTs und CTs aus, typische Aufgaben eines Radiologen. Denn kaum ein Mensch ist von Natur aus dafür geschaffen, stundenlang in einem abgedunkelten Raum auf einen Computerbildschirm zu starren und Befunde zu analysieren.

Computern gelingt es besser, Tumore zu erkennen. Ärzte macht das aber nicht überflüssig. Denn erst im Zusammenspiel von Arzt und Algorithmus sinkt die Fehlerquote auf ein absolutes Minimum. Zudem erhalten Mediziner so mehr Zeit für die Betreuung der Patienten und die Therapie.

Algorithmen helfen der Polizei

Die Polizei profitiert ebenfalls von der Analyse großer Datenmengen. Muster vergangener Verbrechen helfen ihr, zukünftige Straftaten vorherzusagen und zu bekämpfen. Beim sogenannten Predictive Policing berechnen Algorithmen, in welchen Stadtvierteln oder Straßenzügen beispielsweise Einbrüche zu erwarten sind. Mit diesen Informationen kann die Polizei ihre knappen Ressourcen besser zum Schutz der Bürger einsetzen. Sie ist mit größerer Wahrscheinlichkeit dort, wo sie gebraucht wird, kommt nicht erst zur Aufklärung eines Verbrechens. Erweiterte Intelligenz hilft ihr, wirksame Präventionsarbeit zu leisten.

Auch im Arbeitsmarkt können Maschinen Menschen das Leben leichter machen. Sie unterstützen etwa Personaler dabei, die richtigen Kandidaten für ausgeschriebene Stellen zu finden. Die Vorauswahl übernimmt immer häufiger ein Algorithmus – und kann dabei nicht nur große Mengen an Bewerbungen bewältigen, sondern auch vorurteils- und diskriminierungsfreie Vorschläge machen. Speziell für diesen Zweck entwickelte Computerspiele entdecken sogar informell erworbene Kompetenzen und Qualifikationen, die in keinem Zeugnis stehen und sonst verborgen geblieben wären.

Die finale Entscheidung treffen wiederum die menschlichen Profis. Sie haben dann mehr Zeit für das Gespräch und können so besser einschätzen, ob ein fachlich geeigneter Kandidat auch ins Team passt. Das Zusammenspiel zwischen Mensch und Algorithmus erhöht die Wahrscheinlichkeit, das besser passende Personal zu finden.

Erweiterte Intelligenz ist eine Errungenschaft, keine Gefahr für die Menschheit, wenn wir sicherstellen, wer in der algorithmischen Gesellschaft Ross und wer Reiter ist. Um bei den drei Beispielthemen zu bleiben: Wie stellen wir sicher, dass Ärzte die heute schon existierenden Palliativ-Algorithmen nur bei unheilbar kranken Patienten einsetzen, um die verbleibende Lebenszeit einschätzen und dem Patienten qualvolle Behandlungen ersparen zu können – und nicht, um Gesundheitskosten zu senken?

Was ist zu tun, wenn Predictive-Policing-Systeme die Beamten überproportional häufig in Viertel mit hohem Migrationsanteil schicken und dadurch Diskriminierung verstärken? Oder wie kann sichergestellt werden, dass die Algorithmen den Personalabteilungen großer Tech-Unternehmen nicht nur Männer als passende Kandidaten vorschlagen, weil sie aus der bisherigen Einstellungspraxis der Konzerne gelernt haben? Um solche Fragen beantworten und erweiterte Intelligenz in unseren Dienst stellen zu können, warten mindestens vier große Herausforderungen:

Erstens: Diskurs

Wir brauchen mehr öffentliche Auseinandersetzungen darüber, wo Algorithmen eingesetzt werden und nach welchen Regeln sie funktionieren. Wenn Maschinen über Menschen entscheiden, bedarf es einer politischen Debatte. Dabei dürfen wir in Fällen mit großem Gefahrenpotenzial auch vor Verboten nicht zurückschrecken. Künstliche Intelligenz darf sehr wohl künstlich verdummt werden.

Zweitens: Kontrolle

Entscheidungen von Maschinen müssen für Betroffene leicht nachvollziehbar und anfechtbar sein. Wer sich ungerecht behandelt fühlt, braucht einen menschlichen Ansprechpartner, schnelle und unbürokratische Unterstützung sowie sichere Rechtswege. Wenn Menschen sich algorithmischen Entscheidungen ausgeliefert fühlen, verlieren sie Vertrauen. Deshalb muss die Wirkung von Algorithmen in sensiblen Bereichen wirksam kontrolliert werden, am besten mit europaweit einheitlichen Standards

Drittens: Vielfalt und Wettbewerb

Es gilt, algorithmische Monokulturen zu verhindern. Gebraucht wird ein Rahmen, in dem verschiedene Anbieter für Softwarelösungen erfolgreich konkurrieren können. Nur durch eine Vielfalt an Algorithmen kann gesellschaftliche Pluralität abgebildet und Diskriminierung verhindert werden. Essenziell ist hierfür eine bessere Zugänglichkeit zum Treibstoff der Algorithmen, den Daten. Nur wer über qualitativ hochwertige Daten verfügt, kann es schaffen, ernsthafte Konkurrenz auf dem Markt zu werden.

Viertens: Wissen

Ohne mehr Kompetenz auf allen Ebenen wird es nicht gehen. Bürger sollten bewerten können, wann ein Algorithmus für sie relevant ist. Informatiker und all diejenigen, die Software entwickeln und anwenden, müssen soziale Konsequenzen sowie ethische Aspekte von vornherein mitdenken.

Und wir brauchen einen auch in Sachen KI starken öffentlichen Sektor, der auf der einen Seite klug reguliert, auf der anderen selbst Algorithmen fürs Gemeinwohl einsetzt. Eine staatliche Algorithmen-Agentur würde helfen, die dazu dringend nötige Kompetenz schnell aufzubauen und in der öffentlichen Verwaltung zu verbreiten.

Wir sollten die Chancen der erweiterten Intelligenz nutzen, für eine bessere und fairere Gesellschaft. Das bedarf Mut, um aus der digitalpolitischen Defensive herauszukommen. Es bedarf aber auch eines kritischen Blicks, um die Konsequenzen der intelligenten Maschinen für unseren Alltag angemessen zu reflektieren. Wir Menschen sollten lernen, die Maschinen für uns zu nutzen, wo sie uns nutzen. Nicht mehr, aber auch nicht weniger.

Startseite

Mehr zu: Gastkommentar - Wir führen in Deutschland eine falsche KI-Debatte

0 Kommentare zu "Gastkommentar: Wir führen in Deutschland eine falsche KI-Debatte"

Das Kommentieren dieses Artikels wurde deaktiviert.

Serviceangebote