Gastbeitrag: KI-Strategie der Bundesregierung: Datenkapitalismus im Gewand des Gemeinwohls
Die KI-Strategie der Bundesregierung liest sich im Ansatz gut. Die Bedeutung von gemeinsamen europäischen Werten, Menschenrechten und der zivilgesellschaftlichen Vernetzung scheinen im Vordergrund zu stehen, um eine gemeinwohlorientierte KI „Made in Europe“ zu etablieren.
Interessant ist allerdings, dass in späteren Kapiteln, wo es um die Umsetzung geht, die Begriffe „Gemeinwohl“, „Menschenrechte“ und „zivilgesellschaftliche Vernetzung“ nicht mehr auftauchen. Geht es hier um Symbolpolitik?
Die Details der Strategie erinnern mich an das Quaero-Projekt, das 2005 Jacques Chirac und Gerhard Schröder ins Leben gerufen haben. Es hatte das Ziel, die Dominanz der amerikanischen Suchmaschinen-Anbieter zu brechen. Dafür wurden hunderte Millionen Euro EU-Fördergelder ausgegeben. Das Resultat kennen wir.
27 Gesundheitssysteme und 27 Märkte
Wenig in dem KI-Strategiepapier lässt mich hoffen, dass es nun anders ausgeht. Vielleicht hätte die Strategie damit anfangen sollen, wie man eine Wiederholung vermeiden kann? Mehr Geld und mehr Forschung allein bringen nicht viel, wenn wir keinen regulatorischen Rahmen schaffen, der den europäischen Marktbedingungen entspricht.
Wir haben 27 Gesundheitssysteme und damit 27 Märkte. Das erschwert es, hier führende KI-Unternehmen aufzubauen, wenn wir gleichzeitig nicht-europäischen KI-Unternehmen den freien Marktzugang gewähren. Gleichzeitig teilen wir nicht die gleichen Werte wie die USA, zum Beispiel beim Datenschutz, was im Bereich der Gesundheitsversorgung sehr wichtig ist.
Zu denken, dass unsere KI-Start-ups im Gesundheitswesen erfolgreich sein werden, wenn wir keinen regulatorischen Rahmen schaffen, der den Wettbewerbsvorteil nicht-europäischer Firmen ausgleicht, ist deswegen mehr als naiv. Wieso fördern wir nicht eine zivilgesellschaftliche und offene KI Strategie, in der das Recht auf Gesundheit, Privatheit und Sicherheit auf der einen und Innovation sowie wirtschaftliche Prosperität auf der anderen Seite ausbalanciert werden?
Medizinische Algorithmen offenlegen
Dass die Bundesregierung mittels Forschungsprojekten die Bereitstellung von Algorithmen in Form von Open Source vorantreiben will, ist sehr zu begrüßen, geht aber nicht weit genug. Solange wir es im Gesundheitswesen erlauben, dass größere Tech-Firmen oder Start-ups ihre Trainingsdaten und KI-Modelle in einem sogenannten Closed-Source-Ansatz verbreiten, werden offene Daten nur die Monopolisierung von Wissen beschleunigen.
Closed Source dürfte in der Medizin deswegen nicht erlaubt sein. Wenn wir Unternehmen dazu verpflichten, den Code und die Daten ihrer Algorithmen in der Medizin durch einen offenen Standard für „Open Knowledge“ zu veröffentlichen, könnten wir den Schutz unserer Märkte durch Offenheit gewährleisten.
Die Entscheidung über die medizinische Versorgung in der Zukunft wird jetzt getroffen: Wir müssen in der Medizin eine offene und transparente KI erzwingen, bevor die „vertrauenswürdige“ und geschlossene KI sich durchsetzt. Wenn aber, wie vor kurzem in einer Studie belegt, die Forschung zu 58 Prozent von Big Tech wie Google, Amazon, Facebook, Apple und Microsoft finanziert wird, ist es nicht verwunderlich, dass kaum über offene KI und Reproduzierbarkeit als Standard gesprochen wird.
Reproduzierbarkeit ist ein Kernelement der Wissenschaftlichen Methode. Unabhängige Prüfung von Methoden und Daten sind Kernelemente der wissenschaftlichen Methode. Wir alle sollten uns in Zeiten, in denen ein Teil der Bevölkerung an der Wissenschaft zweifelt, fragen, ob das Vorenthalten von Daten, die für die Reproduzierbarkeit und die unabhängige Überprüfung notwendig sind, noch Wissenschaft ist, und der Standard ist, auf dem wir aufbauen wollen.
Offene Industriestandards
Eine ähnliche Diskussion braucht es beim Thema Datenspende. Als ich bereits 2017 im Rahmen einer internen Anhörung des Deutschen Ethikrates diese Idee ins Spiel gebracht habe, war ich glücklich darüber, dass das Thema Datenspende weiterverfolgt wurde.
Für mich ist eine Spende ein Akt der Solidarität und des Altruismus. Wenn aber gespendete Patientendaten von Unternehmen genutzt werden können, die im Gegensatz dazu keine Daten von vergleichbarer Art zurückgeben, fördert das einen oligopolistischen Markt, nicht aber das Gemeinwohl. Wenn dieser Akt der Solidarität zu geistigem Eigentum und exklusivem privatisiertem Wissen führt, das dem Profit dient, dann kann das nicht als Spende verkauft werden. Solidarität ist keine Einbahnstraße.
Wir werden als Gesellschaft nur verlieren, wenn wir gleichzeitig auf Datenspenden und auf Datenkapitalismus setzen. Selbst, wenn sich die Gesellschaft für eine offene Datenstrategie entscheidet, werden Unternehmen sich für eine geschlossene Datenstrategie entscheiden, weil sie damit vermeintlich mehr Vorteile erzielen können. Wenn man hingegen den Datenaltruismus mittels offener Industriestandards am Markt etabliert, dann haben wir alle etwas davon. Diese daraus resultierende offene Zusammenarbeit zwischen europäischen Industriepartnern würde Entwicklungskosten senken und Innovationen beschleunigen.
Wenn man aber, ohne einen radikalen, emanzipierten Schritt, über eine am Gemeinwohl orientierte KI spricht, kommt das einem Datenkapitalismus im Tarnkappenmodus gleich. Mit der KI-Strategie der Bundesregierung werden die Gewinner auf jeden Fall nicht aus Europa kommen, und das Siegel „AI made in Germany“ wird eine Einladung sein für zukünftige Übernahmeangebote.
Bart de Witte ist der Teil der Gründungsfakultät des European Institute of Exponential Technologies and Desirable Futures, future.io. Außerdem gründete er die gemeinnützige Hippo-AI-Stiftung, die sich auf Open-Source-Lösungen in der Medizin spezialisiert. Zuvor war er Geschäftsbereichsleiter Digital Health bei IBM Deutschland.