1. Startseite
  2. Politik
  3. International
  4. Biden-Beraterin: „Die Verknüpfung zwischen Geld und den US-Wahlen ist furchtbar“

Biden-Beraterin„Die Verknüpfung zwischen Geld und den US-Wahlen ist furchtbar“

Im Interview spricht die ehemalige Wissenschaftsberaterin von Präsident Joe Biden, Alondra Nelson, über die Folgen der Trump-Wahl, die Macht der Milliardäre und die Zukunft der KI-Regulierung.Meckel Miriam 19.11.2024 - 14:45 Uhr Artikel anhören
Publizistin Miriam Meckel (l.) im Interview mit Alondra Nelson. Foto: Ada

Ludwigsburg. Es stehen schwierige Zeiten bevor für diejenigen, die Wissenschaft und Fakten für eine wichtige Grundlage der Demokratie halten. Das weiß kaum jemand besser als Alondra Nelson. Die 56-Jährige war Chefin des White House Office of Science and Technology Policy (OSTP) und Wissenschaftsberaterin von Präsident Joe Biden.

Als Expertin in Technologiepolitik arbeitete sie gemeinsam mit Vizepräsidentin Kamala Harris an den ersten US-Regulierungen zu KI-Anwendungen. UN-Generalsekretär António Guterres berief sie in das Beratungsgremium zu KI der Vereinten Nationen. Inzwischen forscht und lehrt Nelson als Harold-F.-Linder-Professorin am Institute for Advanced Study in Princeton, New Jersey.

Vergangene Woche erhielt sie beim Ada-Lovelace-Festival in Ludwigsburg den „Morals & Machines Award“ für ihre herausragende Arbeit an der Schnittstelle von Technologie und Politik.

Lesen Sie hier das Interview mit Alondra Nelson:

Frau Nelson, wir sprechen viel über „Responsible AI“. Dabei kann Technologie selbst niemals verantwortungsvoll sein. Das können nur die Menschen, die sie anwenden. Ist das nicht schon der falsche Begriff?
Wir können schon verlangen, dass unsere Werkzeuge und Technologien verantwortungsvoll und vertrauenswürdig sind und ethisch vertretbar eingesetzt werden. Vor dem „ChatGPT-Moment“ war das eine eher theoretische Diskussion. Nun stehen wir vor der Herausforderung, das konkret umzusetzen. Und diese praktische Anwendung zeigt deutlich, dass Verantwortung nie eine Eigenschaft der Technologie ist. Wir sitzen am Steuer und entscheiden darüber, diese Technologien so einzusetzen, dass sie unsere Erwartungen erfüllen.

Das ist bei den neuen großen KI-Sprachmodellen ja besonders schwierig, sie sind Blackboxes, also undurchschaubare Systeme. Wie gehen wir damit um?
Zunächst, indem wir anerkennen, dass es schwierig ist. Es ist technisch schwierig und politisch schwierig. Es erfordert eine Balance zwischen der schnellen Markteinführung eines Produkts und seiner langfristigen Vertrauenswürdigkeit. Immer wieder wird es Unternehmen geben, die glauben, Transparenz und Privatsphäre verlangten untragbare Kompromisse. Ebenso wie wir lernen müssen, vertrauenswürdige, ethische und verantwortungsvolle KI zu entwickeln, müssen wir daher auch in der Lage sein, in unseren Institutionen und Unternehmen die entsprechenden Muskeln dafür zu trainieren – als Standard für alle Beteiligten.

Das Vertrauen gegenüber Experten bröckelt
Alondra Nelson

Sie haben mit der „AI Bill of Rights“ erste Prinzipien vorgelegt. Wie haben Sie da diese Erkenntnis umgesetzt?
Die zentrale Frage war: Wie macht man wirksame Wissenschafts- und Technologiepolitik in einem Umfeld geringen Vertrauens? Wir wussten, dass wir - bedingt auch durch die Pandemie - in einer Zeit leben, in der das Vertrauen gegenüber Experten bröckelt. Das betraf auch unser Team. Wir wollten einige Grundsätze für den Umgang mit KI entwickeln und an bestehende Arbeit der Obama- und Trump-Administrationen anknüpfen. Und das auf eine Weise, die für die Öffentlichkeit zugänglich war und deutlich machte: Ihr braucht keinen Doktortitel in Computerwissenschaften, um euch in die Diskussion einzubringen.

Wie genau sind Sie das angegangen?
Gemeinsam mit einem Kollegen habe ich einen Gastbeitrag für das Magazin „Wired“ geschrieben. Darin haben wir eine E-Mail-Adresse angegeben, die direkt ins Weiße Haus führte, und haben gefragt: „KI entwickelt sich rasant in unserem Leben. Wie soll das für euch aussehen?“ Das war ein einjähriger Gesprächsprozess, mit dem wir viele Menschen aus unterschiedlichen Gruppen erreicht haben. Natürlich haben wir auch mit der Industrie, der Wissenschaft und der Zivilgesellschaft gesprochen. Aber wir wollten diesen Diskurs für jeden öffnen.

Entsteht aus einem solchen innovativen Prozess auch innovative Regulierung?
Die „AI Bill of Rights“ erhebt keinen Anspruch auf Neuartigkeit. Es ist doch so: Eine Regierung wird niemals die innovativste Organisation sein, wenn es um neue Technologien geht. Das soll sie auch gar nicht. Sie soll eine Plattform bereitstellen für die besten Praktiken und Ideen, aus denen wir die richtigen Prinzipien für eine mächtige Technologie wie Künstliche Intelligenz entwickeln.

Haben Sie den Begriff der „Bill of Rights“ bewusst gewählt? Die gibt es ja schon als die ersten zehn Änderungen der amerikanischen Verfassung von 1791.
Ja, die Begrifflichkeit der Bill of Rights ist eine Form des populären politischen Diskurses in der amerikanischen Kultur. Wir haben das Dokument damit in der amerikanischen Tradition verankert. Schwieriger war es dann, die internen politischen Abstimmungsprozesse hinzubekommen. Da haben wir vom Rechtsberater des Weißen Hauses schon mal gehört: „Bill of Rights, wie bitte?“

Ehemalige Biden-Beraterin Alondra Nelson. Foto: Ada

KI-Regulierung begann eher vorsichtig. Sind wir inzwischen in der Phase der klaren Rechtssetzung angekommen?
Wir befinden uns mittlerweile in einem internationalen Wettbewerb verschiedener regulatorischer Ansätze. Das ist der Moment, in dem es kompliziert wird. Ich habe die Entwicklungen rund um das EU-KI-Gesetz genau verfolgt. Es ist interessant zu sehen, welche Konflikte bei der Umsetzung einzelner Regelungen auftreten, die bereits über Jahre hinweg diskutiert wurden.

Was ich am EU-Prozess bewundere, ist die Fähigkeit, innezuhalten
Alondra Nelson

Was halten Sie vom EU AI Act?
Ich finde ihn ziemlich gut. Was ich am EU-Prozess bewundere, ist die Fähigkeit, innezuhalten und sich zu fragen: Passen die Risikoeinstufungen und Definitionen, die wir festgelegt haben, zu dem, was wir jetzt als den neuesten Stand der Technik kennen? Das war bemerkenswert. Natürlich würden viele den Prozess als nicht sehr agil bezeichnen. Und dabei kommt einem auch Mario Draghis Warnung hinsichtlich Wachstum und der Balance zwischen Innovation und Regulierung in den Sinn. Es ist eine Herausforderung, das umzusetzen, ohne die zugrunde liegenden Prinzipien zu opfern.

Die USA verfolgen eine sektorspezifische Regulierung, weil verschiedene Anwendungen in unterschiedlichen Bereichen unterschiedliche Risiken bergen. Die EU hingegen verfolgt einen risikobasierten Ansatz. Was halten Sie für richtig?
Wir brauchen tatsächlich beides. Einerseits kennen wir bei generativer KI und anderen Ausprägungen von neuronalen Netzwerken und Deep Learning noch nicht das gesamte Spektrum möglicher Anwendungsfälle. Wir können nicht alle potenziellen Risiken antizipieren, was uns in gewisser Weise einschränkt. Das ändert sich andererseits, wenn man Risiken in spezifischen Sektoren betrachtet. Für das Gesundheitswesen gibt es in den Vereinigten Staaten Gesetze zum Schutz der Privatsphäre. Wir haben in diesem Bereich eine höhere Erwartung an den Datenschutz, zum Beispiel bei elektronischen Krankenakten.

Wie können wir sicherstellen, dass die Regulierung anpassungsfähig, dynamisch und agil bleibt, wenn Technologien sich in einem solchen Tempo entwickeln?
Da ist schon mal das Perspektivproblem: Business-Schools lehren die schöpferische Zerstörung als Erfolgsmodell. Ein Teil davon besteht aber oft darin, Gesetze zu umgehen oder Schlupflöcher zu finden. Das Narrativ lautet dann: Regulierungsprozesse sind zu langsam. Das heißt auch: Das Geschäftsmodell mancher Unternehmen basiert darauf, Gesetze zu umgehen – wie zum Beispiel im Fall von Uber in New York City. Natürlich hinkt die Gesetzgebung hinterher. Das muss auch so sein. Die Regierung muss sich Zeit nehmen, um gründlich vorzugehen. Aber etwas schneller könnte es manchmal dann doch gehen.

Wie kann das gelingen?
Wir müssen Raum für Agilität schaffen. Ich nenne das „Versionierung“ oder Iteration. Ein Beispiel: Das National Institute of Standards and Technology (NIST) ist eine mehr als 100 Jahre alte amerikanische Institution. Ihre ursprüngliche Aufgabe war die Standardisierung von Maßen und Gewichten. Doch mittlerweile hat das NIST mit der Entwicklung technologiebezogener Richtlinien begonnen – erst im Bereich Cybersicherheit, jetzt bei KI. Das erste KI-Rahmenwerk hieß schlicht „Version 1.0“ – ähnlich wie in der Softwareentwicklung. Es soll den Umgang mit Risiken von KI für den Moment regeln, lässt aber Raum für schnelle Anpassungen – als „Version 1.1“ oder „Version 2.0“, je nachdem, wie bedeutsam die Änderungen sind.

Nun wurde Donald Trump für eine zweite Amtszeit als Präsident der Vereinigten Staaten gewählt. Wie bewerten Sie das?
Ich habe in der Biden-Harris-Regierung gearbeitet, unter anderem direkt mit Vizepräsidentin Harris. Sie ist klug und verantwortet den Ansatz der aktuellen US-Regierung zur KI-Regulierung, der darauf abzielt, sowohl Rechte als auch Innovation in Einklang zu bringen. Für die politischen Themen, die mir persönlich wichtig sind, ist es besonders schmerzhaft, dass sie verloren hat. Kamala Harris wäre eine exzellente Präsidentin gewesen. Der Wahlausgang hat mich zutiefst enttäuscht. Die Mehrheit der Amerikanerinnen und Amerikaner unterstützt einen Führer, der Frauen verunglimpft und viele andere Menschen des Landes, das er führen will.

Donald Trump ist außerdem ein verurteilter Straftäter.
Noch wichtiger finde ich, dass seine Politik einfach falsch ist. Die Biden-Harris-Regierung hat gezeigt, dass es auch die Rolle der Regierung sein kann, Anreize für Veränderungen zu schaffen – etwa beim „Chips and Science Act“ oder mit dem „Inflation Reduction Act“ zugunsten einer grünen Energiewende und mehr Elektrofahrzeugen. Es gibt ja schon die ersten Hinweise darauf, dass solche Initiativen unter einer neuen Trump-Regierung zurückgefahren werden.

Die Rolle von KI in der US-Politik

Donald Trump hat auch angekündigt, Präsident Bidens KI-Verordnung als eine der ersten Amtshandlungen aufzuheben. Das ist besonders seltsam, weil die faktisch auf seinen eigenen beiden KI-Verordnungen basiert.
Das ist politisches Theater. Es gehört zum Machtwechsel, dass Präsidenten sagen: „Ich bin jetzt an der Macht, wir machen das anders.“ Dennoch gibt es viele grundlegende Elemente sowohl aus Trumps als auch aus Bidens Verordnungen, die vermutlich in eine neue Trump-Verordnung einfließen würden. Ich glaube nicht, dass Bidens Executive Order aufgehoben wird, ohne dass direkt eine neue erlassen wird. Die zentralen Fragen – wie man bei KI die amerikanische Führungsrolle erhält, nationale Sicherheitsrisiken bewertet, Chancen für kommerzielle Anwendungen schafft und das Vertrauen der Öffentlichkeit in diese Technologien stärkt – bleiben gleich. Die Öffentlichkeit zeigt inzwischen großes Interesse an diesen Themen – und selbst ein Präsident Trump muss Antworten darauf geben.

Donald Trump (l.), Unterstützer Elon Musk bei Wahlveranstaltung in Pennsylvania Anfang Oktober. Foto: AFP

Elon Musk hat fast 120 Millionen Dollar ausgegeben, um Menschen zu bewegen, Trump zu wählen. Kommt die Oligarchie der Milliardäre?
Das passt leider in die Tradition der US-Rechtsprechung. Der Oberste Gerichtshof hat 2010 entschieden, dass auch Konzerne Personen sind, die viel Geld geben können. Zu dem, was Musk gemacht hat, gibt es laufende Gerichtsverfahren. Aber grundsätzlich gilt: Die Verknüpfung zwischen Geld und den US-Wahlen ist furchtbar. Wir werden eine Lösung dafür finden müssen, mit all den Versuchen umzugehen, die Regeln eines geordneten Wahlprozesses infrage zu stellen.

Eine Umfrage zeigt, dass etwa die Hälfte der Amerikaner nicht mehr an die Demokratie glaubt. Donald Trump hat angekündigt, etwa die Unabhängigkeit der Fed zu beenden und seine politischen Gegner strafrechtlich zu verfolgen. Bezeichnen Sie die USA, ohne zu zögern, noch als eine Demokratie?
Ja. Aber ich finde auch: Wir betrachten die Demokratie oft, als wäre sie ein Gebäude – ein Schloss, das, einmal erbaut, ewig steht. Aber Demokratie ist ein dynamischer Prozess, den wir aktiv gestalten und verteidigen müssen. Sie zu erhalten erfordert tägliche Arbeit. Ich denke, wir werden in einer zweiten Trump-Regierung jeden Tag dafür kämpfen müssen, dass die Antwort auf Ihre Frage weiterhin „ja“ lauten kann. Als ich in die Regierung ging, war die Frage: Wie regiert man in einem Umfeld geringen Vertrauens? Die Aufgabe, die nun vor uns liegt, lautet: Wie können wir die Rechtsstaatlichkeit und Gleichheit vor dem Gesetz jeden Tag aktiv verteidigen?

1962 empfing die Venus als erster Planet unseres Sonnensystems einen Funkspruch von der Erde, gesendet von einem sowjetischen Radar. Der Funkspruch bestand aus drei russischen Worten: Frieden, Lenin, UdSSR. Welche drei Worte würden Sie heute ins Universum schicken?
Den Frieden behalte ich, dazu kommen Respekt und Vorstellungskraft.

Herzlichen Dank für das Gespräch, Frau Nelson.

Verwandte Themen
Donald Trump
Kamala Harris
Europäische Union
Joe Biden
USA
US-Wahlen

Miriam Meckel ist deutsche Publizistin und Unternehmerin. Sie ist Mitgründerin und CEO der ada Learning GmbH, an der die Handelsblatt Media Group beteiligt ist. Außerdem lehrt sie als Professorin für Kommunikationsmanagement an der Universität St. Gallen.

Mitarbeit: Finn Blug

Justiz-Debatte

Elon Musk mischt sich auf X in die italienische Politik ein – und Italiens Präsident teilt aus

Erstpublikation: 14.11.2024, 18:39 Uhr.

Mehr zum Thema
Unsere Partner
Anzeige
remind.me
Jetziges Strom-/Gaspreistief nutzen, bevor die Preise wieder steigen
Anzeige
Homeday
Immobilienbewertung von Homeday - kostenlos, unverbindlich & schnell
Anzeige
IT Boltwise
Fachmagazin in Deutschland mit Fokus auf Künstliche Intelligenz und Robotik
Anzeige
Presseportal
Direkt hier lesen!
Anzeige
STELLENMARKT
Mit unserem Karriere-Portal den Traumjob finden
Anzeige
Expertentesten.de
Produktvergleich - schnell zum besten Produkt