Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Digitale Revolution

Digitale Revolution „Wir werden irgendwann alle Abläufe im menschlichen Gehirn algorithmisch fassen können“

KI-Forscher Kristian Kersting spricht im Interview über ethische Algorithmen, den Wettlauf mit den USA und China und die Angst vor der technologischen Singularität.
2 Kommentare
KI-Forscher Kersting: „Es könnte sich herausstellen, dass wir doch keinen göttlichen Funken besitzen, der uns zu moralischen Wesen macht.“ Quelle: dpa
Bionischer Roboter

KI-Forscher Kersting: „Es könnte sich herausstellen, dass wir doch keinen göttlichen Funken besitzen, der uns zu moralischen Wesen macht.“

(Foto: dpa)

Düsseldorf Kristian Kersting, Professor für Maschinelles Lernen an der TU Darmstadt, kritisiert eine Vorstellung von Künstlicher Intelligenz (KI), die sich zu sehr am Menschen orientiert. KI solle nicht die menschliche Intelligenz abbilden, sondern intelligentes Verhalten. Beim autonomen Fahren sei es schließlich das Ziel, die Anzahl von Verkehrsunfällen zu reduzieren und nicht lediglich ein Roboterauto wie einen Menschen fahren zu lassen.

Kersting glaubt, dass Maschinen irgendwann menschenähnliche moralische Entscheidungen treffen und auch eigene Ideen entwickeln können. Aktuell werde KI aber vor allem für ganz spezifische Problemstellungen entwickelt und könne in Sachen Kreativität und Flexibilität nicht mit dem Menschen mithalten. Und selbst wenn es irgendwann technisch möglich sein sollte, findet Kersting nicht, dass KI in alle menschlichen Lebensbereiche vordringen sollte.

Mehr Investitionen in KI-Forschung würden es seiner Meinung nach leichter machen, Spitzenkräfte in Deutschland zu halten. „Wenn alleine die chinesische Stadt Tianjin eine KI-Förderung in Höhe von knapp 13 Milliarden Euro plant oder sich das Massachusetts Institute of Technology (MIT) ein neues College of Computing für eine Milliarde Dollar leistet, dann liegen die Unterschiede auf der Hand“, sagt Kersting.

Lesen Sie hier das ganze Interview:

Herr Kersting, finden Sie es unproblematisch, dass Künstliche Intelligenz in immer mehr Lebensbereiche vordringt oder glauben Sie, dass KI in bestimmten Lebensbereichen bewusst nicht eingesetzt werden sollte?
Ich gehöre als Forscher der Idee an, dass man irgendwann alle Abläufe im menschlichen Gehirn algorithmisch fassen kann. Als Forscher finde ich es spannend zu fragen, ob Maschinen nicht zumindest ähnliche moralische Entscheidungen treffen können wie Menschen. Viele wissenschaftliche Arbeiten in der KI-Community haben mit Logiken versucht, moralisch-ethische Kalküle abzubilden.

Glauben Sie denn, dass Maschinen irgendwann menschenähnliche moralische Entscheidungen treffen können?
Ich glaube das sehr wohl. Natürlich ist das eine sehr schwierige Frage, weil wir dadurch unter Umständen auch den Menschen entmystifizieren. Es könnte sich dann plötzlich herausstellen, dass wir doch keinen göttlichen Funken besitzen, der uns zu moralischen Wesen macht. Es könnte herauskommen, dass wir einfach der Informationsverarbeitung unterliegen wie viele andere Dinge auch. Ich kann verstehen, dass das viele Leute erstmal verdauen müssten.

Also hält KI dem Menschen den Spiegel vor?
So sehe ich es zum großen Teil. Man muss allerdings aufpassen: Künstliche Intelligenz muss nicht den Menschen zum Abbild haben. Es wäre gerade beim autonomen Fahren ein bisschen schade, wenn es die KI nur schaffen würde, wie der Mensch zu fahren. Dann hätten wir die gleiche Häufung von Verkehrstoten wie vorher auch. Unser Ansatz ist hoffentlich schon, dass wir versuchen, die Welt ein bisschen besser zu machen. Insofern muss die Künstliche Intelligenz nicht die menschliche Intelligenz abbilden, sondern nur intelligentes Verhalten. Aber in den Kognitionswissenschaften möchte man schon Algorithmen beschreiben und finden, die menschliches Verhalten abbilden. Ich glaube, gerade bei ethischen Fragestellungen ist es gewollt, dass man es hinbekommt, dass die Maschinen unserer Ethik entsprechen und uns nicht plötzlich zuwiderhandeln.

Ist die Frage nach der Ethik in der KI vielleicht auch deswegen so schwierig zu beantworten, weil Ethik als starres System überhaupt nicht existiert? Schließlich zeigt der Blick auf die Menschheitsgeschichte, dass zu jeder Zeit unterschiedliche normative Modelle miteinander konkurriert haben.
Der Philosoph Nick Bostrom, der auch den Begriff der Singularität vorangetrieben hat (der Zeitpunkt, ab dem sich Maschinen mit Hilfe von KI derart rasant selbst verbessern, dass der Mensch nicht mehr folgen kann und die Zukunft der Menschheit nicht mehr vorhersagbar ist, Anm. d. Red.) hat sich auch gefragt, ob es so etwas wie eine Maschinenethik gibt. Seiner Meinung nach gilt es herauszufinden, ob Maschinen und Algorithmen eine Änderung in der Moral oder in der Ethik feststellen können. Denn nur dann können sie überhaupt feststellen, dass sich die Ethik entwickelt und unter Umständen selbst irgendwann eine eigene Ethik entwickeln. Wenn Maschinen einfach nur abkupfern und noch nicht einmal merken, wenn sich eine neue Moral entwickelt, dann sind sie nur Konsumenten. Was in diesem Zusammenhang interessant ist: Wenn zum Beispiel Menschen ganz viele von Menschen geschriebene Texte lesen, dann übernehmen sie auch die darin enthaltenen „moralischen Vorurteile“. So entwickelt sich die Unterscheidung, was gutes und schlechtes Handeln ist. Vielleicht können wir auch Maschinen entwickeln, die nicht überrascht sind, dass wir keine Menschen töten, sondern die sagen: „Ja, das ergibt Sinn. Das weiß ich“.

„Wir müssen es schaffen, die Köpfe zu transferieren.“ Quelle: TU Darmstadt
Kristian Kersting

„Wir müssen es schaffen, die Köpfe zu transferieren.“

Haben Sie persönlich Angst vor der Singularität?
Nein. Das ist ein ganz spannendes Gedankenkonstrukt, aber ich habe keine Angst davor. Manche denken, wir hätten bereits heute Maschinen oder künstliche Systeme, die dem Menschen ebenbürtig sind und die laufen, greifen oder widersprechen könnten. Das ist bei den meisten Systemen wirklich noch ganz weit entfernte Zukunft. Bei den meisten Rechnern kann ich den Stecker ziehen und dann passiert da auch nicht mehr viel. Die Idee, dass sich Maschinen mit KI reproduzieren, sich wie Viren im Internet verbreiten und wir es nicht mehr aufhalten können, mag vielleicht irgendwann Realität werden, wenn wir bewusst an diesem Szenario arbeiten. Aber dann stellt sich immer noch die Frage, ob Maschinen mit derselben Fähigkeit wie der Mensch andere auch beeinflussen können. Es reicht ja nicht nur, sich zu replizieren, sondern man muss ja auch den Zugriff auf weitere Ressourcen erhalten. Ich glaube, dass Künstliche Intelligenz bislang mehr Leben gerettet als zerstört hat und dass das auch erstmal so bleibt.

Brauchen wir denn in allen Lebensbereichen KI?
Das ist eine gesamtgesellschaftliche Diskussion, die wir führen müssen. Auch wenn ich der Meinung bin, dass das technisch irgendwann möglich sein wird, gibt es Bereiche, in denen ich nicht möchte, dass die Maschine die letzte Entscheidung trifft. Denn man möchte die Entscheidung später vielleicht begründet und aus vielen verschiedenen Blickwinkeln beleuchtet haben. Ich glaube, da sind die Menschen schon noch sehr viel besser. Momentan und auch in absehbarer Zeit. Beispiel Notaufnahme: Es ist vielleicht verführerisch zu sagen, dass die Maschine besser als der Arzt ist und sie deswegen die Entscheidung treffen sollte. Aber ich möchte auch nach der Verantwortung fragen können und dann ist es schon besser, dass der Mensch die finale Entscheidung trifft.

Finden Sie, dass die Entscheidung, in welchen Lebensbereichen wir KI einsetzen, demokratisch legitimiert sein müsste?
Ist denn die KI-Forschung in Bezug auf diese Fragestellungen so viel anders als die Medizin? In der Medizin haben wir auch ganz viele Schutzmechanismen eingebaut, so dass man nicht ohne Weiteres ein neues Medikament auf den Markt bringen kann. Man kann die Hürden für KI in bestimmten Bereichen höher ansetzen und in anderen niedriger. Das ist ein Standard, der sich in der Medizin bewährt hat. Warum soll er sich jetzt plötzlich in der Künstlichen Intelligenz nicht bewähren? Soziologen, Juristen und Philosophen müssen sich zusammen mit technisch orientierten Experten überlegen, wo wir die unterschiedlichen Stufen ansetzen sollten. Natürlich möchte ich nicht, dass jede Art von Künstlicher Intelligenz ungeprüft in die Welt gelassen wird. Im abgegrenzten Forschungsrahmen kann man das sehr wohl erkunden, aber ich möchte nicht, dass Firmen irgendwelche KI in die Welt setzen, ohne dass wir wissen, was damit passieren könnte.

Die EU-Kommission hatte ein 52-köpfiges Expertengremium damit beauftragt, ethische Leitlinien für die Entwicklung und den Einsatz von Künstlicher Intelligenz zu formulieren. Anfang April wurde der Abschlussbericht vorgestellt. Ethikforscher Thomas Metzinger von der Universität Mainz, der an den Empfehlungen mitgearbeitet hat, kritisiert nun, Industrievertreter in dem Gremium hätten die ethischen Leitprinzipien verbal aufgeweicht. Nun gebe es keine nicht verhandelbaren „roten Linien“ mehr in dem Dokument. Wie sehen Sie das?
Ich war zunächst einmal stolz, dass es die Kollegen in kurzer Zeit hinbekommen haben, überhaupt etwas auf die Beine zu stellen, worüber man nun diskutieren kann. Dieses Dokument ist nicht in Stein gemeißelt. Das viel Wichtigere ist es, dass wir jetzt zum ersten Mal konkret darüber reden können, wo wir die roten Linien überhaupt ziehen wollen. Ich fand nicht alles in dem Dokument gut, aber ich finde gut, dass da jetzt überhaupt etwas steht, das wir gemeinsam weiterentwickeln können. Wir brauchen einen Ausgleich zwischen Bürger- und Wirtschaftsinteressen.

Wenn wir uns unsere aktuelle Gesellschaft anschauen, dann sehen wir, dass das Wissen bereits sehr ungleich verteilt ist und dass die breite Bevölkerung schon lange nicht mehr über bestimmte Fachthemen mit einem Fachpublikum überhaupt adäquat diskutieren kann. Verschärft sich das Problem zusätzlich mit der fortschreitenden Verbreitung von Künstlicher Intelligenz?
Wir haben eine völlig verzerrte Diskussion über KI, weil nur eine Handvoll Leute darüber kompetent reden kann und der Rest nur die Nachrichten konsumieren darf. In Nachrichtenartikeln wird immer gerne der Roboter als Bebilderung für einen Artikel über KI genommen, weil das eine schöne Verdeutlichung dessen ist, was wir unter Künstlicher Intelligenz verstehen. Allerdings transportiert man damit ungewollte Botschaften: Man vergleicht KI dann immer gleich mit dem Menschen. Deswegen sage ich meinen Kollegen in der wissenschaftlichen Community, dass wir vielleicht mehr populärwissenschaftliche Bücher schreiben und viel früher in der Schule darüber reden müssen. Über das Thema Künstliche Intelligenz und Daten sollte zum Beispiel im Sozial- oder Religionsunterricht gesprochen werden. Ich habe Studierende, die nicht selbst KI oder Informatik studieren, ein Buch über KI schreiben lassen, das demnächst veröffentlicht wird. Die Idee dahinter war, dass das Thema so vielleicht verständlicher wird. Aber wir brauchen noch sehr viel mehr Bücher über KI, die in der normalen Buchhandlung gefunden werden können und hoffentlich auch gelesen werden.

Eine breite Debatte über ethische Standards in der KI ist ja de facto nicht möglich, wenn nur eine Handvoll Leute miteinander diskutieren kann.
Ja, das stimmt. Aber das Thema ist sehr spannend. Deswegen kann auch der Otto-Normalbürger schnell ein Interesse dafür entwickeln. Aufklärung ist hier ganz wichtig.

Aus der Industrie heißt es oft, dass Deutschland ganz viel Geld in KI investieren müsse, um nicht von den USA oder China abgehängt zu werden.
Als Mitglied der Plattform „Lernende Systeme“ vom Bundesforschungsministerium komme ich oft mit Firmen und anderen Entscheidungsträgern zusammen und da stellt sich schon heraus, dass es einen gewissen Graben zwischen Forschung und Unternehmen gibt. Ich glaube, dass wir ganz neue Kooperationsmethoden in Angriff nehmen müssen, um da irgendwie mithalten zu können. Wenn alleine die chinesische Stadt Tianjin eine KI-Förderung in Höhe von knapp 13 Milliarden Euro plant oder sich das Massachusetts Institute of Technology (MIT) ein neues College of Computing für eine Milliarde Dollar leistet, dann liegen die Unterschiede auf der Hand. Das Frustrierende ist, dass wir wirklich Top-Leute haben, die dann aber ins Ausland gehen. Es ist schwer, sie wieder zurückzuholen. Und trotzdem haben wir noch einige Superstars in Deutschland. Unsere Community ist gut, aber sie könnte noch viel besser sein, wenn besser investiert werden würde.

Gibt es darüber hinaus noch Ansatzpunkte, wie die KI-Forschung in Deutschland noch verbessert werden könnte?
Aktuell machen wir so etwas wie „KI + X“, weil wir diesen Wirtschaftstransfer hinbekommen und möglichst schnell jeden investierten Euro in zwei Euro umwandeln wollen. Das kann ich verstehen, aber KI läuft ein bisschen anders. Wir entwickeln nicht die eine Anwendung für alle Aufgaben, sondern eine etwas unscharfe Blaupause für ganz viele Aufgaben. Und für jede neue Aufgabe muss diese etwas unscharfe Blaupause immer wieder sehr scharf nachgezeichnet werden. Deswegen kann der Transfer nicht darin bestehen, dass wir nur zusammen mit der Wirtschaft Projekte machen. Denn wenn das Projekt vorbei ist, geht auch die KI-Expertise wieder flöten. Wir müssen es schaffen, die Köpfe zu transferieren. In den Unternehmen muss sich Personal entwickeln, das KI lebt und versteht. Das ist die Herausforderung. Und da brauchen wir neue Herangehensweisen. Wir versuchen gerade in Darmstadt, ein duales Doktorandenprogramm aufzubauen: Dabei forschen die Studierenden frei an der Uni und machen Internships bei Unternehmen. So können sowohl die Unternehmen als auch die Allgemeinheit davon profitieren.

Sie sagten, dass jede KI nur ein bestimmtes Problem in einer bestimmten Situation löst. Also kann man sich KI derzeit noch als Fachidioten vorstellen?
Man könnte es auch Inselbegabung nennen.

Wir sprachen eben über Singularität. Damit so etwas möglich wäre, müssten sich also diese ganzen inselbegabten Künstlichen Intelligenzen vernetzen und zu einem virtuellen Organismus werden?
Ja, das wird aber nicht so schnell passieren. Wenn wir das Beispiel Mensch nehmen, dann wissen Sie ja auch, wie schwierig es ist, sich mit vielen Leuten zu vernetzen, am selben Strang zu ziehen und sich nicht gegenseitig im Weg zu stehen.

Zweifellos gibt es noch viele Hürden. Alleine die Hand-Auge-Koordination zu meistern, während man über etwas komplett anderes nachdenkt, stellt einen Roboter noch vor riesige Probleme.
Das ist ein spannendes Beispiel. Es stimmt, die KI hat den Menschen in Schach und Go besiegt. Aber das Greifen von Schachfiguren ist für Roboter immer noch unheimlich schwierig. Wenn zum Beispiel einem Roboter ein Schachspiel-Set hingestellt wird, bei dem sich die geometrischen Formen der Spielfiguren von den ihm bekannten unterscheiden, dann stellt ihn das vor eine Riesenherausforderung.

Für den Menschen hingegen spielen kleine geometrische oder farbliche Abweichungen der Spielfiguren keine Rolle. Er weiß immer, wann er einen Springer oder einen Turm in der Hand hält. Könnte man das Ganze nicht mit Platons Ideenlehre erklären? Der Mensch hat ein Urbild der Idee „Schach“ im Kopf und verschiedene Darstellungen dieser Ur-Idee in der Welt der Erscheinungen verwirren ihn nicht. Kann KI überhaupt Ideen entwickeln?
KI, Algorithmen und Systeme können unter Umständen auch so etwas wie Ideen entwickeln. Ich meine das im folgenden Sinne: Versuchen Sie mal formal zu beschreiben, was es denn bedeutet, dass Sie Ideen nach Plato entwickeln. Und dann wird es auf einmal schwierig. Unter Umständen sind Ideen nur Interpretationen von Eindrücken, die entstehen, wenn wir andere Menschen und uns selbst beobachten. Vielleicht würde man das Ganze in Experimenten auch einer Maschine zuschreiben, wenn man es nicht vorher wüsste. Das geht dann in die Richtung Imitation Game und Turing-Test. Das ist eine sehr spannende, aber auch noch sehr offene Frage. Aktuell gestehe ich Ihnen glatt zu, dass wir noch keine Maschine haben, die es in Sachen Kreativität und Flexibilität mit dem Menschen aufnehmen kann. Es könnte noch viele Jahre, vielleicht auch Jahrzehnte oder Jahrhunderte dauern, bis wir das hinkriegen.

Herr Kersting, vielen Dank für das Interview.

Mehr: Mit der Digitalisierung steigt die Nachfrage nach moralbegabten Algorithmen. Unternehmen müssen verhindern, dass sich ihre Systeme im Ton vergreifen oder Menschen schädigen.

Egal, ob es um Künstliche Intelligenz oder um Blockchain geht – die Geschwindigkeit, mit der neue Schlagwörter aus der digitalen Welt auf uns einprasseln, ist enorm. Doch was davon hat Substanz, was ist nur Hype? In unserer neuen Multimedia-Rubrik „Digitale Revolution“ beleuchten Handelsblatt-Redakteure, wie Digitalisierung unsere Unternehmen, unsere Gesellschaft und unseren Alltag verändert. Jede Woche nehmen sich die Redakteure eines Schwerpunktthemas an. Die unterschiedlichen Aspekte werden in mehreren Beiträgen multimedial aufbereitet. Dabei kommen interaktive Grafiken, Videos oder Bildergalerien zum Einsatz.

Startseite

Mehr zu: Digitale Revolution - „Wir werden irgendwann alle Abläufe im menschlichen Gehirn algorithmisch fassen können“

2 Kommentare zu "Digitale Revolution: „Wir werden irgendwann alle Abläufe im menschlichen Gehirn algorithmisch fassen können“"

Das Kommentieren dieses Artikels wurde deaktiviert.

  • Die Frage ist was ist der Mensch , woher kommt er, wohin geht er. Ist der Mensch das Gehirn oder verwendet der Mensch das Gehirn und nachfolgend seinen Körper?
    Aber ist schon so, dass viele Menschen sich selbst auf ihr Gehirn und ihren Körper reduzieren und so durch ihren freien Willen zu Gehirnkrüppeln sich entwickeln. Dann wird wohl das zutreffen was der Herr Kersting hier geschrieben hat.

  • Aber nur die Naturwissenschaftliche. Die Psychologische ist individuell.

Serviceangebote