Zum The Spark - der deutsche Digitalpreis Special von Handelsblatt Online

Köpfe der Künstlichen Intelligenz Wie Nicole Krämer mit einem Haufen Blech Emotionen weckt

Langeweile, Stress, Sex. Die Kommunikationspsychologin der Universität Duisburg-Essen erforscht, was passiert, wenn Menschen auf empathische Maschinen stoßen.
Kommentieren
Die Professorin an der Uni Essen-Duisburg erforscht, wie Personen auf interaktive Systeme reagieren, die „soziale Reize“ anbieten. Quelle: Anna Gauto für Handelsblatt
Nicole Krämer

Die Professorin an der Uni Essen-Duisburg erforscht, wie Personen auf interaktive Systeme reagieren, die „soziale Reize“ anbieten.

(Foto: Anna Gauto für Handelsblatt)

Duisburg„Samantha“ ist die perfekte Illusion. Die Sprachassistentin hat keinen Körper, aber eine verführerische Stimme, Witz und Charme. Theodore Twombly verfällt ihr. Auf dem Höhepunkt seiner Romanze sagt er ihr über seinen Kopfhörer: „Ich habe noch nie jemanden so geliebt wie dich.“ Bis der konsternierte Twombly – dargestellt von Joaquin Phoenix – erfährt, dass die selbstlernende Software noch in zahlreiche andere Menschen verliebt ist.

So hochentwickelt wie die flüssig plaudernde, gefühlsbegabte „Samantha“ im Science-Fiction-Drama „Her“ sind künstlich intelligente Maschinen noch lange nicht. Simple Dialoge oder ein Kopfnicken richtig zu interpretieren – schon das bringt die meisten Systeme an ihre Grenzen. Dennoch stimmt die im Film gezeigte Liaison nachdenklich: Was passiert, wenn Menschen in Zukunft auf immer höher entwickelte Künstliche Intelligenz (KI) treffen?

Nicole Krämer von der Universität Duisburg-Essen sucht nach Antworten. Seit 20 Jahren erforscht die Kommunikationspsychologin, wie Personen auf interaktive Systeme reagieren, die „soziale Reize“ anbieten, etwa humanoide Roboter. Die 46-Jährige ist fasziniert, wie schnell Personen Maschinen menschliche Eigenschaften zuschreiben.

„Selbst wenn wir wissen, dass vor uns ein Haufen Blech mit Software darin sitzt, können wir gar nicht anders, als mit unserem gesamten sozioemotionalen Arsenal zu antworten“, sagt Krämer. Das beginnt beim autonomen Rasenmäher und endet beim humanoiden Roboter. „Probanden bedanken sich plötzlich bei Maschinen oder zeigen Schamgefühle. Ist das nicht irrwitzig?“, sagt Krämer.

Besonders komplex ist es, Maschinen so zu programmieren, dass sie sich mit Menschen unterhalten können. Krämer hat mit Wissenschaftlern des Forschungszentrums Exzellenzcluster Kognitive Interaktionstechnologie der Uni Bielefeld (Citec) den Avatar „Billie“ entwickelt – eine Kindsfigur, die kognitiv eingeschränkten und alten Menschen dabei hilft, ihren Alltag zu organisieren. https://www.handelsblatt.com/politik/deutschland/gesundheit-deutsche-wollen-sich-nicht-von-robotern-pflegen-lassen/23219778.html

Krämers Job: den Informatikern zu zeigen, welche verbalen und nonverbalen Signale „Billie“ verstehen und senden muss, damit Kommunikation mit Menschen funktionieren kann. Damit die Grafikfigur zum Beispiel einen irritierten Gesichtsausdruck erkennt, bei Missverständnissen neu ansetzt, im richtigen Moment nickt oder fließend gestikuliert.

„Billie“ ist eines der besten Dialogsysteme weltweit. Trotzdem sind seine Fähigkeiten eingeschränkt. Oft versteht das System nicht, was Menschen sagen oder von ihm wollen. Die meisten Probanden verlieren schnell das Interesse.

Um zu besseren Testergebnissen zu gelangen, hat Krämer sich daher für einen anderen Weg entschieden. Dem Roboter „Nao“ hat sie vorab Witze einprogrammiert. Als sie sagt, sie trinke gern Wein, breitet er die Hände aus und sagt: „Wein vor Bier, das lob ich mir.“ Die Forscherin lächelt – so, wie es die meisten Menschen tun.

„Nao“, der Vorgänger des humanoiden Roboters „Pepper“, der heute durch Spitäler rollt, kann noch ganz andere Emotionen wecken. Mit ihren Mitarbeitern hat Krämer herausgefunden, dass ein Drittel der Probanden es nicht übers Herz bringt, bei „Nao“ den Stecker zu ziehen, wenn der ruft: „Bitte schalte mich nicht aus!“

Solche Reaktionen zeigen Krämer, wie wichtig ein verantwortungsvoller Umgang mit KI ist. Was, wenn hochentwickelte Systeme alten Menschen in der Pflege Aufmerksamkeit spenden? Wenn die Werbung sie als witzige, einfühlsame und charmante Botschafter einsetzt, wenn sie junge Menschen als coole Spielgefährten in virtuelle Welten entführen?

Solche KI-Systeme könnten gerade beeinflussbare Menschen fehlleiten, ihnen sogar schaden, warnt etwa Arne Manzeschke, Ethiker und Theologe am Institut für Technik an der LMU München. Krämer arbeitet daran, dass die Theodore Twomblys der Zukunft besser auf smarte Software wie „Samantha“ vorbereitet sind.

Startseite

Mehr zu: Köpfe der Künstlichen Intelligenz - Wie Nicole Krämer mit einem Haufen Blech Emotionen weckt

0 Kommentare zu "Köpfe der Künstlichen Intelligenz: Wie Nicole Krämer mit einem Haufen Blech Emotionen weckt"

Das Kommentieren dieses Artikels wurde deaktiviert.

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%