Benachrichtigung aktivieren Dürfen wir Sie in Ihrem Browser über die wichtigsten Nachrichten des Handelsblatts informieren? Sie erhalten 2-5 Meldungen pro Tag.
Fast geschafft Erlauben Sie handelsblatt.com Ihnen Benachrichtigungen zu schicken. Dies können Sie in der Meldung Ihres Browsers bestätigen.
Benachrichtigungen erfolgreich aktiviert Wir halten Sie ab sofort über die wichtigsten Nachrichten des Handelsblatts auf dem Laufenden. Sie erhalten 2-5 Meldungen pro Tag.
Jetzt Aktivieren
Nein, danke
Digitale Revolution

Manipulation mit KI So echt sehen Deepfake-Videos aus

Original oder Fälschung? Mit Künstlicher Intelligenz lassen sich Videos so manipulieren, dass der Unterschied kaum zu sehen ist. Beispiele für Deepfakes.
Kommentieren

Düsseldorf Die Sympathie zwischen Barack Obama und Donald Trump dürfte sich zwar in Grenzen halten. Dass der frühere US-Präsident den aktuellen öffentlich als „Dipshit“, also „Vollidiot“ bezeichnet, dürfte angesichts seiner guten Manieren und seiner geschliffenen Ausdrucksweise indes als ausgeschlossen gelten.

Daher horchten die meisten Zuschauer wohl auf, als sich der Politiker im April 2018 in einem Online-Video im Straßenjargon zu Wort meldete. Allerdings war es nicht Obama selbst, der die drastischen Worte sprach, sondern der Schauspieler und Regisseur Jordan Peele.

Der Künstler hatte Software mit Künstlicher Intelligenz genutzt, um seine Mundbewegungen und Mimik auf den Politiker zu übertragen. Wer nicht genau hinhörte und -sah, konnte die Fälschung für echt halten. Das war auch das Ziel: Es ging darum, die Gefahr durch derartige Deepfakes zu illustrieren.

Beim genauen Hinsehen wird deutlich, dass es sich nicht um den echten Obama handeln kann. Seit der Erstellung und Veröffentlichung des Videos im April 2018 ist indes einige Zeit vergangen, die Technologie ist seitdem besser geworden. Einige Beispiele zeigen, wie echt Deepfakes teilweise schon aussehen – und woran man sie trotzdem erkennt.

Derartige Videos schüren Angst vor der Manipulation der öffentlichen Meinung. Forscher betonen jedoch, dass die Technologie viel positives Potenzial habe – zum Beispiel für die Filmindustrie. So ist es möglich, das Gesicht eines Schauspielers auf eine Figur zu montieren oder im Nachhinein die Mundbewegungen an den Sprechertext anzupassen.

Wie das ansatzweise aussehen könnte, zeigt ein Video, in dem Nicolas Cage in zahlreichen Rollen auftaucht – etwa anstelle von Harrison Ford als Indiana Jones. Spaßvögel haben das Gesicht des Schauspielers in die Kleidung des Archäologen und in andere Zusammenhänge montiert.

Das Potenzial der Technologie demonstriert ein Video des Schauspielers und Imitators Bill Hader noch besser: Während er in einer Talkshow Tom Cruise nachmacht, nimmt er kurzzeitig die Gesichtszüge des Superstars an – die Software macht es möglich. Ein faszinierender und zugleich befremdlicher Effekt.

Auch aus einzelnen Bildern lassen sich inzwischen Videos von Personen erstellen. Das haben Wissenschaftler im Dienst von Samsung anhand der Mona Lisa demonstriert: Die berühmte Figur von Leonardo da Vinci, Anfang des 16. Jahrhunderts gemalt, wirkt in einem Video so, als wäre sie noch am Leben. Der Konzern forscht an der Technologie, weil er damit die Qualität von TV-Bildern verbessern will.

Andere Branchen können von der Bildbearbeitung mit Künstlicher Intelligenz ebenfalls profitieren. Wenn zum Beispiel Autohersteller Systeme fürs selbstfahrende Fahrzeuge entwickeln, müssen diese ihre Fähigkeiten üben. Das geht nicht nur in der Realität, sondern auch in der Simulation – wenn Programme das Straßennetz realistisch abbilden.

Der Chiphersteller Nvidia hat ein System entwickelt, das Bilder einer Straße im Sommer automatisch in den Winter versetzt – mit Schnee am Straßenrand, auf den Bäumen und den Dächern der entgegenkommenden Autos. Möglich ist auch, einen Regenguss oder die Nacht zu simulieren.

Mehr: Mit KI-Methoden lassen sich täuschend echte Videos und Audiobotschaften produzieren. Experten befürchten, dass die Perfektion der Desinformation die Demokratie gefährdet.

Startseite

Mehr zu: Manipulation mit KI - So echt sehen Deepfake-Videos aus

0 Kommentare zu "Manipulation mit KI: So echt sehen Deepfake-Videos aus"

Das Kommentieren dieses Artikels wurde deaktiviert.

Serviceangebote