18.03.2022 12:59 |

Manipulierte Videos

Wie Deepfakes uns zu täuschen versuchen

Bislang galten sie als Spielerei, doch inmitten des Ukraine-Krieges bergen sogennante Deepfakes, also mittels künstlicher Intelligenz erstellte Videos, politischen und sozialen Zündstoff. Sie zu erstellen, ist in den vergangenen Jahren immer einfacher geworden.

Artikel teilen
Drucken
Kommentare
0

Deepfakes sind Videos, die mittels künstlicher Intelligenz erstellt werden. Sie tauchten erstmals 2017 auf - damals noch als relativ leicht zu entlarvender Spaß, um die Gesichter Prominenter in Porno-Videos auf fremde Körper zu setzen. Doch die Technologie hat sich inzwischen weiter entwickelt, liefert immer bessere, sprich täuschendere Ergebnisse und ist zudem selbst von Laien einsetzbar.

Eine vergleichsweise einfache Methode ist, die Aufnahme vom Gesicht eines Menschen auf die Aufnahme vom Körper eines anderen Menschen zu setzen. Sie kann mit populären Apps wie Snapchat, Reface oder FaceMagic erfolgen. Die zweite Methode ist komplexer; bei ihr wird ein Gesicht nachgeahmt: Ein Schauspieler verwendet ein Originalvideo vom Gesicht eines Opfers, um dessen Bewegungen zu imitieren und Haltung oder Gesichtsausdruck zu verändern.

Die dritte Methode setzt auf manipulierte Lippenbewegung. Dadurch scheint ein Mensch etwas zu sagen, was er tatsächlich nie gesagt hat. Zum Einsatz kommt zusätzlich die Stimme eines Menschen, der die Stimme des Opfers nachahmt oder eine Stimme, die mittels künstlicher Intelligenz erzeugt wurde. Experten sprechen hierbei von Deepvoice oder Sprachsynthese, die bereits kommerziell Verwendung findet.

Bei allen drei Methoden untersucht das Programm die Gesten, die Mimik und teils auch die Stimme des Opfers. Sekunde für Sekunde lernt sie anhand der Bilder des Originalvideos. Sie überlagert, reproduziert und bearbeitet sie dann mit anderen Bildern. Je mehr Informationen eingegeben werden, desto realistischer wird der Deepfake.

Die Filmindustrie setzt diese Technik ein, um Schauspieler etwa jünger wirken zu lassen. Deepfakes können aber auch für Betrügereien verwendet werden. Auch die Gefahr der politischen Manipulation und der Desinformation ist groß, zumal das Gesichtstausch-Verfahren live vorgenommen werden kann.

Experte warnte bereits 2019 vor Deepfakes
Clint Watts vom Foreign Policy Research Institute in den USA hatte daher bereits 2019 gewarnt, dass Deepfakes „zu physischen Mobilisierungen unter falschen Vorwänden anstacheln, Krisen der öffentlichen Sicherheit und Gewaltausbrüche auslösen" könnten.

 krone.at
krone.at
Kommentare

Liebe Leserin, lieber Leser,

die Kommentarfunktion steht Ihnen ab 6 Uhr wieder wie gewohnt zur Verfügung.

Mit freundlichen Grüßen
das krone.at-Team

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Dienstag, 24. Mai 2022
Wetter Symbol