13.11.2019 12:14 |

Täuschend echter Fake

Falscher Boris Johnson: „Wählen Sie Jeremy Corbyn“

Die Briten wählen im Dezember ein neues Parlament - und rüsten sich gegen Einflussnahme aus dem Ausland. Welche Instrumente für solche Propaganda-Kampagnen genutzt werden können, zeigt die Denkfabrik Future Advocacy, die sich für die strenge Regulierung Künstlicher Intelligenz (KI) einsetzt. Sie hat Videos veröffentlicht, in denen Tory-Chef Boris Johnson und sein Labour-Rivale Jeremy Corbyn ihren jeweiligen Widersacher als Premier empfehlen. Obwohl sie täuschend echt wirken, handelt es sich um mit Hightech erzeugte Fakes.

Bei diesen sogenannten Deepfakes nutzt man hochspezialisierte KI-Computersysteme und Bilder der Zielperson, um in Videos Gesichter auszutauschen - und Prominente und Politiker Dinge sagen oder tun zu lassen, die sie in Wirklichkeit wohl nie sagen oder tun würden.

Erstaunlich real wirkende Fälschungen
Das Endprodukt ist verblüffend realistisch: Die Politiker aus dem Computer erklären fast lippensynchron und mit der passenden Stimme, dass sie ihren jeweiligen Widersacher gerne als Premier sehen würden. Erst am Ende der Clips wird der Schwindel aufgelöst.

Im Zeitalter gezielter Desinformationskampagnen in sozialen Netzwerken sind solche Videos eine reale Gefahr für die Demokratie. Unbedarfte Wähler könnten sie für echt halten und den zur Wahl stehenden Kandidaten Aussagen zuschreiben, die sie nie getätigt haben. Auf diese Problematik hinzuweisen, ist laut der Denkfabrik auch der Sinn der Aktion.

Twitter-User durchschauten Stimm-Doubles
Wie das IT-Portal „The Daily Dot“ anmerkt, sind die Fake-Clips durchaus zu durchschauen. Vor allem die Stimmen, die von Stimm-Doubles beigesteuert wurden, seien ein Hinweis auf eine Fälschung, bemerkte manch Twitter-Nutzer. Ob das auch politisch wenig interessierte Internetnutzer bemerken würden, sei dahingestellt.

Promi-Gesichter in Sex-Clips
Deepfakes kennt man bislang vor allem aus dem Porno-Bereich: Hier wird die Technologie schon seit vergangenem Jahr von Internetnutzern eingesetzt, um Promi-Gesichter in Sex-Clips zu montieren. Die Technologie kann aber auch für alle möglichen anderen Videomanipulationen eingesetzt werden - und tauscht beispielsweise Schauspieler in Spielfilmen aus.

Auch andere Video-Details lassen sich manipulieren
Dass die Möglichkeiten der KI-Manipulation nicht beim Austauschen von Gesichtern enden, hat zudem der Grafikkartenhersteller Nvidia demonstriert. Er hat eine KI programmiert, die auch andere Details von Videos manipuliert - mit verblüffend echten Ergebnissen. Da wird aus einer Tag- ganz schnell eine Nachtszene, aus einem Sommer- wird ein täuschend echter Wintertag.

Für Future Advocacy ist angesichts der verfügbaren technologischen Möglichkeiten klar, dass von Deepfakes eine Gefahr ausgeht. Sie stellen die Demokratie vor mehrere Herausforderungen, urteilt man dort. Es gehe künftig darum, die Fälschungen zu erkennen, zu verhindern, dass echte Aufnahmen durch die Deepfake-Gefahr pauschal als Fakes abgetan werden, KI-Möglichkeiten zur Videomanipulation zu regulieren und die Schäden an der Demokratie, die durch solche Fakes angerichtet werden könnten, möglichst zu minimieren.

 krone.at
krone.at
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Produktvergleiche

Alle Produkte sehen
Ihre Cookies sind deaktiviert. Die Seite wird daher möglicherweise nicht korrekt angezeigt.