29.08.2020 09:00 |

„Internet of Crimes“

Deepfakes: Wie aus gestohlenen Fotos Pornos werden

Die Urlaubszeit ist jene Zeit, in der wir viele Fotos in den sozialen Netzwerken posten - ob Facebook, Instagram oder Snapchat. Aber Achtung: Cyberkriminelle klauen Fotos und integrieren diese in Sex-Fotos oder gar Pornovideos. Aber es werden nicht nur Aufnahmen von Frauen missbraucht, es werden Videos von Politikern gefälscht oder Interviews von Wirtschaftsmanagern und Firmenchefs manipuliert. 

Laut einer aktuellen Analyse des niederländischen IT-Start-ups Sensity (früher Deeptrace)gibt es gegenwärtig 76.781 (Stand 28. August 2020) Fake-Videos im Web - das ist mehr als eine Verfünffachung innerhalb eines Jahres! (14.678 waren es im Juni 2019). Sensity hat sich auf die Detektion von Deepfakes spezialisiert mit dem Ziel, Methoden zur Erkennung von Deepfakes zu entwickeln, um künftig Rufmord besser bekämpfen zu können.

Das sind Deepfakes
Als Deepfakes werden Videos bezeichnet, die manipuliert wurden - entweder werden Text bzw. Ton verändert und/oder es wird das Gesicht eines Menschen auf das Original montiert. Dabei kopieren Cyberkriminelle Fotos (meistens aus Social-Media-Plattformen wie Facebook oder Instagram) und benutzen diese - vor allem Frauen sind Opfer dieser Methode - für sogenanntes Face Swapping.

Die Australierin Noelle Martin wurde Opfer dieses Face Swapping und spielte plötzlich die Hauptrollen in Pornoclips. Martin - sie kämpft in der Zwischenzeit für Frauenrechte - ist überzeugt, dass es Tausende Frauen gibt, die auf die gleiche Art verunglimpft wurden/werden, aber davon nichts wissen.Die Kriminellen schleichen sich über Fake-Accounts ein, stellen eine Freundschaftsanfrage. Wenn man selbst nicht hineinfällt, dann vielleicht ein Freund/eine Freundin - wenn diese nicht die entsprechenden Privacy-Settings aktiviert hat, hat der Cyberkriminelle Zugriff auf Fotos und kann diese nach dem Copy-&-Paste-Prinzip nutzen.

Der Gesichter-Tausch
Die Technologie, die dieses Face Swapping in Videos möglich macht, wurde erstmals 2014 erwähnt, seither boomen die Projekte. Konkret werden bei den verschiedensten Programmen Techniken verwendet, die auf dem sogenannten Generative Adversarial Network (GAN) basieren. GAN generiert aus bestehenden Datensätzen neue. Das heißt: Mithilfe von Machine Learning werden auf Basis von bestehenden Daten neue Daten, etwa auditive oder visuelle Imitationen, kreiert.

Porno-Technologie“
Wenig überraschend ist, dass sich die Pornoindustrie diese neue Technologie als Erste zunutze machte. Bereits im Jahr 2017 machte ein gefälschtes Pornovideo von Wonder-Woman-Darstellerin Gal Gadot die Runde. Danach folgten Deepfakes mit der Schauspielerin Emma Watson oder der Unternehmerin Kim Kardashian in den Hauptrollen. Eines der größten Opfer von Porno-Deepfakes ist Megan Fox. Die Schauspielerin, die in „Transformers“ die weibliche Hauptrolle gespielt hat, mutierte schnell zur Deepfake-Zielscheibe. Auf Quellenangaben wird hier bewusst verzichtet, da sie auf einschlägige Seiten führen würden.

Diese Beispiele lassen sich leicht mittels Suchbegriff „Deepfakes“ und dem entsprechenden Namen der Schauspieler finden. Aber abseits der Porno-Deepfakes kommen immer mehr Privatpersonen und Politiker hinzu - etwa 4000 Deepfakes betreffen gefälschte Videos von Politikern oder Wirtschaftsmanagern. Bekannt sind etwa das Video, in dem Barack Obama Trump als „Vollidioten“ bezeichnet oder die Aufnahme, in der Nancy Pelosi, die Sprecherin des US-Repräsentantenhauses, völlig volltrunken bzw. verwirrt aussieht.

Viele glauben, was sie sehen
Deepfakes werden in den kommenden Jahren ein riesiges Problem - nicht nur deshalb, weil damit Menschen verunglimpft werden, sondern auch deshalb, weil viele Menschen (Stichwort Fake News) mit solchen Deepfakes manipuliert werden können. Viele glauben das, was sie sehen und hinterfragen nicht, ob das, was sie sehen, auch echt ist oder wahr sein kann. Hinzu kommt: Software, mit der man das Gesicht einer Person in ein Video integrieren kann, gibt es mittlerweile nicht nur zuhauf, sondern kann mittlerweile sehr einfach bedient werden. Und es gibt bereits viele Apps, mit denen Deepfakes mit dem Smartphone erzeugt werden können.

Mehr lesen Sie im Buch „Internet of Crimes“:

  • Warum man auch der Stimme am Telefon nicht trauen kann und wie „Audio Deepfakes“ funktionieren.
  • Mit welchen Apps man Deepfakes mit dem Smartphone herstellen kann
  • Warum man keine Fotos seiner Kinder in den sozialen Medien posten sollte.
  • Wie Deepfakes die Politik beeinflussen.
  • Wie die Polizei mit Deepfakes die Kinderpornografie bekämpfen will

Auszüge aus „Internet of Crimes“ wurden krone.at zur Verfügung gestellt.

 krone.at
krone.at
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Mittwoch, 01. Dezember 2021
Wetter Symbol