Mit täuschend echten Videochats versuchen derzeit Kriminelle, die Identität von Innenminister Gerhard Karner nachzuahmen. Nun warnt das Bundeskriminalamt vor der neuen Betrugsmasche. In den Fake-Gesprächen wird um Geld gebeten – angeblich für Lösegeldzahlungen im Zusammenhang mit Geiselnahmen.
Der Erstkontakt erfolgte über die offizielle Telefonnummer des Innenministeriums, die durch sogenannte „Caller ID Spoofing“-Methoden von der Täterschaft gefälscht wurde. Im weiteren Verlauf wurde in einem Videochat die angebliche Identität des Bundesministers vorgetäuscht.
Internationale Ermittlungen
Das Bundeskriminalamt stellt nun klar: „Es handelt sich um einen Betrugsversuch. Behörden fordern niemals über Telefon oder Videochat Geld.“ Das Cybercrime-Kompetenz-Center ermittelt bereits international.
Quelle prüfen: Kommt die Information wirklich von einer offiziellen Stelle?
Auffälligkeiten beachten: unnatürliche Bewegungen oder Tonqualität
Bei Geldforderungen oder Drohungen sofort die Polizei verständigen
Eigene Daten sparsam veröffentlichen – Fotos, Videos oder Sprachaufnahmen können missbraucht werden
So erkennt man Fälschungen
Digitale Verzerrungen würde man an unnatürlichen Gesichtszügen, verschwommenen Konturen oder unlogischen Schatten erkennen. Eine „seltsame Mimik“ würde ebenfalls Hinweise geben. Soll heißen: fehlendes Blinzeln, starre Bewegungen. Bei Fälschungen würden die Stimmen zudem „metallisch und monoton“ klingen. Häufig würden Worte auch falsch betont.
Erste Maßnahmen gegen Deepfake-Straftaten
Um Deepfake-Straftaten besser erfassen und auswerten zu können, wurde mit 1. Jänner 2024 bei der Polizei der Code „Deepfake“ eingeführt. „Anzeigen wegen Deepfake-Manipulationen können seitdem gesondert ausgewertet werden, um ein umfassendes Lagebild zu erstellen und Ermittlungen gezielt zu führen“, erklärte das Innenministerium in einer Aussendung.
Manipulationen von Bildern und Videos sind nicht neu – Face-Swapping-Apps und Social-Media-Challenges haben diese Technik einem breiten Publikum bekannt gemacht. „Durch den Einsatz künstlicher Intelligenz hat sich die Technologie jedoch in den vergangenen Jahren massiv weiterentwickelt. So lassen sich Deepfakes zunehmend leichter erstellen, sind schwieriger als solche zu erkennen und werden missbräuchlich für Straftaten verwendet“, heißt es in einer Erklärung des Bundeskriminalamtes.
Kommentare
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.