Deepfakes, gefälschte Stimmen, manipulierte Videos: Während KI die Gesellschaft verändert, nutzen Kriminelle sie für perfide Zwecke.
Täuschend echt, grenzenlos verfügbar und brandgefährlich: Künstliche Intelligenz hat Einzug in die Welt des Verbrechens gehalten. Was früher tagelange Bearbeitung brauchte, gelingt heute mit wenigen Klicks: Gesichter, Stimmen und ganze Szenen lassen sich realistisch fälschen. Die Folgen sind dramatisch. Von erfundenem Missbrauchsmaterial bis zu dreisten Betrugsmaschen mit Promi-Deepfakes. Ermittler warnen: Die Technik entwickelt sich schneller, als das Gesetz Schritt halten kann.
Laut dem Fachreferat für Online-Kindesmissbrauch des Bundeskriminalamts (BK) sind in Österreich bereits Fälle bekannt, in denen KI-generierte Missbrauchsdarstellungen aufgetaucht sind. „Es ist mittlerweile erschreckend einfach, Missbrauchsmaterial in täuschend echter Qualität herzustellen“, heißt es aus Ermittlerkreisen. Ein aktueller Fall, auf den Europol verweist, zeigt das Ausmaß: In einer internationalen Aktion wurden 25 Personen festgenommen, die künstlich erzeugte Kinderpornografie verbreitet haben sollen.
Juristisch ist die Sache jedenfalls klar: Auch KI-generierte Bilder oder Videos ohne reales Opfer sind strafbar – nach § 207a StGB, sofern sie wirklichkeitsnah sind. „Im Bereich des Online-Kindesmissbrauchs spielt es für uns keine Rolle, ob es sich um echtes oder KI-generiertes Material handelt: Besitz, Herstellung und Weitergabe sind strafbar“, so die Ermittler.
Wenn Van der Bellen Investmenttipps gibt
Doch nicht nur im Bereich der Missbrauchsdarstellungen wächst die Gefahr. Auch Betrüger haben die Macht der Künstlichen Intelligenz längst für sich entdeckt. „Besonders häufig passiert das beim Anlagebetrug. Da tauchen plötzlich Videos auf, in denen etwa Armin Wolf oder Bundespräsident Van der Bellen scheinbar Interviews geben, die es nie gegeben hat“, erklärt Reinhard Nosofsky, Leiter des Büros für Betrugsermittlungen im Bundeskriminalamt. In den gefälschten Clips preisen Prominente angebliche Geldanlagen an – in Wahrheit steckt dahinter eine dreiste Abzocke. Viele Opfer erkennen den Schwindel zu spät, weil die Videos immer realistischer werden.
Die Ermittler raten daher, auf kleine Details zu achten. Auch am Telefon kann Künstliche Intelligenz eingesetzt werden – etwa bei sogenannten „Voice Deepfakes“, bei denen Betrüger mit nachgeahmten Stimmen von Angehörigen oder Vorgesetzten anrufen. Noch fehlen konkrete Zahlen, doch die Dunkelziffer dürfte hoch sein, denn viele Opfer erstatten aus Scham oder Angst keine Anzeige. Besonders gefährlich seien Fälle von sogenanntem „CEO-Fraud“, bei denen Stimmen oder Videos gefälscht werden, um Mitarbeiter zur Überweisung großer Geldbeträge zu verleiten. Die größte Waffe gegen den neuen digitalen Betrug sei laut Ermittlern die Sensibilisierung der Bevölkerung. Technik allein könne die Kriminellen nicht stoppen, aber aufgeklärte Menschen könnten ihre Opferzahlen drastisch verringern.
Häufig erkennbare Merkmale bei Deepfake-Videos sind das fehlende Blinzeln, ein unscharfer Mund-Innenraum sowie unscharfer Übergang zwischen Hals und Gesicht. Ebenfalls könnten die Haare der Person oftmals unscharf sein.
Bei trügerischen Anrufen: Fordert mein Gegenüber Geld oder sensible Informationen? Wird dabei Zeitdruck aufgebaut? Erscheint der Sprechstil zu „perfekt“? Passen die Erwiderungen des Gegenübers nur eingeschränkt zu meinen Fragen?
„Nicht blauäugig glauben, das ist Tom Cruise, der mich anruft“
Größte Desinformationsmaschine: Hochkarätige Expertenrunde zum aktuellen Thema „Phishing, Deep Fakes und Internetbetrug“.
Vor 40 Jahren wurden erste E-Mails von den Unis über teure Großrechner verschickt. Viel hat sich getan. Heute sind wir ohne Internet nicht mehr lebensfähig. Aber: „Wir haben mit dem Internet die größte Desinformationsmaschine, die die Menschheit je hatte, was uns vor riesige gesellschaftliche Herausforderungen bringen wird“, erklärt Helmut Leopold vom AIT (Austrian Institute of Technologie) beim Science Talk des Wissenschaftsministeriums zu „Phishing, Deep Fakes und Internetbetrug“. Seiner Meinung nach fehle es Firmen und Privatpersonen an der Bereitschaft, Geld für Cybersicherheit auszugeben.
Dieses Bewusstsein sei nur bei jenen vorhanden, die hohe Sicherheitsstandards erfüllen müssen, wie etwa Autobauer. Gerald Steiner von der Uni Salzburg betont, dass an Systemen gearbeitet werde, die Sicherheit und Privatsphäre stärker schützen. Anna Vymazal von der FH Hagenberg (OÖ) befasst sich mit Authentifizierungen. Aufgrund komplexer Prozesse bliebe aber der Nutzer auf der Strecke.
Sie rät, bei Unsicherheit Personen des Vertrauens hinzuzuziehen und zur Vorsicht bei unbekannten Nummern. „Dann sollte man nicht blauäugig glauben, ja, das ist Tom Cruise, der mich da anruft“, so die Expertin.
Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung. Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.
User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB). Hier können Sie das Community-Team via unserer Melde- und Abhilfestelle kontaktieren.