22.11.2020 15:41 |

„Deep Fakes“ & Co.

Europol besorgt: Was, wenn KI Kriminellen hilft?

Methoden der Künstlichen Intelligenz (KI) helfen Behörden etwa in Form von Gesichtserkennung bei ihren Ermittlungen, könnten die Polizeiarbeit laut einer Prognose der europäischen Polizeibehörde Europol, des IT-Security-Spezialisten Trend Micro und des UN-Instituts für Kriminalitätsforschung künftig aber auch schwieriger machen. Cyberkriminelle interessieren sich nämlich genauso wie ihre Jäger für die neuen Tools und haben bereits KI-Tricks im Ärmel. Sogenannte „Deep Fakes“ sind hier nur der Anfang.

Künstliche Intelligenz (KI) bedeutet in der IT-Welt maschinelles Lernen: Ein Computer wird mit großen Datenmengen angelernt, Muster zu erkennen - und nutzt diese Fähigkeit beispielsweise, um schnell eine Person auf einem Foto zu erkennen, Gesichter in Videos perspektivisch korrekt auszutauschen oder um andere Aktionen zu automatisieren und Entscheidungen zu treffen.

Der Europol-Analyse zufolge dürften Cyberkriminelle längst dabei sein, dieses Potenzial zu heben. So drohe beispielsweise bei Angriffen auf Nutzerkonten und Computer eine Welle von Schadsoftware, die durch Maschinenlernen besonders gut beim Erraten von Passworten sein werde. Solche Fähigkeiten werden es als Bestandteile von Virenbaukästen auch in den Untergrund des Darknet schaffen und so Kriminellen KI-Fähigkeiten in die Hand geben, die selbst nicht die Expertise hätten, diese zu entwickeln.

„Deep Fakes“: Wenn Hacker das Gesicht eines Freundes haben
Ein explizit in der Analyse genanntes Beispiel für die Nutzung von KI für kriminelle Machenschaften sind „Deep Fakes“ - verblüffend realistisch gefälschte Fake-Bilder und -Videos, bei denen Gesichter auf Basis unzähliger Fotos der Zielperson so perfekt ausgetauscht werden, dass die Manipulation kaum auffällt. Das wird von Internetnutzern gern an alten Filmen ausprobiert, macht aber auch ganz neue Angriffsszenarien möglich - etwa gefälschte Videobotschaften mit womöglich dramatischen Folgen. Nebst Fake-Nachrichten drohen hier auch Social-Engineering-Attacken, bei denen das Opfer so manipuliert wird, dass es tut, was der Angreifer will.

Man stelle sich vor, ein guter Freund meldet sich in einer Videobotschaft auf WhatsApp und ruft zum Besuch einer bestimmten Website auf. Würden bei einer schlecht übersetzten Phishing-Mail sofort die Alarmglocken schrillen, könnten Deep Fakes auch vorsichtige Nutzer überlisten. Denkbar sei laut der Prognose auch, dass Cyberkriminelle Assistenzsoftware wie Apples Siri, Amazons Alexa oder Googles Assistant kapern und für Manipulationsversuche einsetzen.

Zitat Icon

Cyberkriminelle gehören schon immer zu den ersten Anwendern der neuesten Technologien. Das ist auch bei KI so.

Martin Rösler von Trend Micro

Martin Rösler von Trend Micro: „Cyberkriminelle gehören schon immer zu den ersten Anwendern der neuesten Technologien. Das ist auch bei KI so.“ Bei Europol hat man zu dieser Erkenntnis auch eine Handlungsempfehlung. „In einer Zeit, in der die Öffentlichkeit zunehmend über den möglichen Missbrauch von KI besorgt ist, müssten aber auch die Bedrohungen transparent und unschädlich gemacht werden“, sagt Edvardas Sileris, Chef der Cybercrime-Abteilung bei Europol. Dazu benötige Europol Investitionen in Künstliche Intelligenz und die Entwicklung von Abwehrmethoden.

Die komplette Europol-Analyse zur Nachlese:

Vorboten neuer Bedrohungen sind schon da
Die Zeit drängt, den einen oder anderen Vorgeschmack auf neue Angriffsmethoden - etwa durch „Datenverschmutzung“ oder umgedrehte Gesichtserkennung - gab es schon. Hier nennt Europol in seiner Analyse etwa einen Berliner Künstler, der vor einigen Monaten mit einem Leiterwagen voller Handys einen virtuellen Stau in Google Maps manipulierte. Deep-Fake-Tricks hat man auch bereits so einige gesehen. Vorhandene Bedrohungen wie Ransomware könnten durch KI-Automatisierung zudem noch zielgerichteter und somit effektiver werden.

Dominik Erlinger
Dominik Erlinger
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Mittwoch, 02. Dezember 2020
Wetter Symbol