„Sohn“ am Telefon

Paar mit geklonter Stimme Tausender Dollar beraubt

Web
07.03.2023 14:28

Ein Ehepaar in Kanada ist offenbar Betrügern aufgesessen, die sich als sein Sohn ausgaben. Anders als beim klassischen Tochter-Sohn-Trick, der auch hierzulande via WhatsApp kursiert, dürften die Täter aber raffinierter vorgegangen sein: Sie klonten mittels Künstlicher Intelligenz die Stimme des Sohnes.

Einem Bericht der „Washington Post“ zufolge hatten die Eltern des 39-jährigen Benjamin Perkin einen Anruf von einem angeblichen Anwalt erhalten, in dem dieser vorgab, ihr Sohn habe einen US-Diplomaten bei einem Autounfall getötet, säße daher nun im Gefängnis und brauche Geld für seine Anwaltskosten. Der Anwalt holte Perkin ans Telefon, der seinen Eltern sagte, dass er sie schätze und liebe und das Geld brauche.

Einige Stunden später meldete sich der Anwalt erneut bei den Eltern und sagte, ihr Sohn brauche 21.000 kanadische Dollar (rund 15.500 Euro) vor einem Gerichtstermin noch am selben Tag. Die Eltern räumten später ein, dass ihnen der Anruf seltsam vorkam, leisteten der Bitte aber dennoch Folge und eilten dem Bericht nach „in Panik“ zu mehreren Banken, um Bargeld zu besorgen und dieses über ein Bitcoin-Terminal an den vermeintlichen Anwalt zu überweisen.

Stimme vermutlich von YouTube geklaut
Der Schwindel flog erst auf, als der echte Sohn am Abend seine Eltern anrief, um sich zu melden. Die Stimme sei so nahe an seiner gewesen, „dass meine Eltern wirklich glaubten, sie hätten mit mir gesprochen“, schilderte der seiner Stimme Beraubte der Zeitung. Die dürften die Betrüger vermutlich von YouTube haben, wo Perkin über sein Hobby - Schneemobile - spricht.

Gegenüber der „Washington Post“ gab der 39-Jährige an, dass seine Familie bei den kanadischen Behörden Anzeige erstattet habe, aber: „Das Geld ist weg. Es gibt keine Versicherung. Man kann es nicht zurückbekommen.“

Behörde mahnt zu „ständiger Wachsamkeit“
Will Maxson, stellvertretender Direktor der Abteilung für betrügerische Marketingpraktiken bei der US-Handelsbehörde FTC, rief gegenüber dem Blatt zu „ständiger Wachsamkeit“ auf. „Wenn ein geliebter Mensch Ihnen mitteilt, dass er Geld braucht, legen Sie den Anruf in die Warteschleife und versuchen Sie, Ihr Familienmitglied separat anzurufen“, sagte er. „Wenn ein verdächtiger Anruf von der Nummer eines Familienmitglieds kommt, sollten Sie wissen, dass auch diese Nummer gefälscht sein kann“, fügte er hinzu.

Einem Bericht des „Business Insider“ zufolge hat die FTC erst jüngst ein neues „Office of Technology“ eingerichtet, um die potenziellen Einsatzmöglichkeiten von Künstlicher Intelligenz zu untersuchen, die von Unternehmen versprochen werden, und um festzustellen, ob die Unternehmen die Risiken, die ihre Produkte verursachen können, abmildern.

Mit wenigen Klicks zum Stimm-Klon
Das Magazin verwies in diesem Zusammenhang auf das Start-up ElevenLabs, das erst im Jänner mit Prime Voice AI ein KI-basiertes Text-zu-Sprache-Tool veröffentlichte, das es registrierten Nutzern in der kostenfreien Version ermöglicht, bis zu fünf Stimmen zu „klonen“, um diese dann Texte vorlesen zu lassen.

Für die „Instant Voice Cloning“ genannte Funktion wird lediglich eine über einminütige Audioaufnahme ohne Hintergrundgeräusche benötigt, was vor allem Mitglieder der berüchtigten Seite 4chan dazu veranlasste, mit der Technologie Schindluder zu treiben. So stieß der britische Nachrichtensender Sky News beispielsweise auf Audioclips, in denen „Harry Potter“-Darstellerin Emma Watson Passagen aus Adolf Hitlers „Mein Kampf“ rezitierte. In einem anderen gefundenen Clip verkündete US-Präsident Joe Biden die Mobilmachung US-amerikanischer Soldaten für den Ukraine-Krieg.

„Während wir sehen, dass unsere Technologie überwiegend für positive Zwecke eingesetzt wird, sehen wir auch eine zunehmende Anzahl von Missbrauchsfällen beim Klonen von Stimmen“, kommentierte ElevenLabs den Vorfall und stellte „zusätzliche Sicherheitsvorkehrungen“ in Aussicht gestellt, um dem Missbrauch seiner Stimmen-Klon-KI vorzubeugen.

KI vereinfacht Betrug
Bei der FTC zeigt man sich einer Sprecherin zufolge indes „besorgt über das Risiko, dass Deepfakes und andere KI-basierte synthetische Medien, die immer einfacher zu erstellen und zu verbreiten sind, für Betrug genutzt werden“. Schon jetzt verzeichne man einen „erschreckenden Anstieg von Betrug in sozialen Medien“, so die Behörde. „KI-Tools, die authentisch aussehende Videos, Fotos, Audios und Texte generieren, könnten diesen Trend noch verstärken und Betrügern eine größere Reichweite und Geschwindigkeit ermöglichen“, sagte sie.

Loading...
00:00 / 00:00
Abspielen
Schließen
Aufklappen
kein Artikelbild
Loading...
Vorige 10 Sekunden
Zum Vorigen Wechseln
Abspielen
Zum Nächsten Wechseln
Nächste 10 Sekunden
00:00
00:00
1.0x Geschwindigkeit
Web
07.03.2023 14:28
Loading
Kommentare Banner - Die Stimme Österreichs

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.

Kostenlose Spiele
Vorteilswelt