Erstaunliche Studie

Fake-Gesichter wirken vertrauenswürdiger als echte

Web
21.02.2022 17:01

Forscher aus Großbritannien und den USA sorgen mit einem erstaunlichen Experiment für Aufsehen. Für ihren Versuch haben sie Probanden mit Hunderten Gesichtern konfrontiert - echten und mithilfe Künstlicher Intelligenz (KI) computergenerierten. Dabei wurde festgestellt, dass die Fake-Gesichter nicht verlässlich von echten unterschieden werden konnten. Tatsächlich stuften die Studienteilnehmer die KI-Gesichter sogar als vertrauenswürdiger ein als die echten.

Die Ergebnisse der Studie skizzieren Sophie Nightingale von der Lancaster University in Großbritannien und Hany Farid von der University of California im Fachmagazin „Proceedings of the National Academy of Sciences USA“.

In den ersten beiden Reihen sehen Sie die am zuverlässigsten korrekt zugeordneten Gesichter, unten jene, die meist falsch eingeordnet wurden. Der Buchstabe „R“ steht für reale Gesichter, „S“ kennzeichnet synthetische Gesichter. (Bild: pnas.org)
In den ersten beiden Reihen sehen Sie die am zuverlässigsten korrekt zugeordneten Gesichter, unten jene, die meist falsch eingeordnet wurden. Der Buchstabe „R“ steht für reale Gesichter, „S“ kennzeichnet synthetische Gesichter.

Wichtigste Erkenntnis: Die Studienteilnehmer erkannten die falschen menschlichen Gesichter aus dem Computer nur in 48,2 Prozent der Fälle korrekt als computergeneriert, scheiterten also in den meisten Fällen an der Unterscheidung zwischen echten und Fake-Gesichtern.

Viele Probanden scheitern selbst nach speziellem Training
In einer zweiten Versuchsphase schulten die Forscher die Probanden vor den Tests und erklärten ihnen, woran sie die KI-Fälschungen erkennen konnten. Doch selbst entsprechend trainierte Teilnehmer schafften es nur in 59 Prozent der Fälle, echte von KI-Gesichtern zu unterscheiden.

Ein besonders interessantes Ergebnis förderte ein drittes Experiment zutage, bei dem die Versuchsteilnehmer die Gesichter gemäß der subjektiven Vertrauenswürdigkeit einstufen mussten. Hier wurden die vom Computer erzeugten Gesichter als vertrauenswürdiger eingestuft als die echten.

Zitat Icon

Der Gesichtsausdruck allein kann nicht erklären, wieso die künstlichen Gesichter als vertrauenswürdiger eingestuft werden.

Beitrag in "Proceedings of the National Academy of Sciences"

Über die Ursachen rätseln selbst die Forscher. Sie schreiben: „Ein lächelndes Gesicht wird eher als vertrauenserweckend eingestuft, aber 65,5 Prozent unserer echten Gesichter und 58,8 Prozent der synthetischen Gesichter lächeln. Der Gesichtsausdruck allein kann also nicht erklären, wieso die künstlichen Gesichter als vertrauenswürdiger eingestuft werden.“

Gesichter wurden von „rivalisierender“ KI erzeugt
Für ihre Studie erstellten die Forscher einen Katalog aus insgesamt 800 Gesichtern - 400 echten und 400 computergenerierten. Die künstlichen Gesichter wurden von einem Generative Adversarial Network (GAN) erzeugt. Dabei treten zwei KI-Systeme gegeneinander an und erzeugen mithilfe lernender Algorithmen Gesichter, die einer Bilderkennung vorgelegt werden, die beurteilen soll, ob das Gesicht echt ist oder nicht.

Die Bilderkennung belohnt somit jene KI, die bessere Ergebnisse liefert - bis zu dem Punkt, an dem die Bilderkennung nicht mehr zwischen echten und Fake-Gesichtern unterscheiden kann. Ist dieser Punkt erreicht, so die Annahme der Forscher, scheitert auch der Mensch.

Im Gegensatz zu früheren Experimenten, bei denen recht ähnliche Gesichter in den Testparcours geschickt wurden, haben die Forscher bei ihren 800 Gesichtern eine bunte Mischung unterschiedlicher Geschlechter und Ethnien gewählt. Dennoch zeigten sich Unterschiede bei der Erkennungsgenauigkeit, hellhäutige Gesichter wurden im Test seltener als Fake erkannt.

Das könne darauf hindeuten, dass der Datensatz, mit dem die KI trainiert wurde, in dieser Hinsicht ein Ungleichgewicht aufgewiesen und besonders realistische hellhäutige Gesichter produziert habe, mutmaßen die Forscher.

KI-Fakes bieten reichlich Missbrauchspotenzial
Sie nehmen ihre Studie zum Anlass für eine Warnung: Dass Fake-Gesichter kaum mehr von echten unterschieden werden können, öffne Tür und Tor für Missbrauch - etwa, wenn Gesichter von Personen künstlich nachgebaut und dann für betrügerische oder kriminelle Zwecke missbraucht werden, man denke nur an Propaganda oder sogenannte „Rachepornos“.

Bei Missbrauch sogenannter „Deepfakes“ drohen „ernsthafte Folgen für Individuen, Gesellschaften und Demokratien“, warnen die Forscher. Sie mahnen jene, die an KI-Technologien zur Erzeugung künstlicher Gesichter arbeiten, die Möglichkeiten und Risiken ihrer Technologie abzuwägen.

Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele