21.02.2022 17:01 |

Erstaunliche Studie

Fake-Gesichter wirken vertrauenswürdiger als echte

Forscher aus Großbritannien und den USA sorgen mit einem erstaunlichen Experiment für Aufsehen. Für ihren Versuch haben sie Probanden mit Hunderten Gesichtern konfrontiert - echten und mithilfe Künstlicher Intelligenz (KI) computergenerierten. Dabei wurde festgestellt, dass die Fake-Gesichter nicht verlässlich von echten unterschieden werden konnten. Tatsächlich stuften die Studienteilnehmer die KI-Gesichter sogar als vertrauenswürdiger ein als die echten.

Artikel teilen
Drucken
Kommentare
0

Die Ergebnisse der Studie skizzieren Sophie Nightingale von der Lancaster University in Großbritannien und Hany Farid von der University of California im Fachmagazin „Proceedings of the National Academy of Sciences USA“.

Wichtigste Erkenntnis: Die Studienteilnehmer erkannten die falschen menschlichen Gesichter aus dem Computer nur in 48,2 Prozent der Fälle korrekt als computergeneriert, scheiterten also in den meisten Fällen an der Unterscheidung zwischen echten und Fake-Gesichtern.

Viele Probanden scheitern selbst nach speziellem Training
In einer zweiten Versuchsphase schulten die Forscher die Probanden vor den Tests und erklärten ihnen, woran sie die KI-Fälschungen erkennen konnten. Doch selbst entsprechend trainierte Teilnehmer schafften es nur in 59 Prozent der Fälle, echte von KI-Gesichtern zu unterscheiden.

Ein besonders interessantes Ergebnis förderte ein drittes Experiment zutage, bei dem die Versuchsteilnehmer die Gesichter gemäß der subjektiven Vertrauenswürdigkeit einstufen mussten. Hier wurden die vom Computer erzeugten Gesichter als vertrauenswürdiger eingestuft als die echten.

Zitat Icon

Der Gesichtsausdruck allein kann nicht erklären, wieso die künstlichen Gesichter als vertrauenswürdiger eingestuft werden.

Beitrag in "Proceedings of the National Academy of Sciences"

Über die Ursachen rätseln selbst die Forscher. Sie schreiben: „Ein lächelndes Gesicht wird eher als vertrauenserweckend eingestuft, aber 65,5 Prozent unserer echten Gesichter und 58,8 Prozent der synthetischen Gesichter lächeln. Der Gesichtsausdruck allein kann also nicht erklären, wieso die künstlichen Gesichter als vertrauenswürdiger eingestuft werden.“

Gesichter wurden von „rivalisierender“ KI erzeugt
Für ihre Studie erstellten die Forscher einen Katalog aus insgesamt 800 Gesichtern - 400 echten und 400 computergenerierten. Die künstlichen Gesichter wurden von einem Generative Adversarial Network (GAN) erzeugt. Dabei treten zwei KI-Systeme gegeneinander an und erzeugen mithilfe lernender Algorithmen Gesichter, die einer Bilderkennung vorgelegt werden, die beurteilen soll, ob das Gesicht echt ist oder nicht.

Die Bilderkennung belohnt somit jene KI, die bessere Ergebnisse liefert - bis zu dem Punkt, an dem die Bilderkennung nicht mehr zwischen echten und Fake-Gesichtern unterscheiden kann. Ist dieser Punkt erreicht, so die Annahme der Forscher, scheitert auch der Mensch.

Im Gegensatz zu früheren Experimenten, bei denen recht ähnliche Gesichter in den Testparcours geschickt wurden, haben die Forscher bei ihren 800 Gesichtern eine bunte Mischung unterschiedlicher Geschlechter und Ethnien gewählt. Dennoch zeigten sich Unterschiede bei der Erkennungsgenauigkeit, hellhäutige Gesichter wurden im Test seltener als Fake erkannt.

Das könne darauf hindeuten, dass der Datensatz, mit dem die KI trainiert wurde, in dieser Hinsicht ein Ungleichgewicht aufgewiesen und besonders realistische hellhäutige Gesichter produziert habe, mutmaßen die Forscher.

KI-Fakes bieten reichlich Missbrauchspotenzial
Sie nehmen ihre Studie zum Anlass für eine Warnung: Dass Fake-Gesichter kaum mehr von echten unterschieden werden können, öffne Tür und Tor für Missbrauch - etwa, wenn Gesichter von Personen künstlich nachgebaut und dann für betrügerische oder kriminelle Zwecke missbraucht werden, man denke nur an Propaganda oder sogenannte „Rachepornos“.

Bei Missbrauch sogenannter „Deepfakes“ drohen „ernsthafte Folgen für Individuen, Gesellschaften und Demokratien“, warnen die Forscher. Sie mahnen jene, die an KI-Technologien zur Erzeugung künstlicher Gesichter arbeiten, die Möglichkeiten und Risiken ihrer Technologie abzuwägen.

explore
Neue "Stories" entdecken
Beta
Loading
Kommentare
Eingeloggt als 
Nicht der richtige User? Logout

Willkommen in unserer Community! Eingehende Beiträge werden geprüft und anschließend veröffentlicht. Bitte achten Sie auf Einhaltung unserer Netiquette und AGB. Für ausführliche Diskussionen steht Ihnen ebenso das krone.at-Forum zur Verfügung.

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).