Künstliche Intelligenz, wie sie etwa der Chatbot ChatGPT nutzt, trägt laut einem Bericht der UNESCO zur Verbreitung sexistischer Vorurteile bei. „Bestehende Diskriminierungen werden im digitalen Raum nicht nur widergespiegelt, sondern verstärkt“, erklärte Tawfik Jelassi von der UNO-Organisation für Bildung, Wissenschaft und Kultur in Paris.
Chatbots wiesen weiblichen Namen eher Worte zu wie „Haus“, „Familie“, „Kinder“ zu, während männliche Namen eher mit „Geschäften“, „Gehalt“ und „Karriere“ verknüpft würden, heißt es in einer am Donnerstag vorgestellten Studie. Dies gilt dieser zufolge sowohl für die Softwareversionen GPT 2 und GPT 3.5 von OpenAI, die etwa für die Gratisversion ChatGPT benutzt werden, als auch für die konkurrierende Software Llama 2 des Meta-Konzerns. Texte, die Frauen oder Angehörige kultureller Minderheiten beträfen, basierten häufig auf Stereotypen.
Die Wissenschafter beauftragten die Chatbots etwa, Geschichten über Menschen verschiedener Herkunft und verschiedenen Geschlechts zu produzieren. Britische Männer wurden demnach häufig als Lehrer, Fahrer oder Bankangestellter dargestellt. Britische Frauen hingegen wurden in 30 Prozent der Texte als Prostituierte, Model oder Kellnerin vorgestellt.
Da solche Chatbots mehr und mehr Verbreitung finden, „haben sie die Macht, die Wahrnehmung von Millionen von Menschen zu beeinflussen“, sagte die UNESCO-Direktorin Audrey Azoulay. „Das geringste sexistische Vorurteil in ihren Inhalten kann die Ungleichheiten in der Welt erheblich vergrößern“, fügte sie hinzu.
Kommentare
Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.
Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.
Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.