Wirklich fairer?

Das passiert, wenn KI über den Job entscheidet

Web
21.02.2021 15:02

Ob Kleidung, Hautfarbe oder Geschlecht: Personaler sind bei der Auswahl neuer Bewerber für offene Stellen im Unternehmen oft von Vorurteilen geprägt und lassen sich bereits von Äußerlichkeiten beeinflussen. Immer öfter überlassen Firmen die Bewertung von Kandidaten daher einer künstlichen Intelligenz. Das soll objektiver und fairer für alle sein, argumentieren sie. Dass sich jedoch auch Software bereits durch Kleinigkeiten wie eine Brille oder den Bildschirmhintergrund beeinflussen lässt, zeigt ein aktueller Test.

Künstliche Intelligenz soll den Bewerbungsprozess „nicht nur schneller, sondern auch objektiver und fairer“ gestalten, verspricht Retorio. Das Müncher Start-up erstellt mittels Software anhand kurzer Videoclips Persönlichkeitsprofile von Bewerbern. Basierend auf dem sogenannten Big-Five-Modell, werden Stimme, Sprache, Gestik und Mimik analysiert und anschließend nach den fünf Kriterien „Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus“ bewertet.

Kleinigkeiten machten große Unterschiede
Doch wie zuverlässig funktioniert die Technologie, die bei der Vorauswahl von Job-Kandidaten in den USA bereits seit Jahren in zahlreichen Unternehmen zum Einsatz kommt und nun auch in unseren Breiten Fuß zu fassen droht? Journalisten des Bayerischen Rundfunk und des Report München wollten es wissen und stellten die Retorio-Software auf die Probe. In einem ersten Test ließen sie eine Schauspielerin stets den gleichen Text vortragen, doch mal ohne und mal mit Brille sowie Kopftuch. Die Ergebnisse wichen deutlich voneinander ab. So wurde die vermeintliche Bewerberin mit Brille als weniger gewissenhaft eingestuft, mit Kopftuch dagegen als offener.

Teils ganz unterschiedliche Ergebnisse förderte auch ein zweites Experiment zutage, bei dem die Tester mittels mehrerer „Bewerbungskandidaten“ anhand Hunderter Videos unter anderem untersuchten, wie sich der Bildhintergrund auf die Persönlichkeitsbewertung auswirkt. So ließ ein hinzugefügter Bilderrahmen im Video die Person etwa offener und gewissenhafter erscheinen, während ein Bücherregal einen zuvor noch als „zurückhaltend“ bewerteten Bewerber plötzlich als „lebhaft“ einstufte. Teils wichen die Werte demnach um mehr als zehn Punkte ab.

„Genauso schlecht wie das Bauchgefühl“
Professor Uwe Kanning, Wirtschaftspsychologe an der Hochschule Osnabrück, sieht das kritisch: „Zehn Punkte weiter nach oben oder unten. Das führt schon dazu, dass ich Bewerber ablehne oder Bewerber einlade“, wird er zitiert. Dass sich Retorio, vom Bayerischen Rundfunk mit den Ergebnissen konfrontiert, damit rechtfertigte, dass solche Faktoren „wie in einem normalen Bewerbungsgespräch auch“ in die Bewertung miteinfließen würden, kann Kanning nicht nachvollziehen: „Wenn die Software sozusagen genauso schlecht ist wie das Bauchgefühl der durchschnittlichen Menschen, die solche Entscheidungen treffen, dann brauche ich diese KI auch gar nicht“, sagt er.

Und dennoch dürften Unternehmen bei der Personalauswahl künftig verstärkt auf die Technologie setzen. „Menschen einzustellen ist schwierig, die Auswahl ist schwierig. Die Menschen wollen diese schweren Entscheidungen abgeben und sie von einer Maschine treffen lassen“, weiß die US-Datenjournalistin Julia Angwin, die sich seit Jahren mit dem Thema befasst. „Das Problem ist, dass Maschinen Schwachstellen haben.“

Loading...
00:00 / 00:00
play_arrow
close
expand_more
Loading...
replay_10
skip_previous
play_arrow
skip_next
forward_10
00:00
00:00
1.0x Geschwindigkeit
explore
Neue "Stories" entdecken
Beta
Loading
Kommentare

Da dieser Artikel älter als 18 Monate ist, ist zum jetzigen Zeitpunkt kein Kommentieren mehr möglich.

Wir laden Sie ein, bei einer aktuelleren themenrelevanten Story mitzudiskutieren: Themenübersicht.

Bei Fragen können Sie sich gern an das Community-Team per Mail an forum@krone.at wenden.



Kostenlose Spiele