21.02.2021 15:02 |

Wirklich fairer?

Das passiert, wenn KI über den Job entscheidet

Ob Kleidung, Hautfarbe oder Geschlecht: Personaler sind bei der Auswahl neuer Bewerber für offene Stellen im Unternehmen oft von Vorurteilen geprägt und lassen sich bereits von Äußerlichkeiten beeinflussen. Immer öfter überlassen Firmen die Bewertung von Kandidaten daher einer künstlichen Intelligenz. Das soll objektiver und fairer für alle sein, argumentieren sie. Dass sich jedoch auch Software bereits durch Kleinigkeiten wie eine Brille oder den Bildschirmhintergrund beeinflussen lässt, zeigt ein aktueller Test.

Künstliche Intelligenz soll den Bewerbungsprozess „nicht nur schneller, sondern auch objektiver und fairer“ gestalten, verspricht Retorio. Das Müncher Start-up erstellt mittels Software anhand kurzer Videoclips Persönlichkeitsprofile von Bewerbern. Basierend auf dem sogenannten Big-Five-Modell, werden Stimme, Sprache, Gestik und Mimik analysiert und anschließend nach den fünf Kriterien „Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus“ bewertet.

Kleinigkeiten machten große Unterschiede
Doch wie zuverlässig funktioniert die Technologie, die bei der Vorauswahl von Job-Kandidaten in den USA bereits seit Jahren in zahlreichen Unternehmen zum Einsatz kommt und nun auch in unseren Breiten Fuß zu fassen droht? Journalisten des Bayerischen Rundfunk und des Report München wollten es wissen und stellten die Retorio-Software auf die Probe. In einem ersten Test ließen sie eine Schauspielerin stets den gleichen Text vortragen, doch mal ohne und mal mit Brille sowie Kopftuch. Die Ergebnisse wichen deutlich voneinander ab. So wurde die vermeintliche Bewerberin mit Brille als weniger gewissenhaft eingestuft, mit Kopftuch dagegen als offener.

Teils ganz unterschiedliche Ergebnisse förderte auch ein zweites Experiment zutage, bei dem die Tester mittels mehrerer „Bewerbungskandidaten“ anhand Hunderter Videos unter anderem untersuchten, wie sich der Bildhintergrund auf die Persönlichkeitsbewertung auswirkt. So ließ ein hinzugefügter Bilderrahmen im Video die Person etwa offener und gewissenhafter erscheinen, während ein Bücherregal einen zuvor noch als „zurückhaltend“ bewerteten Bewerber plötzlich als „lebhaft“ einstufte. Teils wichen die Werte demnach um mehr als zehn Punkte ab.

„Genauso schlecht wie das Bauchgefühl“
Professor Uwe Kanning, Wirtschaftspsychologe an der Hochschule Osnabrück, sieht das kritisch: „Zehn Punkte weiter nach oben oder unten. Das führt schon dazu, dass ich Bewerber ablehne oder Bewerber einlade“, wird er zitiert. Dass sich Retorio, vom Bayerischen Rundfunk mit den Ergebnissen konfrontiert, damit rechtfertigte, dass solche Faktoren „wie in einem normalen Bewerbungsgespräch auch“ in die Bewertung miteinfließen würden, kann Kanning nicht nachvollziehen: „Wenn die Software sozusagen genauso schlecht ist wie das Bauchgefühl der durchschnittlichen Menschen, die solche Entscheidungen treffen, dann brauche ich diese KI auch gar nicht“, sagt er.

Und dennoch dürften Unternehmen bei der Personalauswahl künftig verstärkt auf die Technologie setzen. „Menschen einzustellen ist schwierig, die Auswahl ist schwierig. Die Menschen wollen diese schweren Entscheidungen abgeben und sie von einer Maschine treffen lassen“, weiß die US-Datenjournalistin Julia Angwin, die sich seit Jahren mit dem Thema befasst. „Das Problem ist, dass Maschinen Schwachstellen haben.“

Sebastian Räuchle
Sebastian Räuchle
Kommentare

Liebe Leserin, lieber Leser,

die Kommentarfunktion steht Ihnen ab 6 Uhr wieder wie gewohnt zur Verfügung.

Mit freundlichen Grüßen
das krone.at-Team

User-Beiträge geben nicht notwendigerweise die Meinung des Betreibers/der Redaktion bzw. von Krone Multimedia (KMM) wieder. In diesem Sinne distanziert sich die Redaktion/der Betreiber von den Inhalten in diesem Diskussionsforum. KMM behält sich insbesondere vor, gegen geltendes Recht verstoßende, den guten Sitten oder der Netiquette widersprechende bzw. dem Ansehen von KMM zuwiderlaufende Beiträge zu löschen, diesbezüglichen Schadenersatz gegenüber dem betreffenden User geltend zu machen, die Nutzer-Daten zu Zwecken der Rechtsverfolgung zu verwenden und strafrechtlich relevante Beiträge zur Anzeige zu bringen (siehe auch AGB).

Sonntag, 11. April 2021
Wetter Symbol