Unseretwegen: KI diskriminiert Menschen
Recruiting setzt vermehrt auf KI. Doch werden damit die Chancen der Bewerbenden erhöht, weil die KI faktenbasiert arbeitet?
Künstliche Intelligenz erobert die Arbeitswelt, weil sie dafür sorgen soll, dass wir effizienter sind. Im Recruiting und Bewerbungsprozess wird sie im Personalbereichen eifrig eingesetzt. Chatbots oder KI-Stimmen im Telefonat sind dort nur der Anfang. Expert*innen erklären uns, wieso KI die Effizienz steigert, aber ebenso diskriminiert. Während die EU schon Gesetze vorgibt, stehen Unternehmen vor der Frage: Übertrumpft der Nutzen die Gefahr?
Programmierte Vorurteile
Wenn Künstliche Intelligenz eine ganze Regierung stürzt: Der wohl berühmteste Fall diskriminierender KI im Raum Europa dürfte die sogenannte “Toeslagenaffaire” (Kindergeldaffäre) in den Niederlanden gewesen sein. Um gegen Sozialmissbrauch vorzugehen, haben die Steuerbehörden 2013 ein KI-gestütztes System eingeführt, das Eltern überführen soll, die unrechtmäßig Kindergeld beziehen. Das Problem: Es wurden vor allem Menschen mit Migrationshintergrund fälschlich beschuldigt, weil die KI insbesondere die Personen auswählte, die eine doppelte Staatsbürgerschaft besitzen. Sie landeten auf der "schwarzen Liste”. 9.000 Familien kamen in schwere finanzielle Schieflage, in über 2.000 Fällen wurden Kinder aus den Familien genommen. Ein verheerender Fehler. Der niederländische Premierminister Mark Rutten und sein Kabinett traten zurück, die Regierung verfasste persönliche Entschuldigungsschreiben. Die EU reagierte damit, den AI Act nachzuschärfen. Kurz: KI soll Menschen dienen, nicht kontrollieren.
Lebenslauf-Scanner wird beliebter
Werfen wir einen Blick auf den Arbeitsmarkt, hat KI prompt dafür gesorgt, dass Menschen Angst haben, in ihrem Job nicht mehr gebraucht zu werden. Bisher nimmt der Diskurs dieser Furcht bisher den Wind aus den Segeln, doch weil das Potenzial nach wie vor nicht greifbar ist, dürften wir noch am Anfang stehen. Der Tenor lautet viel mehr: KI ersetzt nicht, sie hilft. Blicken wir aufs Personalwesen, binden 87 Prozent der HR-Abteilungen in 15 europäischen Ländern diese Technologie bereits ein. Vor allem im Recruiting, wie die Befragung von Heidrik & Struggles zeigt: Dort nutzen sie 51 Prozent, um Stellenbeschreibungen zu formulieren, 33 Prozent zum Screening der Lebensläufe und 30 Prozent, um die Kandidat*innen miteinander zu vergleichen. Andernfalls werben Dienstleister*innen mit dem Versprechen, das Risiko einer Fehlbesetzung sinke um 90 Prozent, wenn man ihren KI-Assistenten benutzt. Ob in Chatbots oder der Selektion der Lebensläufe: Große Konzerne wie die Deutsche Bahn, SAP oder Siemens nutzen Künstliche Intelligenz, um ihre Prozesse effizienter zu gestalten. In der Auswahl können Recruiter*innen durch KI ein Ranking erstellen lassen, das die Bewerbungen mit den jeweiligen Stellenanzeigen abgleicht. Wie steht es hier um die Gerechtigkeit?
Ein Beispiel aus dem Deutschlandfunk-Podcast “KI verstehen” demaskiert die Schwächen: “Nehmen wir an, das Geschlecht soll keine Rolle spielen”, leitet Hostin Carina Schroeder das Gedankenspiel ein. Dennoch käme die KI am Ende zu dem Schluss, dass ein Mann den besseren Lebenslauf mitbringt, weil dort nichts von Mutterschutz zu lesen ist oder der Frau die Führungserfahrung fehle. Schroeder:
“Die weibliche Kandidatin bekommt den Job dann nicht, (...) obwohl diese Kriterien auf dem Papier überhaupt keine Rolle hätten spielen können."
Sie moniert, dass die KI entgegen der Codierung Leute in zwei Klassen einteilt. In den USA hat ein Lebenslauf-Scanner, den ein Unternehmen an den eigenen Mitarbeitenden testete, diejenigen besser bewertet, die Basketball oder Baseball spielten. Softball hingegen, das eher von Frauen gespielt wird, wurde herabgestuft. Dieses Beispiel griff Hilke Schellmann in ihrem Buch mit dem vielsagenden Titel “The Algorithm: How AI can hijack your career and steal your future” auf. In einem anderen Fall änderte ein Bewerber aufgrund einer Absage sein Geburtsdatum – seine “jüngere Version” wurde schließlich doch vom Unternehmen zum Gespräch eingeladen, berichtete die BBC.
Die Antidiskriminierungsstelle des Bundes sieht in einem Bericht aus August 2023 ebenfalls eine Gefahr durch KI. Bei der Vorstellung des Rechtsgutachtens bekundete Ferda Ataman ihre Sorge: "Immer öfter übernehmen automatisierte Systeme oder Künstliche Intelligenz Entscheidungen, die für Menschen im Alltag wichtig sind. Hier werden Wahrscheinlichkeitsaussagen auf der Grundlage von pauschalen Gruppenmerkmalen getroffen", sagte die Antidiskriminierungsbeauftragte.
Es kommt ganz auf den Algorithmus an, gibt uns Daniel Mühlbauer zu verstehen. Es gebe Recruiting-Software, die diskriminiert – das haben die Praxis und Wissenschaft bereits ermittelt. “Sollten irgendwann ein KI-System mit dem selben Algorithmus in vielen deutschen Firmen zum Einsatz kommen, besteht das Risiko, dass Bewerber*innen immer dort diskriminiert werden, wo das System greift. Das ist die große Gefahr”, sagt der People-IT-Experte. Nicht verwunderlich, bedenkt man, dass Menschen die Daten bestimmen, die in die KI eingespeist werden. “Wir sind der Ursprung, denn wir trainieren die Algorithmen”, sagt Mühlbauer, “und die Programmierer sind meistens Männer, was die Gestaltung des Codes beeinflusst”. In der Tat: Die AI-Branche wird gerade einmal zu 22 Prozent aus Frauen gebildet, in Führungspositionen sind nur 14 Prozent weiblich. Will heißen: Vorurteile hat jeder Mensch, doch in bestimmten Gruppen ist die Schnittmenge größer und entsprechend einseitig sind deshalb die Ergebnisse. Die KI immer wieder zu prüfen, sei daher unausweichlich und mache sie besser, so der Experte. Menschliche bias (Voreingenommenheit) schleiche sich auf drei Ebenen ein: Trainingsdaten, Programmierung und Prüfung. Dass der Output von GPT-Modellen, regelmäßig durch Menschen geprüft wird, sei daher nicht der Weisheit letzter Schluss. “Es gibt Ansätze, bei denen verschiedene Algorithmen gegeneinander antreten und sich stetig kontrollieren. Das sind mehrere neuronale Netze, die als Gegner mit derselben Aufgabe betraut werden. Damit wird die beste Lösung der Aufgabe möglicher”, erklärt er.
Wie geht Fairness?
Das Projekt “FAIR NRW” hat sich vorgenommen, programmierte Diskriminierung auszumerzen. Gemeinsam mit der Recruiting-Firma Case tüftelte die Universität Köln (publiziert 2020/21) an einem Algorithmus, der sich stets selbst kritisch prüft. Unabhängig von KI ordnet Dr. Philipp Seegers ein: “Unterschiede am Arbeitsmarkt sind da und die sind menschengemacht”, sagt der Co-Gründer von Case, der die Forschung initiiert hat. Laut ihm muss der Fokus auf den Trainingsdaten liegen. Dafür eigne sich Eignungsdiagnostik gut, denn sie ist neutral. So wird mithilfe des FAIR-Index Benachteiligung sichtbar gemacht, indem man Entscheidungen mit Blick auf ein neutrales Kriterium bewertet, wie zum Beispiel einen kognitiven Leistungstest. Abweichungen sind in Ordnung, solange diese nicht systematisch zu Lasten einer bestimmten Gruppe gehen. “Um Fairness zu erreichen, sollten wir aber auch bereit sein, die Ergebnisse zu produzieren, die wir haben möchten. Dafür müssen wir für Objektivität sorgen”, sagt Dr. Seegers. Der Zustand: Frauen sind am Arbeitsmarkt nicht so präsent wie Männer. Wer einen Algorithmus zur Bewertung von Arbeitserfahrung bauen möchte, muss beachten, dass selbst ein fairer Algorithmus diese Unterschiede reproduziert. Deswegen werden Frauen im Algorithmus “geboostet”, womit die Dysbalance neutralisiert werden soll.
Verstoß führt zu hoher Strafe
Die einflussreiche Technologie ist seit 1. August 2024 auch rechtlich berücksichtigt. Mit dem EU AI Act will die Brüsseler Schaltzentrale die Grundrechte der Menschen schützen. Im arbeitsrechtlichen Kontext meint das: KI wird als Hochrisiko-System eingestuft, sobald sie für die Einstellung und Auswahl von Personen genutzt wird. Das heißt, dass Unternehmen Bewerbende zwingend darüber aufklären müssen, dass und wie KI genutzt wird. Wird eine derartige Software verwendet, muss sie durch einen Menschen beaufsichtigt werden. Es reicht jedoch auch, die Bewerbung, die der Algorithmus für gut befunden hat, in letzter Instanz zu sichten. Ob das gründlich geschieht, wird schwierig nachzuweisen sein. Deswegen hält IT-Experte Mühlbauer den Missbrauch für möglich. Doch die Konsequenzen sind gewaltig: Liegt ein Regelverstoß vor, ist eine Strafe von bis zu 15 Millionen Euro oder drei Prozent des eigenen Jahresumsatzes fällig. “Diese Strafen sind empfindlich und daher ist ein rechtswidriger Umgang mit KI für die meisten Unternehmen undenkbar”, sagt er.
Der Status quo lautet also: Ohne Menschen gäbe es keine diskriminierende KI. Dennoch müsse unser Einfluss dafür sorgen, dass sich das ändert, so die Experten. Um ein menschelndes Recruiting-Tool zu sein, das sich der Neutralität nähert, braucht es Korrekturen. Das funktioniert am ehesten, wenn die Konstellation der Programmierenden divers ist und die Algorithmen ständig auf Diskriminierung geprüft werden. Damit Softball, Mutterschutz oder das Alter niemandem zum beruflichen Verhängnis werden.