KI-gestützte Personalauswahl: Vertrauen als Geschäftsgrundlage
Die Diskriminierung von Bewerbern durch KI-gestützte Systeme zur Vorauswahl von Bewerbungen auf Basis ihres Alters, Herkunft oder Hautfarbe ist umethisch und illegal. Doch es gibt technische Hilfsmittel, die helfen, Diskriminierung zu vermeiden.
Künstliche Intelligenz ist heute ein fester Bestandteil im Recruiting. Sie filtert Bewerbungen, bewertet Profile und beeinflusst damit, wer in den weiteren Auswahlprozess gelangt. Wenn solche Systeme bestimmte Gruppen systematisch benachteiligen, können qualifizierte Kandidaten übersehen werden – mit Folgen für die Besetzungsqualität, aber auch für Diversität und Unternehmenskultur. Genauso relevant sind die rechtlichen und reputativen Auswirkungen: Unternehmen müssen in solchen Fällen mit Beschwerden, Klagen und Vertrauensverlust rechnen.
Algorithmische Auswahlprozesse sind bereits Gegenstand juristischer Auseinandersetzungen.
Ein aktueller Fall zeigt das deutlich. In den USA wurde gegen den HR-Softwareanbieter Workday eine Sammelklage eingereicht. Der Vorwurf: Das System habe Bewerber ab 40 Jahren systematisch benachteiligt. Betroffen waren potenziell mehr als eine Milliarde Bewerbungen. Der Fall zeigt, wie schnell algorithmische Auswahlprozesse zum Gegenstand juristischer Auseinandersetzungen werden können – und wie groß die Tragweite solcher Entscheidungen ist.
EU AI Act: Fairness wird zur Nachweispflicht
Mit dem EU AI Act wird der Einsatz von KI in der Personalauswahl künftig klar geregelt. Ab 2026 stuft die Europäische Union entsprechende Systeme als Hochrisiko-Anwendungen ein. Unternehmen müssen dann dokumentieren können, dass ihre Modelle diskriminierungsfrei arbeiten, Entscheidungen nachvollziehbar sind und regelmäßige Qualitätskontrollen stattfinden. Verstöße können mit bis zu sieben Prozent des weltweiten Jahresumsatzes geahndet werden. Für ein mittelständisches Unternehmen kann das ein zweistelliger Millionenbetrag sein.
Trotz der anstehenden Verpflichtungen bestehen in vielen Unternehmen noch deutliche Lücken. Laut dem EY Responsible AI Report 2025 verfügen nur 38 Prozent der europäischen Unternehmen über Verfahren zur Überprüfung algorithmischer Fairness. Die Mehrheit nutzt also Systeme, deren Entscheidungslogik intern kaum nachvollzogen werden kann.
Warum das Entfernen sensibler Merkmale nicht ausreicht
Ein verbreiteter Ansatz lautet: „Wenn wir sensible Merkmale wie Geschlecht oder Herkunft entfernen, arbeitet das System neutral.” In der Praxis greifen Modelle jedoch oft auf indirekte Hinweisgrößen zurück – etwa Wohnort, Bildungseinrichtung oder typische Erwerbsverläufe. Dadurch werden bestimmte Gruppen systematisch benachteiligt, obwohl entsprechende Merkmale formal nicht im Datensatz enthalten sind. Empirische Befunde bestätigen das:
- Der OECD AI Practice Report (2024) zeigt, dass sogenannte Fairness through Unawareness-Ansätze keine verlässliche Neutralität erzeugen.
- Eine Studie der University of Washington (2024) belegt: In 85 Prozent der Testfälle erhielten Bewerbungsprofile mit typisch weißen Namen höhere Bewertungen als identische Profile mit afroamerikanisch assoziierten Namen – selbst wenn Geschlecht und Ethnie zuvor aus den Datensätzen entfernt worden waren.
Neutralität lässt sich daher nicht voraussetzen – sie muss überprüft und nachgewiesen werden.
Fairness ist messbar
Wie lässt sich diskriminierungsfreie Auswahl überprüfen? Ein zentraler Ansatz ist die sogenannte Counterfactual Fairness. Dabei wird getestet, wie ein System auf verschiedene Varianten desselben Bewerbungsprofils reagiert. Das Profil bleibt inhaltlich gleich, lediglich einzelne Attribute werden verändert – etwa Name, Wohnort oder Bildungsweg. Wenn sich die Bewertung allein dadurch verändert, liegt ein Hinweis auf eine Verzerrung vor.
Der „Fairness Assurance Case“ dient als Blaupause, um technische Testlogiken mit regulatorischen Anforderungen zu verbinden.
Um solche Tests strukturiert und nachweisbar durchführen zu können, wurde dieses Vorgehen – gemeinsam mit weiteren Prüfmethoden – 2025 im Whitepaper von QuantPi, dem TÜV AI.Lab und der Stepstone Group systematisch beschrieben. Der dort entwickelte „Fairness Assurance Case“ dient Unternehmen als Blaupause, um technische Testlogiken mit regulatorischen Anforderungen (u. a. der EU AI Act und das AGG) zu verbinden – und bietet damit sowohl technologische als auch strategische Leitlinien für eine nachvollziehbare und überprüfbare Auswahlpraxis.
Fünf strategische Leitlinien für Unternehmen
- Früh ansetzen – Verzerrungen entstehen häufig bereits in Datenauswahl und Modellentwicklung. Wer Fairness von Anfang an in Architektur und Prozessplanung berücksichtigt, reduziert das Risiko diskriminierender Effekte deutlich.
- Transparenz sicherstellen – Modelle müssen erklärbar sein. Blackbox-Systeme setzen Vertrauen aufs Spiel – bei HR, Management und Bewerbenden.
- Compliance als Vertrauensfaktor nutzen – Unternehmen, die Fairness und Nachvollziehbarkeit belegen können, erfüllen nicht nur Vorgaben, sondern stärken Glaubwürdigkeit und Arbeitgeberattraktivität.
- Systemleistung steigern – Laufende Qualitätskontrollen und kontinuierliche Bias-Prüfungen erhöhen nachweislich die Modellgüte und führen zu präziseren Matching-Ergebnissen.
- Interdisziplinär arbeiten – Wirksame Fairness-Audits entstehen im Zusammenspiel von Data Science, HR und Rechtsabteilung – mit klaren Rollen, abgestimmten Prozessen und einem gemeinsamen Verständnis von Qualitätskriterien.
Der wirtschaftliche Effekt: Return on Integrity
Wenn Modelle qualifizierte Kandidaten aufgrund unerkannter Verzerrungen ausschließen, leidet die Einstellungsqualität – mit direkten Auswirkungen auf Rekrutierungsaufwand, Besetzungsdauer und Teamleistung. Fairness-Audits reduzieren diese Risiken. Sie schaffen Rechts- und Prozesssicherheit, erhöhen die Verlässlichkeit von Auswahlentscheidungen und stärken die Arbeitgebermarke.
Fairness wird damit von einer reinen Compliance-Pflicht zu einem wirtschaftlichen Faktor. Die Frage lautet nicht mehr, ob Unternehmen sich systematische Qualitätsprüfungen leisten können. Die Frage ist, ob sie es sich leisten können, darauf zu verzichten.




