Stephanie Doßke

24.01.2025

News

Werden Frauen durch KI-Einsatz im Bewerbermanagement diskriminiert?

Werden Frauen durch KI-Einsatz im Bewerbermanagement diskriminiert?

Diskriminierung durch KI?
Diskriminierung durch KI?
Diskriminierung durch KI?

Werden Frauen diskriminiert durch die Nutzung von KI im Bewerbermanagement?

KI soll auf ethische und faire Weise eingesetzt werden - in einer perfekten Welt. Auch wenn ich kein Freund starrer Regeln bin, wäre es einfach an der Zeit, den EU AI Act umzusetzen. Nur wie realistisch ist das bis 2026?

Der EU AI Act ist notwendig, um unsere Grundrechte zu schützen: Fakt ist, KI-Systeme können tiefgreifende Auswirkungen auf das Leben von uns Menschen haben, wenn sie humane Entscheidungen beeinflussen.


Machen sie doch nicht? Ähhh... leider doch! Und zwar heute schon.

Beispielsweise in HR-Tools, die bei Bewerbungsverfahren unterstützen, begegnen mir jeden Tag in unseren Projekten.

Nur mal laut gedacht:
Was wäre, wenn Sprachmodelle diskriminierende Entscheidungen über Bewerber:innen treffen und keiner merkt das?

KI-Systeme lernen ja aus Daten. Wenn diese Daten jedoch verzerrt sind, können Systeme geschlechter-diskriminierende Vorurteile "reproduzieren". Derzeit wird alles genutzt und eingebunden, was eine API hat und nur wenige sind technisch seriös in der Lage, KI-Einbindung "explainable" zu machen und zu halten, weil die Entwicklungen dahinter viel zu dynamisch sind, um alles zu begreifen!

Der EU AI Act verlangt von KI-Systemen, dass sie transparent sind in der Funktionsweise. Außerdem muss sichergestellt sein, dass Systeme keine unvorhergesehenen oder schädlichen Auswirkungen auf die Gesellschaft haben. Nur wer will das noch prüfen?

In der Theorie soll der EU AI Act die Diskriminierung von Frauen verhindern, durch ein Verbot von KI-Systemen, die aufgrund von Geschlecht, Rasse oder anderen Menschen benachteiligen. Aber das Training verändert die Modelle stetig.

Darum wiederum gibt es AI Literacy

Der Act verpflichtet Anbieter und Anwender von KI-Systemen, sicherzustellen, dass ihre Mitarbeitenden über ausreichende Kenntnisse im Umgang mit KI verfügen. Dies umfasst Schulungen zur Erkennung und Vermeidung von Bias in KI-Systemen. So richtig ernst nimmt das aktuell aber keiner, oder? ABER: In einem Jahr sind die Systeme so weit fortgeschritten, dass es aus meiner Sicht kaum mehr möglich sein wird, noch nachzuvollziehen, wo es zu Diskriminierung kommt.


Man will diverse Entwicklungsteams: Mal sehen, ob die Amis und die Chinesen sich daran halten 😁 Eher nicht.

Bias-Prüfungen: Man fordert regelmäßige Checks auf Verzerrungen und Diskriminierung. Nur, sind wir damit noch wettbewerbsfähig?

Theoretisch ist der Act ist ein wichtiger Schritt, um die Grundrechte aller Bürger zu schützen. Durch transparente Praktiken, diverse Teams und regelmäßige Checks könn(t)en wir eine gerechtere Zukunft für unsere Kinder gestalten. Doch wer ist bereit, diesen Preis zu bezahlen und nur europäische KI zu nutzen, wenn sie kaum wettbewerbsfähig ist gegenüber China und Amerika und Innovationen dadurch verhindert werden?

Wer Unterstützung braucht bei Compliance-Themen, darf sich gern bei uns Botgenossen melden. Denkt daran: Lieber am Anfang nachdenken als hintendran nachbessern, denn das wird meistens richtig teuer!

Stephanie Doßke

24.01.2025

Unseren Newsletter abonnieren

Sei der erste der unsere Artikel ließt

Folge uns auf Social Media

Folge uns, und verpasse nichts wichtiges mehr.

Unseren Newsletter abonnieren

Sei der erste der unsere Artikel ließt

Folge uns auf Social Media

Folge uns, und verpasse nichts wichtiges mehr.

Unseren Newsletter abonnieren

Sei der erste der unsere Artikel ließt

Folge uns auf Social Media

Folge uns, und verpasse nichts wichtiges mehr.

Zurück