Voorkom discriminatie door algoritmes die je inzet voor werving en selectie

Marco Hendrikse 8 september 2022 4 min
Categorieën: Grensoverschrijdend gedrag, Recruitment

Uiteraard is het als recruiter uit den boze om te discrimineren. Recruiters zijn zich steeds vaker bewust van hun vooroordelen en houden daar rekening mee bij het beoordelen van sollicitanten. Ook vacatureteksten zijn steeds vaker inclusiever en vrij van (indirecte) discriminatie. Maar met de toenemende technologisering van het sollicitatieproces steekt een ander probleem de kop op, zoals bijvoorbeeld algoritmes die (indirect) discrimineren.

Algoritmes inzetten voor werving en selectie

Steeds meer organisaties gebruiken recruitmentsoftware met algoritmes om (semi-)automatisch kandidaten te werven, te beoordelen en te selecteren. Daar schuilt echter ook een gevaar in. Reeds in 2018 kwam bijvoorbeeld Amazon in het nieuws, met een algoritme dat vrouwen discrimineerde. Het algoritme ging er vanuit dat, omdat er zoveel mannen in technische functies werken, dat aan mannen ook de voorkeur moest worden gegeven bij het beoordelen van sollicitanten. Vrouwen maakten dus bij dit algoritme (vrijwel) geen kans om uitgenodigd te worden voor een sollicitatiegesprek. Ai.

Vermoeden van discriminatie melden

Wie denkt dat de recruitmentsoftware van Amazon een uitzondering vormt komt bedrogen uit. Het Nederlandse College voor de Rechten van de Mens constateerde al dat diverse algoritmes (onbedoeld) discrimineren. Zij roept daarom ook sollicitanten op die vermoeden slachtoffer te zijn van discriminatie als gevolg van de inzet van algoritmes om zich te melden bij het College. Het College raadt sollicitanten die vermoeden te zijn gediscrimineerd ook aan om inzicht te vragen in hoe (door een mens of door een algoritme) ze beoordeeld zijn.

Vier aandachtspunten bij het inzetten van algoritmes

Om werkgevers te helpen discriminatie door algoritmes bij werving en selectie te voorkomen, heeft het College voor de Rechten van de Mens, een brochure ontwikkeld. In deze publicatie staan vier aandachtspunten voor werkgevers die algoritmes gebruiken.

  1. Het gebruik van algoritmes kan leiden tot verboden onderscheid

De inzet van algoritmes kan zowel tot direct als indirect verboden onderscheid leiden. Een voorbeeld van een direct onderscheid is een algoritme dat concrete variabelen bevat om vrouwen een lagere aanbeveling te geven of af te wijzen. Indirect onderscheid is vaak veel subtieler. Het College geeft het volgende voorbeeld: een algoritme zou kunnen selecteren op het aantal onafgebroken jaren werkervaring dat iemand op het cv heeft staan. Dit kan iets zeggen over goed functioneren, maar tegelijkertijd is het indirect ook een indicatie van geslacht. Vanwege zwangerschap of zorgtaken hebben vrouwen immers vaker een gat op het cv.

  1. Uitleg kunnen geven aan de werking van algoritmes is noodzakelijk om indirect onderscheid te legitimeren.

Indirect onderscheid maken mag in sommige gevallen (objectieve rechtvaardiging). Bij het werven van een docent Nederlands mag je een taaleis stellen. Bij het werven van een inpakker ligt dat minder voor de hand. Als werkgever moet je goed kunnen uitleggen waarom een algoritme onderscheid maakt. Als werkgever moet je dan heel goed inzichtelijk hebben hoe het algoritme in elkaar zit. Sommige algoritmes zijn echter zeer complex. Dat maakt het moeilijk om nog goed inzicht te geven in de werking ervan. Als je je als werkgever beroept op een objectieve rechtvaardiging dan moet je het algoritme goed kunnen uitleggen.

Lees ook: De 4 strenge voorwaarden voor werven met voorkeur

  1. Wervings- en selectieprocedures met algoritmes moeten inzichtelijk, controleerbaar en systematisch zijn

Volgens het College betekent dit onder andere dat de selectiecriteria duidelijk zijn en dat navolgbaar is wat de grondslag was voor de afwijzing van een kandidaat. Dat maakt het mogelijk om procedures (juridisch) te controleren. Ook algoritmes die gebruikt worden in de wervings- en selectieprocedure moeten voldoen aan deze toets.

  1. Werkgevers zijn zelf juridisch verantwoordelijk voor de algoritmes

Werkgevers hebben een eigen verantwoordelijkheid voor de werving- en selectieprocedure. En dus ook voor de algoritmes die zij hierbij gebruiken. Dit betekent dat werkgevers niet de leverancier van het algoritme de schuld mogen geven als verboden onderscheid wordt gemaakt. Zij moeten zelf nagaan of het algoritme juist functioneert.

Vier tips om discriminatie te voorkomen

Aanvullend geeft het College vier tips om discriminatie door algoritmes bij werving en selectie te voorkomen:

  • Stel vooraf objectieve criteria vast waarop een kandidaat wordt beoordeeld. Deze objectieve criteria moeten relevant zijn voor de functie.
  • Ga na welke van deze criteria direct of indirect betrekking (zouden kunnen) hebben op kenmerken die zouden kunnen leiden tot verboden onderscheid. Bijvoorbeeld: het aantal jaren werkervaring correleert met leeftijd, een gat in het cv komt vaker voor bij vrouwen.
  • Controleer bij de leverancier van de recruitmenttechnologie die je inzet hoe deze kenmerken in het algoritme verwerkt zijn. Zorg dat deze criteria niet bepalend zijn bij de selectie en beoordeling van kandidaten.
  • Zet vacatures via verschillende kanalen uit. Immers, ook jobboards kunnen (onbedoeld) verboden onderscheid maken door bijvoorbeeld targeting-opties van bepaalde doelgroepen.

Discriminatie bij het werven van personeel komt steeds meer onder een vergrootglas te liggen. Zo is wetgeving in voorbereiding om organisaties die discrimineren bij het werven en selecteren van medewerkers een boete te krijgen uitzendorganisaties een meldingsplicht als ze discriminerende verzoeken krijgen. Als werkgever wil je het maken van verboden onderscheid voorkomen. Dat geldt zowel voor mens als machine.

>