Mede door de dynamiek die de BlackLivesMatter-beweging met zich meebrengt, is er een nog sterker bewustzijn ontstaan als het gaat over mogelijke discriminatie op allerlei gebieden binnen de maatschappij. Zeker ook als het gaat om discriminatie op de arbeidsmarkt. Er is bovendien eind 2020 een nieuw wetsvoorstel ingediend, ‘Wet toezicht gelijke kansen bij werving en selectie’. Ook makers en gebruikers van recruitmentsoftware dienen zich bewust te zijn van verboden onderscheid, discriminatie, ofwel, als het om het gebruik van algoritmes gaat, bias. In dit eerste artikel in een serie van 8 artikelen over arbeidsmarktdiscriminatie & algoritmes een kort overzicht van het speelveld.
Discriminatie op de arbeidsmarkt en algoritmes
In een achttal artikelen brengen we een belangrijk onderwerp in kaart: discriminatie op de arbeidsmarkt en algoritmes. Algoritmes in recruitmentsoftware kunnen namelijk verboden onderscheid, bias, veroorzaken in het wervingsproces. Aan de andere kant kunnen algoritmes ons misschien ook helpen de arbeidsmarkt eerlijker te maken. Het rapport ‘Recruiter of computer? Zo voorkom je als werkgever discriminatie door algoritmes bij werving en selectie’ van het College van Rechten van de Mens heeft aan de basis gestaan van deze serie.
Artikel 1 Grondwet
Zoals waarschijnlijk iedereen wel weet is volgens artikel 1 van de Grondwet discriminatie verboden. Een belangrijke ethische leidraad in onze maatschappij. Daarnaast zijn er in Nederland een aantal wetten voor gelijke behandeling. Deze zorgen ervoor dat mensen geen ongelijke behandeling krijgen op basis van bepaalde kenmerken, zoals ras, godsdienst en leeftijd. Bij arbeidsmarktdiscriminatie gaat het om verboden onderscheid. Uitsluiting van kandidaten op basis van een aantal discriminatiegronden, zonder dat hiervoor een specifieke uitzondering of een objectieve rechtvaardiging bestaat.
De verboden discriminatiegronden die volgens de Nederlandse wet beschermen op het gebied van arbeid: Godsdienst/Levensovertuiging; Politieke gezindheid; Ras, afkomst; Geslacht/Zwangerschap; Nationaliteit; Seksuele gerichtheid; Burgerlijke staat; Handicap of chronische ziekte; Leeftijd; Arbeidsduur (parttime of fulltime dienstverband); Type arbeidscontract (bepaalde of onbepaalde tijd).
Wetsvoorstel
Voor we verder gaan met meer uitleg over wat voor verboden onderscheid mogelijk is op de arbeidsmarkt, direct en indirect, eerst nog wat meer over het recente wetsvoorstel om discriminatie tegen te gaan. Want nog altijd blijkt uit allerlei onderzoek dat nog veel mensen in Nederland last hebben van discriminatie bij het werving- en selectieproces. De wetgever wil daar een einde aan maken. Daarom is op 10 december 2020 het wetsvoorstel ‘Wet toezicht gelijke kansen bij werving en selectie’ bij de Tweede Kamer ingediend.
Verplichting vastleggen werkwijze
Dit wetsvoorstel verplicht werkgevers en intermediairs heel expliciet om een werkwijze te hanteren die gericht is op het voorkomen van discriminatie bij werving en selectie van werknemers. Werkgevers met 25 of meer werknemers moeten deze werkwijze ook schriftelijk vastleggen. Uit de procedure moet blijken dat er uitsluitend geworven wordt op basis van relevante functie-eisen. Dit geldt ook voor intermediairs. Ook bij het extern inhuren van arbeidskrachten moet een werkgever nagaan of deze verplichting wordt nageleefd. De Nederlandse Arbeidsinspectie ziet erop toe dat werkgevers een dergelijke werkwijze hebben. Als die ontbreekt, kan een boete worden opgelegd, die vervolgens ook openbaar wordt gemaakt.
Tot zover de toenemende strijd die de overheid voert tegen verboden onderscheid op de arbeidsmarkt. Maar hoe werkt het in de praktijk en wat hebben algoritmes die in recruitmentsoftware worden gebruikt er mee te maken?
Direct en indirect onderscheid
Er zijn twee vormen van onderscheid: direct en indirect. De inzet van algoritmes, recruitmentsoftware, kan zowel tot direct als indirect verboden onderscheid leiden.
Direct onderscheid
Direct onderscheid is het achterstellen van een kandidaat rechtstreeks op basis van een verboden grond. Bijvoorbeeld een recruiter die geen vrouwen wenst voor de functie. Dit kan ook bij een algoritme, bijvoorbeeld als een algoritme variabelen bevat om vrouwen een lagere aanbeveling te geven of af te wijzen. Maar ook als een kandidaat haar of zijn leeftijd in moet vullen op een sollicitatieformulier, dient de werkgever voorzichtig te zijn. Want het kan bijdragen aan een vermoeden van – indirect – verboden onderscheid. Als werkgevers vragen naar beschermde kenmerken zoals ras, geslacht of leeftijd, is het verstandig tevoren kandidaten te laten weten dat deze kenmerken geen rol spelen bij de afweging van een algoritme. Ook moet achteraf kunnen worden aangetoond dat deze kenmerken daadwerkelijk geen rol hebben gespeeld.
Indirect onderscheid
Bij indirect onderscheid lijkt er sprake van een neutraal criterium, dat niet rechtstreeks verwijst naar een verboden grond. Maar desalniettemin wel een bepaalde beschermde groep in het bijzonder treft. Bijvoorbeeld een algoritme dat selecteert op het aantal onafgebroken jaren werkervaring op iemands CV. Dit kan uiteraard een aanwijzing zijn voor goed functioneren, maar indirect is het ook een indicatie van geslacht. Immers, vanwege zwangerschap of zorgtaken hebben vrouwen vaker een gap op het CV. Kortom, werkgevers moeten op de hoogte zijn van de criteria die hun recruitmentsoftware gebruiken en moeten bij leveranciers en producenten navraag doen over mogelijke discriminatierisico’s. Direct onderscheid is bijna nooit toegestaan, maar indirect onderscheid mag wel als de werkgever daarvoor een goede reden kan aanvoeren.
Objectieve rechtvaardiging
Dit heet objectieve rechtvaardiging. Een werkgever mag bijvoorbeeld van een leraar Nederlands eisen dat deze onberispelijk Nederlands spreekt. Dit kan heel natuurlijk heel goed kandidaten met de Nederlandse nationaliteit bevoordelen. Toch mag de werkgever deze eis stellen, omdat het nodig is om de functie goed uit te oefenen. Een andere objectieve rechtvaardiging zou bijvoorbeeld kunnen zijn dat er bij een werving juist specifiek wordt gezocht naar mindervaliden met een achterstand tot de arbeidsmarkt.
Black box (computer says no)
Om een beroep te doen op de objectieve rechtvaardiging moet een werkgever kunnen uitleggen waarom het algoritme het onderscheid maakt en waarom dat gemaakte onderscheid objectief rechtvaardig is. Sommige algoritmes zijn echter zo complex dat het heel lastig is om nog werkelijk inzicht te geven in de werking. Dit soort algoritmes noemt men ook wel een black box. Naarmate een algoritme minder transparant is, bijvoorbeeld door het gebruik van AI, wordt het lastiger voor een werkgever om een beroep te kunnen doen op de objectieve rechtvaardiging. Het is dus van groot belang voor werkgevers dat ze algoritmes gebruiken waarover ze uitleg kunnen geven. Computer says no is niet voldoende om een beroep te kunnen doen op de objectieve rechtvaardiging
Werkgevers zelf juridisch verantwoordelijk voor algoritmes
Werkgevers zijn zelf juridisch verantwoordelijk voor de de gebruikte recruitmentsoftware. Het onderscheid makende effect is wat telt, of nu een computer of een mens het verboden onderscheid maakt. Werkgevers en arbeidsbemiddelaars, zoals uitzendbureaus, hebben dus een eigen verantwoordelijkheid voor de wervings- en selectieprocedure. Dit geldt ook voor de algoritmes die zij hierbij gebruiken. Werkgevers en arbeidsbemiddelaars kunnen zich dus niet beroepen op bijvoorbeeld ondeugdelijk software. Of dat het verboden onderscheid niet met opzet is gemaakt. Procedures moeten altijd inzichtelijk, controleerbaar en systematisch zijn. Dit betekent onder andere dat de selectiecriteria duidelijk zijn en dat navolgbaar is wat de basis was voor de afwijzing van een kandidaat. Het is daarom van belang dat werkgevers bij de aanbieders nagaan of de recruitmentsoftware die ze aanschaffen kan leiden tot verboden onderscheid.
Tenslotte, ook de makers van selectiealgoritmes die verboden onderscheid maken vallen in principe onder het gelijkebehandelingsrecht. Algoritmebouwers kunnen namelijk juridisch als arbeidsbemiddelaars worden gezien. Vergelijkbaar met assessment- en testbureaus hebben ze hun eigen verantwoordelijkheid. Dat doet overigens niets af aan de hierboven al genoemde eigen verantwoordelijkheid van de werkgever.
In het volgende artikel gaan we dieper in op wat algoritmes zijn en het nog niet overal doorgedrongen besef dat recruitmenttechnologie ongewenst onderscheid kan maken.