Gingen we in het vijfde artikel nog in op de gevaren van de inzet van recruitmenttechnologie, in dit artikel belanden we juist bij de andere kant van het spectrum. Hoe kunnen algoritmes worden ingezet om (onbewuste) discriminatie door mensen bloot te leggen. Kunnen ‘eeuwenoude menselijke vooroordelen’ bij werving en selectie worden gecorrigeerd door de inzet van algoritmes?
Discriminatie op de arbeidsmarkt en algoritmes
In een achttal artikelen brengen we een belangrijk onderwerp in kaart, discriminatie op de arbeidsmarkt en de rol van algoritmes bij het wervingsproces. In dit derde artikel gaan we dieper in op vooringenomenheid, bias, in recruitmentsoftware. Waarbij onder meer bias in het algoritme en bias in de data aan de orde komen. Het rapport ‘Recruiter of computer? Zo voorkom je als werkgever discriminatie door algoritmes bij werving en selectie’ van het College van Rechten van de Mens heeft aan de basis gestaan van deze serie.
Algoritme in principe objectief
De gedachte bij het positieve gebruik van algoritmes is dat er juist inclusie kan worden bereikt met de juiste recruitmentsoftware. Immers, een algoritme is in principe objectief. Niet gevoelig voor sociale categorieën zoals oud versus jong, man versus vrouw of allochtoon versus autochtoon. Geen vooringenomenheid dus. Iedereen met dezelfde kwaliteiten krijgt dezelfde kansen. Echter, in de voorgaande artikelen in deze reeks werd al duidelijk dat een algoritme vaak bepaald niet het objectieve instrument is dat velen erin zien. Juist omdat algoritmemakers ook mensen zijn met hun – al dan niet – onbewuste vooroordelen, of omdat een algoritme getraind kan worden met data die vooroordelen en ongelijkheden weerspiegelen, kan er bias, vooroordeel ontstaan.
Maar toch, kan een algoritme zo ‘getraind’ worden dat je juist bias tegengaat bij werving en selectie? Jazeker, er zijn inmiddels al aardig wat voorbeelden van het gebruik van algoritmes voor het vergroten van diversiteit en inclusie.
Detectie van bias
In de eerste plaats kan je algoritmes als detectie-instrument inzetten bij onderzoek naar discriminatie. Zo deed de Vrije Universiteit, in opdracht van het College voor de Rechten van de Mens, in 2017 en 2019 onderzoek naar leeftijdsdiscriminatie in vacatureteksten. Met algoritmes werden meer dan 4,9 miljoen teksten online onderzocht. Dan zijn algoritmes dus een hulpmiddel bij het detecteren van bias.
Bias tegengaan?
Maar kunnen de algoritmes ons ook helpen om bias niet alleen te detecteren, maar zelfs tegen te gaan, te bestrijden? Zo wordt er bijvoorbeeld gezegd dat een zelflerend algoritme subtiele kenmerken van geschikte kandidaten kan herkennen. Waardoor er een breder en beter beeld van een individu ontstaat. Zodat niet slechts de typische high-potentials kansen krijgen, maar ook kandidaten die HR-medewerkers doorgaans niet zo snel zouden overwegen. Maar die gedachte is natuurlijk wel een beetje wensdenken: algoritmes als onfeilbare en objectieve instrumenten. Zijn er werkelijk voorbeelden van de inzet van recruitmentsoftware, waarbij de algoritmes vooringenomenheid, bias gecorrigeerd hebben? Ja, die zijn er. Om te beginnen nemen we de inzet van algoritmes bij accountants- en adviesorganisatie KPMG onder de loep.
Talent Pitch
KPMG besloot een aantal jaren heel bewust om recruitmenttechnologie te ontdoen van vooroordelen, om op deze wijze werkelijk zonder bias te kunnen werven. Simone Broos (head of people operations KPMG) zegt erover: ‘Uit ervaring weten we dat mensen uit andere culturen niet snel nevenfuncties op hun CV zetten, en dat vrouwen zich veel voorzichter uitdrukken over hun kennis en kunde, en vaak niet reageren op een vacature als de vacaturetekst te veel ‘’mannelijke’’ woorden bevat.’ Daarom ontwikkelde Harver voor KPMG de zogeheten Talent Pitch. Dat is een interactieve online expercience, met assessments en games waarmee kandidaten hun probleemoplossend vermogen kunnen aantonen. Broos: ‘De Talent Pitch plaatst kandidaten los van gender en achtergrond in de drivers seat: ze kunnen in hun eigen tempo alle stappen doorlopen en laten zien wat ze in huis hebben, zonder dat ze van tevoren beoordeeld worden op persoonlijke informatie die niet ter zake doet. Dat past veel beter bij inclusief denken.’
Meer vrouwen aangenomen
KPMG is heel tevreden over de resultaten en het accountantskantoor ziet mede door de inzet van de Talent Pitch bevestigd dat aandacht voor ‘diversiteit en inclusie’ ook werkelijk wat oplevert. Immers, in het eerste jaar nam KPMG, onder de starters, 111 vrouwen aan, 34% meer dan voordat met de Talent Pitch werd gestart Het tweede jaar werden, onder starters, 160 vrouwen aangenomen: een toename van 39%.
KPMG stelt overigens dat niet alleen aan de voorkant, in de tool, er bewustzijn – en eventuele aanpassing van de algoritmes – moet zijn als het gaat om mogelijke bias. Maar het bedrijf traint tevens de recruiters en de hiring managers voortdurend om door een neutrale bril te kijken. Kortom, bias-vrij werven is hard werken. Maar wel zeer de moeite waard, vind KPMG: ‘Omdat alle ondernemingen ervan doordrongen zijn dat diversiteit een belangrijke voorwaarde is voor succes, is hiervoor steeds meer aandacht.’
Unilever, 50% vrouwen in management
Ook voedingsbedrijf Unilever is enthousiast over de mogelijkheden die recruitmentsoftware biedt om inclusie te bereiken. In maart 2020 kwam het bedrijf met een trots statement naar buiten. Aangekondigd werd dat wereldwijd een evenwicht was bereikt tussen vrouwen en mannen werkzaam in het management, met 50% vrouwen op managementniveau wereldwijd, tegenover 38% in 2010. Bovendien bestaat de niet-uitvoerende raad van bestuur voor 45% uit vrouwen.
Die mijlpaal op het gebied van genderevenwicht werd bereikt door het ‘jarenlang bevorderen van gelijkheid van mannen en vrouwen op de werkvloer’. Ook heeft een Diversity & Inclusion-team binnen Unilever verschillende initiatieven geïmplementeerd, zoals een Global Diversity Board en een netwerk van bijna 100 ‘Diversity & Inclusion Champions’, die de norm hebben bepaald voor het bevorderen van een inclusieve cultuur in alle markten.
Daarnaast werden en worden er ook hulpmiddelen gebruikt om gendergelijkheid bij de werving te bevorderen, ‘zoals een door AI gedreven digitale selectieprocedure voor trainees die onbewuste vooringenomenheid elimineert’. Ook in het geval van Unilever zien we dat inclusie hard werken is. Niet alleen dient de gebruikte recruitmentsoftware nog eens kritisch langs de bias-meetlat te worden gelegd, maar ook hier lijkt er een veelheid aan andere initiatieven nodig, om de diversiteit en inclusie te bewaken.
Pas op voor voorkeursbeleid
Het lijkt dus te kunnen, recruitmenttechnologie, algoritmes, inzetten om ongelijkheid en discriminatie op de arbeidsmarkt tegen te gaan, te corrigeren. Een punt van aandacht is wel dat je moet oppassen dat het niet naar de andere kant doorslaat. Dat je als organisatie zo gefixeerd bent op het herstel van een bestaande ongelijkheid, dat de correctie eigenlijk neerkomt op voorkeursbeleid. Dat betekent dat je bij gelijke geschiktheid de voorkeur geeft aan een groep sollicitanten, bijvoorbeeld vrouwen. Voorkeursbeleid is overigens toegestaan en kan een goed middel zijn om medewerkers met een andere achtergrond binnen te krijgen. Maar het is wel aan een aantal vereisten onderworpen. Onder meer dat er moet sprake zijn van een feitelijk aantoonbare achterstand in de desbetreffende beroepsgroep of arbeidsorganisatie. Ook dient de zwaarte van de voorkeursbehandeling dient in redelijke verhouding te staan tot de mate van achterstand.
Bij de hierboven besproken casussen bij KPMG en Unilever lijkt er overigens geen sprake te zijn geweest van voorkeursbeleid. Maar van een behoorlijk geslaagde poging om zonder, al dan niet bewuste, vooroordelen te werven.
In het zevende artikel komen leveranciers van recruitmenttechnologie aan bod. Hoe zorgen zij ervoor dat hun oplossingen ‘goede’ algoritmes bevatten.
Andere artikelen in deze serie
- Arbeidsmarktdiscriminatie & algoritmes (1/8): gebruikers recruitmentsoftware zelf verantwoordelijk
- Arbeidsmarktdiscriminatie & algoritmes (2/8): hoe algoritmes ongewenst onderscheid kunnen maken
- Arbeidsmarktdiscriminatie & algoritmes (3/8): op zoek naar de ideale werknemer
- Arbeidsmarktdiscriminatie & algoritmes (4/8): hoe algoritmes discriminatie kunnen verergeren
- Arbeidsmarktdiscriminatie & algoritmes (5/8): de invloed van social media