Kunstmatige intelligentie, of A.I. (of machine learning zoals het in de meeste gevallen eigenlijk moet worden genoemd) gaat vaak onder de radar om kleine aspecten van ons leven te beïnvloeden; ons voorzien van aanbevolen programma’s om als volgende te bekijken op Netflix, suggesties doen voor wat te kopen op Amazon of steeds meer voorspellende Google-zoekopdrachten.
Dit zijn weliswaar enkele eenvoudige voorbeelden van hoe AI het leven gemakkelijker kan maken, maar als het gaat om je toekomstige carrière en wat er op het spel kan staan, zijn we begrijpelijkerwijs veel voorzichtiger als het gaat om het vertrouwen in nieuwe opkomende technologieën. We willen er allemaal zeker van zijn dat we een baan krijgen op basis van verdienste, en niet door een of andere algoritmische gril.
Wat is A.I. Bias?
AI bij aanwerving moet eerlijk en objectief zijn, omdat het het menselijke, bevooroordeelde element van de besluitvorming wegneemt. Door een verschijnsel dat bekend staat als A.I. bias (ook wel machine learning bias of artificial stupidity genoemd) is dit echter niet altijd het geval. Als een algoritme coderingen of gegevens gebruikt die afkomstig zijn uit onze oneerlijke en bevooroordeelde menselijke wereld, dan zal het resultaat van de machine hetzelfde zijn en dezelfde foutieve veronderstellingen maken als wanneer een mens de beslissing intuïtief had genomen. Naarmate de machine meer leert van bevooroordeelde informatie kunnen deze vooroordelen steeds extremer worden.
Hypothetisch voorbeeld
Online reclame maakt gebruik van informatie (cookies) over u en uw vroegere surfgedrag om de inhoud die u ontvangt aan te passen op basis van trends in gegevens over waar vergelijkbare mensen interactie mee hebben gehad. Een algoritme dat is ontworpen om vacatures te tonen aan mensen die het meest geschikt zijn voor een functie zal daarom gebruik maken van eerdere gegevens over het type mensen dat succesvol is in deze functies. Dit betekent dat als een hoogbetaalde functie wordt geadverteerd, een algoritme zal beslissen bij wie deze moet worden geadverteerd op basis van het type mensen dat al geïnteresseerd is in bestaande functies van een hoger niveau.
Statistisch gezien hebben vrouwen minder kans om hoge functies te bekleden als gevolg van een aantal historische factoren, hoewel velen vandaag zouden beweren dat de reden waarom dit nog steeds een probleem is meer te wijten is aan vooroordelen in onze samenleving. In dit geval zou een algoritme zich op basis van deze informatie minder snel op vrouwen richten. Betekent dit dat een algoritme partijdig is, of gebruikt het gewoon partijdige informatie om een beslissing te nemen?
Het algoritme doet gewoon zijn werk en neemt beslissingen op basis van de gegevens die het ontvangt. Maar aangezien de input hier tegen een bepaalde groep is gericht, kan het niet zo zijn dat de uitkomst ook vertekend is.
In dit geval is het probleem verergerd doordat vrouwen nu minder advertenties voor hoogbetaalde banen te zien krijgen en nog minder kans hebben om te solliciteren naar een hoogbetaalde functie of deze te bemachtigen. En zo gaat de cyclus door. Op deze manier maakt A.I. het wervingsproces oneerlijker.
Voorbeeld uit het echte leven
Een paar jaar geleden moest Amazon een wervingsinstrument dat werd gebruikt om grote hoeveelheden cv’s te selecteren, stopzetten omdat het onevenredig veel mannelijke sollicitanten bevoordeelde. De algoritmen scanden, eenvoudig gezegd, vroegere cv’s van mensen die eerder in die functies hadden gewerkt (in de afgelopen 10 jaar) en deden vervolgens aanbevelingen voor wat zij goede kandidaten vonden.
Als gevolg van de bestaande mannelijke dominantie in de technologie-industrie begon het algoritme echter elke verwijzing naar vrouwen of vrouw-zijn als een negatieve eigenschap te identificeren, en vervolgens werd het CV genegeerd. Het algoritme werd uiteindelijk gewijzigd om voor dit verschijnsel te corrigeren, maar aangezien men niet kon weten of het algoritme zou blijven ziften op basis van andere discriminerende eigenschappen, werd het gebruik van het instrument stopgezet.
Amazon beweert dat er geen aanwervingsbeslissingen zijn genomen die uitsluitend op dit algoritme zijn gebaseerd, maar het toont aan hoe vooringenomenheid door machinaal leren echte problemen kan opleveren voor recruiters.
A.I. Bias in beoordelingen
Psychometrische beoordelingen van zachte vaardigheden zijn normatief.
Eenvoudig gezegd betekent dit dat de resultaten van een respondent worden vergeleken met een brede groep kandidaten die het assessment eerder hebben afgelegd, de zogenaamde normgroep. Normgerelateerde scores zijn ruwe scores (wat de kandidaat werkelijk heeft geantwoord), uitgedrukt op een manier waarbij rekening is gehouden met de gegevens van eerdere respondenten. Daarom is de enige input in ons algoritme die het resultaat van de beoordeling van een kandidaat beïnvloedt, de manier waarop hij de vragenlijst heeft beantwoord, en de manier waarop de 1000 eerdere kandidaten die de normgroep vormen, hun vragenlijst hebben beantwoord. De normgroep bepaalt hoe gemiddeld, ondergemiddeld en bovengemiddeld eruit zien, wat betekent dat we geen vooringenomenheid toekennen aan de scores, aangezien elke kandidaat kan worden getoetst aan exact dezelfde groep.
Ik hoor het u denken, maar als de gegevens van de normgroep op de een of andere manier vertekend zijn, zou dat de antwoorden van de kandidaten niet vertekenen? Nou, ja, maar we hebben maatregelen genomen om ervoor te zorgen dat dit niet het geval is. Ten eerste kunnen wij garanderen dat geen andere gegevens dan de zuivere gegevens van de antwoorden op schalen in ons normgroepalgoritme worden ingevoerd.
Persoonlijkheidsvragenlijsten zijn ontwikkeld om ervoor te zorgen dat de schalen meten wat ze beogen, en zijn onderworpen aan pilots en tests voordat ze in de aanwervingswereld worden uitgerold. Onze persoonlijkheidstests zijn ook rationeel afgeleid; dit betekent dat ze zijn ontwikkeld op basis van een specifiek gebruik. In ons geval ging het om een beroepsopleiding met iteminhoud en taalgebruik gebaseerd op een zakelijke omgeving.
Voor cognitieve capaciteitentests is er ook slechts één juiste oplossing voor een numerieke som, en elk antwoord kan alleen goed of fout zijn. Met andere woorden, de resultaten zijn al objectief, en het doel van de normgroep is de interpretatie te vergemakkelijken en de verschillen tussen de kandidaten begrijpelijker te maken.
Hoewel A.I. andere aspecten van het wervingsproces oneerlijker kan maken door machine learning bias, hoort psychometrie daar dus niet bij.
Zolang tests relevant zijn voor het beroep, meten wat ze beogen en geen verkeerde informatie opnemen in aanwervingsbeslissingen, zullen ze de wereld van werving en selectie de broodnodige objectiviteit verschaffen.
Wilt u meer informatie over hoe onze assessments uw wervingsproces kunnen verbeteren, neem dan contact op.