Interview Hilke Schellmann: Wat als AI niet uw job afpakt, maar zorgt dat u geen job meer krijgt?
We weten dat AI fouten maakt. Maar wat betekent dat als AI ook ingezet wordt door hr? Dat mogelijk de verkeerde persoon de job krijgt. Of anders verwoord: de juiste persoon net niét.
‘Human resources’ draait dan wel om mensen, dat betekent niet dat kunstmatige intelligentie buitengehouden wordt. Integendeel: hr heeft AI volop omarmd. House of HR organiseerde er pas nog het e-recruitment congress in Amsterdam over. Data News sprak er met Hilke Schellmann die het publiek van hr-managers, rekruteerders en hr-professionals duidelijk trachtte te maken dat ze maar beter de algoritmen van AI doorgronden vooraleer blindelings mee te gaan in een AI-verhaal. De onderzoeksjournaliste en professor journalistiek aan de New York University schreef er een boek over met de toepasselijke naam The Algorithm.
Het boek schetst een beeld van hoe AI zowat systematisch aan discriminatie van bijvoorbeeld vrouwen of niet-blanken doet in de rekruteringsprocessen. Hoe is het zo ver kunnen komen?
Hilke Schellmann: Dit verhaal begint in 2017-2018 met wat ik de eerste golf van AI noem. Het was een periode waarin start-ups en ook grotere bedrijven allerlei software uitbrachten die vooral een score plakte op alles en iedereen. En die heel erg overtuigend waren in het doen lijken alsof er échte wetenschap achter schuilt. Zelfs als je zoals ik toen sceptisch was over de waarde van zo’n score, bleef je toch al snel zitten met het gevoel dat er toch iéts achter de score zit. Dat er toch iéts bepaalt waarom je 37% en geen 87% scoort. Ondertussen weten we van veel tools dat er helemaal géén wetenschap achter zit. Ik heb met zoveel psychologen en wetenschappers gepraat en voor bijvoorbeeld de analyse van gezichtsuitdrukkingen en stem-intonatie kan ik ondertussen wel gerust zeggen: there is nothing there.
Maar ondertussen zijn we ruim 6 jaar later en zo’n pseudo-wetenschappelijke AI wordt dus volgens u wel op grote schaal gebruikt door hr?
Schellmann: Ja, anno 2024 proberen veel rekruteerders data te krijgen over kandidaten zonder dat ze garanties hebben dat het ook goeie, bruikbare data is. Ik denk dat het onderliggende idee vaak is dat wie we kennen, wat ons drijft, ons innerlijk, ook zichtbaar is aan de buitenkant. Ik kan het zien in je gezichtsuitdrukkingen. Of ik kan het zien in je handschrift, wat vroeger een groot succes was in Frankrijk voor het inhuren van grafologen. Hetzelfde idee wordt soms nog altijd toegepast bij de analyse van leidinggevenden en hun persoonlijkheid. Of soms ook om werkzoekenden te controleren. Onderliggend is dat steeds weer hetzelfde idee dat zo aanlokkelijk blijft.
Probeer toegang te krijgen tot de ‘black box’
Maar we moeten er dus geen waarde aan hechten?
Schellmann: Kijk, een van de problemen is dat we ondertussen de technologie in huis hebben om snel alle signalen op te nemen. Een computer is eigenlijk heel goed in het in het kaart brengen van mijn gezichtsuitdrukkingen of mijn handschrift. De technologische mogelijkheden laten ook toe om letterlijk alles te controleren wat je op je toetsenbord doet. Maar het is in het afleiden van de betekenis daarvan dat het keer op keer fout loopt: daar is in veel gevallen gewoon géén exacte wetenschap over. Neem nu gezichtsuitdrukkingen. Software kan herkennen dat ik meer dan gemiddeld lach. Maar zegt dat ook dat ik gelukkig ben? Misschien overcompenseer ik dat ik eigenlijk doodongelukkig ben? Of lach ik omdat ik gestresseerd ben in het gesprek? Of de vraag die je je echt moet stellen: zijn gezichtsuitdrukkingen eigenlijk wel relevant in een jobinterview? Het is niet omdat je het kan meten dat het ook bruikbaar is.
U hebt heel wat onderzoek gedaan naar de algoritmes achter de AI-tools van hr. U hekelt daarbij ook dat heel wat leveranciers blijkbaar zélf niet weten wat er in hun ‘black box’ gebeurt?
Schellmann: Absoluut. Wanneer je er naar vraagt ontdek je dikwijls ook dat te achteloos bepaalde componenten of libraries gebruikt worden. Zoals één leverancier het onlangs nog zei: ‘ja, voor die woordanalyse vonden we een library in Python, dus we hebben die gewoon gebruikt’. En als je dan doorvraagt merk je dat die leverancier zelf totaal geen zicht heeft hoe die library in elkaar zit. Wanneer ontwikkelaars je niet kunnen uitleggen hoe een bepaalde scoring uiteindelijk werkt, dan zit je met problematische software die ronduit gevaarlijk kan zijn.
Gaan vendors hier dan bewust in de fout of is het onwetendheid?
Schellmann: Ik denk dat het probleem is dat veel van hen misschien meer een datawetenschappelijke achtergrond hebben. Correlatie lijkt vaak betekenisvol. Je hebt big data en je hebt miljoenen datapunten, en je vindt een correlatie, en dat is op zichzelf betekenisvol. Ik denk dat er veel te weinig vraagtekens gezet worden bij de causaliteit. Zijn de resultaten bijvoorbeeld wel causaal gerelateerd aan het feit dat je goed bent in je werk? Wist je bijvoorbeeld dat in de VS ook gamified assessments plaats vinden? Er bestaat een spelletje waarin een kandidaat een ballon moet opblazen door op de spatiebalk te duwen. Door de ballon zelf te doorprikken verdien je geld. Een harder opgeblazen ballon doorpikken levert je meer geld op. Maar met het risico dat hij uit zichzelf uit elkaar spat en dan verdien je niks. Met zo’n spelletje wordt in kaart gebracht of je graag risico’s neemt. Maar wat zegt dat over mij in een professionele context? Misschien neem ik graag risico’s in games, maar doe ik dat zeker niet in een zakelijke werkomgeving? Is daar wel een correlatie, moet je je de vraag stellen.
Aan de andere kant kan u het rekruteerders toch niet kwalijk nemen dat ze hun toevlucht nemen tot AI en software om de selectie helpen te maken?
Schellmann: Alle begrip daarvoor, ik heb ook niks tegen technologie. Maar technologie mag niet gaan discrimineren en moet ethisch verantwoord zijn, en daar loeren de gevaren echt wel om de hoek. Dat is wat mijn onderzoek ook aantoont. Zo ontdekten we bijvoorbeeld dat je in de VS op je curriculum vitae maar beter niet ‘softball’ als hobby vermeldt, maar wel ‘baseball’. De kans is namelijk kleiner dat je de job krijgt wanneer je hobby ‘softball’ is: dat hebben we uitdrukkelijk kunnen bewijzen. De AI die analyse van cv’s doet is getraind op algemene data die niet noodzakelijk gerelateerd zijn aan wat je voor een bepaalde job nodig hebt. Of je nu een softball-speler of baseball-speler bent zou niet mogen uit maken, en toch is het zo dat je scoring erdoor beïnvloed wordt. Dus alleen dat kan al zorgen dat je naast de job grijpt, zelfs al heeft die hobby niks te maken met de jobinhoud. Eigenlijk is het hier trouwens discriminatie op geslacht, want in de VS wordt softball meer als een vrouwensport gezien.
Mogen we dat ronduit dramatisch vinden?
Schellmann: Dat is het ook. De hobby is maar één voorbeeld. Hetzelfde geldt voor bepaalde voornamen. Omdat de trainingsdata de AI leerde dat een bepaalde voornaam minder succesvolle jobs heeft. Heet je Thomas? Dan heb je net geluk, want mensen die Thomas heten hebben volgens de AI meer kans op succes. Of locatie: omdat op een bepaalde plaats in het land nu eenmaal minder succesvolle mensen terug te vinden zijn volgens de data waarop de AI getraind is. Dat is allemaal ronduit problematisch, want zo’n scoring zegt niks over de capaciteiten van iemand. AI kan er zo dus voor zorgen dat je de job niet krijgt, puur omwille van een algoritme dat jou niet goed ligt.
‘Wanneer ontwikkelaars je niet kunnen uitleggen hoe een bepaalde scoring werkt, dan zit je met problematische software die ronduit gevaarlijk kan zijn’
Aan de andere kant: mensen maken toch ook fouten en zijn niet altijd even objectief? Een rekruteerder kan toch inschattingsfouten maken?
Schellmann: Zeker, maar een rekruteerder weet wel beter waarnaar te kijken op een cv en probeert objectief te zijn op de juiste criteria. Een AI-tool zet een cv in datapunten om en neemt alles in rekening. Een rekruteerder hecht er veel minder belang aan of je een softball- dan wel baseballspeler bent. Maar AI kan wel degelijk waarde hebben, begrijp me niet verkeerd. Wij, mensen, hebben de neiging om onszelf altijd superobjectief en fantastisch presterend te vinden. Maar we hebben allemaal wel eens een slechte dag waarbij we chagrijnig zijn en misschien daarom al sneller sollicitanten afwijzen. Een AI heeft ook nooit last van een hongerige maag.
Ik snap het, bijna tijd voor lunch. Maar toch nog één vraag. Beseffen de hr-afdelingen die AI inzetten ten volle dat ze mogelijk discrimineren? En zo ja, wat kunnen ze er aan doen?
Schellmann: Het besef groeit, maar daarom wordt er nog geen actie ondernomen. Wat ik hr-managers altijd aanraad, is om te proberen de ‘black box’ van hun softwareleverancier(s) te openen. Durf vragen hoe een tool of stukje software werkt. Laat je niet met een kluitje in het riet sturen en durf doorvragen tot je de antwoorden hebt. Enkel zo kan je met bias en mogelijke discriminatie omgaan. En ideaal weet je dit zelfs voor je klant wordt. Maar eigenlijk start je maar beter nog wat vroeger door jezelf af te vragen welk probleem je eigenlijk wil oplossen? En helpt die tool die je op het oog hebt je daarbij of gaat het gewoon voor andere problemen zorgen? Kritisch en sceptisch durven nadenken dus, en jezelf ook afvragen of je wel gaat kunnen controleren op mogelijke vooroordelen. Noem het een soort controle vanuit je onderbuik. Hoe zou jij je voelen als je zoon of dochter een bepaalde tool moet gebruiken om een job te pakken te krijgen? Of om een project te mogen uitvoeren? Zou je dat zelf willen doen voor een baan? Als je je er niet goed of raar bij voelt, gebruik het dan niet. Als je het een beetje creepy vindt, volg dan je gevoel. Dat vertelt je dat werkzoekenden er misschien net zo over denken.
Fout opgemerkt of meer nieuws? Meld het hier