VUB-computerwetenschapper bedenkt methode om bias in AI te bestrijden

© Getty Images
Ronald Meeus
Ronald Meeus Freelance journalist

Onder de naam LUCID ontwikkelde VUB-computerwetenschapper Carmen Mazijn een nieuwe techniek om te onderzoeken of kunstmatig intelligente systemen een aanvaardbare logica gebruiken in het opleveren van hun denkwerk. Dat bestrijden van ‘bias’ is belangrijk om de werkbaarheid van AI in het dagelijkse leven te bevorderen.

Voordat artificiële intelligentie in een nabije toekomst taken van ons kan overnemen, moeten er nog een paar cruciale hordes worden genomen. Een daarvan is het verminderen van bias: een kunstmatig intelligent model kan ‘vooringenomen’ zijn omdat het wordt getraind op data die niet representatief zijn voor de werkelijkheid. ‘Een politiedepartement kan AI gebruiken om te bepalen in welke straten meer patrouilles moeten worden ingezet’, geeft VUB-computerwetenschapper Carmen Mazijn een voorbeeld. ‘Door meer patrouilles in te zetten, worden bijgevolg ook meer inbreuken vastgesteld. Wanneer die gegevens terug het AI-systeem worden ingevoerd, wordt een al dan niet aanwezige bias versterkt en krijg je een zelfvervullend effect.’

Black Box Revelation

We weten niet altijd juist hoe algoritmes werken, en zijn daardoor dus ook niet altijd heel zeker dat de keuzes die ze maken wel fair zijn, stelt Mazijn in haar doctoraatsthesis Black Box Revelation: Interdisciplinary Perspectives on Bias in AI. Daarom bedacht ze, onder de naam LUCID, een detectietechniek om vooringenomen dataverwerking tegen te gaan. Ze ging daarbij vooral aan de slag met beslissingsalgoritmes: AI-systemen die beslissingen van mensen ondersteunen of zelfs mensen volledig vervangen in het beslissingsproces. Door een beter begrip van wat er onder de motorkap van zo’n kunstmatig intelligent systeem zit kan het risico op oneerlijke of discriminatoire beslissingen worden tegengegaan. Het idee is dat de methode nu wordt ingezet om te achterhalen of een systeem ook op de echte wereld kan worden losgelaten, los van spielereitjes als ChatGPT.

Algoritme kraken

Want ook als het resultaat fair lijkt, zijn de drijfveren van de AI om tot die slotsom te komen niet per definitie eerlijk geweest, stelt Mazijn. In een selectieprocedure kan een AI-model bijvoorbeeld schijnbaar gendergelijke keuzes maken, maar wanneer het algoritme onder de loep wordt genomen kunnen die keuzes toch helemaal verschillend gemotiveerd zijn voor mannen en vrouwen. ‘Het algoritme kan soms schijnbaar fair beslissen, maar daarom niet altijd om juiste redenen’, zegt Mazijn. ‘Om zeker te weten of een AI-systeem een bepaalde bias heeft of wel degelijk maatschappelijk aanvaardbare keuzes maakt, moet je het systeem en de algoritmes kraken.’

Lees meer over:

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content