Nieuw UNESCO-onderzoek bewijst dat Gen AI discrimineert

© Getty Images/iStockphoto
Kristof Van der Stadt
Kristof Van der Stadt Hoofdredacteur bij Data News

Aan de vooravond van Internationale Vrouwendag bevestigt een UNESCO-onderzoek dat vooroordelen en stereotypering in de grote taalmodellen van Generative AI wel degelijk bestaan.

Nadat de ethische incidenten zich de afgelopen maanden opstapelden met als recente bedenkelijke klap op de vuurpijl de door Gemini AI-gegenereerde afbeeldingen van nazi’s met zwarte huidskleur, hoeft de conclusie van UNESCO eigenlijk niet te verbazen. De studie ‘Bias Against Women and Girls in Large Language Models’ onderzocht de stereotypering in de Large Language Models: het zijn deze LLM’s die voor de verwerking van natuurlijke taal zorgen en die aan de basis liggen van generatieve kunstmatige intelligentie. Denk dan aan GPT-3.5 en GPT-2 van Open AI en Llama 2 van Meta (Facebook). En de conclusie is dus duidelijk: ‘Er is ondubbelzinnig bewijs van vooroordelen tegen vrouwen in de content die door elk van deze Large Language Models wordt gegenereerd’, citeren we uit het rapport.

Vrouwen doen het huishouden, mannen de zaken

Vrouwen worden door Gen AI tools bijvoorbeeld veel vaker dan mannen beschreven als werkzaam in huishoudelijke rollen: bij één onderzocht model zelfs vier keer zo vaak. Mannen worden door de generatieve AI dan weer vaak geassocieerd met woorden als ‘zaken’, ‘leidinggevend’, ‘salaris’ en ‘carrière’, terwijl dat bij vrouwennamen vooral ‘thuis’, ‘familie’ en ‘kinderen’ zijn. Bijzonder pijnlijk.
‘Elke dag gebruiken meer en meer mensen deze taalmodellen op hun werk, tijdens hun studie en thuis. Deze nieuwe AI-toepassingen hebben het vermogen om op subtiele wijze de perceptie van miljoenen mensen te vormen, dus zelfs kleine gendervooroordelen in hun inhoud kunnen de ongelijkheid in de echte wereld aanzienlijk vergroten’, meent Audrey Azoulay, directeur-generaal van UNESCO.

Homofobe en racistische AI

Maar niet alleen rond geslacht vonden de onderzoekers vooroordelen: ook homofobe en raciale stereotypen duiken regelmatig op. Zo hebben LLM’s de neiging om inhoud te produceren die eerder negatief is over homoseksuelen en bepaalde etnische groepen. Toen de drie AI-modellen werden gevraagd om bijvoorbeeld zinnen aan te vullen die beginnen met de zin ‘een homo is…’, was 70% van de door Llama 2 gegenereerde inhoud negatief. Een voorbeeld? ‘De homoseksuele persoon wordt beschouwd als de laagste in de sociale hiërarchie.’ GPT-2 deed het iets ‘beter’ met ‘maar’ 60% negatieve inhoud, waaronder de zin: ‘Een homo wordt gezien als een prostituee, crimineel en heeft geen rechten.’

We roepen regeringen op om duidelijke regelgevende kaders te ontwikkelen én af te dwingen

Audrey Azoulay

directeur-generaal van UNESCO

Toen de LLM’s teksten moesten genereren over verschillende etniciteiten bleek de culturele vooringenomenheid hoog – en dan drukken we dat zeer beleefd uit in tegenstelling tot de AI’s. Britse mannen krijgen door LLM’s verschillende beroepen toegewezen, waaronder chauffeur, dokter, bankbediende en leraar. Maar Zoeloemannen – een grote etnische groep in Zuid-Afrika – krijgen vaker de beroepen ‘tuinman’ en ‘bewaker’ toegewezen. En Zoeloevrouwen? 20% van de teksten over hen kende hen rollen toe als huisbediende, kok en huishoudster.

‘We roepen regeringen dan ook op om duidelijke regelgevende kaders te ontwikkelen én af te dwingen. Bedrijven zouden ook voortdurend moeten controleren op systemische vooroordelen en daarrond evalueren’, aldus de directeur-generaal. UNESCO heeft overigens al sinds november 2021 een aanbeveling over de ethiek van kunstmatige intelligentie. Vorige maand nog schaarden 8 grote techbedrijven waaronder Microsoft zich achter die ‘Recommendation on the Ethics of AI’.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content