Racistische robots: menselijke vooroordelen in artificiële intelligentie
Artificiële intelligentie pikt diepgewortelde racistische en gendervooroordelen op wanneer het uit tekst leert. Dat blijkt uit nieuw onderzoek.
Zelfs AI-modellen die enkel blootgesteld worden aan ‘neutrale’ teksten zoals Wikipedia of nieuwsartikels pikten snel menselijke vooroordelen op”.
In de studie, gepubliceerd in het wetenschappelijk vakblad Science, experimenteerden de onderzoekers met een veelvoorkomend model voor artificiële intelligentie genaamd ‘the Global Vectors for Word representation’ (GloVe). Daaruit bleek dat het systeem elke soort menselijke vooringenomenheid vertoonde. Uit teksten op het internet leerde het system onder meer om vrouwelijke namen meer te associëren met familiegerelateerde woorden of afro-Amerikaanse namen als negatiever te beschouwen dan Amerikaans-Europese namen.
“Het was verbluffend alle resultaten te zien die ingebed zijn in deze modellen”, zegt Aylin Caliskan, een van de onderzoekers. “Zelfs AI-modellen die enkel blootgesteld worden aan ‘neutrale’ teksten zoals Wikipedia of nieuwsartikels pikten snel menselijke vooroordelen op”.
Het team kwam tot deze conclusie door dezelfde psychologische test toe te passen op GloVe als op mensen. De ‘impliciete associatietest’ gebruikt reactietijden om te ontdekken welke lading personen toekennen aan bepaalde woorden. Er verschijnen twee categorieën op het scherm. Met een linker- en rechterknop moet men aangeven tot welke categorie een bepaald woord hoort. Op die manier moeten termen snel met elkaar verbonden worden. Het mag niet verbazen dat bijvoorbeeld ‘bloem’ en ‘schoonheid’ sneller aan elkaar gerelateerd zullen worden dan ‘bloem’ en ‘stank’. De test kan je online zelf proberen.
Het kan ook gebruikt worden om de onbewuste associaties bloot te leggen tussen bepaalde bevolkingsgroepen. Zo worden de woorden ‘vrouwelijk’ en ‘vrouw’ sneller geassocieerd met beroepen uit de geesteswetenschappen terwijl ‘mannelijk’ en ‘man’ meer gelinkt werden aan ingenieurswetenschappen en wiskunde.
Artificiële intelligentie analyseert de wereld zoals ze bestaat en daar zijn nu eenmaal veel vooroordelen te vinden.
Dezelfde proef werd door de onderzoekers nagebouwd voor computers. Hieruit bleek dat de associaties die de artificiële intelligentie legt tussen bepaalde woorden even sterk zijn als bij mensen. Dat mag niet verbazen. Artificiële intelligentie analyseert de wereld zoals ze bestaat en daar zijn nu eenmaal veel vooroordelen te vinden.
Dat ondervond Microsoft aan den lijve toen het vorig jaar zijn chatbot met artificiële intelligentie Tay losliet op Twitter. Het was de bedoeling van Microsoft dat Tay conversaties aanging met Twittergebruikers om daaruit te leren. Twitteraars ontdekten al snel hoe ze dit konden misbruiken. Binnen de 24 uur ontkende Tay de holocaust, spuwde ze racistische commentaren en zei ze dat oud-president George W. Bush achter de aanslagen op 9/11 zat.
Algoritmes zijn niet in staat vooroordelen bewust tegen te gaan, mensen wel.
Tay is een ludiek voorbeeld van hoe het grondig fout kan lopen met zelflerende artificiële intelligentie. De angst bestaat echter dat bestaande sociale ongelijkheden en vooroordelen zullen versterkt worden op onvoorspelbare manieren, naarmate grotere delen van ons dagelijks leven worden overgeleverd aan automatisering. Algoritmes zijn niet in staat vooroordelen bewust tegen te gaan, mensen wel. Ook het onderzoeksteam waarschuwt: “Als zulke machine-intelligentie gebruikt wordt in bijvoorbeeld het screenen van cv’s, kan dat resulteren in vooringenomen uitkomsten… De nodige voorzichtigheid moet gepaard gaan met onbeheerde artificiële intelligentie te gebruiken in besluitsvormingssystemen”.
Het is niet onmiddellijk duidelijk hoe dit probleem op te lossen valt. Indien het algoritme aangepast wordt om de vooringenomenheid weg te laten, zou het minder effectief zijn. Informatie achterhouden zal waarschijnlijk ook niet werken. Zelfs als je bijvoorbeeld het geslacht van een bepaalde persoon ‘verzwijgt’ voor het programma, zal het nog steeds in staat zijn dit te bepalen op basis van andere correlaties.
Sommigen denken dat hoe dan ook mensen moeten betrokken worden, om in te grijpen als het fout loopt. De programmeercode moet bovendien transparant zijn, zodat het duidelijk is hoe het programma tot een bepaalde uitkomst gekomen is. In elk geval blijft het belangrijk onze verantwoordelijkheid als maatschappij op te nemen en bewust te blijven van de potentiële valkuilen die deze technologie met zich meebrengt.
Fout opgemerkt of meer nieuws? Meld het hier