‘Vrouwelijke AI-assistenten bevestigen gendervooroordelen’

De Invoke luidspreker, nog aan te spreken met Cortana, als app op iOS of Android weliswaar.

Digitale assistenten zoals Siri van Apple of Alexa van Amazon, die standaard gebruikmaken van een vrouwelijke stem, bevestigen de gendervooroordelen. Dat moet blijken uit een studie van de Verenigde Naties.

“Deze vrouwelijke helpers worden voorgesteld als gedienstig en steeds bereid om te behagen”, wat het vooroordeel van een onderdanige vrouw bevestigt, klinkt het. Bijzonder verontrustend is het feit dat de luidspreker “vaak flauwe en verontschuldigende reacties geeft op beledigingen”. Het rapport van Unesco kreeg de titel ‘I’d blush if I could’ (‘Ik zou blozen als ik dat kon’), naar de reactie van Siri als je het toestel seksueel getinte scheldwoorden toegooit.

Deel van het probleem, zo schrijft het rapport, is dat deze assistenten door overwegend mannelijke ingenieurs worden gebouwd, waardoor ze beledigingen beantwoorden met licht geflirt. “Omdat de stem van de meeste digitale assistenten vrouwelijk is, geeft dat het signaal dat vrouwen volgzame helpers zijn, die beschikbaar worden met een druk op de knop of een botte spraakopdracht als ‘hey’ of ‘ok’,” schrijft het rapport nog. “In veel gemeenschappen versterkt dit bestaande vooroordelen dat vrouwen onderdanig zijn, en dat ze slecht gedrag verdragen.”

Vorig jaar gingen naar schatting zo’n 100 miljoen van deze intelligente speakers over de toonbank. Het rapport van de Unesco roept de technologiebedrijven op om deze assistent-speakers niet standaard de stem van een vrouw te geven, maar te kiezen voor een meer neutrale digitale stem. Dat is alvast iets waar een researchteam in Kopenhagen aan werkt, met hun project Q.

Partner Content