‘Amper 15% datawetenschappers houdt actief rekening met ethiek’
Uit nieuw onderzoek rond data analytics moet blijken dat het probleem van ethiek en vooroordelen in AI nog niet meteen van de baan is.
Hoewel er vraag is naar meer ethiek, en meer opleiding rond ethiek, voor ontwikkelaars van kunstmatige intelligentie, wordt er aan die vraag amper voldaan. Dat moet blijken uit een onderzoek van Anaconda, een Amerikaanse data analytics platform.
Vooroordelen die (meestal per ongeluk) worden ingebouwd AI- en machinelearningalgoritmen, kunnen verregaande gevolgen hebben als die programma’s vervolgens breed gebruikt worden. De oplossing die vaak naar voren wordt geschoven om die ‘bias’ tegen te gaan, zij het met specifieke programma’s of met ethiekopleidingen, waardoor de ontwikkelaars van de database en de AI beter gewapend zouden zijn om een neutraal algoritme te bouwen.
Een rapport van Anaconda toont echter aan dat er van die opleidingen nog niet veel in huis is gekomen. Het bedrijf voerde het onderzoek uit bij 2.360 mensen in honderd landen, in februari en april van dit jaar.
Daarin geeft amper 15% van de respondenten aan dat hun team op een actieve manier de problematiek van privacy en bias in AI probeert te counteren. Anderzijds biedt ook maar 15% van de universiteiten is een cursus in ethiek aan voor deze onderwerpen, schrijft Anaconda. En dat is spijtig, want 27 procent van de respondenten geeft in de survey aan dat voor hen de sociale impact van bias het grootste probleem is dat AI en machine learning moet aanpakken. Voor nog eens 22% is het grootste probleem de impact op privacy.
Minder dan de helft van de respondenten zegt dan weer dat ze de impact kunnen aantonen van datawetenschap op de business. Dat heeft misschien deels te maken met de moeilijkheden om datamodellen in productie te krijgen. Respondenten zeiden dat ongeveer 45% van hun tijd werd gespendeerd aan het klaarzetten van de data. Het opladen en schoonmaken van de gegevens neemt dus een groot deel van de tijd in, voordat de modellen en visualisaties gemaakt kunnen worden.
Fout opgemerkt of meer nieuws? Meld het hier