Vrije Tribune

Wat kunnen organisaties doen om vooroordelen tegen AI te verminderen?

Vrije Tribune Hier geven we een forum aan organisaties, columnisten en gastbloggers

David Ingham van IT-dienstverlener Cognizant legt uit waarom automatiseerde systemen tot vooroordelen kunnen leiden, wiens verantwoordelijkheid dat is en hoe dit kan worden voorkomen. “Bedrijven die geen rekening houden met de ethische gevolgen van hun automatiseringsprojecten nemen een aanzienlijk juridisch risico.”

Dat kunstmatige intelligentie impact heeft op vrijwel iedere sector, weten we intussen wel. Maar of dit ook een positieve impact betreft, is nog maar de vraag. Terwijl er tussen 2017 en 2018 nog een stijging was van zestig procent in de implementatie van de technologie, meldt IDC dat organisaties vaak niet goed voorbereid zijn om van AI ook daadwerkelijk een succes te maken. Ondanks de mogelijkheden tonen recente gebeurtenissen aan hoe geautomatiseerde systemen zowel bewust als onbewust tot vooroordelen leiden. Zo werden bijvoorbeeld per ongeluk vooroordelen vastgesteld bij algoritmen die digitale advertenties voor bèta/technische vacatures beheren. Met deze trend, die naar verwachting alleen maar groeit, is het van cruciaal belang dat het risico van vooroordelen wordt gezien en aangepakt.

Vrouwenstem populair

Naarmate AI steeds vaker zowel thuis als op de werkvloer wordt ingezet, kunnen de daarmee samenhangende vooroordelen een veel breder maatschappelijk probleem vormen. De implicatie van vrouwelijke ondergeschiktheid die in een UNESCO-rapport wordt genoemd, lijkt een onbedoeld gevolg te zijn van het gebruik van voornamelijk vrouwenstemmen voor het groeiend aantal digitale assistenten. De keuze om een vrouwenstem te gebruiken was in feite gebaseerd op tests die aantoonden dat er een grotere kans was dat mensen de assistent zouden gebruiken dan met een mannelijke stem. Bedrijven als Amazon en Google dachten dat dit een breder gebruik van hun apparaten zou stimuleren.

Algoritmes en gekleurde data

Zo ontwikkelde Amazon een tool op basis van AI, om cv’s te scannen en zo de kandidaten te herkennen die in aanmerking kwamen voor een gesprek. Het algoritme van Amazon vergeleek sollicitanten met hun bestaande werknemersbestand. Zo werd getracht de kandidaten te vinden die de beste match vormden met het profiel van een goede werknemer. Tot dusver niets geks.

Waar bij de inzet van het systeem geen rekening mee werd gehouden, was dat het huidige personeelsbestand uit voornamelijk mannen bestond. Daardoor nam het AI-systeem onbewust vooroordelen over vanuit de dataset. Zo kon het gebeuren dat een aantal vrouwenuniversiteiten werd beoordeeld als lagere opleidingen, aangezien maar heel weinig Amazon-medewerkers daar hun opleiding hadden genoten. Deze voorbeelden zijn slechts enkele manieren waarop geautomatiseerde systemen partijdig kunnen worden en een vooroordeel bij de mens kunnen bevorderen. Maar wiens verantwoordelijkheid is het om de aanklacht van vooringenomenheid een halt toe te roepen?

Verantwoordelijkheid

Momenteel besteden technologiebedrijven veel aandacht aan het vergroten van de klantbetrokkenheid, maar niet genoeg aan de impact die hun producten hebben op een bredere doelgroep. Diverse internationale organisaties zijn hiervoor in het verleden onder vuur komen te liggen. Een voorbeeld is een bekend fastfoodrestaurant dat werd aangesproken op zijn verantwoordelijkheid voor het verzamelen van de enorme hoeveelheid verpakkingsmateriaal dat als afval op straat lag. De kwestie van de sociale impact is niet nieuw, maar is gegroeid in lijn met de digitale ontwikkelingen.

Bedrijven die AI als onderdeel van hun strategie gebruiken moeten dan ook meer dan ooit hun rol en verantwoordelijkheid nemen om het risico en de impact te verminderen van de vooroordelen die inherent zijn aan hun producten en diensten.

Wat kunnen organisaties doen om vooroordelen tegen AI te verminderen?

Bewustwording is dus essentieel; bedrijven moeten beseffen dat dit een mogelijk gevolg is en automatisering en AI-procedures toetsen op vooroordelen. Hoe simpel dat ook lijkt, het rapport ‘Making AI Responsible and Effective’ laat zien dat dat nog niet zo evident is. Zo blijkt dat slechts de helft van de ondervraagde bedrijven beleid en procedures heeft waarmee ethische kwesties worden herkend en aangepakt – zij het in het oorspronkelijke ontwerp van AI-applicaties, zij het in hun gedrag zodra het systeem actief is. Aangezien AI een bijna verplicht, strategisch hulpmiddel wordt in verschillende sectoren, moeten de ethische overwegingen van intelligente systemen niet alleen worden gezien als ‘nice to have’. Alle bedrijven moeten verantwoordelijk worden gehouden voor de resultaten en de impact van hun producten op de samenleving, of dat nu is omdat ze bijdragen aan het zwerfvuilprobleem of omdat ze oneerlijke stereotypen aanmoedigen.

In het geval van AI-assistenten is het antwoord misschien het creëren van gepersonaliseerde apparaten. Op deze manier kunnen consumenten een stem kiezen die zij graag horen in plaats van een algemene stem die standaard geprogrammeerd is. Ongeacht de toepassing van AI moeten bedrijven proactief handelen als het gaat om de volledige impact van een product of dienst. Bedrijven die geen rekening houden met de ethische gevolgen van hun automatiseringsprojecten nemen een aanzienlijk juridisch risico.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content