Richard Socher

‘Er is nood aan meer diversiteit bij de ontwikkelaars die AI-systemen bouwen’

Richard Socher Chief Scientist bij Salesforce

“Elon Musk misbruikt de misverstanden rond artificiële intelligentie om een doembeeld te schetsen van een AI-apocalyps”, schrijft Richard Socher, Chief Scientist bij Salesforce. Hij pleit ervoor om die toekomstige doemscenario’s achterwege te laten en ons te focussen op een probleem waar algoritmes vandaag al mee te kampen hebben: vooringenomenheid.

Technologische vooruitgang brengt steevast angst en onzekerheid met zich mee. Al sinds de industriële revolutie zien we hoe mensen worstelen met de impact van nieuwe technologie op hun werk en leven. Vandaag komt diezelfde angst opnieuw bovendrijven, deze keer in de nasleep van iedere sprong voorwaarts in de ontwikkeling van AI.

AI staat nog steeds in zijn kinderschoenen, ondanks de immense vooruitgang die onderzoekers de laatste jaren boeken. Dat brengt onzekerheid, misverstanden en ongerustheid met zich mee. Elon Musk misbruikt die misverstanden om enerzijds een doembeeld te schetsen van een AI-apocalyps, terwijl hij anderzijds krachtige en geavanceerde AI-algoritmes in zijn Tesla-wagens stopt. Die spreidstand illustreert vooral hoe we met z’n allen gevangen zitten in een onnodige en gevaarlijke hype-cyclus.

We moeten voorbij die irrationele angst geraken om tot de realiteit te komen: er bestaat vandaag geen geloofwaardig onderzoek dat AI-doemscenario’s ondersteunt. Boeiende fictie is er natuurlijk wel. Ik heb genoten van de Terminator, net als veel andere kinderen van mijn leeftijd destijds. Een dergelijk verhaal is leuk als dictie, maar in de echte wereld weerhoudt de irrationele angst voor de apocalyps ons ervan om de echte bedreigingen, die AI wel degelijk in zich heeft, op een correcte manier aan te pakken.

De grootste problemen hebben te maken met vooroordelen en diversiteit. Ze zijn veel menselijker en veel dringender dan de vrees voor de singulariteit of de angst voor een robot-opstand. Enerzijds kampt AI met trainingsdata met ingebouwde vooroordelen, anderzijds met een gebrek aan diversiteit in het onderzoeksveld.

Er is nood aan meer diversiteit bij de ontwikkelaars die AI-systemen bouwen

Door AI’s te trainen met bevooroordeelde data, injecteren we onze eigen vooringenomenheid in de algoritmes, al dan niet met opzet. Ongehinderd bouwen we zo AI die sommigen zal bevoordelen ten koste van anderen. Zonder meer diversiteit in de sector krijgen bepaalde mensen een wel heel grote invloed over de onzichtbare beslissingen die leiden tot de creatie van een AI. De mogelijke impact op het dagelijkse leven van mensen wordt bovendien alsmaar groter nu we AI integreren in onder andere sollicitatieprocedures, leningaanvragen en medische beslissingen. We moeten erop waken dat AI onze slechtste eigenschappen niet overneemt.

Onschuldige data bestaan niet

AI komt steeds meer in aanraking met essentiële menselijke systemen, en we mogen niet vergeten dat de technologie niet werkt in een vacuüm. Ze heeft enorme hoeveelheden data nodig, die door krachtige algoritmes geanalyseerd worden zodat onthullende inzichten komen bovendrijven. Een AI is daarom maar zo goed als de trainingsdata waarmee het aan de slag gaat. Als die data vooroordelen heeft (denk bijvoorbeeld aan seksistische of racistische taal), dan zal dat als een infectie de resultaten beïnvloeden. Wat een AI heeft geleerd, wordt bovendien versterkt wanneer het algoritme bepaalde beslissingen duizenden of miljoenen keren herhaalt. Zo komen vooroordelen die eerst verstopt zaten in de data plots erg duidelijk naar buiten.

Bevooroordeelde AI is geen hypothetisch risico, in tegenstelling tot een robotrevolutie. Een bevooroordeelde AI die een schoonheidswedstrijd voorzat, verkoos steevast blanke deelnemers, terwijl een algoritme van Google zwarte gezichten als gorilla’s klasseerde. In een studie associeerde AI mannelijke namen met carrière-ambitie, wiskunde en wetenschap. Vrouwelijke namen gingen hand in hand met kunst. Net zoals onze clicks ons binnen onze eigen Facebookbubbels houden, zorgt door vooroordelen getinte data ervoor dat AI menselijke vooroordelen verder kracht bij zet.

Door AI’s te trainen met bevooroordeelde data, injecteren we onze eigen vooringenomenheid in de algoritmes. Ongehinderd bouwen we zo AI die sommigen zal bevoordelen ten koste van anderen.

We kunnen de verantwoordelijkheid voor onze beslissingen niet naar AI schuiven. Als we meer op kunstmatige intelligentie gaan vertrouwen om onze beslissingen te nemen, moeten we er alles aan doen om ons ervan te vergewissen dat we de systemen op een verantwoorde manier gebruiken. De eerste stap daarin is om meer transparantie in te bouwen in het datavergaringsproces. Waar komen de gegevens vandaan? Wie heeft ze verzameld? En hoe? We moeten ook onze modellen onder handen nemen en de werking ervan duidelijker maken. Zo kunnen we vooroordelen ontdekken die we misschien eerst gemist hadden.

Als we het probleem grondig kunnen aanpakken, is het veel waarschijnlijker dat AI een tool blijft die ons helpt een betere wereld te creëren. Misschien is het onmogelijk om menselijke vooroordelen de wereld uit te helpen, maar we kunnen er wel voor zorgen dat onze AI’s met minder vooroordelen kampen dan de ontwikkelaars.

Hoewel menselijke vooroordelen aan de basis liggen van dit probleem, kan menselijk inzicht het oplossen. Algoritmes worden bijvoorbeeld steeds beter in de detectie van fake news, en het identificeren van discriminatie. Menselijk toezicht blijft natuurlijk noodzakelijk om de kwaliteit van de algoritmes te verbeteren. Wanneer we praten over de veranderende jobmarkt en de invloed die AI daarop zou hebben, zie ik een nieuwe baan ontstaan: de AI-monitor. We zullen immers steeds menselijke controle nodig hebben op de input en de output van AI.

Dat brengt ons tot het tweede probleem voor de bouw van onbevooroordeelde AI: er is nood aan meer diversiteit bij de onderzoekers en ontwikkelaars die de systemen bouwen. Tal van studies brachten al een stevig gebrek aan balans aan het licht. Volgens code.org zijn onder andere zwarte en Latijns-Amerikaanse mensen drastisch ondergerepresenteerd in de sector. Minder representatie correleert doorgaans met minder toegang, niet enkel in klaslokalen maar ook in bedrijven en overheden.

We moeten er actief voor zorgen dat iedereen gelijke toegang krijgt tot nieuwe technologieën wanneer ze hun intrede maken in de maatschappij. Gelukkig kan AI daarbij ook helpen. Zo kunnen we met de hulp van AI steeds intuïtievere ontwikkelaarstoolkits afleveren en zo de toegang vanuit de onderwijswereld vergroten, zodat AI automatisch meer mensen bereikt.

Door educatieve kansen te bieden aan een brede groep van mensen, zal de sector automatisch diversifiëren. Die diversiteit zal ons dan weer helpen om vooroordelen uit AI te halen, die we door een eenzijdig perspectief misschien zouden missen.

We moeten deze uitdagingen dringend aanpakken: de toekomst staat voor de deur. AI is misschien wel het meest geavanceerde stuk gereedschap dat we ooit ontwikkelden. Net als een hamer kan het gebruikt worden voor goede en slechte zaken. Met een goed toezicht door onze wetenschappers en politieke leiders kan AI de wereld beter maken. Het kan voedselproductie en transport automatiseren, gezondheidszorg persoonlijk maken en iedereen, ongeacht ervaring of achtergrond, de mogelijkheid geven om productiever te zijn.

Betere en efficiëntere versies van onszelf maken: dat is de belofte van AI.

Betere AI bouwen is bijgevolg recht evenredig met werken aan een beter leven voor mensen. Betere en efficiëntere versies van onszelf maken: dat is de belofte van AI. De technologie geeft ons de mogelijkheid om ons toe te spitsen op creatieve en betekenisvolle taken. Zelfs vandaag, nu we nog aan de wieg van de technologie staan, helpt ze ons al door ons een spiegel voor te schotelen.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content