Nathalie Smuha
Laten we intelligenter zijn wanneer we het over Artificiële Intelligentie hebben
AI is seksistisch, discrimineert en steelt jobs. Maar de realiteit is genuanceerder, stelt Nathalie Smuha, onderzoekster aan de KULeuven. Zij benadrukt dat we de verantwoordelijkheid hiervoor niet bij AI zelf moeten plaatsen, maar bij de menselijke ontwikkelaars en gebruikers van AI. Op een correctere manier over AI praten is daarom cruciaal.
Nathalie Smuha is Onderzoekster ethische en juridische implicaties van Artificiële Intelligentie aan de KULeuven, FWO mandataris, Observatrice in de Europese deskundigengroep rond AI.
AI is seksistisch. AI discrimineert. En AI steelt onze jobs. Het zijn maar enkele voorbeelden van headlines rond Artificiële Intelligentie (AI) die de afgelopen maanden in het nieuws verschenen en die we gretig lazen. Gezien de steeds grotere alomtegenwoordigheid van AI in ons leven, kunnen we ervan op aan dat we de komende jaren nog veel meer nieuws over AI zullen verslinden. En dat is nodig: dit nieuws is de primaire bron van informatie over een technologie waar we steeds meer mee in aanraking komen en gevolgen van ondervinden -positief en negatief.
Laten we intelligenter zijn wanneer we het over Artificiële Intelligentie hebben
De afgelopen jaren heeft de media bijgedragen tot een beter begrip rond de capaciteiten en limieten van AI. Zo hebben journalisten (samen met NGOs, onderzoekers en geëngageerde werknemers) een belangrijke rol gespeeld om ethische problemen rond bepaalde AI applicaties aan het licht te brengen. Denk maar aan de interne protesten bij Google rond de ontwikkeling van militaire AI-drones; de ProPublica studie die aantoonde dat het in de VS gebruikte Compass systeem (om de kans tot recidive in te schatten) tot discriminerende oordelen leidde; of de kritiek op het SyRI systeem dat in Nederland fraude opspoorde en bepaalde groepen disproportioneel viseerde.
De media heeft er ook mede voor gezorgd dat – naast strategieën om investeringen in AI te boosten – er nu ook strategieën ontstaan om de risico’s ervan te beperken. Zo richtte de Europese Commissie in juni 2018 een deskundigengroep op om ethische richtlijnen te ontwikkelen voor AI op Europees niveau. Deze richtlijnen vormden ook een belangrijke inspiratiebron voor de whitepaper die de Commissie in februari publiceerde en een schets bevat voor nieuwe regulering rond (risicovolle) AI applicaties.
We mogen de manier waarop er over AI wordt geschreven niet onderschatten.
Het belangrijke werk om het bredere publiek te informeren over deze steeds gewichtigere technologie, zodat er een maatschappelijk debat rond kan worden gevoerd, is echter verre van voorbij. We mogen de manier waarop er over AI wordt geschreven dan ook niet onderschatten. Zo opteerde de Europese deskundigengroep er bijvoorbeeld voor om in plaats van “AI” de term “AI-systemen” te hanteren. Het gaat tenslotte slechts om een categorie van IT-systemen ontwikkeld door mensen; een nuance die vaak verloren gaat door het te hebben over “AI” als entiteit op zich, wat verkeerdelijk de indruk geeft dat AI een eigen wil heeft, losstaand van menselijke ontwikkelaars.
Muggenzifterij? Neen. Er staat teveel op het spel om dit slordige taalgebruik – en de gevolgen ervan voor zij die op zulke berichtgeving vertrouwen – door de vingers te zien.
Dit taalgebruik leidt tot verwarring over de capaciteiten van huidige AI applicaties
Geen enkel AI-systeem dat vandaag bestaat kan de inhoud van de data die het verwerkt ‘begrijpen’. Het bevat geen semantiek, enkel syntaxis.
Claims dat AI kan ‘lezen’ of ‘denken’ zijn daarom misleidend, omdat dit in alledaags taalgebruik een presumptie inhoudt van begrip, wat echter volledig ontbreekt. AI kan ook geen intenties hebben, bijvoorbeeld om discriminerend of seksistisch te zijn. AI-systemen begrijpen niet wat het woord ‘seksisme’ betekent. Ze begrijpen het verschil niet tussen “vrouw” of “man”, behalve dan dat deze woorden een verschillend aantal eentjes en nulletjes bevatten.
Een AI-systeem dat getraind werd om een bepaald type kanker te diagnosticeren kan niet tezelfdertijd ook een verkoudheid identificeren.
AI-systemen kunnen vandaag bepaalde taken al nauwkeuriger uitvoeren dan mensen, maar dit betreft enkel nauw gedefinieerde taken binnen een afgebakende context. Een AI-systeem dat getraind werd om een bepaald type kanker te diagnosticeren kan niet tezelfdertijd ook een verkoudheid identificeren, laat staan begrijpen wat het concept “ziekte” inhoudt, of wat de impact ervan is voor een mens.
Een AI-systeem dat een film aanbeveelt op Netflix kan geen conversatie voeren over het weer of een kopje thee zetten. General AI – AI dat in staat is tot algemene intelligentie – is momenteel sciencefiction. En gezien de limieten waarop de huidige generatie AI-technieken stoot, lijkt de mogelijkheid dat zulke AI binnenkort tevoorschijn komt zo goed als uitgesloten.
Maar net het beeld van AI gecreëerd door sciencefiction zorgt ervoor dat onze fantasie meteen op hol slaat wanneer we lezen dat “Facebook een AI applicatie stil moest leggen omdat het zijn eigen geheime taal begon uit te vinden“. Geen fake news, maar wel misleidend news. In werkelijkheid ging het om AI-systeem dat getraind werd om te negotiëren door het woordenschat-data te voeden uit eerdere negotiaties en een score voor elke negotiatietechniek. Op basis van deze data kon het de beste negotiatietechnieken identificeren. Het systeem begon echter een allegaartje van woorden te reproduceren die grammaticaal noch semantisch correcte zinnen vormden, maar toch hoog scoorden, waardoor de ontwikkelaars de parameters ervan moesten aanpassen. Iets minder sensationeel dus.
AI-systemen hebben geen keuzevrijheid, bewustzijn of enig andere kwaliteit die de claim “zelf een geheime taal uitvinden” (en alle verbeelding die erbij komt kijken) waardig is. Maar te weinig mensen begrijpen hoe deze systemen werken, waardoor we symbolisch taalgebruik niet altijd herkennen. Denk maar aan hoe verschillend we de zin “deze printer is gemeen” ervaren, in vergelijking met “deze AI is gemeen”.
Is deze nuance echt zo belangrijk? Jazeker, en niet alleen omdat ze verwarring en angst kan zaaien bij de gemiddelde lezer.
Dit taalgebruik heeft te weinig aandacht voor de mens achter de machine
Op die manier over AI praten geeft de indruk dat het iets is wat ons overkomt, en gaat voorbij aan de menselijke rol hierin. Zodra we lezen dat “AI discrimineert” of “onze job steelt”, dreigen we de mens achter de machine te vergeten.
Het zijn echter mensen die kiezen om deze systemen te ontwikkelen en gebruiken. Het zijn mensen die kiezen onder welke condities ze deze systemen gebruiken, welke waarborgen ze nemen zodat de systemen niet tot discriminatie leiden, en in welke context ze zich liever laten leiden door menselijke adviseurs. Het zijn ook mensen die kiezen om AI-systemen al dan niet in te zetten ter vervanging van – en niet ter hulp van – andere mensen. Een AI-systeem kan niet om je job komen vragen. Het is daarom hoog tijd om de juiste beleidsmaatregelen te nemen die menselijke verantwoordelijkheid voor deze systemen kunnen verzekeren, en genuanceerd taalgebruik kan dit stimuleren.
Zolang we de mens negeren, gaan we ook de vooroordelen in AI-systemen niet zien voor wat ze zijn.
Zolang we geen aandacht hebben voor de rol van AI-ontwikkelaars, gaan we het besef dat hun handelingen ethische implicaties hebben niet bevorderen (noch concluderen dat het vak ethiek verplicht zou moeten worden in alle AI opleidingen). Zolang we de mens achter de machine verwaarlozen, gaan we het nemen van beschermende maatregelen niet opleggen aan degenen die in de beste positie zijn om ze te nemen. Zolang we de mens negeren, gaan we ook de vooroordelen in AI-systemen niet zien voor wat ze zijn – een loutere reflectie van de vooroordelen in onze samenleving – en geen stappen nemen om dit onderliggende probleem aan te pakken.
We mogen natuurlijk niet naïef zijn om te denken dat genuanceerd taalgebruik alles zal oplossen, maar alle beetjes helpen. Er is dringend nood aan een maatschappelijk debat over de rol die we AI-systemen willen toebedelen in onze samenleving. Dit debat kan echter enkel gevoerd worden op een geïnformeerde manier, met het besef dat het mensen zijn die ervoor verantwoordelijk blijven.
Laten we daarom alsjeblieft intelligenter zijn wanneer we het over Artificiële Intelligentie hebben.
Fout opgemerkt of meer nieuws? Meld het hier