Een jaar geleden presenteerde de Europese Commissie een strategie voor Artificiële Intelligentie (AI), die alle EU lidstaten een stevige duw in de rug gaf om ook zelf een nationale AI strategie te ontwikkelen. België deed dit vorige maand, en volgde zo het voorbeeld van vele andere lidstaten. Rode draad in al deze strategieën, naast het verhogen van investeringen: een adequaat ethisch kader voor AI. En dat is niet verwonderlijk.

Het gebruik van AI roept alsmaar meer ethische vragen op, waar vele organisaties zich geen raad mee weten. AI-ontwikkelaars ontbreken vandaag nog vaak het besef dat de technologie die ze - vaak met de beste bedoelingen - ontwikkelen, ook negatieve effecten kan hebben, bijvoorbeeld door discriminerende beslissingen te nemen, privacy onvoldoende te beschermen, of sociale impact van de technologie te weinig in acht te nemen.

Als je ervoor wil zorgen dat je technologie niet enkel presteert maar ook te vertrouwen is, dan is het absoluut noodzakelijk om bij de ontwikkeling ervan een ethische mindset te kweken. Maar hoe doe je dat nu concreet?

Europa's antwoord

Dat het allemaal niet zo eenvoudig is, bewees Google zopas toen het al na een week een einde maakte aan zijn net aangestelde ethische adviesraad - je kan blijkbaar zelfs op een onethische manier ethisch proberen zijn.

De roep naar praktisch advies klinkt steeds luider; niet iedereen kan immers een leger ethici in dienst nemen. Op Europees niveau werd deze roep vandaag beantwoord met de publicatie van ethische richtsnoeren voor AI. Deze richtsnoeren zijn het werk van een expertengroep rond AI die specifiek werd aangesteld door de Europese Commissie. 52 experten met zeer diverse achtergronden (onderzoekers, filosofen, juristen, bedrijfsvertegenwoordigers, ngo's, consumentenorganisaties en zelfs vakbonden) werkten de afgelopen negen maanden aan een hoog tempo om een document af te leveren dat een methode biedt om de vele ethische vragen rond AI aan te pakken.

Mensen zijn gebonden aan allerhande rechtsregels en groeien op binnen een bepaald ethisch kader dat hun aangeeft hoe ze moeten, mogen en niet mogen handelen. Deze regels bepalen hoe ze beslissingen nemen, en zorgen ervoor dat ze verantwoordelijk kunnen worden gehouden voor hun daden. Wat doen we nu machines ook zelf beslissingen kunnen nemen? Hoe zorgen we ervoor dat ook zij zich kunnen houden aan juridische en ethische regels?

Het antwoord op deze vraag is cruciaal, stelt de expertengroep. Zolang burgers er niet op kunnen rekenen dat de technologie te vertrouwen is, zullen ze deze ook niet gebruiken, noch de vele voordelen ervan kunnen genieten. De richtsnoeren zijn er dus op gericht om Europese organisaties vrijblijvend te helpen om hun technologie betrouwbaarder te maken. En competitiever.

Ethiek als troef

Er is namelijk niet langer slechts een wereldwijde competitie gaande voor de beste technologie. Er is namelijk niet langer slechts een wereldwijde competitie gaande voor de beste technologie. Het gaat vandaag ook om de technologie die het beste ethische regels respecteert. Ethics is the new black.

Gebruikers willen producten die ze kunnen vertrouwen. Het kan producenten jaren kosten om hun reputatie op te bouwen, maar één ethisch fiasco en die reputatie kan in minder dan een dag in duigen vallen.

Dit heeft niet enkel een invloed op het koopgedrag van gebruikers, maar ook op de Europese competitiviteit, die een dringende nood heeft aan de grootschalige ontwikkeling en opname van deze strategische technologie. Als Europese bedrijven erin slagen om AI betrouwbaar te maken, zal dit niet enkel burgerharten overhalen, maar kan dit ook als competitieve troef worden uitgespeeld op de globale markt. "Europese AI, betrouwbare AI". Ethiek en competitiviteit als twee handen op een buik dus. Het is daarom niet enkel in het individueel belang van gebruikers, maar in het collectief belang van Europa, dat AI wordt ontwikkeld en gebruikt in lijn met onze fundamentele waarden.

Recht versus Ethiek?

Het werk van de expertengroep roept ook een aantal vragen op rond het Europees AI beleid meer algemeen, en de rol van regulering versus richtsnoeren. Wanneer schieten niet-bindende richtsnoeren tekort, en moet er in plaats daarvan gereguleerd worden? Sommige critici argumenteren dat de richtsnoeren er slechts op gericht zijn om regulering van problematische kwesties uit te stellen of zelfs te vermijden, en zo grote bedrijven hun gang te laten gaan zonder dat ze juridische verantwoording hoeven af te leggen. Er zijn er zelfs die zo ver gaan om te beweren dat Europa enkel richtsnoeren ontwikkelt om haar competitiviteit vooruit te helpen.

Dergelijke redeneringen negeren echter het feit dat er vandaag al veel regulering bestaat: denk aan de befaamde GDPR die de strenge bescherming van persoonsgegevens vooropstelt, of non-discriminatie wetgeving die evenzeer geldt voor algoritmes geprogrammeerd door mensen als voor de mensen zelf. Er bestaat geen twijfel dat het noodzakelijk is om bestaande regulering te evalueren en waar nodig bij te werken om ervoor te zorgen dat er geen mazen zijn in het systeem. Maar daarnaast hebben ook ethische richtsnoeren een belangrijke, aanvullende rol te spelen.

Recht en ethiek zijn complementair, en bieden elk hun eigen bijdrage om te verzekeren dat de ontwikkeling en het gebruik van AI onze fundamentele waarden respecteert. De afbakening van hun respectievelijke rollen is niet statisch: het is onze gezamenlijke taak om in de komende weken, maanden en jaren toezicht te houden op de evolutie van de technologie, en te bestuderen met welke soort regels we er het beste voor kunnen zorgen dat we tezelfdertijd de voordelen van AI kunnen maximaliseren, en de risico's kunnen beperken.

Proefperiode

De richtsnoeren van de expertengroep beogen een ethisch kader te verschaffen dat horizontaal kan worden toegepast op alle AI-applicaties. Via een praktische beoordelingslijst bestaande uit concrete vragen (heb je gebruikers geïnformeerd over de capaciteiten en beperkingen van je systeem? heb je de ecologische voetafdruk van je systeem geanalyseerd?) viseren ze in één klap stapsgewijze hulp te bieden aan alle AI ontwikkelaars en gebruikers. Dit is echter een uitdaging, gezien AI-systemen en hun ethische gevoeligheden vaak zeer sterk context-gebonden zijn. Een probleem dat in een bepaalde context irrelevant kan zijn, kan in een andere situatie allesbepalend zijn.

De Commissie heeft daarom een Europese primeur gelanceerd: de richtsnoeren zullen een praktische proefperiode ondergaan tot het einde van het jaar. Alle AI-ontwikkelaars en gebruikers worden uitgenodigd om ze toe te passen, uit te testen, en daarna praktische feedback te geven over wat werkt en niet werkt, en hoe ze verbeterd kunnen worden. Op experimentele wijze zorgt Europa er dus voor dat ze, samen met AI- ontwikkelaars en gebruikers, al doende leert in een gebied dat de komende jaren enkel aan belang zal toenemen. En ongetwijfeld ook aan regels - zowel ethische als juridische. U bent van harte welkom om ook uw steentje bij te dragen aan dit gezamenlijke leerproces.

Over de auteur: Nathalie Smuha is als onderzoekster aan de KU Leuven gespecialiseerd in ethische en juridische aspecten rond Artificiële Intelligentie en is coördinatrice van de bovenvermelde expertengroep. De auteur schrijft in eigen naam; alle uitspraken en opinies zijn strikt haar eigen mening en vertegenwoordigen noch KU Leuven noch de Europese Commissie.