Europa stelt zeven vereisten op om betrouwbare artificiële intelligentie te ontwikkelen
De Europese Commissie stelt vandaag in Brussel zeven ethische richtlijnen voor waaraan betrouwbare AI-systemen zouden moeten voldoen. Eerst start een proefperiode waarin bedrijven, onderzoeksinstellingen en overheidsdiensten deze richtlijnen kunnen uittesten en feedback kunnen geven. Volgend jaar volgt een evaluatie.
Vorig jaar in juni richtte de Europese Commissie een nieuwe denktank op van 52 experts die de Europese strategie rond AI moesten helpen ondersteunen. Die expertgroep komt nu naar buiten met zeven essentiële stappen om betrouwbare artificiële intelligentie te bereiken.
Ten eerste mag artificiële intelligentie de menselijke autonomie nooit inperken. Daarnaast moeten de systemen robuust genoeg zijn om met fouten en inconsistenties om te gaan. Voorts benadrukt Europa het belang van privacy: iedereen moet de volledige controle over zijn eigen gegevens hebben en die gegevens mogen niet gebruikt worden om mensen te schaden of te discrimineren. Ook op transparantie wordt de nadruk gelegd: “AI-systemen moeten traceerbaar zijn”, klinkt het.
Verder moeten ze ook “rekening houden met de diversiteit aan menselijke vaardigheden en behoeftes en voor iedereen toegankelijk zijn.” Volgens de Europese Commissie moet artificiële intelligentie bovendien gebruikt worden “om positieve sociale verandering teweeg te brengen en om duurzaamheid en ecologische verantwoordelijkheid te bevorderen”. Tot slot zou men artificiële intelligentie ook ter verantwoording moeten kunnen roepen. Zo moeten mechanismen ingesteld worden die ervoor zorgen dat AI-systemen verantwoordelijk zijn voor hun resultaten.
“De ethische dimensie van AI is geen luxe-functie of een add-on. Het is alleen met vertrouwen dat onze samenleving ten volle kan profiteren van deze technologieën”, zegt Eurocommissaris Andrus Ansip in een persbericht. “Tegelijk kan de focus op ethische AI ons een win-winsituatie bezorgen. Het kan Europa immers ook een concurrentievoordeel bezorgen: we kunnen de leider worden in de ontwikkeling van artificiële intelligentie die door mensen vertrouwd kan worden.”
Het gaat hier (nog) niet om wetgeving, maar om vrijblijvende richtlijnen om betrouwbare systemen te bouwen. De Europese Commissie wil die nu testen aan hun praktische haalbaarheid. Deze zomer start een proefperiode. Bedrijven, overheidsdiensten en organisaties kunnen zich daar al voor aanmelden. Voortbouwend op hun feedback zullen de aanbevelingen begin volgend jaar geëvalueerd worden.
“De richtsnoeren zullen een praktische proefperiode ondergaan tot het einde van het jaar. Alle AI-ontwikkelaars en gebruikers worden uitgenodigd om ze toe te passen, uit te testen, en daarna praktische feedback te geven over wat werkt en niet werkt, en hoe ze verbeterd kunnen worden”, verduidelijkt Nathalie Smuha, coördinator van de expertengroep rond AI, aan Data News.
Agoria zal ethische richtlijnen uittesten
Technologiefederatie Agoria liet ons al weten dat ze komende maanden samen met lidbedrijven zal testen of bovenstaande aanbevelingen toepasbaar zijn bij het ontwikkelen en vermarkten van artificiële intelligentie. “Door input te geven hopen we te komen tot een document dat door de industrie bruikbaar is om betrouwbare AI-systemen te bouwen die een meerwaarde kunnen betekenen voor onze maatschappij”, klinkt het.
Tegelijk benadrukt de Vlaamse technologiefederatie dat ook de context waarin AI-systemen gebruikt worden in overweging moet genomen worden. “Verschillende contexten hebben verschillende vereisten. De betrouwbaarheid van een medische app is veel kritischer dan van een AI-systeem dat voorstelt welke muziek je leuk zou kunnen vinden. Verder is ethiek niet de enige component, ook de wettelijke conformiteit en robuustheid spelen een zeer belangrijke rol in het komen tot betrouwbare AI-systemen.”
Fout opgemerkt of meer nieuws? Meld het hier