Na de publicatie van het eerder rapport over aansprakelijkheid voor AI en het technisch rapport over robuustheid en explainability van AI, geeft de voorlopige versie van het Witboek inzicht in de verdere plannen van de Europese Unie (EU). Het doel van de 'European approach' voor AI is om de ontwikkeling en toepassing ervan in heel de EU te bevorderen en tegelijkertijd te waarborgen dat de technologie wordt ontwikkeld en gebruikt in overeenstemming met de Europese grondwaarden en beginselen. De Europese Unie wil dus een rule-maker zijn met betrekking tot AI en geen rule-taker. Het ontwerp Witboek benadrukt dat AI een 'strategische technologie' is die vanwege enkele specifieke kenmerken, zoals autonomie en ondoorgrondelijkheid/opaciteit, tal van uitdagingen op het vlak van regulering met zich meebrengt. Volgens het ontwerp Witboek moet de EU ook trachten samen te werken met China en de Verenigde Staten om haar belangen te beschermen.

De ontwikkeling van AI bevorderen

Het ontwerp Witboek erkent dat de EU in een goede positie zit om het potentieel van AI te benutten, niet alleen als gebruiker en afnemer, maar ook als producent ervan. Er wordt daarbij onder andere verwezen naar het baanbrekend werk van academische onderzoekscentra en de leidende rol van de EU op het gebied van robotica. Toch zijn er aspecten waar de EU achterloopt in vergelijking met andere regio's in de wereld, zoals het gebrek aan investeringen in de ontwikkeling van AI. De Europese Commissie somt vervolgens enkele elementen op die op de lange termijn 'Europe's technological sovereignty' moeten verzekeren. Enkele voorstellen zijn bijvoorbeeld het uitwerken van toonaangevende computer- en data-infrastructuur voor AI, het ondersteunen van onderzoek en innovatie en het waarborgen van voldoende financiering voor AI-innovators. Verder is het van belang om de toegang van bedrijven en/of overheden tot data te vereenvoudigen en verzekeren aangezien dit een fundamentele vereiste is om accurate en betrouwbare AI-systemen te ontwikkelen. Er wordt in dit verband gesproken over een algemene strategie met betrekking tot data, maar hiervoor wordt verwezen naar afzonderlijke documenten waarvan de inhoud momenteel nog niet bekend is.

Een regelgevend kader voor AI

Een belangrijk deel van het ontwerp Witboek bespreekt een mogelijk regelgevend kader voor AI. Hoewel er al een uitgebreid regelgevend kader bestaat dat eveneens van toepassing is op artificiële intelligentie (bv. productaansprakelijkheid en veiligheid) zijn er toch nog een aantal lacunes (regulatory gaps). Er zijn bijvoorbeeld een aantal onduidelijkheden en beperkingen met betrekking tot het toepassingsgebied van enkele fundamentele grondrechten. Ook de notie 'product' - en of software er onder valt - is in bestaande regelgeving niet steeds duidelijk. Daarnaast is er ook onduidelijkheid over de precieze verdeling van aansprakelijkheden tussen de verschillende betrokken actoren/operatoren en stellen zich een aantal problemen met betrekking tot de afdwinging en handhaving van gebruikersrechten. Omwille van deze redenen acht de Commissie het noodzakelijk om het huidig regelgevend kader te herzien en waar nodig aan te vullen om zo tot evenwichtige regels voor AI te komen.

Het voorgestelde Witboek bespreekt vervolgens vier elementen die voor beleidsmakers, academici en juristen van belang zijn.

Ten eerste geeft de Europese Commissie een definitie van AI. Ze gebruikt daarbij een functionele benadering die verschilt van de eerder uitvoerige definitie die door de High Level Expert Group on Artificial Intelligence (AI HLEG) werd vooropgesteld. AI wordt gedefinieerd als software, al dan niet geïntegreerd in hardware, die in een aantal functies voorziet, namelijk (i) het simuleren van menselijke intelligentie, (ii) het uitvoeren van bepaalde complexe taken door middel van het (iii) verwerven, verwerken en rationeel analyseren van (grote hoeveelheden) data.

Ten tweede oordeelt de Europese Commissie terecht dat het regelgevende kader dient te vertrekken vanuit de premisse dat de aansprakelijkheid bij diegene moet liggen die het best geplaatst is om potentiële risico's te vermijden of verminderen (cf. Calabresi's cheapest cost avoider). Dit zou uiteindelijk moeten leiden tot verschillende verplichtingen voor de betrokkenen, gaande van ontwikkelaars en producenten van AI, tot de uiteindelijke gebruiker ervan.

Ten derde, en in lijn met het vorige punt, voorziet de Europese Commissie verschillende verplichtingen voor ontwikkelaars en gebruikers van AI. Deze vereisten kunnen zowel een ex ante (o.a. transparantievereisten) als ex post (o.a. rechtsmiddelen) karakter hebben. De Commissie benadrukt dat deze verplichtingen zich vooral op het proces richten en niet zozeer op het behalen van specifieke resultaten.

Ten vierde onderzoekt de Europese Commissie een aantal opties om de mogelijke risico's van AI via regelgeving te dekken.

1. vrijwillige certificering/labelling: dit zou ontwikkelaars en gebruikers van AI in staat stellen om zich aan bepaalde vereisten te houden om op die manier een certificaat van ethisch/betrouwbare AI te verkrijgen. Hoewel de Commissie erkent dat louter deze optie niet voldoende is, kan ze toch helpen om ethisch/betrouwbare AI te promoten.

2. sectorale vereisten voor overheidsinstanties en gezichtsherkenning: deze optie is gericht op het ontwikkelen van regels voor het gebruik van AI door overheidsinstanties en specifieke verplichtingen voor gezichtsherkenning (facial recognition technology). De toekomstige regelgeving zou daarbij kunnen vertrekken van het bestaande wetgevende kader inzake gegevensbescherming, maar zou een stap verder kunnen gaan. Hier zou mogelijks zelfs een tijdelijk verbod op het commercieel gebruik van gezichtsherkenning in publieke ruimtes kunnen worden opgelegd, ook al is dergelijk gebruik vandaag al zo goed als onmogelijk.

3. verplichte specifieke vereisten voor AI-toepassingen met een 'hoog risico': deze benadering zou zich vooral richten op domeinen waar een gevaar bestaat voor de bevolking (bv. gezondheid of transport) of waar een groot juridisch belang op het spel staat. De Commissie oordeelt dat de definitie van een 'hoog risico' op de cumulatieve toepassing van twee criteria moet berusten: een exhaustieve lijst van bepaalde sectoren en een meer abstracte definitie van applicaties met een 'hoog risico'.

4. veiligheid en aansprakelijkheid: de Europese Commissie overweegt om bestaande wetgeving over productaansprakelijkheid en/of veiligheid aan te passen om een antwoord op specifieke risico's en uitdagingen van AI te vinden (bv. cyberbedreigingen). Bijkomende horizontale wetgeving is daarbij niet uitgesloten.

5.handhaving: enkel indien er een effectief systeem van handhaving bestaat, zullen consumenten en bedrijven van de voordelen van de nieuwe AI-regels kunnen genieten. Sterke toezichthouders zijn dan ook essentieel in het toekomstig wetgevend kader. Volgens de Europese Commissie is hier een belangrijke rol voor de nationale overheden weggelegd. Zo raadt de Commissie EU-Lidstaten aan te overwegen om een autoriteit aan te stellen die verantwoordelijk zal zijn voor het toezicht op en de handhaving van het toekomstige regelgevend kader met betrekking tot AI.

De Commissie besluit uiteindelijk dat een combinatie van de derde, de vierde en de vijfde optie het meest aangewezen is om de vele uitdagingen en risico's van AI aan te pakken.

De Europese Unie als leider op vlak van AI?

Het gelekte ontwerp Witboek geeft een goed inzicht in de ambities van de EU met betrekking tot de regulering van AI. De Europese Commissie is zich terdege bewust van de vele en grote uitdagingen op het gebied van AI en kiest daarbij voor een evenwichtige aanpak. Het ontwerp behandelt een aantal praktische zaken zoals het verzekeren van toegang tot voldoende data, connectiviteit, aansprakelijkheid/veiligheid en transparantie. Het Witboek is ook interessant omdat het niet alleen een overzicht geeft van mogelijke opties om AI te reguleren, maar ook aangeeft welke daarvan de voorkeur verdienen. De Europese Commissie besluit terecht dat het bestaande regelgevend kader moet worden aangevuld en niet plots drastisch moet worden gewijzigd. Tegelijkertijd blijven er verschillende uitdagingen die onvoldoende zijn behandeld. De vraag stelt zich bijvoorbeeld hoe de voorgestelde certificatie van AI zal worden geconcretiseerd, vooral omdat certificering niet steeds vlekkeloos verloopt. Bovendien zullen sommige fundamentele kwesties, zoals deze in verband met de toepassing van het productaansprakelijkheid op AI-systemen, voornamelijk in toekomstige rapporten van verschillende werkgroepen worden aangepakt. In ieder geval blijkt uit een grondige lezing van het ontwerp Witboek dat sommige aspecten waarover in de populaire media wordt bericht genuanceerd moeten worden, zoals het aangekondigd 'verbod op gezichtsherkenning'.

Dr. Jan De Bruyne, Brahim Benichou, Thomas Gils & Ellen Wauters

De auteurs zijn verbonden aan het Kenniscentrum Data & Maatschappij en aan het KU Leuven Centre for IT & IP Law (CiTiP)

Na de publicatie van het eerder rapport over aansprakelijkheid voor AI en het technisch rapport over robuustheid en explainability van AI, geeft de voorlopige versie van het Witboek inzicht in de verdere plannen van de Europese Unie (EU). Het doel van de 'European approach' voor AI is om de ontwikkeling en toepassing ervan in heel de EU te bevorderen en tegelijkertijd te waarborgen dat de technologie wordt ontwikkeld en gebruikt in overeenstemming met de Europese grondwaarden en beginselen. De Europese Unie wil dus een rule-maker zijn met betrekking tot AI en geen rule-taker. Het ontwerp Witboek benadrukt dat AI een 'strategische technologie' is die vanwege enkele specifieke kenmerken, zoals autonomie en ondoorgrondelijkheid/opaciteit, tal van uitdagingen op het vlak van regulering met zich meebrengt. Volgens het ontwerp Witboek moet de EU ook trachten samen te werken met China en de Verenigde Staten om haar belangen te beschermen. De ontwikkeling van AI bevorderen Het ontwerp Witboek erkent dat de EU in een goede positie zit om het potentieel van AI te benutten, niet alleen als gebruiker en afnemer, maar ook als producent ervan. Er wordt daarbij onder andere verwezen naar het baanbrekend werk van academische onderzoekscentra en de leidende rol van de EU op het gebied van robotica. Toch zijn er aspecten waar de EU achterloopt in vergelijking met andere regio's in de wereld, zoals het gebrek aan investeringen in de ontwikkeling van AI. De Europese Commissie somt vervolgens enkele elementen op die op de lange termijn 'Europe's technological sovereignty' moeten verzekeren. Enkele voorstellen zijn bijvoorbeeld het uitwerken van toonaangevende computer- en data-infrastructuur voor AI, het ondersteunen van onderzoek en innovatie en het waarborgen van voldoende financiering voor AI-innovators. Verder is het van belang om de toegang van bedrijven en/of overheden tot data te vereenvoudigen en verzekeren aangezien dit een fundamentele vereiste is om accurate en betrouwbare AI-systemen te ontwikkelen. Er wordt in dit verband gesproken over een algemene strategie met betrekking tot data, maar hiervoor wordt verwezen naar afzonderlijke documenten waarvan de inhoud momenteel nog niet bekend is.Een regelgevend kader voor AIEen belangrijk deel van het ontwerp Witboek bespreekt een mogelijk regelgevend kader voor AI. Hoewel er al een uitgebreid regelgevend kader bestaat dat eveneens van toepassing is op artificiële intelligentie (bv. productaansprakelijkheid en veiligheid) zijn er toch nog een aantal lacunes (regulatory gaps). Er zijn bijvoorbeeld een aantal onduidelijkheden en beperkingen met betrekking tot het toepassingsgebied van enkele fundamentele grondrechten. Ook de notie 'product' - en of software er onder valt - is in bestaande regelgeving niet steeds duidelijk. Daarnaast is er ook onduidelijkheid over de precieze verdeling van aansprakelijkheden tussen de verschillende betrokken actoren/operatoren en stellen zich een aantal problemen met betrekking tot de afdwinging en handhaving van gebruikersrechten. Omwille van deze redenen acht de Commissie het noodzakelijk om het huidig regelgevend kader te herzien en waar nodig aan te vullen om zo tot evenwichtige regels voor AI te komen.Het voorgestelde Witboek bespreekt vervolgens vier elementen die voor beleidsmakers, academici en juristen van belang zijn.Ten eerste geeft de Europese Commissie een definitie van AI. Ze gebruikt daarbij een functionele benadering die verschilt van de eerder uitvoerige definitie die door de High Level Expert Group on Artificial Intelligence (AI HLEG) werd vooropgesteld. AI wordt gedefinieerd als software, al dan niet geïntegreerd in hardware, die in een aantal functies voorziet, namelijk (i) het simuleren van menselijke intelligentie, (ii) het uitvoeren van bepaalde complexe taken door middel van het (iii) verwerven, verwerken en rationeel analyseren van (grote hoeveelheden) data.Ten tweede oordeelt de Europese Commissie terecht dat het regelgevende kader dient te vertrekken vanuit de premisse dat de aansprakelijkheid bij diegene moet liggen die het best geplaatst is om potentiële risico's te vermijden of verminderen (cf. Calabresi's cheapest cost avoider). Dit zou uiteindelijk moeten leiden tot verschillende verplichtingen voor de betrokkenen, gaande van ontwikkelaars en producenten van AI, tot de uiteindelijke gebruiker ervan. Ten derde, en in lijn met het vorige punt, voorziet de Europese Commissie verschillende verplichtingen voor ontwikkelaars en gebruikers van AI. Deze vereisten kunnen zowel een ex ante (o.a. transparantievereisten) als ex post (o.a. rechtsmiddelen) karakter hebben. De Commissie benadrukt dat deze verplichtingen zich vooral op het proces richten en niet zozeer op het behalen van specifieke resultaten.Ten vierde onderzoekt de Europese Commissie een aantal opties om de mogelijke risico's van AI via regelgeving te dekken. 1. vrijwillige certificering/labelling: dit zou ontwikkelaars en gebruikers van AI in staat stellen om zich aan bepaalde vereisten te houden om op die manier een certificaat van ethisch/betrouwbare AI te verkrijgen. Hoewel de Commissie erkent dat louter deze optie niet voldoende is, kan ze toch helpen om ethisch/betrouwbare AI te promoten.2. sectorale vereisten voor overheidsinstanties en gezichtsherkenning: deze optie is gericht op het ontwikkelen van regels voor het gebruik van AI door overheidsinstanties en specifieke verplichtingen voor gezichtsherkenning (facial recognition technology). De toekomstige regelgeving zou daarbij kunnen vertrekken van het bestaande wetgevende kader inzake gegevensbescherming, maar zou een stap verder kunnen gaan. Hier zou mogelijks zelfs een tijdelijk verbod op het commercieel gebruik van gezichtsherkenning in publieke ruimtes kunnen worden opgelegd, ook al is dergelijk gebruik vandaag al zo goed als onmogelijk.3. verplichte specifieke vereisten voor AI-toepassingen met een 'hoog risico': deze benadering zou zich vooral richten op domeinen waar een gevaar bestaat voor de bevolking (bv. gezondheid of transport) of waar een groot juridisch belang op het spel staat. De Commissie oordeelt dat de definitie van een 'hoog risico' op de cumulatieve toepassing van twee criteria moet berusten: een exhaustieve lijst van bepaalde sectoren en een meer abstracte definitie van applicaties met een 'hoog risico'.4. veiligheid en aansprakelijkheid: de Europese Commissie overweegt om bestaande wetgeving over productaansprakelijkheid en/of veiligheid aan te passen om een antwoord op specifieke risico's en uitdagingen van AI te vinden (bv. cyberbedreigingen). Bijkomende horizontale wetgeving is daarbij niet uitgesloten. 5.handhaving: enkel indien er een effectief systeem van handhaving bestaat, zullen consumenten en bedrijven van de voordelen van de nieuwe AI-regels kunnen genieten. Sterke toezichthouders zijn dan ook essentieel in het toekomstig wetgevend kader. Volgens de Europese Commissie is hier een belangrijke rol voor de nationale overheden weggelegd. Zo raadt de Commissie EU-Lidstaten aan te overwegen om een autoriteit aan te stellen die verantwoordelijk zal zijn voor het toezicht op en de handhaving van het toekomstige regelgevend kader met betrekking tot AI.De Commissie besluit uiteindelijk dat een combinatie van de derde, de vierde en de vijfde optie het meest aangewezen is om de vele uitdagingen en risico's van AI aan te pakken.De Europese Unie als leider op vlak van AI? Het gelekte ontwerp Witboek geeft een goed inzicht in de ambities van de EU met betrekking tot de regulering van AI. De Europese Commissie is zich terdege bewust van de vele en grote uitdagingen op het gebied van AI en kiest daarbij voor een evenwichtige aanpak. Het ontwerp behandelt een aantal praktische zaken zoals het verzekeren van toegang tot voldoende data, connectiviteit, aansprakelijkheid/veiligheid en transparantie. Het Witboek is ook interessant omdat het niet alleen een overzicht geeft van mogelijke opties om AI te reguleren, maar ook aangeeft welke daarvan de voorkeur verdienen. De Europese Commissie besluit terecht dat het bestaande regelgevend kader moet worden aangevuld en niet plots drastisch moet worden gewijzigd. Tegelijkertijd blijven er verschillende uitdagingen die onvoldoende zijn behandeld. De vraag stelt zich bijvoorbeeld hoe de voorgestelde certificatie van AI zal worden geconcretiseerd, vooral omdat certificering niet steeds vlekkeloos verloopt. Bovendien zullen sommige fundamentele kwesties, zoals deze in verband met de toepassing van het productaansprakelijkheid op AI-systemen, voornamelijk in toekomstige rapporten van verschillende werkgroepen worden aangepakt. In ieder geval blijkt uit een grondige lezing van het ontwerp Witboek dat sommige aspecten waarover in de populaire media wordt bericht genuanceerd moeten worden, zoals het aangekondigd 'verbod op gezichtsherkenning'.