De Europese AI Act: ‘Het venijn zit in de details’

© Getty Images

Met veel trots keurde het Europees Parlement op 14 juni een wet goed die een kader biedt aan artificiële intelligentie. De Europese AI Act moet AI-technologie reguleren en voor meer veiligheid en transparantie zorgen. Intussen kijkt het bedrijfsleven met argusogen naar het komende wetgevende verloop.

Over de nood aan een Europese AI Act werd al veel gezegd en geschreven. Vooral dat er dringend nood aan is, omdat kunstmatige intelligentie of AI een steeds belangrijkere plaats krijgt in onze samenleving. De opkomst van generatieve AI-toepassingen zoals ChatGPT zorgde de afgelopen maanden zowel voor een technologische als juridische stroomversnelling. En ook de doembeelden van oncontroleerbare AI-toepassingen die – terecht of onterecht – opduiken, droegen bij aan het besef dat een regelgevend kader voor AI nodig was.

De AI Act heeft uiteraard als doel om AI te reguleren. Daarvoor gaat de EU AI-toepassingen indelen in vier risicogroepen, waarvoor telkens andere regels gelden, gaande van toepassingen met minimaal risico, zoals spamfilters, tot toepassingen met hoog risico, zoals zelfrijdende wagens en medische toepassingen, en zelfs onaanvaardbaar gebruik van AI. Sociale kredietsystemen met behulp van AI-monitoring, zoals in China, zijn voor de EU een duidelijke no pasarán.

Die gedifferentieerde aanpak is een sterkte, meent Raphaël Weuts, gastprofessor AI aan de UCCL en onderzoeker naar het juridische en ethische kader van het gebruik van AI in de zorg: ‘Toepassingen met een laag risico krijgen weinig tot geen beperkingen opgelegd, waardoor er ook geen rem op de innovatie komt te staan. Toenemend risico gaat gepaard met meer verplichtingen om monitoring, testing en veilig gebruik te stimuleren.’

Tijdloos karakter

De snelle intrede van ChatGPT maakte nog maar eens duidelijk hoe snel kunstmatige intelligentie en het gebruik ervan evolueren. ‘Dat is de grote uitdaging waar we als wetgever voor staan’, benadrukt Europarlementslid Tom Vandenkendelaere. ‘Het gebruik van de risicocategorieën is een goeie poging tot een tijdloos wetgevend kader, maar we beseffen allemaal dat we het zullen moeten blijven herbekijken.’ De opkomst van generatieve AI, zoals ChatGPT, is daar een voorbeeld van. ‘Daar was geen categorie voor voorzien in het voorstel van de Europese Commissie, omdat daar toen nog geen sprake van was. We willen in de wetgeving nu nog een extra categorie inbouwen die ervoor moet zorgen dat ook die generatieve AI-toepassingen een pakket aan voorwaarden opgelegd krijgen.’

‘AI evolueert razendsnel. Dat is de grote uitdaging waar we als wetgever voor staan’

Europarlementslid Tom Vandenkendelaere

Volgens Weuts komt de wet zeker niet te vroeg. ‘Los van hoe AI evolueert, houden we de wet wel als stok achter de deur en kunnen we in elk geval korter op de bal spelen. De samenwerking en harmonisering van wetgeving zal in Europa veel sneller gaan.’ Toch ziet hij ook enkele hiaten. ‘De huidige wet is zeer procedureel, bedoeld om de concrete risico’s van gekende AI-toepassingen te mitigeren. Net daarom zal de wet snel bijsturing nodig hebben. Het was misschien beter geweest een wetgevend kader op te stellen dat uitging van de achterliggende rechten die we willen beschermen en niet zozeer het mitigeren van bestaande risico’s.’

Omslag voor bedrijven

In samenwerking met de UCCL werden enkele mogelijke cascades onderzocht die de wet teweegbrengt, maar die zeker niet uniek zijn. ‘Voor effectieve handhaving zullen er entiteiten nodig zijn om kort op de bal te spelen en vlotte uitwisseling van informatie mogelijk te maken, bijvoorbeeld via smart contracts. In de AI Act staat alvast een goeie aanzet, met de EU Database for High Risk AI Systems.’ Die informatievereisten zullen een impact hebben op de werking van bedrijven die AI-toepassingen ontwikkelen die onder de hoogrisicocategorie vallen. ‘Het voldoen aan die registratieverplichting zal extra moeite kosten, maar dat is ook net de soort innovatie die de EU wil stimuleren: AI-systemen die voldoen aan bepaalde standaarden en zich snel kunnen aanpassen aan nieuwe vereisten.’

‘Toepassingen met een laag risico krijgen weinig tot geen beperkingen opgelegd, waardoor er ook geen rem komt op innovatie’

Raphaël Weuts, gastprofessor AI aan de UCCL

Eén van die bedrijven die hoogstwaarschijnlijk met die registratieverplichtingen te maken krijgt, is Radix. Het Belgische AI-dienstenbedrijf helpt bedrijven met de ontwikkeling van AI-initiatieven, zoals het ontwikkelen van een AI-tool voor studiebegeleiding. Het is een voorbeeld van een toepassing die onder de hoogrisicocategorie zou vallen. CEO Davio Larnout onderschrijft de visie dat de AI Act zorgt voor een goeie soort innovatie en meer vertrouwen in AI, zeker op lange termijn, maar ziet op korte termijn enkele grote vraagtekens. ‘Zoals het er nu voor ligt, lijkt alles administratief zeer zwaar. De vraag die wij ons nu stellen, is natuurlijk wat de details van die vereisten zullen zijn en voor welke extra last dit zal zorgen.’

Kost van innovatie

De CEO van Radix haalt het inbouwen van een risicomanagementsysteem aan als voorbeeld. ‘Het gevolg is dat business cases er anders gaan uitzien en klanten gaan nadenken over de gevolgen en kosten.’ Tegelijk plaatst hij ook een groot vraagteken bij het verschil tussen de ontwikkelingsfase en het op de markt brengen van AI-technologie. ‘Ik hoop dat de regelgeving pas geldt wanneer AI-systemen op de markt zullen komen, en nog niet zozeer in de experimentele fase. Want die extra last zou een remmend effect kunnen hebben op de moeite die het kost om te innoveren. Het zou bepaalde cases minder interessant maken.’

‘De wet zorgt voor meer vertrouwen in AI. Maar zoals het er nu voor ligt, lijkt alles administratief zeer zwaar’

Davio Larnout, CEO bij Radix

Tegelijk hoopt Larnout ook dat de hoogrisicocategorie geen restcategorie wordt voor alle innovaties waar onzekerheid rond hangt. ‘Bij de totstandkoming van de wet zagen we hoe snel AI-toepassingen in de categorie terecht konden komen, maar er ook weer uit verdwenen. Die deur is dus vrij makkelijk te openen, wat ervoor kan zorgen dat er snel een pak administratie en ontwikkelingskosten bijkomen. Dat zou voor meer onzekerheid zorgen.’ Op lange termijn ziet Larnout wel een positief verhaal: ‘Als de implementatie goed zit, kan het vertrouwen creëren en voor minder aarzeling zorgen om AI te gebruiken. Regulering zorgt zo voor een duidelijk kader, zowel voor ontwikkelaars, investeerders en gebruikers.’

Creatieve beperkingen

Ook het Gentse StoryMe kijkt met argusogen naar het verdere verloop van het wetgevende proces. Het videoagentschap zet volop in op het gebruik van generatieve AI voor hun creatieve producties. Het bedrijf trok daarvoor techstrateeg Vincent Buyssens aan en benoemde hem tot AI Captain. De transparantieverplichtingen rond generatieve AI, namelijk het labelen van beelden of teksten die door artificiële intelligentie tot stand zijn gekomen, heeft mogelijk gevolgen voor het creatieve proces.

‘We juichen de controlemechanismen toe, zolang ze de essentie van het creatieve proces niet beïnvloeden’

Tone De Cooman, creative director bij StoryMe

‘We hopen heel sterk dat we niet in een model terechtkomen dat elk visueel werk overdreven hard onder de loep neemt, want zo dreigen we in een juridisch moeras terecht te komen.’ De bescherming van artiesten is nodig en vanzelfsprekend, stelt StoryMe, maar de slinger mag niet doorslaan. ‘Fundamenteel gezien is er geen verschil tussen een artiest die zijn inspiratie haalt uit zijn omgeving en andere artiesten, en AI die net hetzelfde doet. Het is dus best mogelijk dat creatieve inhoud voor vijf procent uit het werk van iemand anders bestaat bij controle, maar de vraag is wanneer je van een auteursrechtelijke inbreuk kan spreken’, stelt Vincent Buyssens. ‘Een filmposter in de exacte stijl van ‘Stranger Things’ of ‘Star Wars’ is uiteraard een inbreuk op het auteursrecht. Maar het is zelden zo zwart-wit.’

Zowel het werk van artiesten als van generatieve Al vormen dus een black box waarvan je niet weet hoe het tot stand is gekomen. In dat opzicht is het volgens Tone De Cooman, creative director bij StoryMe, vreemd dat bij AI wel volledige transparantie vereist is: ‘Het is volgens mij onmogelijk waar te maken.’ Toch is de eis volgens hem wel terecht. ‘Artiesten kunnen met broodroof te maken krijgen omdat generatieve AI hun werk of stijl volledig kopieert en exploiteert, en er dus helemaal geen sprake meer is van een inspirationele invloed. Die controlemechanismen juichen we toe, zolang ze de essentie van het creatieve proces niet beïnvloeden.’

In dat opzicht ziet StoryMe de AI Act als een eventuele welgekomen leidraad. ‘Bijvoorbeeld om onze eigen AI-modellen te trainen en verder te verfijnen. Zo kunnen we klanten meer transparantie en zekerheid bieden, en zelfs een concurrentieel voordeel behalen. Dat zou het voordeel zijn op lange termijn’, meent De Cooman. Op korte termijn hoopt Vincent Buyssens vooral klaarheid in de regels. ‘We vrezen geen auteursrechtelijke inbreuken, maar hoe sneller we duidelijkheid hebben, hoe beter. Het venijn zal in de details zitten.’

Vanaf september vinden de zogeheten trialogen plaats, waarbij de Europese Commissie, het Europees Parlement en de Raad van Ministers onderhandelen over het huidige wetgevende voorstel dat werd goedgekeurd. In het voorjaar zou, onder Belgisch voorzitterschap, een finaal akkoord uit de bus moeten komen. Tot slot moeten de lidstaten de wet nog omzetten in hun lokale wetgeving, met begin 2025 als voorziene datum.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content