VUB-professor Ann Nowé: ‘Belgische bedrijven maken zich zorgen over de Europese AI Act’

Nu de AI-wereldtop in Parijs erop zit vragen Europese wetenschappers en bedrijfsleiders zich af hoe het verder moet. Op 1 augustus 2024 trad immers de Europese AI Act in werking, met strenge richtlijnen over het gebruik van AI. In de eindverklaring van de top viel op dat de strenge regels in die AI Act op vele vlakken gerelativeerd werden. Vooral de Amerikanen willen niet weten van strenge regels. ‘Het is nu afwachten hoe die AI Act in Europese wetgeving wordt gegoten’, zegt VUB-professor Ann Nowé, die de top bijwoonde.

Nowé staat bij de Vrije Universiteit Brussel aan het hoofd van het AI-Lab en is daarnaast academisch directeur van FARI (het AI-instituut van VUB-ULB). ‘Het zijn vooral bedrijven die zich zorgen maken’, zegt de professor. ‘Ze willen graag weten welke extra taken en regels de overheid zal opleggen bij de ontwikkeling van AI-toepassingen en wat dat allemaal zal kosten. Ze moeten immers concurreren met techgiganten uit de Verenigde Staten en China die geen hinder ondervinden van die strengere regels en wetten, zolang ze niet op de Europese markt opereren.’

‘Moet werkbaar blijven’

‘De meeste bedrijven die met kunstmatige intelligentie bezig zijn, zijn op zich niet tegen de principes van de AI Act’, zegt Nowé. ‘Maar ze vrezen een concurrentieel nadeel. De wetten die in het kielzog van de Act zullen volgen, zullen hen namelijk extra taken opleggen om aan te tonen dat ze daadwerkelijk aan de regelgeving voldoen. De bezorgdheid is dat de implementatie van de AI Act werkbaar moet blijven. Bovendien zorgt het feit dat wetgevers niet altijd de finesse begrijpen van waar AI precies over gaat voor spanning.’

Europa nuanceert de heisa rond de AI Act. De wetgeving wordt in fasen geïmplementeerd en moet volledig in werking zijn in 2027. Die stapsgewijze implementatie moet bedrijven en toezichthouders voldoende tijd te geven om zich aan te passen aan de nieuwe regelgeving.

De EU AI Act in een notendop

De EU AI Act deelt de toepassingen van kunstmatige intelligentie in verschillende risiconiveaus op, gaande van onacceptabele risico’s tot en met toepassingen met een laag risico. Bij die eerste categorie gaat het onder meer over het gebruik van sociale scoring, manipulatieve technieken en het gebruik van slimme camera’s – met uitzondering van bepaalde veiligheidssituaties. Zo mogen AI-systemen geen kwetsbare groepen manipuleren of hen schade berokkenen.

Voor toepassingen met een hoog risico gelden eveneens strenge regels. AI-toepassingen in bijvoorbeeld de gezondheidszorg kunnen immers verstrekkende gevolgen hebben en zijn gebonden aan strikte privacywetgeving. Ontwikkelaars van datasystemen moeten kunnen aantonen dat hun systemen aan een aantal eisen voldoen op het gebied van datakwaliteit, transparantie en veiligheid.

Bij toepassingen met een middelmatige risico’s, zoals de ontwikkeling van chatbots en generatieve AI-modellen, moet de gebruiker weten wanneer hij met AI-gegenereerde inhoud te maken krijgt. Voor toepassingen met een minimaal risico legt de EU AI Act geen regels op. Hierbij is het wel belangrijk te noteren dat AI uiteraard niet boven de wet staat.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content