Erik Baeten

De onmisbare rol van technologie en menselijk bewustzijn bij beeldverificatie

Dankzij AI is het makkelijker dan ooit om een stem te imiteren of een gezicht na te maken en zo een overtuigende nepvideo te verspreiden. Dat kan leiden tot gevaarlijke situaties, zoals identiteitsfraude of het manipuleren van verkiezingscampagnes. Technologie in combinatie met menselijk bewustzijn wordt onmisbaar om de echtheid van beelden te controleren en misleiding te voorkomen.

De snelle groei van deepfakes stelt onze wetgeving op de proef. Hoewel de GDPR persoonsgegevens beschermt en veel landen auteurs- en portretrecht toepassen, bieden die regels weinig houvast in een tijd waarin AI razendsnel en overtuigend beelden en stemmen kan nabootsen.

In theorie mag niemand zonder toestemming deepfakes maken van een persoon. Dat recht blijft zelfs tot twintig jaar na overlijden van kracht, waarna erfgenamen het portretrecht nog kunnen inroepen. Maar ook dan blijft het ethisch discutabel om iemand digitaal tot leven te wekken, zelfs met toestemming. In de praktijk wordt het maken en verspreiden van deepfakes zelden vervolgd, mede omdat het steeds lastiger wordt om echte en gemanipuleerde beelden van elkaar te onderscheiden.

Niet alleen technologie, ook menselijk bewustzijn

De uitdaging rond het verifiëren kunnen we deels het hoofd bieden met behulp van technologie. Authenticatietechnologieën voegen bijvoorbeeld extra context toe aan beelden, zoals watermerken, tijdsindicaties, digitale handtekeningen, locatiegegevens en bewegingsinformatie.

Ook openbare registers waarin AI-algoritmes worden geregistreerd, vergroten de controle op echtheid. Ze vermelden onder meer waarvoor een algoritme bedoeld is, wie het ontwikkelde en hoe het beveiligd is. Zo creëren ze transparantie en helpen ze deepfakes sneller te ontmaskeren. Deze authenticatiemiddelen en registers helpen om vast te stellen of beelden echt zijn en maakt ze zelfs bruikbaar als bewijs in rechtszaken.

Deze technologieën zijn alleen effectief als mensen weten hoe ze ermee moeten omgaan. Train je medewerkers om afwijkende beelden te herkennen en verdachte situaties te melden, zodat manipulatie sneller aan het licht komt. Leer hen waarop ze moeten letten om te zien of een beeld echt is. Let bijvoorbeeld op onscherpe of vertraagde pixels, onnatuurlijke bewegingen van ogen, wenkbrauwen en mond, een te gladde huid of juist vreemd gerimpelde huid, afwijkende schaduwen en de lichtinval, of haperingen in het beeld. Zulke kleine details kunnen verraden dat een video mogelijk gemanipuleerd is of zelfs een deepfake betreft.

Vooruitgang vraagt samenwerking

Iedereen draagt verantwoordelijkheid voor een betrouwbare digitale wereld: bedrijven moeten open zijn over hoe ze beelden opslaan, verwerken en beveiligen, en transparant communiceren over hun gebruik van AI en cameratechnologie. Onderzoekers dienen continu te zoeken naar nieuwe methoden om de echtheid van beelden te controleren. Wetgevers moeten duidelijke en handhaafbare regels opstellen, zoals de AI Act, de Cyber Resilience Act, en richtlijnen als NIS2 en CER. Consumenten moeten kritisch blijven in wat ze zien en delen online. Die kritische blik begint al op school, waar kinderen en studenten moeten leren hoe ze (digitale) beelden kunnen beoordelen en begrijpen.

Technologische ontwikkeling gaat vaak sneller dan regelgeving kan bijbenen. Daarom blijft een kritische houding van iedereen onmisbaar: waar komt het beeld vandaan? Is de bron betrouwbaar? En vertrouw je het genoeg om te delen? Bij twijfel, meld het bij de bron zelf, bijvoorbeeld via de meldfunctie van een sociaal mediaplatform of door contact op te nemen met de redactie van een publicatie. En twijfel je nog, verspreid het dan zeker niet verder. Alleen door alert te blijven en samen te werken, kunnen we de digitale wereld veilig en betrouwbaar houden.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Expertise