Aantal deepfake video’s verdubbeld op één jaar tijd

Hier zie je bovenaan de originele acteur met onderaan de deepfake versie die lichte wijzigingen aan het gezicht aanbrengt. © Google
Pieterjan Van Leemputten

Het merendeel van deepfake video’s, fragmenten waar doorgaans iemands gezicht op een ander lichaam wordt gezet, zijn pornografisch. Hun aantal is verdubbeld op minder dan een jaar.

Deepfakes duiken sinds een jaar of twee online op. Het is een praktijk waarbij met behulp van deep learning software video’s automatisch worden gemanipuleerd. In het kort leert een programma iemands gezicht herkennen om dat vervolgens op het lichaam in een andere video te zetten.

Volgens een rapport van het Nederlandse securitybedrijf Deeptrace zijn er momenteel zo’n 14.678 deepfake video’s in omloop. Bijna een verdubbeling tegenover december 2018. Toen stond de teller op 7.964.

Het bedrijf deed onderzoek naar het aantal video’s en hun inhoud en komt tot de vaststelling van 96 procent van de deepfake video’s uit porno bestaan. Bij honderd procent daarvan gaat het om vrouwen. Ter vergelijking: bij het aantal niet-pornografische deepfakes is slechts 39 procent van de gemanipuleerde hoofden/lichamen een vrouw.

Voor het zoeken en tellen van deepfake video’s ging het bedrijf op zoek bij enerzijds pornowebsites waar deepfakes te vinden zijn, maar ook bij online fora zoals Reddit en 4chan en de meer mainstream videokanalen zoals YouTube of Dailymotion. Het gaat voor alle duidelijkheid dus enkel om publiek vindbare video’s.

Dat er meer vervalste video’s opduiken komt omdat er sinds de eerste video’s meer onderzoek en tools beschikbaar zijn om met succes video’s of foto’s automatisch te manipuleren. Ook zijn er vandaag online plaatsen te vinden waar zulke video’s tegen betaling worden gemaakt.

Hoewel het merendeel van de video’s seksueel van aard zijn, waarschuwt Deeptrace ook voor andere doeleinden. Zo worden deepfake video’s ook ingezet in de politiek om te manipuleren. Een andere trend die het bedrijf opmerkt zijn zogenaamde shallowfakes, waarbij een video licht wordt vervormd waardoor bepaalde uitspraken of handelingen er anders uitzien.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content