Deepfakes kunnen ook nuttig zijn

Hier zie je bovenaan de originele acteur met onderaan de deepfake versie die lichte wijzigingen aan het gezicht aanbrengt. © Google

In videogesprekken en films is dankzij deepfake-technologie een gezicht op levensechte wijze te verwisselen met dat van bestaande en overleden personen. De nadelen zijn al lang bekend, maar ken je de voordelen al?

Eigenlijk is acteur Bruce Willis gestopt met acteren. Toch verscheen hij afgelopen jaar in een gloednieuwe Russische reclame. Niet omdat Willis zijn pensioen heeft uitgesteld – hij lijdt aan de hersenziekte afasie en zal echt niet meer kunnen acteren – maar omdat hij zijn digitale gelijkenis had verhuurd aan het reclamebedrijf Deepcake, zo meldt Wired. Deepcake gebruikte deepfake-technologie om Willis levensecht na te maken en zijn gezicht te plakken op dat van een eigen acteur. Zo kan Willis in principe nog geld blijven verdienen aan acteren, aldus popcultuuronderzoeker Linda Duits op haar blog.

Het is even wat anders dan het gebruikelijke en meestal negatieve nieuws over deepfakes. Omdat deepfakes zo levensecht zijn, voedt het fenomeen behoorlijk veel wantrouwen over video’s en of ze echt zijn. Ook duikt er veel deepfake-porno op met de gezichten van beroemde mensen die daar geen toestemming voor hebben gegeven.

Ook van de ondertussen overleden Britse Queen circuleren heel wat deepfakes, waaronder dit voorbeeld.
Ook van de ondertussen overleden Britse Queen circuleren heel wat deepfakes, waaronder dit voorbeeld.© Isopix

Overleden

Toch maakt dat de technologie niet per definitie gevaarlijk of nutteloos. Zo heeft de Nederlandse politie een deepfakevideo gemaakt van de vermoorde tiener Sedar Soares, om tips te krijgen over zijn onopgeloste zaak. En in Florida krijgen bezoekers van het Salvador Dalí-museum een rondleiding van de schilder zélf, in deepfakevorm.

Iemands stemgeluid valt met de technologie ook na te maken met genoeg opnames, en dat kan een uitkomst zijn voor mensen die hun stem verloren hebben, zegt Mariëtte van Huijstee. Zij onderzoekt aan het Rathenau Instituut de impact van deepfakes. Ook kunnen computers met deepfake-technologie gezichten in 3D reconstrueren, wat bijvoorbeeld plastisch chirurgen kan helpen om iemands oude gezicht te herstellen.

Deeptherapy

Het is dus maar hoe je de deepfake-technologie gebruikt. Zo bestudeert informaticahoogleraar Theo Gevers van de Universiteit van Amsterdam of getraumatiseerde mensen misschien iets hebben aan deepfakes voor therapie. Iemand die blijft vastzitten in een rouwperiode, kan bijvoorbeeld een zoomgesprek hebben met een deepfake van de overleden persoon, gespeeld door een therapeut. Die begeleidt het gesprek en de hele therapie. Het idee achter deze zogeheten deeptherapy is dat ze dan op een veilige en verantwoorde manier in gesprek gaan met personen die er niet meer zijn.

Afscheid

‘Het staat allemaal nog in de kinderschoenen’, benadrukt Gevers. En het is zeker niet zo dat hij denkt dat iedereen met rouw om een dierbare voordeel heeft van een deepfake van de persoon die ze hebben verloren. ‘Je moet hierbij vooral denken aan mensen die geen afscheid hebben kunnen nemen.’ Sommige mensen hebben daar ontzettend last van. Door toch iets te zeggen tegen de deepfake, kan dit negatieve gevoel verminderen.

Een voorbeeld daarvan, beschrijft Gevers, is te zien in de NPO-documentaire van Roshan Nejal, die het onderzoeksproject mocht filmen. ‘Er waren ook ouders die hun dochter aan zelfmoord had verloren. Het koppel kon op deze manier een gesprek aangaan en vragen stellen. Maar we zijn nog op zoek naar wat het beste werkt voor rouwverwerking.’

Deepfakes kunnen ook nuttig zijn

Inbeeldingskracht

Getraumatiseerde slachtoffers van seksueel misbruik hebben in deeptherapiesessies ook al kunnen praten met een deepfake van hun dader – met weer de psychiater daarachter. ‘Het maakt dan onderdeel uit van een grotere therapie’, zegt hij. Dit gaat om slachtoffers die bij bijna elke gedachte aan de gebeurtenis of de dader een heftige stressreactie krijgen en daar minder gevoelig voor willen zijn.

De slachtoffers krijgen dan bijvoorbeeld al EMDR-therapie, waarbij ze zich de gebeurtenis proberen te herinneren en vervolgens hun emoties leren omzetten in iets minder negatiefs. Ze zijn dan afhankelijk van hun eigen inbeeldingskracht, zegt Gevers. Deeptherapy maakt die stap makkelijker, zo is het idee. In het begin kan zo’n deepfake-gesprek heel heftig voor het slachtoffer zijn, maar onder begeleiding van de therapeut lukt het misschien toch om bepaalde emoties af te sluiten, laten eerste proeven zien.

Verkeerd

Maar ook als deepfakes met goede bedoelingen worden ingezet, blijft het oppassen voor ongewenste bijwerkingen, zegt Van Huijstee. ‘We zien telkens met dit soort synthetische media dat de grens tussen echt en nep steeds verder vervaagt. Ik kan me voorstellen dat de volgende stap is dat je met kunstmatige intelligentie altijd met overleden mensen kunt praten. Wat doet dat met je rouwverwerking?’

In tegenstelling tot foto’s van overleden mensen – waarover mensen zich vroeger ook ooit zorgen maakten – is de illusie met deepfakes wel vele malen overtuigender, zegt Van Huijstee. ‘Dat het er is, kunnen we niet meer tegenhouden en dat hoeft ook niet, want er zijn ook echt positieve kanten. Maar er moeten wel duidelijke regels en wetten komen voor het gebruik ervan. En het zou goed zijn als mensen weerbaar worden en zelf ook begrijpen wanneer iets echt is of nep.’

In samenwerking met KIJK Magazine

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content