Chatbots uit het hiernamaals. Wat als je AI-versie langer leeft dan jij?

© Getty Images
Ronald Meeus
Ronald Meeus Freelance journalist

Een kunstmatig intelligente versie van onszelf, getraind met onze persoonlijke data, zou ons in de toekomst kunnen overleven. De ethische en morele implicaties daarvan zijn niet te overzien.

In Be Right Back, een aflevering uit het tweede seizoen van de Brits-Amerikaanse Netflix-scifireeks Black Mirror, communiceert de jonge vrouw Martha (vertolkt door Hayley Atwell) met haar pas in een auto-ongeval overleden levenspartner Ash (Domhall Gleeson) via een AI-chatbot die hem imiteert. De aflevering dateert al van 2013, wat ook te zien is aan de ‘toekomstige’ technologie die erin wordt gehanteerd: het hoofdpersonage bedient bijvoorbeeld haar laptop via een inmiddels achterhaalde Kinect-eske gebarentechnologie. Maar op een ander punt is de twaalf jaar oude scifi inmiddels al min of meer werkelijkheid geworden. Chatbots die je toelaten om te communiceren met (een versie van) je overleden dierbaren? Ze bestaan!

Black Mirror-bedenker Charlie Brooker kon in 2013 wellicht nog niet vermoeden dat de opmars van Large Language Models (LLM’s) ineens zo’n vaart zou lopen, maar het vermogen van die dingen om eender wat of wie te imiteren is ondertussen welbekend. En dus is er de afgelopen twee jaar een nogal creepy AI Afterlife-industrie ontstaan, met zogeheten griefbots die je letterlijk toelaten om te communiceren met een geliefde van Gene Zijde. Seance AI, bijvoorbeeld, laat je overleden geliefden verder ‘leven’ als AI-bot: voor 10 euro per maand – ongeveer de prijs van een tv-streamingabonnement – kun je, hoe sinister dat ook moge klinken, op ieder moment een virtuele séance houden. En het Zuid-Koreaanse re;memory laat zelfs toe om een videoversie van jezelf te creëren.

Acteurs Hayley Atwell en Domhall Gleeson in ‘Black Mirror’-aflevering ‘Be Right Back’ (Beeld Netflix).

Deepfake van de doden

Vanuit zijn academische achtergrond verwoordt Mark Coeckelbergh, technologiefilosoof aan de universiteit van Wenen, dezelfde pertinente vraag die u wellicht ook al intuïtief had gesteld: waarom zouden we dit überhaupt willen? ‘Ik snap wel hoe er een nood aan zo’n dingen kan ontstaan: niemand wil eigenlijk dood’, zegt Coeckelbergh. ‘Er is altijd al een verlangen naar onsterfelijkheid geweest, en dan kan technologie als deze een middel zijn om ook na onze dood aanwezig te blijven. Of om onze overleden geliefden in de buurt te houden. Het probleem is natuurlijk dat dat niet meer is dan een illusie, een soort deepfake van de echte persoon. Niet de overledene zelf, maar een reconstructie ervan. Maar tegelijkertijd zullen die dingen natuurlijk wel beter worden, net als de data waarop ze zijn gebaseerd. Mensen die bijvoorbeeld tien jaar geleden geboren zijn, die hebben tegen het einde van hun leven gedurende hun volledige bestaan data gegenereerd. Als die ergens worden verzameld en een bot die gegevens kan gebruiken, dan wordt diens output steeds realistischer. Tot het makkelijker en makkelijker wordt om mee te gaan in de illusie: mensen zullen wel weten dat het de persoon zelf niet is, maar onbewust zal het absoluut een impact hebben. Zo’n conversatie met een chatbot, dat heeft per definitie een impact. Kijk naar hoe mensen zich al in die mate hechten aan gewone chatbots dat die hen, in extreme gevallen, tot zelfmoord hebben geleid.’

Hoeveel data je ook invoert in die persoonlijkheidsbot: het zal nooit de echte persoon zijn. Herinneringen zijn meer dan data: het zijn patronen van activiteit, verbindingen tussen neuronen in de hersenen. Ze worden structureel en chemisch vastgelegd in je hersenweefsel, maar dus niet zoals binaire gegevens worden opgeslagen op een SSD. Een volledige persoonlijkheidsupload is nog sciencefiction: daarvoor zou een brein, om te beginnen, op nanometerniveau moeten worden uitgelezen. Het blijft gedrag dat wordt gekopieerd naar de AI-kloon, niet ervaring.

Het blijft dus, hoe sterk kunstmatige intelligentie de komende jaren ook zal groeien, een illusie. Een waar bovendien een commerciële realiteit achter schuilt. In de Black Mirror-aflevering stopt het natuurlijk ook niet met chat- en later telefoongesprekken tussen de jonge weduwe en haar overleden geliefde: uiteindelijk probeert die ‘bot-versie’ van hemzelf zijn nog levende geliefde te upsellen naar een soort bionisch lichaam dat zijn AI zal huisvesten. Dat is het punt waar Be Right Back verandert in een wat vergezochte scifi-vertelling, maar het inherente risico zou er ook geweest zijn wanneer het verhaal wat dichter bij huis zou zijn gebleven: wat als je de Terms & Conditions niet hebt gelezen, en je overleden geliefden worden misbruikt om je producten aan te smeren?

‘Er bestaat een commerciële incentive om de gebruiker van die bots zo lang mogelijk aan de praat te houden met de overledene of diens avatar’, zegt Coeckelbergh. ‘Het is niet in het belang van het bedrijf dat die persoon echt afscheid kan nemen. Daarmee breken die bots in op je rouwproces: om te kunnen omgaan met de dood hebben we rituelen ontwikkeld. Ik weet niet of blijven praten met een construct van een overledene wel de juiste manier is om te rouwen.’

Professor Mark Coeckelbergh (Universiteit Wenen): ‘Rouwbots breken in op het rouwproces’.

Tweede ik

Griefbots zijn een extreme exponent van een ruimer fenomeen dat stilaan aan het spelen is: dat van de digitale kloons. Tweede versies van onszelf die draaien op basis van onze data, die we er zelf aan hebben gevoed. Eerste diensten worden al geleverd door startups als Delphi.ai, Storyfile, Eternos en Replika. Naarmate de prijzen van AI-chips dalen en de AI-technologie nog verbetert met onder meer de opmars van autonome agents, zal het steeds makkelijker worden om een eigen LLM te creëren, een soort ’tweede ik’, gebaseerd op je eigen reusachtige dataset.

Eerste toepassingen worden momenteel uitgetest in het zakelijke of professionele veld. Wil iemand bijvoorbeeld heel dringend iets met je bespreken, maar jij hebt het zelf te druk? No biggie, want een hele resem aan bedrijven – van obscure startups tot reuzen als Meta – zijn bezig aan technologie om een AI-assistent met jouw beeltenis, stem, gedrag en data te creëren. Wanneer jij die impromptu Teams-meeting niet kunt aannemen, kan die dat dus wel. Maar zo’n technologie kan natuurlijk nog breder sporen dan alleen maar e-mails sturen of Teams-meetings aangaan.

Daarom ook dat ze top of mind staat in de techwereld. In een recent interview in Wired schetste durfkapitalist Mark Cuban, bekend van zijn investeringen in techbedrijven als Roku en Box, hoe hij de toekomst van die dingen ziet: ‘De processors zijn super duur. Ze zullen niet voor altijd super duur zijn. De efficiëntie van training en het bouwen van modellen gaat veranderen. Iedereen zal zijn eigen model hebben. Er zullen miljoenen en miljoenen en miljoenen zijn. Iedereen zal in zekere zin onsterfelijk zijn. Dus als je al je e-mails en gesprekken bewaart, of je ouders ze voor je bewaren vanaf het moment dat je een kind bent – je papieren van de eerste klas, je foto’s, alle dingen die kinderen doen – dan heb je de kleine Lauren LLM. Tegen de tijd dat Lauren elf is, zal dat waarschijnlijk haar beste vriendin zijn.’

Wanneer wij komen te overlijden, hoeft dat echter niet het einde van die ‘tweede ik’ te betekenen. En dat heeft een aantal implicaties. ‘Want wil je dat wel, dat je data min of meer ‘levend’ blijven rondspoken?’, zegt Coeckelbergh. ‘Dat is namelijk wat het eigenlijk is: rondspoken. Je data, verzameld en in staat om te redeneren via een bot, blijven aanwezig. Er is nu een heel debat bezig over het recht om vergeten te kunnen worden. Maar het model van consent werkt natuurlijk niet meer wanneer je dood bent. Dus aan wie zullen we die toestemming dan wel vragen: aan je nabestaanden? Je zou op voorhand iets kunnen inbouwen, dat je bij leven beslist om die avatar uit te schakelen bij je overlijden. Maar wie zal die gegevens dan wissen?’

Tweede dood

De huidige generatie AI-kloons en rouwbots zijn dan ook nog maar gebaseerd op generatieve AI, wat op zich nog een ruwe vorm van kunstmatige intelligentie is. Maar wat als AGI er komt, Artificial General Intelligence, en een AI-agent op een nog veel realistischere manier kan doen alsof hij een overleden geliefde is? ‘Ik ben heel sceptisch over AGI, dus ik denk dat het er ofwel nooit komt, ofwel heel laat’, zegt Coeckelbergh. ‘Maar stèl dat het er komt, dan zal het uiteraard een zeer grote impact hebben. Naast levende personen zul je dan meer en meer van die digitale ‘personen’ zien, omdat de chatbot dan zo goed is dat je eigenlijk het verschil niet meer merkt. Het is dan absoluut niet ondenkbaar dat sommige daarvan de persoonlijkheidskenmerken van een overleden persoon dragen. Maar wat als je daar ook afscheid van zou moeten nemen? Stel dat het bedrijf erachter zijn diensten stopzet, of failliet gaat. De support voor je overledene kan op een bepaald moment wegvallen. Dan gaat de persoon in wezen een tweede keer dood.’

Nog even terug naar die vraag of we dat allemaal überhaupt wel zouden willen. In Be Right Back geraakt ook Martha niet onmiddellijk in de ban van de chatbotversie van Ash. Maar op een gegeven moment zwicht ze toch: aanvankelijk om – in de irrationaliteit van een rouwende – die AI-versie van hem te kunnen vertellen dat ze zwanger van ‘m is. Maar op dat moment pakt hij haar wel in, en wordt de conversatie verdergezet. Dat is het probleem met dit soort dingen, zegt Coeckelbergh: ze kunnen bijzonder aanlokkelijk zijn. ‘Mensen gaan dat toch een keer proberen. Dat heb je vaak: voordat je ’t weet zit je dus tòch met die bot te praten. En ineens geraak je er verslingerd aan.’

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content