Vrije Tribune
Hoe ChatGPT & co onze verkiezingen kunnen kapen
Chatbots met kunstmatige intelligentie zoals ChatGPT kunnen een enorme impact hebben op democratische verkiezingen en zo op het beleid, schrijven twee Harvard-professoren. Ze pleiten voor duidelijke regels om de kiezer te beschermen.
Over de auteurs: Archon Fung is hoogleraar Burgerschap en Zelfbestuur aan de Harvard Kennedy School, Lawrence Lessig is hoogleraar Rechten en Leiderschap aan de Universiteit van Harvard.
Zouden organisaties kunstmatige intelligentie-taalmodellen zoals ChatGPT kunnen gebruiken om kiezers in een bepaalde richting te sturen? De Amerikaanse senator Josh Hawley stelde die vraag aan Sam Altman, CEO van OpenAI, tijdens een recente hoorzitting over kunstmatige intelligentie. Altman antwoordde dat hij wel degelijk bezorgd was AI-chatbots gebruikt kunnen worden om kiezers te manipuleren, om ze te overtuigen en om een-op-een-interacties met hen aan te gaan.
Altman ging er niet in detail op in, maar misschien had hij wel dit soort scenario in gedachten: stel u voor dat politieke techneuten binnenkort een machine ontwikkelen die Clogger heet – een soort politieke campagne in een zwarte doos. Die machine streeft continu maar één doel na: de kans maximaliseren dat zijn kandidaat – het campagneteam dat de diensten van Clogger Inc. inschakelt – wint bij verkiezingen.
Terwijl platformen als Facebook, Twitter en YouTube op dit moment vormen van AI gebruiken om gebruikers meer tijd op hun sites te laten doorbrengen, zou de AI van Clogger een heel ander doel hebben: het stemgedrag van mensen beïnvloeden.
Hoe zou dat in zijn werk gaan?
Politieke campagnes maken sinds het begin van deze eeuw gebruik van technieken als gedragsmanipulatie en microtargeting. Als politicoloog en jurist die het snijvlak van technologie en democratie bestuderen, denken we dat zoiets als Clogger de schaal en mogelijk ook de doeltreffendheid van die technieken enorm kan verhogen dankzij automatisatie.
Net zoals adverteerders uw browse- en socialemediageschiedenis gebruiken om nu individuele commerciële en politieke advertenties te richten, zou Clogger aandacht besteden aan uw individuele gedrag, en aan dat van honderden miljoenen andere kiezers. Dat levert drie grote voordelen op ten opzichte van de beste algoritmische gedragsmanipulatie die we vandaag kennen. Ten eerste zou het taalmodel berichten genereren (teksten, sociale media en e-mail, misschien ook wel afbeeldingen en video’s) die op u persoonlijk zijn afgestemd. Waar adverteerders strategisch een relatief klein aantal advertenties plaatsen, kunnen taalmodellen zoals ChatGPT tijdens een campagne een nagenoeg oneindig aantal unieke berichten genereren voor u en voor miljoenen anderen.
Ten tweede zou Clogger reinforcement learning gebruiken. Dankzij die techniek zou een opeenvolging van berichten gegenereerd worden die onze stem steeds waarschijnlijker zouden veranderen. Reinforcement learning is een machine-learning, trial-and-error benadering waarbij de computer acties onderneemt en feedback krijgt over wat minder of beter werkt, om te leren hoe een doel te bereiken. Machines die Go, een potje schaak en veel videogames beter kunnen spelen dan welk mens dan ook, maken gebruik van die techniek.
En ten derde kunnen de berichten van Clogger in de loop van een campagne evolueren om rekening te houden met uw reacties op de eerdere verzendingen van de machine en wat het systeem heeft bijgeleerd van anderen. Clogger zou in de loop van de tijd dynamische ‘gesprekken’ met u (en miljoenen andere mensen) kunnen voeren. De berichten van Clogger zouden vergelijkbaar zijn met de advertenties die u volgen op verschillende websites en sociale media.
De aard van AI
Nog drie andere functies – of bugs – zijn daarbij het vermelden waard.
Ten eerste hoeven de berichten die Clogger verzendt helemaal niet politiek van aard te zijn. Het enige doel van de machine is het maximaliseren van het aantal stemmen, en het zou waarschijnlijk strategieën bedenken waar geen enkele menselijke campagnevoerder ooit aan zou hebben gedacht.
Zo kan kunnen potentiële tegenstanders ook informatie krijgen over niet-politieke passies die ze hebben in sport of entertainment, om daarin politieke berichten te begraven. Een andere mogelijkheid is het versturen van onaangename berichten – bijvoorbeeld incontinentieadvertenties – die getimed zijn om samen te vallen met de berichten van politieke tegenstanders. Of nog: de socialemedia-vriendengroepen van kiezers manipuleren om het gevoel te geven dat hun sociale kringen de gewenste kandidaat steunen.
Een tweede belangrijk punt is dat Clogger geen enkel respect heeft voor de waarheid. Het heeft systeem heeft geen manier om te weten wat waar of onwaar is. Taalmodel-hallucinaties en fouten zijn voor deze machine geen groot probleem, omdat het doel niet is om nauwkeurige informatie te verschaffen, wel om uw stem te veranderen.
En ten derde: omdat het een black box-type van kunstmatige intelligentie is, zouden mensen niet weten welke strategieën het ontwikkelt en gebruikt.
Clogocratie
Als de Republikeinse presidentiële campagne Clogger in 2024 zou inzetten, zou de Democratische campagne waarschijnlijk gedwongen zijn om met gelijke munt te reageren, misschien met een vergelijkbare machine. Laten we die Dogger noemen. En als de campagnemanagers van mening zouden zijn dat de machines effectief waren, dan kan de presidentiële kiesstrijd neerkomen op Clogger vs Dogger. De winnaar is dan de klant met de meest effectieve machine.
Politicologen en commentatoren op tv zouden ongetwijfeld veel te vertellen hebben over waarom de ene of de andere AI heeft gewonnen, maar niemand zou het echt weten. De president zou immers niet zijn gekozen omdat zijn of haar verkiezingsbeloften of politieke ideeën meer mensen hebben overtuigd, maar omdat hij of zij over de beste AI beschikt. En de thema’s die het pleit winnen zouden niet afkomstig zijn van kandidaten of partijen, maar van een AI zonder eigen politieke ideeën, die uitsluitend gericht is op de overwinning.
Cruciaal daarbij is dat dus niet een persoon, maar een machine de verkiezingen zou winnen. Zo’n verkiezing zou niet langer democratisch zijn, ook al ging ze gepaard met alle normale activiteiten van de democratie: de toespraken, de advertenties, de boodschappen, het stemproces en de telling van de stemmen.
Twee pistes
De president die verkozen raakt door zo’n systeem, kan dan twee kanten op. Hij of zij zou ervoor kunnen kiezen om het partijprogramma te realiseren. Maar het zou goed kunnen dat dat programma helemaal niet de reden was waarom mensen hebben gestemd: Clogger en Dogger geven immers helemaal niet om beleidsstandpunten. Het beleid van de president zou dus niet noodzakelijkerwijs de wil van de kiezers weerspiegelen. Die zijn immers door de AI gemanipuleerd, in plaats van in volle vrijheid hun politieke leiders en beleid te kiezen.
Het alternatief voor de president is om communicatie en beleid af te stemmen op de thema’s waarvan de machine voorspelt dat ze de kansen op herverkiezing maximaliseren. De president zou dan geen specifiek platform of politieke agenda hebben, behalve dan het handhaven van de macht. De acties van de president, geleid door AI, zouden de kiezers het meest waarschijnlijk manipuleren in plaats van hun oprechte belangen te dienen, of zelfs de eigen ideologie van de president.
Clogocratie vermijden
AI-verkiezingsmanipulatie is te voorkomen als alle kandidaten, campagnes en adviseurs gezamenlijk het gebruik van dergelijke politieke AI afzweren. Maar we beschouwen dat als onwaarschijnlijk. Als er politiek effectieve zwarte dozen worden ontwikkeld, wordt de verleiding om ze te gebruiken bijna onweerstaanbaar. Politieke adviseurs zouden er wellicht van uitgaan dat ze de machines wel moeten gebruiken, uit professionele verantwoordelijkheid om hun kandidaten te helpen winnen. En zodra één kandidaat zo’n krachtig instrument gebruikt, kan van de tegenstanders moeilijk worden verwacht dat ze zich verzetten door eenzijdig te ontwapenen.
Betere privacybescherming zou wel al heel wat helpen. Clogger zou afhankelijk zijn van toegang tot enorme hoeveelheden persoonlijke gegevens om individuen te selecteren, berichten op maat te maken om hen te overtuigen of te manipuleren, en zich vervolgens opnieuw tot hen te richten in de loop van een campagne. Elk stukje van die informatie dat bedrijven of beleidsmakers de machines onthouden, zou ze minder effectief maken.
Een andere oplossing ligt bij verkiezingscommissies, die degelijke machines kunnen verbieden of streng reguleren. Er is een fel debat gaande over de vraag of ‘replicerende’ spraak wel kan worden gereguleerd, zelfs als die van politieke aard is. De extreme Amerikaanse traditie van vrijheid van meningsuiting brengt veel vooraanstaande academici ertoe te zeggen dat dit niet kan.
Maar er is geen reden om de bescherming van het Eerste amendement van de Grondwet van de VS automatisch uit te breiden tot het product van deze machines. Als de natie ervoor kiest om machines rechten te geven, dan moet ze die beslissing baseren op de uitdagingen van vandaag, niet op de misplaatste veronderstelling dat de opvattingen van James Madison in 1789 bedoeld waren om vandaag van toepassing te zijn op AI.
In de Europese Unie gaat de wetgeving in die richting. Beleidsmakers hebben het ontwerp van de wet op kunstmatige intelligentie van het Europees Parlement herzien en merken ‘AI-systemen om kiezers in campagnes te beïnvloeden’ aan als hoog risico: onderworpen aan toezicht door de regelgevende instanties.
Transparantie
Een grondwettelijk veiligere maar kleinere stap – die al gedeeltelijk is overgenomen door Europese internetregulatoren en in Californië – is om bots te verbieden zich voor te doen als mensen. Regelgeving kan bijvoorbeeld vereisen dat campagneboodschappen worden geleverd met disclaimers wanneer de inhoud die ze bevatten, is gegenereerd door machines in plaats van door mensen.
Nu al bestaan gelijkaardige vereisten voor de disclaimer bij verkiezingsspotjes, zoals ‘Betaald door het Sam Jones for Congress Committee’. Die kunnen worden aangepast om de AI-oorsprong weer te geven: ‘Deze door AI gegenereerde advertentie is betaald door het Sam Jones for Congress Committee’. Een sterkere versie zou kunnen zijn ‘Dit AI-gegenereerde bericht wordt naar u verzonden door het Sam Jones for Congress Committee, omdat Clogger heeft voorspeld dat de kans dat u stemt op Sam Jones daarmee toeneemt met 0,0002 procent’. We zijn van mening dat kiezers op zijn minst verdienen te weten wanneer ze aangesproken worden door een bot, en ze zouden ook moeten weten waarom.
De mogelijkheid van een systeem als Clogger toont aan dat het pad naar menselijke collectieve machteloosheid misschien geen bovenmenselijke kunstmatige algemene intelligentie vereist. Misschien volstaan enkele overenthousiaste campagnevoerders en consultants, als ze krachtige nieuwe instrumenten hebben waarmee ze doeltreffend kunnen inspelen op de gevoeligheden van miljoenen mensen.
Dit artikel is oorspronkelijk verschenen bij IPS-partner The Conversation.
Fout opgemerkt of meer nieuws? Meld het hier