In een zogenaamd 'democratisch land' vonden verkiezingen plaats. Een plichtbewuste burger bracht zijn stem uit en ging naar huis. Toen zijn vrouw hem vroeg voor wie hij had gestemd, antwoordde hij dat hij had besloten om de oppositie een kans te geven. Zijn vrouw begon te schreeuwen: "Wat? Ben je gek! Ze maken ons kapot als we niet voor de president stemmen! Ga terug naar het stembureau en pas dat aan!" Tegen zijn zin keerde de man terug naar het stembureau. Daar aangekomen legde hij uit aan de bewakers dat hij zich had vergist en graag zijn stem zou veranderen. "Geen probleem, meneer", glimlachte de bewaker, "wij hebben dat al voor u gedaan."

Inmenging in verkiezingen is geen grap, maar het is ook geen nieuws meer. Het 'hacken' van verkiezingen kan verschillende vormen aannemen, ook niet digitaal, en we vinden voorbeelden tot diep in de vorige eeuw. Maar in het huidige klimaat van cyberoorlogvoering is het uitgegroeid tot wellicht het krachtigste wapen dat een land heeft om een ander land te belagen.

De subtiele kunst van het manipuleren

Zoals we hebben geleerd uit de vermeende Russische inmenging in de Amerikaanse presidentsverkiezingen in 2016, is de meest opvallende manier om een verkiezing te hacken door te knoeien met de stemcomputersystemen. Deze methode heeft tot nu toe ook de meeste aandacht gekregen.

Zo berichtten media over een elfjarige jongen die kwetsbaarheden vond in een mock-up van de website voor de verkiezingen in de staat Florida en erin slaagde om binnen te breken en de opgeslagen stemtotalen aan te passen. Dat kostte hem minder dan 10 minuten.

Maar er zijn ook subtielere en minstens even schadelijke manieren om de regels te manipuleren, breken of heruitvinden voor het eigen belang zonder dat ze hiervoor zelfs maar in de buurt van een stemmachine moeten komen.

Verkiezingen? Hoed u voor digitale desinformatiecampagnes

Sinds 2016 zijn de digitale propaganda- en desinformatiecampagnes steeds gesofisticeerder geworden. Deels omdat buitenlandse mogendheden meer interesse hebben gekregen in het misbruiken van kwetsbaarheden van internationale stemsystemen. Deels ook omdat sociale media uiterst vatbaar zijn voor georganiseerde desinformatiecampagnes, zoals we hebben vastgesteld bij de controverse rond de politieke consultants van Cambridge Analytica, die een hoofdrol speelden in dit scenario.

Volgens velen is dit louter het gevolg van de duizenden valse accounts op Twitter en Facebook die de resultaten beïnvloeden. Maar dat is slechts een deel van het verhaal.

Neem bijvoorbeeld de recente verkiezingen in Israël. Volgens sommige schattingen heb je al 100.000 stemmen voor één partij nodig om die partij een zitje in het parlement te verzekeren. Terwijl het al moeilijk is om burgers te overtuigen om zelfs maar te gaan stemmen, laat staan om allemaal voor eenzelfde kandidaat te stemmen. Zulke aanpak kost bijzonder veel geld, zoals werd bewezen tijdens de mid-term verkiezingen in de VS van 2018, die met een budget van 5 miljard dollar worden beschouwd als de duurste verkiezingen ooit.

De reden hiervoor is dat burgers in de weken voor de verkiezingen worden overspoeld met politieke boodschappen, met als gevolg dat elke afzonderlijke boodschap, goed of kwaad, slechts een beperkte impact heeft op het stemgedrag.

Daarom wordt vaak gekozen voor een subtielere maar tegelijk ook efficiëntere en krachtigere aanpak: het beïnvloeden van de nieuwsverhalen zelf. Door specifieke verhalen in de nieuwsmedia uit te vergroten via sociale media kunnen externe krachten het resultaat van de verkiezingen wel degelijk beïnvloeden.

Timing maakt het verschil

Wie naar het stemhokje trekt, komt meestal met een stevig pakket vastgeroeste ideeën en cognitieve vooroordelen als baggage. Daarom, zo blijkt uit onderzoek rond politieke communicatie, slagen de media er niet zozeer in om mensen te vertellen wat ze moeten denken maar zijn ze wel erg doeltreffend in het bepalen waarover ze moeten denken.

Eén onbewuste belissingsfactor die wel beïnvloed kan worden is de 'recency bias', het fenomeen dat de krantenkoppen in de weken net voor de verkiezingen bepalen waar de kiezers het meeste van wakker liggen. Als de nieuwsberichten vooral over migranten gaan, zullen kiezers hun stem goeddeels laten bepalen door hun mening over dit onderwerp.

Daarom zijn die bots met hun duizenden boodschappen over één specifiek onderwerp misschien wel minder geschikt om een verkiezing te manipuleren. Wellicht hebben goed getimede schandalen net voor de verkiezing de grootste impact als belangrijkste gespreksonderwerp in die periode. Zo kunnen buitenlandse instanties ongemerkt toch een rol spelen door ons bewustzijn te beïnvloeden met echte of verzonnen nieuwsberichten.

Fake news en AI

Zoals eerder al gezegd: desinformatie tijdens verkiezingen is geen nieuw fenomeen. Maar in de vijfde generatie van het cybergevarenlandschap wordt deze desinformatie, zoals alle 'fake news' trouwens, steeds gesoficticeerder verspreid. Met de nieuwste technologie zijn de zichtbaar valse accounts op social media die massaal ongezouten meningen spammen vervangen door veel volwassener tools.

Centraal in deze evolutie staat Artificiële Intelligentie (AI), waarmee een computer zich in real time kan aanpassen en steeds geloofwaardiger en natuurlijker aanvoelende content kan bouwen. De tools zijn zo overtuigend dat hun makers ze ook te gevaarlijk vinden voor algemeen gebruik. Dat is bijvoorbeeld het geval bij GPT-2, een AI-machine die op basis van machine-learning algoritmes en big data volledig autonoom totaal natuurlijk aanvoelende tekst kan genereren. Een ander voorbeeld is Project Debator, een computer die volledig nieuwe en overtuigende argumenten 'live' kan bedenken als antwoord op argumenten die hij krijgt voorgelegd.

Zulke tools zijn trouwens niet enkel voor geschreven content beschikbaar. Er zijn ook doorbraken op het vlak van fake video-content die nauwelijks van het origineel te onderscheiden zijn. In dit tijdperk waarin video het favoriete medium is voor honderden miljoenen mensen wereldwijd, vooral dankzij het gebruik van smartphones, is het niet meer zo ondenkbaar dat iemand met behulp van deepfake-video's de algemene opinie kan beïnvloeden door een politieke kandidaat in situaties te tonen waar hij of zij zich nooit heeft bevonden. En eer deze video's als fake zijn ontmaskerd is de schade allang onherstelbaar.

Als zulke tools gecombineerd worden met het virale effect van sociale media, kan dit ijzingwekkende gevolgen hebben. Sommigen verzekeren ons dat het zo'n vaart niet loopt met de desinformatie die onze nieuwsfeeds voortdurend overschaduwt, maar volgens ons hebben zij nog niet goed begrepen welke reuzenstappen er zijn gezet door de bedenkers van de huidige generatie cybergevaren.

Het gevaar van deze tools en de gevolgen hiervan voor het massaal verspreiden van misleidende en valse content wordt nog niet genoeg onderkend. Momenteel wordt druk gedebatteerd over de verantwoordelijkheid van de sociale media in het bewaken van de content op hun platforms. Maar het is overduidelijk dat er nog meer nodig is, met name een intense samenwerking tussen de sociale media-platformen en derden, zowel publieke als private organisaties, die er belang bij hebben dat de potentiële schade voor gebruikers zo beperkt mogelijk blijft. Als zulke samenwerking uitblijft, is de kans erg groot dat we in elke fase van het verkiezingsproces aangevallen zullen worden van buitenuit, met soms enorme gevolgen.

Van Spanje tot Canada, van België tot Nieuw-Zeeland: in 2019 vinden meer dan 90 plaatselijke of algemene verkiezingen plaats. De kans op buitenlandse inmenging wordt wel erg groot. Vrije verkiezingen liggen aan de basis van elk democratisch bestel. Elke (overheids-)organisatie die een land of regio wil beïnvloeden of hun democratie wil ondermijnen heeft nu ook een sterk arsenaal aan cyberwapens ter beschikking.

Geavanceerde technologie ligt aan de basis van elk type cyberaanval, of het nu een aanval op de stemsystemen zelf is of het misleiden van kiezers door desinformatie. Gelukkig is er ook een even geavanceerd aanbod aan technologieën die de aanval voorkomen of de schade tot een minimum beperken.