Steek uw hand op als dit bekend voorkomt: u bekijkt een filmpje op Youtube. U klikt door naar een volgende, en een volgende. Twee uur en tientallen filmpjes later bent u nog altijd wakker, terwijl u al lang in bed had moeten liggen. Youtube's aanbevelingsalgoritme is wereldberoemd om de manier waarop het filmpjes blijft aanraden die u waarschijnlijk zult bekijken.

Guillaume Chaslot werkte van 2010 tot 2013 als programmeur bij Google (het moederbedrijf van YouTube) mee aan het aanbevelingsalgoritme, en is er nu uiterst kritisch over. Daarom schreef hij vorig jaar zijn eigen code, om te onderzoeken welke video's het meest worden aanbevolen binnen welke thema's. Op zijn website AlgoTransparency is bijvoorbeeld te zien dat op 2 mei (het meest recente overzicht beschikbaar bij tijd van schrijven) op nummer 9 onder het kopje 'wetenschap' een video te zien is met de titel 'Dit zijn de 13 buitenaardse rassen die op aarde leven'.

Een techbedrijf kan je niet iets laten doen wat je niet al wilde doen

Maar er worden ook veel serieuzere video's (zoals een livefeed van het internationale ruimtestation) aangeraden onder datzelfde thema. Het punt dat Chaslot wil maken is niet zozeer dat er alleen maar rare samenzweringen worden aanbevolen door YouTube's algoritme, maar dat er meer transparantie moet komen over hoe het algoritme werkt, zodat gebruikers zich meer bewust worden van hoe de informatie die ze te zien krijgen geselecteerd wordt. Die selectie berust namelijk voor een belangrijk deel op wat veel bekeken en becommentarieerd wordt. YouTube gaat ervan uit dat wat anderen veel bekijken, ook voor u interessant is. Het blijft die video's aanraden, zodat u aan uw scherm gekluisterd blijft.

Aandachtseconomie

YouTube is één voorbeeld, maar andere moderne techbedrijven doen precies hetzelfde. Netflix start automatisch een nieuwe aflevering, Facebooks Newsfeed heeft geen einde maar wordt altijd bijgeladen. Snapchat heeft dan weer streaks die de gebruiker telkens laten terugkomen. Het zijn allemaal voorbeelden van hoe techbedrijven hun producten zo ontwerpen dat wij, de gebruiker, er zo veel mogelijk tijd aan besteden. Tristan Harris, voormalig ontwerp-ethicus bij Google, noemde dat in een beroemd essay uit 2016 de 'aandachtseconomie'.

"Het verdienmodel van Facebook, Google en Youtube is het verkopen van advertenties", zegt Aza Raskin, voormalig hoofd User Experience bij Mozilla, "en wij zijn het product." Hoe meer tijd de gebruiker doorbrengt op het platform, hoe meer advertenties aan hem of haar getoond kunnen worden. Raskin is samen met Tristan Harris en Roger McNamee, een vroege investeerder en voormalige mentor van Mark Zuckerberg, mede-oprichter van het Centre for Humane Technology. Het centrum heeft volgens Raskin als doel "de belangen van tech weer in lijn te brengen met de belangen van de mensheid." Wat dat betekent? Raskin vergelijkt de techbedrijven met sigarettenfabrikanten. "Sociale media zijn net zo verslavend als nicotine, maar draaien op AI (artificiële intelligentie, nvdr.). Hoe langer we het blijven gebruiken, hoe beter het wordt in ons verslaafd te maken."

De algoritmes van Facebook en YouTube weten precies op welke video's u wel en niet klikt, wat wel en niet tot een reactie of een like leidt, en op welke tijdstippen van de dag en op welke apparaten. Al die informatie wordt opgeslagen en ingezet om u een volgende keer weer te verleiden. Raskin wijst erop dat techbedrijven natuurlijk de mogelijkheid hebben deze AI niet in te zetten. "Facebook kan het uitzetten. Google en YouTube kunnen stoppen met de aanbevelingen. Maar ze doen het niet, want ze hebben een fiduciaire verantwoordelijkheid naar hun aandeelhouders." Dat is wat Raskin bedoelt wanneer hij zegt dat de belangen van de techsector en die van de mensheid niet met elkaar in lijn liggen.

De formule die menselijk gedrag voorspelt

Het is waar, zegt BJ Fogg, onderzoeker aan Stanford Universiteit, dat techbedrijven hun producten zo kunnen ontwerpen om bepaald gedrag te stimuleren. "Maar tegelijkertijd kan een techbedrijf je niet iets laten doen wat je niet al wilde doen." Fogg specialiseert zich in menselijk gedrag: hoe het gestuurd kan worden, en welke rol technologie daarbij speelt. Hij heeft een simpele formule ontwikkeld die volgens hem menselijk gedrag voorspelt: B:MAP. Behavior (Gedrag) = Motivation (Motivatie) + Ability (Mogelijkheid) + Prompt (Prompt). Techbedrijven kunnen platformen en producten ontwikkelen die u de mogelijkheid geven bepaald gedrag te vertonen, en ze kunnen u met prompts verleiden dat te doen, maar er moet altijd een motivatie zijn om dat gedrag te vertonen. De vraag of Silicon Valley misbruik maakt van de motivatie om online te zijn, is Fogg te algemeen. "Voor jou en mij is Facebook fantastisch om in contact te blijven met familie en vrienden die ver weg wonen. Maar voor de tiener die Snapchat gebruikt en tijdens het avondeten alleen maar op zijn telefoon kijkt, is het minder geweldig."

Maar waar Tristan Harris (een voormalige student van Fogg) en Aza Raskin een verandering van het economische systeem voorstaan, ziet Fogg meer in 'agency', zelfcontrole. "Je kunt de economie achter sociale media niet veranderen, maar de ouders van die jongen op Snapchat kunnen hem wel verbieden zijn telefoon bij zich te houden tijdens het eten." In dat licht ziet Fogg wel wat de techbedrijven beter zouden kunnen doen. "Het zou veel makkelijker moeten zijn om als gebruiker in te stellen wanneer je bepaalde prompts krijgt. Notificaties van apps of mensen in- of uitschakelen op bepaalde tijdstippen, sommige wel en andere niet, enzovoort. Dat is nu best lastig te doen, omdat het misschien niet in hun belang is." Google maakte ondertussen bekend dat het dit soort opties wel zal toevoegen aan een nieuwe versie van Android, die later dit jaar uitkomt. Op het home-scherm van Android kan een gebruiker straks bijhouden hoeveel tijd hij op verschillende apps besteedt en daar limieten voor zichzelf aan stellen. Nadat die limiet verstreken is, wordt de app in grijstinten getoond.

'In de ideale wereld zou Facebook de vraag stellen: met welke kleine nudges kunnen we onze problemen direct oplossen? Wie moet er met wie praten, wie moet aan wie geïntroduceerd worden, om bijvoorbeeld klimaatverandering op te lossen?'

Aza Raskin

Nu al kunnen Android-gebruikers de app Siempo downloaden die de principes van minder prompts van Fogg onderschrijft. Het is een soort sleeve die u over het besturingssysteem legt. U kan aangeven welke apps u minder vaak wil gebruiken en die worden vervolgens in een scherm twee keer swipen van het home-scherm gezet. Elke keer dat u op dat scherm komt, worden de iconen in willekeurige volgorde gezet. "Zodat je geen muscle memory opbouwt voor waar je bepaalde apps vindt", zegt mede-oprichter en CEO Andrew Dunn. Alle apps worden in Siempo in grijstinten, met weinig contrast en met neutrale lettertypen weergegeven, om minder verleidelijk over te komen. En u kan notificaties bundelen in verschillende periodes, bijvoorbeeld elke 15 minuten, elk uur of een keer per dag op een bepaald tijdstip. En als u uw telefoon oppakt, geeft Siempo u een openingsboodschap (die u zelf kan instellen). "Zo voorkom je wat Tristan Harris 'weglokkende interacties' noemt. Dat je even een ander liedje op Spotify ging opzoeken, maar vervolgens een half uur op Instagram zit te kijken", zegt Dunn. Over de nieuwe Android-versie die Google aankondigde, maakt Dunn zich ondertussen geen zorgen. "We zijn blij met de plannen van Google omdat het het bewustzijn voor digitaal welzijn vergroot, maar het overlapt weinig met wat wij aanbieden. Google pakt het ontwerp van het home-scherm niet aan, wat volgens ons de kern van het probleem is."

Slavernij

Waar staan sociale media over vijf jaar? Het is een vraag die met het recente Cambridge Analytica-schandaal des te dwingender is geworden. Raskin schetst hoe mooi de toekomst voor een bedrijf als Facebook zou kunnen zijn. "In de ideale wereld zou Facebook de vraag stellen: met welke kleine nudges kunnen we onze problemen direct oplossen? Wie moet er met wie praten, wie moet aan wie geïntroduceerd worden, om bijvoorbeeld klimaatverandering op te lossen? Zeker weten dat er fantastische dingen zouden kunnen gebeuren als Facebook op die manier zou denken." En hoewel Raskin vreest dat sociale media er over vijf jaar slechter voor staan dan nu, heeft hij toch een sprankje hoop.

"Een analogie die we bij het Center for Humane Technology vaak gebruiken is die van het Britse rijk dat slavernij wilde afschaffen. Dat zou hen twee procent van het bbp per jaar kosten, zestig jaar lang. Bovendien zou het de Franse economie een voordeel geven boven de Britse, waar de Britten niet warm voor liepen. Het leek een volledig vastgeroeste situatie. En toch werd de slavernij opgeheven." Sociale media zijn geen slavernij, natuurlijk, maar Raskin wil maar zeggen: "De manier waarop we onze bedrijven waarderen en hoe ze geld verdienen, leidt tot een ultra-kapitalistische aandachtseconomie. Het lijkt schier onmogelijk dat we van dit pad afstappen. En toch zijn er in het verleden momenten geweest dat we het gedaan hebben."