Dat de duistere kanten van YouTube steeds meer gezien worden als een propagandamachine, voor alles van blank nationalisme tot antivaccinatie-boodschappen, heeft het grotendeels aan zichzelf te danken. Dat schrijft Bloomberg in een rapport. Volgens een nieuw rapport heeft het netwerk jarenlang controversiële filmpjes gepromoot omdat ze zorgden voor 'engagement'. Nu er steeds meer druk komt op sociale media om verantwoordelijkheid te nemen voor de content op hun platformen, blijkt het voor YouTube (net als voor Facebook, Twitter en anderen, overigens) moeilijk om de juiste balans te vinden.
...

Dat de duistere kanten van YouTube steeds meer gezien worden als een propagandamachine, voor alles van blank nationalisme tot antivaccinatie-boodschappen, heeft het grotendeels aan zichzelf te danken. Dat schrijft Bloomberg in een rapport. Volgens een nieuw rapport heeft het netwerk jarenlang controversiële filmpjes gepromoot omdat ze zorgden voor 'engagement'. Nu er steeds meer druk komt op sociale media om verantwoordelijkheid te nemen voor de content op hun platformen, blijkt het voor YouTube (net als voor Facebook, Twitter en anderen, overigens) moeilijk om de juiste balans te vinden. Bloomberg schrijft, op basis van getuigenissen van werknemers, dat YouTube jarenlang weigerde om giftige video's weg te halen, omdat die veel bekeken werden. Werknemers zouden doorheen de jaren verschillende voorstellen hebben gedaan om de verspreiding van extreme content tegen te gaan, bijvoorbeeld door video's niet meer aan te bevelen wanneer ze op het randje waren van wat mag. Het voorstel werd afgeketst ten voordele van video's die veel geklikt werden, ongeacht hoe controversieel die waren. Het interne doel zou geweest zijn om een miljard uur 'views' per dag te krijgen. Volgens de ondervraagde medewerkers lag de focus dan ook vooral op engagement, en werd daarvoor de mogelijke strijd tegen schadelijke en foute informatie grotendeels achterwege gelaten.Een en ander zou tot gevolg hebben gehad dat het erg lang duurde voordat YouTube iets aan de cultuur op de site deed. Pas in januari van dit jaar werd bijvoorbeeld een systeem ingevoerd dat extreme video's niet langer aanbeveelt. Sociale media zien zichzelf graag als neutrale voorstanders van de vrije meningsuiting. Susan Wojcicki, CEO van YouTube, vergelijkt de site dan ook vaak met een bibliotheek waarin ook niet-accurate informatie een plaats krijgt. Voordeel van die aanpak is dat moderering minder nodig is. Nadeel is dat, door de unieke manier waarop algoritmes werken, desinformatie en controversiële video's wel erg snel verspreid worden. Sneller, meestal, dan de saaie, correcte variant.Voor algoritmes die de voorkeur geven aan 'engagement', is een video met een waanzinnige stelling, bijvoorbeeld dat Hillary Clinton deel uitmaakt van een satanische sekte of dat de aarde plat is, namelijk een 'goede' video. Zo'n filmpje wordt niet alleen veel bekeken, er wordt ook op gereageerd, vaak door zowel voor- als tegenstanders. Door die video's steeds te gaan aanbevelen, werkte YouTube de verspreiding ervan deels in de hand.Dat is ondertussen, overigens, wel aangepast. YouTube is in 2017 begonnen met het 'demonetizen' van kanalen die schadelijke content verspreiden. Die kanalen krijgen dan geen advertentiegeld meer. In een reactie op het Bloomberg-verhaal zegt een woordvoerder van Google dat de hoeveelheid mensen die aan 'content issues' werken nu op 10.000 ligt en dat de site ook machine learning inzet om gewelddadige filmpjes op te sporen.Het nieuws past in een breder debat over hoe sociale media met propaganda moeten omgaan. Zo riep de eerste minister van Nieuw-Zeeland de voorbije weken sociale media op om hun verantwoordelijkheid te nemen. Ze deed dat naar aanleiding van een terroristische aanslag op een moskee in Christchurch, waarbij de dader zijn schietpartij livestreamde. Als reactie daarop heeft Facebook vorige week blank nationalisme gebannen door de definitie voor racistische berichten uit te breiden om ook die thematiek te bevatten. Expliciete haatberichten werden al langer verboden op Facebook en dochter Instagram, en ook neonazistische en racistische pagina's worden al jaren offline gehaald. In dezen is YouTube ook nu nog iets voorzichtiger, zo blijkt. Zo wordt bepaalde propaganda niet gebannen, maar eerder met extra restricties omzwachteld. Goed voorbeeld is het kanaal van de Britse extreem-rechtse activist Stephen Yaxley-Lennon, beter bekend als Tommy Robinson. De man werd eerder al gebannen door Twitter en Facebook, en de Britse overheid vraagt ook YouTube om hem strenger aan te pakken. De man zou in zijn vlogs onder meer journalisten en politici intimideren, en is al veroordeeld voor geweld en fraude. Op YouTube mag hij voorlopig blijven, al heeft de site de regels voor zijn kanaal wel verstrengt. Zo mag hij niet meer livestreamen, en commentaren en likes op zijn video's worden gestript. Het kanaal was eerder al van advertenties ontdaan. De maatregelen draaien om video's van de man die niet de regels overtreden, maar die door gebruikers wel zijn aangeduid als controversieel. YouTube, zo lijkt het, zoekt hier een gulden middenweg die zo veel mogelijk mensen gelukkig moet stellen, inclusief de conservatieve en rechtse partijen die Google van partijdigheid beschuldigen.