Facebook blijft worstelen met haatberichten en vals nieuws
Een nieuwe undercover reportage moet aantonen dat hoe Facebook zijn ‘content’ modereert, niet overeen komt met de regels die het zelf uitschrijft. Zo blijven gewelddadige filmpjes van kindermishandeling online ondanks klachten, en lijkt het erop alsof extreemrechtse sites de regels mogen overtreden, zolang ze populair genoeg zijn.
Facebook krijgt maar moeilijk grip op zijn eigen platform. Dat moet blijken uit een reportage van het Britse Channel 4 programma Dispatches. In de reportage gaat een journalist undercover aan de slag bij een bedrijf in Dublin, CPL Resources, dat voor Facebook gerapporteerde postjes modereert. De reporter vindt daar lange wachtlijsten. Dat Facebookmoderator een rotjob is, konden we al afleiden uit een getuigenis in de Volkskrant eerder dit jaar, maar uit de reportage moet blijken dat Facebook zelf ook niet goed weet waar het de lijn moet of wilt trekken. Zo krijgt hij de raad om niet actief te onderzoeken of een gebruiker jonger is dan dertien (de minimumleeftijd voor Facebook), tenzij ze zelf toegeven dat ze te jong zijn.
Vooral moet blijken dat Facebook in de eerste plaats met zachte hand modereert. Een van de dingen die de reporter te zien krijgt tijdens zijn training is een video van een man die een kleuter slaat en trapt. De video staat sinds 2012 online en wordt gebruikt als een voorbeeld van content die op de site moet blijven staan, met het label ‘verontrustende inhoud’. “Als je te veel gaat censureren, dan verliezen mensen hun interesse in het platform,” zo legt een moderator in de reportage uit. “Uiteindelijk gaat het om geld verdienen.”
Volgens venture capitalist Roger McNamee, een van de eerste investeerders in Facebook, maar ondertussen een grote criticus, heeft het platform extreme content, zoals filmpjes van vechtende tieners of geweldvideo’s, nodig voor zijn businessmodel. “Vanuit Facebook bekeken is dat de crack cocaine van hun product,” vertelt hij aan Channel 4, “het is de extreme, gevaarlijke vorm van hun content die de sterkste reacties uitlokt.” Facebook’s vicepresident van publiek beleid Richard Allan spreekt dat tegen. “Schokkende video’s leveren ons niet meer geld op,” zegt hij. “Mensen komen naar Facebook voor een veilige ervaring, om dingen te delen met hun vrienden en familie.”
Haat of geen haat
Vrienden, familie en kiezers, dan toch. Misschien het meest controversiële onderwerp dat de reportage aansnijdt is de manier waarop Facebook omgaat met extreem rechtse pagina’s. De reportage meldt bijvoorbeeld dat de pagina van Tommy Robinson, de veroordeelde leider van de extreemrechtse English Defence League, niet door moderatoren, maar rechtstreeks door Facebook wordt gemodereerd, in wat men ‘shielded review’ noemt. Dat zou de pagina moeten beschermen tegen te strenge moderatoren.
Facebook reageert in een blogpost op het schandaal met de rechtszetting dat ‘shielded review’ van naam is veranderd. Het is nu ‘cross check’, en Facebook legt uit dat het de procedure ‘een tweede paar ogen’ moet zijn voor politiek gevoelige onderwerpen. Pagina’s die een ‘cross check’ krijgen zijn vooral pagina’s van overheden en nieuwsorganisaties, maar dus ook enkele politieke groepen.
Het bedrijf spreekt ook tegen dat de pagina van Robinson, die 900.000 volgers heeft, beschermd zou worden om zijn populariteit. “We verwijderen content van Facebook, ongeacht wie het gepost heeft, als het onze regels overtreedt,” zegt Richard Allan aan de Britse krant The Guardian. Normaliter wordt een pagina verwijderd als ze vijf keer de regels overtreden heeft. Hij geeft het voorbeeld van de pagina van de extreemrechtse groep Britain First (u kent ze omdat president Donald Trump een van hun kopstukken retweette, met een kleine internationale crisis tot gevolg). Facebook verwijderde de pagina in maart van dit jaar werd, een week nadat de leiders van de groep werden veroordeeld en opgesloten voor haatmisdrijven tegen moslims.
Modereren is niet makkelijk
Eerder dit jaar beloofde Mark Zuckerberg in het Amerikaanse Congres (en nog eens dunnetjes opnieuw in het Europese Parlement) dat zijn bedrijf beter zou doen in de strijd tegen politieke inmenging en ‘fake news’. Maar zo simpel is het allemaal niet.
Wat de reportage vooral aantoont, is dat Facebook moeite heeft om die goede voornemens in te vullen. Het platform, dat ondertussen twee miljard gebruikers heeft, deed jarenlang zo weinig mogelijk om de vermenigvuldiging van postjes in te perken, maar ziet zich nu wel genoodzaakt om een oplossing te vinden. En de lijn tussen propaganda en nieuws, of ‘hoaxes’ en vrije meningsuiting, lijkt soms dun.
Een nieuwe hoorzitting in het Congres bracht eerder deze week bijvoorbeeld aan het licht dat sites als Infowars voorlopig mogen blijven. Die laatste is een populair rechts netwerk dat veel van zijn brood verdient met samenzweringstheorieën. Een massaschietpartij als die in de Sandy Hook lagere school, enkele jaren geleden, werd door Infowars bijvoorbeeld niet als een tragedie gebracht, maar als een politiek manoeuvre, met ‘crisisacteurs’ die de overheid een excuus moesten geven om een strengere wapenwetgeving in te voeren. Een van de gevolgen was dat de overlevenden scheldpartijen en doodsbedreigingen over zich heen kregen.
Monika Bickert, die wereldwijd aan het hoofd staat van Facebooks gebruikersbeleid, vertelde aan het Congres dat Facebook enkele van de Infowars postjes had verwijderd, maar dat de pagina zelf het niet verdiende om te verdwijnen. “Als ze genoeg content posten die onze regels overtreden, dan zal ze verwijderd worden,” aldus Bickert, “maar die drempel hebben ze nog niet overschreden.” Waar die drempel ligt, is niet meteen duidelijk.
Politiek vaarwater
Het plan van Facebook om alles te zijn voor iedereen, betekent dat modereren lastig blijft. Zeker wanneer het om politiek gaat, ligt dat namelijk gevoelig. En dat lijkt bovendien dubbel op te gaan als het om rechtse postjes gaat. Hier speelt de geschiedenis Facebook in zekere zin parten. Het bedrijf heeft namelijk de reputatie dat het een liberale voorkeur heeft. Het is een idee dat gevoed wordt door getuigenissen van medewerkers uit 2016, toen Facebook net met zijn news feed begon. Zij zouden regelmatig conservatief getint nieuws onderdrukt hebben. De aantijging dat het platform te streng is voor conservatieve stemmen wordt dan ook vaak herhaald, eerder deze week nog door de campagneleider van Donald Trump. Het gevolg lijkt, deels, dat Facebook nu doodsbang is om als ‘links’ over te komen, en dat het extra voorzichtig is met conservatieve en rechtse pagina’s, ook als die haatdragende teksten posten.
Totdat het bedrijf daar een duidelijke lijn in vindt, is het behelpen. In de eerste plaats met meer volk. In een reactie op de reportage van Channel 4 herhaalt Facebook zijn plan om het aantal moderatoren te verdubbelen van 10.000 tot 20.000 later dit jaar. Dat is iets wat Sheryl Sandberg ook al in januari aangaf (het bedrijf zou ondertussen een 15.000 zitten).
Daarnaast lijkt Facebook ook stap voor stap iets transparanter te worden over wat wel en niet kan op zijn platform. Het is daar jarenlang bijzonder geheimzinnig over geweest, maar komt nu langzaamaan op terug, met onder meer een eigenlijke handleiding.
En zoals altijd, belooft het platform ook deze keer beterschap. “Het is duidelijk dat enkele dingen die in het programma getoond worden niet in regel zijn met Facebooks beleid en waarden,” zegt Richard Allan. “Waar we weten dat we vergissingen hebben gemaakt, moeten we meteen actie ondernemen. We zullen extra training voorzien en doen ons best om te begrijpen waar het is misgegaan en hoe we dat kunnen oplossen.”
Fout opgemerkt of meer nieuws? Meld het hier