De ellende die je als Facebookmoderator ziet

Stockbeeld © iStockphoto
Pieterjan Van Leemputten

Elke gerapporteerde video, status of foto op Facebook wordt gecontroleerd door een moderator. Maar die job bestaat vooral uit zo veel mogelijk ellende en ranzigheid bekijken om ze vervolgens goed- of af te keuren.

De Nederlandse krant de Volkskrant brengt een interessant portret van een Nederlander die acht maanden lang in Berlijn voor Facebook werkte. Hij moest posts modereren maar haakte, net als vele anderen, af door de enorme hoeveelheid verontrustende inhoud. Het kantoor zelf biedt amper psychologische bijstand.

De Volkskrant spreekt de man anoniem, maar controleerde zijn verhaal bij een tweede moderator. Zo mag hij niet over zijn job praten met vrienden en familie, moeten gsm’s in de kluis en moet heeft hij doorgaans 12 seconden om te beslissen wat er met een gerapporteerde post gebeurt (Negeren, verwijderen, checken bij een meerdere, escaleren of markeren als gevoelig/wreed).

Het gesprek met de man leert dat Facebook verschillende trappen hanteert. Zo wordt er strenger opgetreden tegen ‘protected categories’ zoals vrouwen, Joden of transgenders, maar zijn er ook ‘quasi protected categories’ waar ondermeer migranten en asielzoekers in zitten. Tegenover hen is iets meer haat toegestaan vooraleer Facebook ingrijpt. Maar dat geldt vooral als een hele groep wordt aangesproken. Bij aanvallen op individuele vrouwen, ernstig zieken, transgenders, vluchtelingen en al zeker publieke personen houdt Facebook zich eerder aan de vrijheid van meningsuiting.

De job op zich lijkt alles behalve vreugdevol. Erik, zoals de Volkskrant de man omschrijft, verdient 8,9 euro per uur, goed voor 1.500 euro per maand. Daarbij is het doel om per moderator zo’n 1.800 rapportages per dag te verwerken, idealiter voor 98% foutloos. Onder meer bijeenkomsten van de extreemrechtse PVV, verkiezingen of de komst van Sinterklaas zijn belangrijke triggers voor ongepaste inhoud op Facebook.

Veel traumatiserend materiaal, amper bijstand

Maar het gaat veel verder dan haatpraat. Erik ziet ook spam, terreur, onthoofdingen verwerkt in kindervideo’s, kinderporno en andere rotzooi. Het meeste komt binnen via rapporteringen van gebruikers, een klein (maar groeiend) deel wordt gedetecteerd door Facebook’s AI en gaat ter controle naar een moderator.

In het gesprek met de krant laat Erik verstaan dat Facebook zelf amper ondersteuning biedt. er is één psycholoog, één maatschappelijk werker en één feelgoodmanager voor zo’n 700 moderatoren in Berlijn (7.500 wereldwijd). Maar in praktijk beperkt hun rol zich vooral tot uitleg over yogalessen en het advies om eerst wat te wandelen alvorens de metro naar huis te nemen.

Erik merkt de impact van het dagelijks bekijken van de vele Facebookposts. Zowel hij als collega’s grijpen naar antidepressiva en alcohol, lopen soms huilend naar buiten en geven er na enkele maanden de brui aan. Hijzelf houdt het acht maanden vol.

De Volkskrant nam ook contact op met Facebook naar aanleiding van het verhaal. Die stelt dat er wel degelijk voldoende psychologische ondersteuning is en dat de sfeer op de werkvloer positief is.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content