Gebruikers kunnen sinds 2015 bij een Facebookpost aanvinken dat het om nepnieuws gaat. Komen er meerdere zulke meldingen binnen, dan onderzoeken externe factcheckers of die klacht terecht is.

Sinds Facebook kritiek kreeg voor de wildgroei aan valse berichten op haar platform (met mogelijke beïnvloeding van verkiezingen tot gevolg), is het meer factcheckers gaan inschakelen. Maar die hebben ook steeds meer werk. Veel van de meldingen die ze krijgen, blijken afkomstig van gebruikers die berichten markeren als 'fake news' omdat ze het niet eens zijn met wat er staat.

Factcheckers ontlasten

Daarom geeft Facebook een lagere score aan mensen die veel berichten onterecht als nepnieuws hebben aangeduid. De factcheckers kunnen zich dan eerst richten op de meldingen afkomstig van mensen met een hoge score. Dat moet hun werklast verlagen.

Het bestaan van zulk rating-systeem was totnogtoe onbekend. Het werd afgelopen jaar ontwikkeld, schrijft The Washington Post. De krant citeert Tessa Lyons, bij Facebook verantwoordelijk voor de bestrijding van desinformatie. "Mochten mensen enkel dingen rapporteren die daadwerkelijk vals zijn, dan zou onze job gemakkelijk zijn", vertelt ze. "Maar mensen rapporteren vaak dingen waar ze het gewoon niet eens mee zijn."

"Een van de signalen die we gebruiken, is hoe mensen omgaan met artikels", zegt Lyons. "We kunnen bijvoorbeeld een hoger gewicht toekennen aan een melding van iemand die in het verleden al één keer terecht een artikel als vals heeft bestempeld, dan aan iemand die klakkeloos alles al vals nieuws markeert, waaronder ook artikels die wel waar blijken te zijn."

Transparantie?

De betrouwbaarheidsscore ligt tussen 0 en 1, maar hoe die precies toegekend wordt, is niet duidelijk. Het is ook niet duidelijk of alle Facebook-gebruikers zo'n score hebben. Facebook wil er niet over in detail treden om te voorkomen dat mensen hun score kunstmatig hoog houden en daarna alsnog het systeem misbruiken. Lyons benadrukt dat de score geen absolute indicator is voor iemands betrouwbaarheid, maar wil niet zeggen welke andere methodes het bedrijf nog gebruikt.

"Dat we niet weten hoe we beoordeeld worden, voelt ongemakkelijk" reageert Claire Wardle, die de impact van vals nieuws onderzoekt, tegenover The Washington Post. "Maar de ironie is dat ze niet kunnen zeggen hoe ze ons beoordelen omdat anders hun algoritmes worden omzeild."