Bug bij Facebook geeft schadelijke posts veel meer zichtbaarheid
Facebookposts met geweld of fake news die normaal automatisch minder zichtbaar zijn, werden door een fout in het algoritme net meer getoond dan normaal. Facebook nuanceert dat de impact beperkt was.
Het probleem werd door Facebook zelf opgemerkt sinds oktober en is sinds 11 maart opgelost, staat te lezen in een intern rapport dat The Verge kon bemachtigen. Afgelopen najaar merkte Facebook dat de helft van alle newsfeeds de afgelopen zes maanden vaker schadelijke content te zien kregen.
Het gaat op posts die niet strikt verboden zijn volgens het bedrijf, maar wel op het randje van wat toegelaten is zitten. Denk daarbij aan bepaalde vormen van naaktheid,posts met geweld of desinformatie die al door externe factcheckers werd weerlegd. Zulke posts mogen blijven gedeeld worden, maar Facebook zorgt er voor dat ze minder vaak spontaan opduiken in andermans newsfeed, waardoor ze minder vlot viraal gaan.
Maar daar loopt het dus fout. In plaats van ze weg te moffelen, werden ze net vaker getoond waardoor het aantal views met dertig procent toenam. Aanvankelijk vond het bedrijf geen oorzaak omdat dergelijke posts eerst toenamen en later weer daalden, om later weer terug te keren, maar sinds begin deze maand werd het probleem wel opgelost.
Facebook minimaliseert
Facebook bevestigt het incident aan The Verge maar minimaliseert door te zeggen dat het om een kleine en tijdelijke toename ging. ‘Het heeft geen betekenisvolle impact op onze statistieken gehad.’
Wel moeten we daarbij nuanceren dat Facebook in het verleden regelmatig loog en verzweeg over cijfers en de impact van haar eigen sociaal netwerk. Het bedrijf wou vorig jaar haar eigen veiligheidsproblemen framen als sectorprobleem, later raakte bekend dat het intern weet hoe schadelijk Instagram is voor jonge meisjes, maar daar extern over zweeg. In het verleden loog ook al het tegen adverteerders over het succes van video op haar platform.
Deze week raakte bovendien bekend dat moederbedrijf Meta een PR-bureau heeft ingehuurd om negatieve verhalen over TikTok te verspreiden en dat platform als een gevaar voor kinderen te framen, vaak met als voorbeeld verhalen die hun oorsprong op Facebook hadden. Zo duiken er al meer dan tien jaar schandalen op van Facebook en de manier waarop het bedrijf er over communiceert, in die mate dat het onmogelijk is om zeker te weten of Facebook de waarheid vertelt of vlakaf liegt over haar interne keuken.
Fout opgemerkt of meer nieuws? Meld het hier