Facebook verzweeg transparantierapport uit vrees voor imagoschade
Facebook publiceert een transparantierapport om te tonen welke dingen populair zijn op haar netwerk. Maar nu blijkt dat het die transparantie met een stevige korrel zout neemt en een eerder rapport verborgen hield.
Het Content Transparency Report is een nieuw rapport van Facebook dat een inkijk geeft op de populairste inhoud van de afgelopen drie maanden. Een poging van Facebook om opener te zijn op het moment dat het netwerk vaak het verwijt krijgt een verzamelbak te zijn voor desinformatie en andere online bagger.
Maar al snel bleek dat Facebook niet de volledige waarheid vertelde. Zo ontdekte de New York Times dat een eerste rapport van begin dit jaar na interne discussie niet werd vrijgegeven. Zo zou Alex Schultz, hoofd marketing, gezegd hebben dat het rapport slecht zou zijn voor het imago van Facebook. Zo was het meest bekeken artikel een stuk over een arts die stierf kort na een coronavaccin, en duikt ook een extreemrechts mediakanaal op in de top twintig.
Een woordvoerder van Facebook zegt op Twitter dat het rapport werd tegengehouden omdat er nog veranderingen moesten gemaakt worden aan het systeem. Welke dat zijn wordt niet gezegd. Intussen heeft Facebook het oude rapport wel vrijgegeven en lijken de beweringen van de New York Times te kloppen.
Weinigzeggend
Ironisch genoeg wou Facebook niet transparant zijn over een transparantierapport, maar ook het nieuwe transparantierapport krijgt kritiek. Brian Boland, tot een jaar geleden vicepresident product marketing bij Facebook, lijst een aantal tekortkomingen op.
Zo worden de populairste links per kwartaal getoond, dat is voordelig voor links die lange tijd populair zijn, maar het verbergt zaken die hooguit een paar dagen zeer hoog pieken. Ook is het rapport momenteel enkel beperkt tot de VS. De 20 populairste links worden benoemd, maar zijn slechts goed voor 0,057 procent van alle views. Tegelijk toont Facebook de populairste domeinen, met YouTube helemaal bovenaan, maar dat zegt niets over welke YouTube-video’s op Facebook circuleren.
Facebook liegt wel vaker
Het lijkt er op dat Facebook in haar poging om transparanter te zijn, zeer selectief is in waar het transparant over is. Door het rapport op een bepaalde manier op te stellen worden zaken selectiever belicht. Dat is op zich wel vaker een praktijk van Facebook. In het verleden wist het door haarzelf veroorzaakte datalekken achteraf af te schilderen als iets waar het wel maatregelen tegen neemt.
Maar het bedrijf loog eerder ook tegen adverteerders door statistieken van advertentievideo’s op te blazen. Het wees daarvoor naar een recent ontdekte ‘rekenfout’, maar gerechtsdocumenten tonen dat het bedrijf al lang op de hoogte was.
Daarom is het belangrijk om te benadrukken dat er geen enkele externe controle op de rapporten gebeurt. Of anders gezegd: Facebook kan de wereld vertellen dat haar gebruikers vooral naar posts van Unicef kijken. Er is geen enkele zekerheid of controle dat dat ook echt zo is, wetende dat Facebook een reputatie heeft van te liegen, verdraaien en, zoals met dit rapport, te verzwijgen als iets haar slecht uitkomt.
Fout opgemerkt of meer nieuws? Meld het hier