De toekomst van onze Facebook-nieuwsfeed: een plaats van gemoedsrust of een echokamer van het eigen gelijk?
Mark Zuckerberg wil terugkeren naar het oorspronkelijk idee achter de Facebook-nieuwsfeed: niemand kan ons beter aanraden wat we moeten lezen en wat we moeten bekijken, dan onze vrienden. Een goede zaak?
Het algoritme achter de Facebook-nieuwsfeed is een van de belangrijkste algoritmes van onze tijd, want het bepaalt voor twee miljard mensen welke berichten en video’s ze eerst te zien krijgen. Toch zijn de precieze regels en procedures om die informatie te ordenen in geheimzinnigheid gehuld. Facebook communiceert er vrijwel nooit over. En als het dat wel eens doet, dan gebeurt dat op een weinig doorgrondelijke manier.
Zoals donderdagnacht, toen Mark Zuckerberg een ‘grote verandering’ aankondigde ‘in de manier waarop Facebook is opgebouwd’. De focus van het algoritme wordt verlegd: in plaats van ‘ons te helpen om relevante content te vinden’, zal het ons nu vooral ‘aan meer betekenisvolle sociale interacties helpen’. Dat wil zeggen dat Facebook meer reacties van vrienden en minder nieuwsberichten in uw feed wil (tenzij mediabedrijven ervoor betalen of veel interactie uitlokken).
De beslissing kwam niet geheel onverwacht. Facebook ligt al lang onder vuur als platform waarop fake news wordt verspreid. Aanvankelijk kon Zuckerberg zich nog aan elke verantwoordelijkheid onttrekken door simpelweg te stellen dat Facebook gewoon een techbedrijf is. Sinds de Amerikaanse presidentsverkiezingingen en het bewijs van de Russische inmenging, pakt dat niet meer – ook niet meer in de Verenigde Staten. Dat heeft Mark Zuckerberg beseft: hij heeft er zelfs meteen zijn goed voornemen voor 2018 van gemaakt om de fouten die zijn platform heeft gemaakt, te herstellen.
Woensdag moet zijn bedrijf, samen met Twitter en Google voor de tweede keer verantwoording afleggen aan de Amerikaanse Senaat. Dit keer moeten ze hen ervan overtuigen dat ze genoeg doen om terroristische propaganda op hun platformen tegen te gaan. Zuckerberg heeft er dus alle belang bij om het imago van Facebook terug op te krikken.
Wat hij nu aankondigde, is een antwoord op de kritiek en zal een groot effect hebben op hoe ons nieuwsoverzicht er in de toekomst zal uitzien. Maar maak u geen illusies: met een oprechte bezorgdheid of een plan om de verspreiding van fake news tegen te gaan, heeft deze beslissing weinig te maken. Facebook heeft er helemaal niets bij te winnen om berichten te gaan ordenen op hun waarheidsgehalte of om gebruikers te vertellen dat ze hun politieke voorkeuren gevormd hebben op basis van leugenachtige berichtgeving.
Daarom kiest Facebook voor de gemakkelijkste oplossing: het laat berichten waarvan het het waarheidsgehalte niet wil checken, minder prominent verschijnen. Zuckerberg geeft zelf aan (nog) minder de focus te zullen leggen op wat relevant is, maar wel op alles wat ‘een goed gevoel geeft’ aan de gebruikers. Vakantiefoto’s, babyfoto’s, boodschappen van mensen die ons graag willen meedelen hoe hun dag is geweest en andere persoonlijke informatie zullen opnieuw massaal opduiken in ons overzicht. Facebook keert daarmee terug naar de oorspronkelijke basisgedachte achter haar nieuwsfeed: niemand kan ons beter aanraden wat we moeten lezen en wat we moeten bekijken, dan onze vrienden.
Die zullen echter ook nog steeds bespiegelingen, opinies en berichten delen die het meest in lijn zijn met hun wereldbeeld. Het is nog maar de vraag of je vrienden wel de beste basis vormen om zulke informatie te filteren. Laat staan dat het een oplossing zou bieden voor de verspreiding van fake news. Wordt een vals nieuwsbericht gedeeld door een vriend of wordt er veelvuldig op gereageerd, dan zal het nog steeds prominent in uw nieuwsfeed verschijnen. Wie een journalistiek medium volgt op Facebook, kan daarentegen nog af en toe artikels of opinies in zijn of haar feed zien verschijnen die de eigen opvattingen in vraag stellen. Niet dat iemand daardoor plots zijn of haar overtuigingen zal gaan bijstellen (daar is onze confirmation bias te sterk voor), maar het lijkt gezonder dan in een volledige filter bubbel te vertoeven waarin we een ‘goed gevoel’ krijgen omdat keer op keer onze opvattingen bevestigd worden.
Professor sociale psychologie Alain Van Hiel schrijft dat sociale media steeds meer echokamers worden van ons eigen groot gelijk, en het groot ongelijk van anderen. De manier waarop het algoritme achter de Facebook-nieuwsfeed nu gaat veranderen, zal die groepspolarisatie wellicht enkel nog versterken. Het zou kunnen dat we daar ‘een beter gevoel’ van krijgen. Of het de tijd die we op Facebook spenderen ook ‘meer waardevol maakt’, zoals Zuckerberg betoogt, valt echter te betwijfelen.
Fout opgemerkt of meer nieuws? Meld het hier