Klokkenluidster: ‘Facebook toont keer op keer dat het winst verkiest boven veiligheid’
De klokkenluidster van Facebook, die eerder anoniem getuigde in The Wall Street Journal, werd zondag geïnterviewd voor het Amerikaanse informatieprogramma ’60 minutes’. Ze heet Frances Haugen, is 37 en nam in mei ontslag, nadat ze duizenden pagina’s met intern onderzoek had gekopieerd. ‘De versie van Facebook die vandaag bestaat verscheurt onze maatschappijen en veroorzaakt etnisch geweld’.
’60 minutes’, een wekelijks CBS-reportageprogramma, was ooit bijna automatisch het meest bekeken programma in de VS. Het heeft, na enkele interne schandalen en omdat het aanbod vergroot is, aan bereik verloren maar blijft een toonaangevend programma, vergelijkbaar met Pano(rama) op de BBC of de VRT.
Het lag dus voor de hand dat datawetenschapper Frances Haugen, met een masterdiploma van Harvard, tijdens ’60 minutes’ haar verhaal zou doen en haar identiteit zou vrijgeven.
Haugen ging in 2019 voor Facebook werken, nadat ze al carrière gemaakt had bij andere techbedrijven, onder meer bij Google en Pinterest. Ze ging in op het aanbod van Facebook, liet ze weten aan ’60 minutes’, op voorwaarde dat ze tegen desinformatie kon werken. Ze was daar zo op gevlast omdat ze een vriend had verloren aan samenzweringstheorieën.
‘Ik had gezien hoe belangrijk het was te verzekeren dat er op Facebook kwalitatief hoogstaande informatie zou komen’.
Maar dat viel haar tegen. Facebook onderneemt wel actie, maar het effect is niet per se groot, bleek uit een van de interne studies die dit jaar werden uitgevoerd en die Haugen kopieerde en naar buiten bracht. Daarin wordt geschat ‘dat we op Facebook misschien actie ondernemen tegen amper 3 tot 5 procent van de haat en tegen ongeveer 0,6 procent van geweld en aanzetting, hoewel Facebook terzake de beste in de wereld is’. Haugen argumenteert dat Facebook naar buiten liegt over de vooruitgang die geboekt wordt.
‘Ik heb een hoop sociale netwerken gezien en het was substantieel erger bij Facebook’, zei ze. ‘Facebook heeft keer op keer getoond dat het winst verkiest boven veiligheid’.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."
Opgedoekte afdeling
Ze werd zelf ingeschakeld op de afdeling Civic Integrity, waar de risico’s voor de presidentsverkiezingen van 2020 werden bestudeerd, waaronder risico’s door desinformatie.
Die verkiezingen vormden uiteindelijk een keerpunt, legde ze aan ’60 minutes’ uit. ‘Ze vertelden ons: “We gaan Civic Integrity opdoeken”. Wat ze ten gronde zegden was: “Goed, we hebben de verkiezingen overleefd, er zijn geen rellen geweest. We kunnen nu Civic Integrity afvoeren”.’ (Facebook repliceerde aan ’60 minutes’ dat het werk van Civic Integrity over andere diensten werd verdeeld.)
Op dat moment, zegt ze, dacht ze: ‘Ik vertrouw er niet op dat ze echt willen investeren wat nodig is om te beletten dat Facebook gevaarlijk is’.
Die vrees werd voor haar al te snel bewaarheid.
Twee maanden na de verkiezingen werd het Capitool bestormd, waarbij de deelnemers onder meer van Facebook gebruikmaakten om mekaar te vinden of hun boodschap te verspreiden.
Haugen: ‘Als we in een informatie-omgeving leven die vol is met boze, hatelijke, polariserende inhoud die ons vertrouwen in medeburgers uitholt, … dan holt het ons vermogen uit om met elkaar in te zitten. De versie van Facebook die vandaag bestaat, verscheurt onze maatschappijen en veroorzaakt etnisch geweld’. Ze verwijst naar Myanmar, waar de militairen Facebook gebruikten om een genocide tegen de Rohingya te beginnen.
Algoritme
De grond van het probleem ligt volgens Haugen bij een wijziging aan het algoritme die Facebook in 2018 doorvoerde. Facebook kiest wat een gebruiker voorgeschoteld krijgt, op basis van vorig gebruik. Waarbij Facebook weet wat je langer bezighield en minder. Haugen: ‘En een van de gevolgen van hoe Facebook die inhoud vandaag uitkiest, is: inhoud optimaliseren die engagement opwekt, of reactie. Maar het eigen onderzoek toont dat hatelijke, verdelende, polariserende inhoud’ dat engagement opwekt, en het ‘gemakkelijker is om mensen tot woede te brengen dan tot andere emoties’.
‘Facebook heeft zich gerealiseerd dat mensen minder tijd op de site zullen doorbrengen als ze het algoritme veranderen naar een veiliger optie. Ze zullen minder op advertenties klikken, ze zullen minder geld opleveren’.
Dat kon ze vaststellen toen Facebook voor de verkiezingen van 2020 inderdaad veranderingen aanbracht in het algoritme om de desinformatie te verminderen. Het was veiliger én minder lonend. Maar toen de verkiezingen voorbij waren, werden vele van de veranderingen weer ongedaan gemaakt, stelt ze, ‘om groei prioriteit te geven over veiligheid. En dat leek me verraad aan de democratie’. (Facebook stelt dat sommige van de nieuwe maatregelen in voege bleven).
‘Facebook’, suggereerde Scott Pelley, journalist bij ’60 minutes’, ‘versterkt het slechtste in de menselijke natuur?’
Haugen: ‘Dat is een van de ongelukkige gevolgen. Niemand bij Facebook is kwaadaardig’. Maar boosheid leidt tot grotere consumptie en dus tot een groter inkomen van Facebook. En als het bedrijf moest kiezen tussen het algemeen belang en het bedrijfsbelang verkoos het dat laatste, aldus Haugen.
‘We maken betekenisvolle verbeteringen’
Facebook verleende ’60 minutes’ geen interview, maar stuurde wel een geschreven reactie: ‘Elke dag moeten onze teams een evenwicht vinden tussen het beschermen van de rechten van miljarden mensen om zichzelf open uit te drukken en de noodzaak om ons platform te behouden als een veilige en positieve plek. We blijven betekenisvolle verbeteringen maken en het verspreiden van desinformatie en schadelijke inhoud tegengaan. De suggestie dat we slechte inhoud aanmoedigen en niets ondernemen is gewoonweg niet waar’.
‘Als welke research ook een precieze oplossing voor deze complexe uitdagingen had gevonden, dan zouden de techindustrie, regeringen en de maatschappij ze allang opgelost hebben’.
Fout opgemerkt of meer nieuws? Meld het hier