Het Berlijnse Algorithm Watch onderzocht naar aanleiding van de nakende Duitse verkiezingen hoe bepaalde zaken op Instagram verschijnen. Het doel is om te onderzoeken of het platform, eigendom van Facebook, bepaalde strekkingen vaker aan bod laat komen en hoe desinformatie of hatelijke berichten worden getoond.

De onderzoekers deden dat via een add-on die zo'n 1.500 gebruikers vrijwillig installeren en meekijkt met wat er te zien is op Instagram. Het onderzoek ging haar tweede jaar in en telkens werd Facebook ook gevraagd om te reageren op de tussentijdse bevindingen. Maar in plaats van te reageren kregen de onderzoekers de opdracht om hun project stop te zetten en de data te verwijderen.

'Gepest tot we stopten'

Dat was geen vrijblijvende vraag. Als Algorithm Watch niet zou stoppen dan zou Facebook een 'meer formeel engagement' hanteren. Algorithm Watch zegt dat het de middelen niet heeft om een juridische strijd met Facebook aan te gaan en dus werd de data verwijderd. 'We werden gepest tot we onze Instagram monitoring hadden stopgezet', klinkt het in een open brief aan de EU waarin ze vragen om dergelijke projecten beter te beschermen.

In een gesprek met het Finse YLE legt onderzoeker Nicolas Kayser-Bril uit dat zijn onderzoek onder meer vaststelt dat berichten van politici met veel tekst minder worden getoond dan afbeeldingen.

'We waren nog lang niet in de buurt van het ontdekken van de geheimen van het algoritme, maar Facebook viel ons toch aan. Het laat zien dat ze ofwel iets te verbergen hebben, of zich zorgen maken over wat hun gedeeltelijk monopolie kan bedreigen,' zegt Kayser-Bril aan YLE.

Facebook zegt aan YLE dat het de organisatie nooit juridisch heeft bedreigd, maar dat het niet wil dat onderzoekers de gebruiksvoorwaarden schenden. De afgelopen jaren heeft het bedrijf wel vaker onafhankelijke onderzoeksprojecten doelbewust gekelderd. Recent onder meer een project van het New York University Ad Observatory, waarbij de accounts van de onderzoekers werden opgeschort. In 2019 werd een vergelijkbaar project van VRT en De Tijd al geblokkeerd.

Publieke data bevat fouten

Facebook countert die kritiek doorgaans door te zeggen dat zulke tools de (door Facebook zelf opgestelde) gebruiksvoorwaarden schenden. In plaats daarvan verwijst het naar haar eigen advertentiebibliotheek en initiatieven waarbij het onderzoekers zelf data aanreikt. Alleen blijkt intussen dat die data fouten bevatte waardoor inspanningen van die onderzoekers rechtstreeks naar de vuilbak konden. Ook van de advertentiebibliotheek klinkt regelmatig de kritiek dat ze niet alle details of alle advertenties bevatten.

Instagram schadelijker dan Facebook toegeeft

Daar komt nog de onthulling van vorige week bij dat Facebook zeer goed weet hoe schadelijk haar platformen zijn. Vorige week onthulde de Wall Street Journal op basis van interne documenten dat Facebook heel goed weet dat Instagram tienermeisjes een laag zelfbeeld geven en dat het platform soms als reden wordt gegeven voor zelfmoordpogingen. Die bevindingen heeft het bedrijf nooit gedeeld met de wereld, tot ze door de krant openbaar werden gemaakt.

Kort samengevat lijkt het er nog steeds op dat Facebook liever geen onafhankelijke pottenkijkers op haar platform heeft die met onderzoek en feiten mistoestanden rond desinformatie of politieke voorkeur in het algoritme aanwijzen. Maar het bedrijf weet wel dat er veel zaken intern foutlopen en zwijgt daarover. Als er dan toch data wordt vrijgegeven aan onderzoekers, dan is die fout.

Het Berlijnse Algorithm Watch onderzocht naar aanleiding van de nakende Duitse verkiezingen hoe bepaalde zaken op Instagram verschijnen. Het doel is om te onderzoeken of het platform, eigendom van Facebook, bepaalde strekkingen vaker aan bod laat komen en hoe desinformatie of hatelijke berichten worden getoond.De onderzoekers deden dat via een add-on die zo'n 1.500 gebruikers vrijwillig installeren en meekijkt met wat er te zien is op Instagram. Het onderzoek ging haar tweede jaar in en telkens werd Facebook ook gevraagd om te reageren op de tussentijdse bevindingen. Maar in plaats van te reageren kregen de onderzoekers de opdracht om hun project stop te zetten en de data te verwijderen.Dat was geen vrijblijvende vraag. Als Algorithm Watch niet zou stoppen dan zou Facebook een 'meer formeel engagement' hanteren. Algorithm Watch zegt dat het de middelen niet heeft om een juridische strijd met Facebook aan te gaan en dus werd de data verwijderd. 'We werden gepest tot we onze Instagram monitoring hadden stopgezet', klinkt het in een open brief aan de EU waarin ze vragen om dergelijke projecten beter te beschermen.In een gesprek met het Finse YLE legt onderzoeker Nicolas Kayser-Bril uit dat zijn onderzoek onder meer vaststelt dat berichten van politici met veel tekst minder worden getoond dan afbeeldingen.'We waren nog lang niet in de buurt van het ontdekken van de geheimen van het algoritme, maar Facebook viel ons toch aan. Het laat zien dat ze ofwel iets te verbergen hebben, of zich zorgen maken over wat hun gedeeltelijk monopolie kan bedreigen,' zegt Kayser-Bril aan YLE.Facebook zegt aan YLE dat het de organisatie nooit juridisch heeft bedreigd, maar dat het niet wil dat onderzoekers de gebruiksvoorwaarden schenden. De afgelopen jaren heeft het bedrijf wel vaker onafhankelijke onderzoeksprojecten doelbewust gekelderd. Recent onder meer een project van het New York University Ad Observatory, waarbij de accounts van de onderzoekers werden opgeschort. In 2019 werd een vergelijkbaar project van VRT en De Tijd al geblokkeerd.Facebook countert die kritiek doorgaans door te zeggen dat zulke tools de (door Facebook zelf opgestelde) gebruiksvoorwaarden schenden. In plaats daarvan verwijst het naar haar eigen advertentiebibliotheek en initiatieven waarbij het onderzoekers zelf data aanreikt. Alleen blijkt intussen dat die data fouten bevatte waardoor inspanningen van die onderzoekers rechtstreeks naar de vuilbak konden. Ook van de advertentiebibliotheek klinkt regelmatig de kritiek dat ze niet alle details of alle advertenties bevatten.Daar komt nog de onthulling van vorige week bij dat Facebook zeer goed weet hoe schadelijk haar platformen zijn. Vorige week onthulde de Wall Street Journal op basis van interne documenten dat Facebook heel goed weet dat Instagram tienermeisjes een laag zelfbeeld geven en dat het platform soms als reden wordt gegeven voor zelfmoordpogingen. Die bevindingen heeft het bedrijf nooit gedeeld met de wereld, tot ze door de krant openbaar werden gemaakt.Kort samengevat lijkt het er nog steeds op dat Facebook liever geen onafhankelijke pottenkijkers op haar platform heeft die met onderzoek en feiten mistoestanden rond desinformatie of politieke voorkeur in het algoritme aanwijzen. Maar het bedrijf weet wel dat er veel zaken intern foutlopen en zwijgt daarover. Als er dan toch data wordt vrijgegeven aan onderzoekers, dan is die fout.