Algoritme Instagram brengt pedofielen bij elkaar

© Getty Images
Pieterjan Van Leemputten

Onderzoekers hebben ontdekt dat het algoritme van Instagram er voor zorgt dat accounts die seks met minderjarigen promoten, of dergelijk beeldmateriaal aanbieden, elkaar makkelijk vinden. Pas na de meldingen van de onderzoekers, werden ze door Meta zelf ontdekt.

Onderzoekers van Stanford University en University of Massachusetts Amherst (beiden in de VS), trekken in de Wall Street Journal aan de alarmbel. Ze stellen dat Instagram niet alleen verschillende aanbieders van (vaak zelf geproduceerde) kinderporno er blijven bestaan, ze merken ook op dat het platform vrijwel automatisch hen met elkaar in contact brengt door een zeer gerichte interesse en het feit dat bepaalde hashtags niet werden geblokkeerd.

De accounts zijn volgens de Wall Street Journal vaak onzichtbaar voor het grote publiek, maar met de juiste hashtags wel vlot te vinden. Vaak gaat het om accounts die zogezegd door de kinderen/slachtoffers zelf worden beheerd. Er staat vaak geen expliciet bloot op, maar wel een menu van wat mogelijk is, soms met prijzen en soms ook of er verzoeken mogelijk zijn. Praktijken die zowel wettelijk als door Meta in theorie niet worden getolereerd.

Aanbevolen door het algoritme

Hoe vlot de accounts ontsnappen aan de controle blijkt ook uit het verhaal van de Canadese Sarah Adams, die op Instagram kindermisbruik en de gevaren van te veel delen bespreekt. Vanuit die activiteit wordt ze soms op dergelijke accounts gewezen, maar door ze te bezoeken kregen mensen bij haar profiel ook de accounts met kindermisbruik aanbevolen.

Concreet vonden de onderzoekers 405 aanbieders van zelf geproduceerde beelden van seksueel kindermisbruik. 112 van hen hadden samen 22.000 unieke volgers. Voor de volledigheid: ook op Twitter werden 128 van zulke accounts geïdentificeerd, maar hun aantal is kleiner, ze werden niet aanbevolen door Twitter zelf en Twitter zou ook sneller zijn met ze te verwijderen. TikTok zou geen last hebben van dit probleem.

Probleem bekend, al jaren

Meta zelf zegt tegenover de Wall Street Journal dat het probleem bekend is en dat er een interne task force is om dat aan te pakken. ‘We onderzoeken continu manieren om ons tegen dit gedrag te verdedigen,’ klinkt het. We moeten daarbij nuanceren dat Facebook de afgelopen 15 jaar bij elk schandaal reageerde met de boodschap dat het continu werkt aan beterschap.

Het probleem is ook niet nieuw. Onder meer in 2020 dook er een account op die openlijk foto’s van minderjarige jongens met weinig kledij seksueel verheerlijkte. Daar zag het bedrijf aanvankelijk geen reden toe om de account op te schorten. Ook al in 2017 werd er geklaagd dat zusterplatform Facebook te weinig deed om dergelijke content van het platform te houden.

Ook de Wall Street Journal haalt situaties aan waar het rapporteren van zulke accounts vooral resulteert in de melding dat men door drukte niet alle meldingen kan bekijken, of dat ze de richtlijnen niet schenden. Meta van haar kant zegt dat het de afgelopen twee jaar 27 netwerken van pedofilieaccounts heeft verwijderd en alleen al in januari 490.000 accounts heeft verwijderd voor het schenden van het beleid rond kinderveiligheid. Dat zijn indrukwekkende cijfers, maar in praktijk blijft het lastig voor Meta om haar immens platform veilig te houden tegen kindermisbruikers.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content