YouTube’s algoritme stuurt je van erotiek naar jonge kinderen aan het zwembad

.
Pieterjan Van Leemputten

Onderzoek toont aan dat het algoritme van YouTube kijkers van seksueel getinte video’s gradueel doorverwijst naar video’s met steeds jongere kinderen.

Het pedofilie-probleem van YouTube is nog niet ten einde. Eind februari besloot de site om commentaren onder video’s met kleine kinderen te blokkeren. Dit nadat werd ontdekt dat pedofielen er reacties plaatsten en linkten naar andere video’s waar jonge kinderen, al dan niet in zwemkledij of bepaalde poses, opdoken. Losstaand zijn die video’s onschuldig, maar ze zijn wel talrijk aanwezig zijn op het videoplatform van Google.

Bovendien zijn ook de automatische aanbevelingen van YouTube zijn problematisch. Dat stellen onderzoekers van het Berkman Klein Center for Internet and Society, een onderdeel van Harvard, in de New York Times.

Hoewel YouTube geen naakt en al zeker geen minderjarig naakt tolereert, circuleren er wel genoeg video’s die samen een duidelijk patroon vormen. De onderzoekers lieten duizenden keren video’s automatisch lopen op basis van YouTube’s aanbevelings-algoritme.

Al snel werd duidelijk dat wanneer het seksueel getinte video’s waren, de volgende aanbevolen video’s doorgaans extremer waren, maar ook dat de personen in beeld jonger werden. De New York Times geeft zo als voorbeeld dat het gaat van vrouwen die praten over seks, naar vrouwen in ondergoed, borstvoeding en video’s waar vrouwen poseren in kinderkledij. Vanaf daar gaat het algoritme nog een stap verder en worden video’s voorgesteld van jonge en schaars geklede Dat veel van de video’s op zichzelf geen seksuele context hebben, maar samen wel een duidelijk patroon volgen en zo interessant zijn voor pedofielen, maakt het complex. De krant haalt een voorbeeld aan van een tienjarig meisje dat een video had geüpload toen ze met een vriendin aan het zwembad speelde. Die video haalde plots 400.000 views, grotendeels dankzij het algoritme. Zo stuurt YouTube iemand die erotisch getinte video’s bekijkt uiteindelijk door tot kinderen in zwemkledij.

Het is niet de eerste keer dat het aanbevelingsalgoritme problematisch blijkt. Vorig jaar nog bleek dat YouTube Kids, specifiek gericht op kinderen, vanaf gewone video’s begon door te linken naar video’s waar gewelddadige of verontrustende beelden in verwerkt zaten.

YouTube zelf reageert dubbel op de vaststelling. Tegenover de New York Times zegt het bedrijf dat het geen zogenaamd rabbit hole-effect merkt. “Het is niet duidelijk of onze aanbevelingen je in de ene of andere richting duwen,” zegt Jennifer O’Connor, product director van YouTube.

In een blogpost die verscheen op de dag dat de krant het artikel publiceerde, somt het bedrijf alles op wat het doet om minderjarigen te beschermen. Zo zijn er in de eerste drie maanden van dit jaar al 800.000 video’s verwijderd. Tegelijk zegt het bedrijf dat het systeem van aanbevelingen wordt beperkt als het gaat om video’s die op zich niet verkeerd zijn, maar wel op het randje van het toelaatbare zijn.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content