Het ging om een algoritme dat werd ingezet binnen Instagram, een dochterbedrijf van Facebook. Als het algoritme op basis van hun Instagram-activiteiten dacht dat het om zwarte Amerikanen ging, was de kans ongeveer vijftig procent groter dat hun account automatisch geblokkeerd werd dan wanneer gedrag suggereerde dat het om een witte gebruiker ging.

'Methoden niet betrouwbaar'

Op basis van anonieme bronnen binnen Facebook meldt NBC dat het vaker voorkomt dat het management binnen Facebook intern onderzoek naar vooroordelen en discriminatie binnen hun eigen systemen negeert of onderdrukt. Facebook heeft niet ontkend dat een aantal onderzoekers is opgedragen te stoppen met hun onderzoeken, maar geeft als verklaring dat hun methoden niet betrouwbaar waren.

Het ging om een algoritme dat werd ingezet binnen Instagram, een dochterbedrijf van Facebook. Als het algoritme op basis van hun Instagram-activiteiten dacht dat het om zwarte Amerikanen ging, was de kans ongeveer vijftig procent groter dat hun account automatisch geblokkeerd werd dan wanneer gedrag suggereerde dat het om een witte gebruiker ging.Op basis van anonieme bronnen binnen Facebook meldt NBC dat het vaker voorkomt dat het management binnen Facebook intern onderzoek naar vooroordelen en discriminatie binnen hun eigen systemen negeert of onderdrukt. Facebook heeft niet ontkend dat een aantal onderzoekers is opgedragen te stoppen met hun onderzoeken, maar geeft als verklaring dat hun methoden niet betrouwbaar waren.