Kunstmatige intelligentie van Facebook herkende Christchurch-video niet
De artificiële intelligence-software van Facebook, waarvan het bedrijf zegt dat hij geweld in livestreams op het platform kan detecteren, reageerde niet op de video van het bloedbad in Christchurch. Om de software dat te laten doen, “moeten we eerst enorme hoeveelheden gegevens van dergelijke inhoud leveren, want moeilijk is aangezien gelijkaardige incidenten gelukkig zeldzaam zijn”, verklaart Facebook donderdag.
Een andere uitdaging voor de software is om een onderscheid te maken tussen echt geweld en live gestreamde videogames. “Als er bijvoorbeeld duizenden uren video’s van live gestreamde games door onze systemen gesignaleerd worden, kunnen onze reviewers belangrijke video’s van de echte wereld missen”, klinkt het nog.
De dader van de schietpartij in twee moskeeën in Christchurch, waarbij 50 mensen het leven lieten, zond de aanslag live uit op Facebook. Het bedrijf herhaalde nog eens dat de 17 minuten durende livestream door minder dan 200 mensen gezien is en dat niemand tijdens de livestream de beelden gerapporteerd heeft. De eerste melding kwam 12 minuten nadat de video was geëindigd binnen.
Ook nadat een livestream is geëindigd, blijven de beelden online staan. Het blijft onduidelijk hoelang de video beschikbaar was totdat Facebook ingreep en hem verwijderde. Volgens het sociale netwerk zou dat sneller gebeurd zijn als iemand tijdens de livestream een melding had gemaakt.
In totaal is de originele video zo’n 4.000 keer bekeken – inclusief de 200 kijkers van de livestream – voordat hij verwijderd is van Facebook. Verschillende gebruikers hadden ondertussen al kopieën naar andere diensten geüpload. In de eerste 24 uur verwijderde Facebook meer dan 1,2 miljoen video’s van de aanval voordat ze werden geüpload. Ongeveer 300.000 kopieën werden verwijderd nadat ze gepost waren.