Apple past scansysteem aan na kritiek

Pieterjan Van Leemputten

Apple gaat dan toch iets voorzichtiger omspringen met het automatisch scannen naar beelden van kindermisbruik op je iPhone. De bevestiging moet voortaan van meer dan één database komen.

Het controversiële plan van Apple komt er op neer dat foto’s die worden geüpload naar iCloud worden gematcht met een database van beelden met kindermisbruik. Als de scan te veel van die beelden aangeeft, is er een menselijke controle en kan er rapportering aan de ordediensten volgen.

Het systeem kreeg bakken kritiek, onder meer van securityspecialisten en mensenrechtenorganisaties. Vooral omdat het de deur openzet voor misbruik door autoritaire regimes die Apple kunnen verplichten om ook naar andere inhoud te zoeken.

Nu komt Apple met een kleine aanpassing van het systeem. Het zal voortaan enkel zoeken naar afbeeldingen die door organisaties in meerdere landen worden aangeduid als kindermisbruik. Al heeft het momenteel alleen maar een samenwerking met het Amerikaanse NCMEC (National Center for Missing & Exploited Children).

30 beelden

Apple gaf de afgelopen week ook geen details over hoeveel van die foto’s moeten gedetecteerd worden vooraleer er menselijke controle is. Dat aantal staat momenteel op dertig, maar kan nog zakken naarmate de technologie verbeterd zegt Apple aan Reuters.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content