Apple kondigde de nieuwe software eerder deze maand aan voor onder meer iPhones en iPads. Er was veel kritiek op de privacygevoeligheid van de nieuwe software. Duizenden mensen tekenden al een petitie om Apple te overtuigen de software niet in te zetten. Kenners waarschuwden dat de software kon worden misbruikt voor andere doeleinden, en mogelijk de deur openzet voor massale bespieding en voor hackers. 'We wilden de beelden op zo'n manier in de cloud kunnen ontdekken zonder de foto's van gebruikers te bekijken', zegt Federighi. Hij voegde eraan toe dat Apple deze functionaliteit wilde toevoegen op een dusdanig veilige manier die tot op heden nog niet gebruikt is.

In een toelichting op de software zei Apple vrijdag dat het bedrijf erop zal toezien dat de software niet gemanipuleerd wordt voor andere doeleinden. Daarvoor werkt Apple samen met 'vertrouwde' organisaties in meerdere landen om te bepalen op welke beelden gelet moet worden. Ook wees Apple opnieuw erop dat het altijd geweigerd heeft als overheden het bedrijf vroegen om bepaalde functionaliteiten in te bouwen die de privacy van gebruikers zou kunnen schaden. Dat zal het bedrijf blijven weigeren, zei Apple.

Lage foutmarge

De software slaat alarm als het denkt op illegale beelden te zijn gestuit. Een team van menselijke onderzoekers besluit vervolgens of de politie moet worden ingeschakeld. De software kan misbruikmateriaal identificeren in backupsysteem iCloud, maar ook kunstmatige intelligentie gebruiken om kinderen en hun ouders te waarschuwen wanneer ze seksueel expliciete beelden ontvangen of versturen via de sms-app van Apple, Messages. Die beelden kunnen dan geblurd worden en ouders krijgen een waarschuwing als dergelijke content wordt verstuurd of bekeken.

Apple zei dat de software foto's gaat vergelijken met afbeeldingen van kindermisbruik uit een database van het National Center for Missing and Exploited Children in de VS. Het systeem zou een foutmarge hebben van minder dan '1 per 1 biljoen'. Het bedrijf zegt dat het pas informatie krijgt over de foto's van gebruikers als die een collectie met bekend misbruikmateriaal in hun iCloud-account hebben.

Apple kondigde de nieuwe software eerder deze maand aan voor onder meer iPhones en iPads. Er was veel kritiek op de privacygevoeligheid van de nieuwe software. Duizenden mensen tekenden al een petitie om Apple te overtuigen de software niet in te zetten. Kenners waarschuwden dat de software kon worden misbruikt voor andere doeleinden, en mogelijk de deur openzet voor massale bespieding en voor hackers. 'We wilden de beelden op zo'n manier in de cloud kunnen ontdekken zonder de foto's van gebruikers te bekijken', zegt Federighi. Hij voegde eraan toe dat Apple deze functionaliteit wilde toevoegen op een dusdanig veilige manier die tot op heden nog niet gebruikt is.In een toelichting op de software zei Apple vrijdag dat het bedrijf erop zal toezien dat de software niet gemanipuleerd wordt voor andere doeleinden. Daarvoor werkt Apple samen met 'vertrouwde' organisaties in meerdere landen om te bepalen op welke beelden gelet moet worden. Ook wees Apple opnieuw erop dat het altijd geweigerd heeft als overheden het bedrijf vroegen om bepaalde functionaliteiten in te bouwen die de privacy van gebruikers zou kunnen schaden. Dat zal het bedrijf blijven weigeren, zei Apple.Lage foutmargeDe software slaat alarm als het denkt op illegale beelden te zijn gestuit. Een team van menselijke onderzoekers besluit vervolgens of de politie moet worden ingeschakeld. De software kan misbruikmateriaal identificeren in backupsysteem iCloud, maar ook kunstmatige intelligentie gebruiken om kinderen en hun ouders te waarschuwen wanneer ze seksueel expliciete beelden ontvangen of versturen via de sms-app van Apple, Messages. Die beelden kunnen dan geblurd worden en ouders krijgen een waarschuwing als dergelijke content wordt verstuurd of bekeken.Apple zei dat de software foto's gaat vergelijken met afbeeldingen van kindermisbruik uit een database van het National Center for Missing and Exploited Children in de VS. Het systeem zou een foutmarge hebben van minder dan '1 per 1 biljoen'. Het bedrijf zegt dat het pas informatie krijgt over de foto's van gebruikers als die een collectie met bekend misbruikmateriaal in hun iCloud-account hebben.