Apple schrapt plan om iPhones te scannen op afbeeldingen van kindermisbruik

De iPhone 12 Pro. © Gartner

Apple zet een streep door het plan om afbeeldingen op iOS-apparaten en in iCloud te scannen op afbeeldingen van kindermisbruik. Het plan leidde tot veel ophef.

De Amerikaanse techgigant kondigde het plan in augustus 2021 aan. Apple gaat hiermee verder dan concurrenten. Waar veel bedrijven alleen content in de cloud scannen, wilde Apple ook content op apparaten van gebruikers zelf controleren. Het plan leidde tot veel kritiek, met name met het oog op privacy.

‘Internet een veiligere plaats maken’

Later in 2021 verklaarde Apple dat de omstreden scanfunctie werd uitgestedl. In een verklaring zegt Apple nu tegen Wired dat het afziet van de scans.

‘Kinderen kunnen worden beschermd zonder dat bedrijven door persoonlijke data gaan, en we zullen blijven samenwerken met overheden, belangenbehartigers voor kinderen en andere bedrijven om te helpen jonge mensen te beschermen, hun recht op privacy te waarborgen en internet een veiligere plaats te maken voor kinderen en ons allemaal’, meldt Apple.

Het bedrijf ziet daarom af van de scans en zet in op zijn Community Safety, die in december 2021 beschikbaar is gemaakt. Dit is een opt-in functionaliteit gericht op ouders die zowel kinderen als hun ouders waarschuwen indien zij seksueel expliciete afbeeldingen toegestuurd krijgen of juist versturen via iMessage.

Dergelijke scans zijn niet beperkt tot Apple. Maar de praktijk is vaak minder evident dan de theorie. Afgelopen zomer nog raakte bekend dat een man uit zijn Google account werd gegooid door Google omdat hij, puur om medische redenen, beelden van de geslachtsdelen van zijn kind had gedeeld met een arts. Maar zo passeerde de foto via de servers van Google, waarop het bedrijf het nodig vond om de account af te sluiten.

In samenwerking met Dutch IT-Channel.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content