In een mededeling zegt Apple dat het voortaan meer gaat doen tegen de verspreiding van beelden van kindermisbruik, in de VS omschreven als Child Sexual Abuse Material of CSAM. Daarom zal het vanaf de volgende versies van zijn besturingssystemen (met name iOS 15, iPadOS 15, WatchOS 8 en MacOS 12 Monterey) tools installeren die detecteren wanneer beelden met kindermisbruik worden geüpload naar iCloud.

Zodra er een aantal van die beelden wordt gedetecteerd, volgt er menselijke controle en worden ordediensten ingelicht over wie die beelden verzamelt. 'Het systeem is ontworpen voor privacy en zal Apple helpen om waardevolle informatie aan politiediensten over te dragen rond collecties van CSAM in iCloud Fotos.'

Op dit moment is het de bedoeling om het automatisch scannen toe te passen op Amerikaanse gebruikers en enkel voor kinderporno. Maar Apple geeft zelf aan dat het daar niet bij blijft. 'Dit is een ambitieus programma en het beschermen van kinderen is een belangrijke verantwoordelijkheid. Deze inspanningen zullen evolueren en uitbreiden met de tijd', zo klinkt het.

Tegelijk komt er ook een tool voor ouders die meldingen geeft als hun kind via een iMessage-bericht 'gevoelig materiaal' ontvangt. Die controle gebeurt met behulp van AI.

Hoe weet Apple wat kinderporno is?

Het initiatief is goedbedoeld, maar roept bijzonder veel vragen op, niet in het minst over privacy. Apple gooide zich de laatste jaren op als de privacyvriendelijke partij ten opzichte van Google of Facebook. Het verkoopt inderdaad geen data, maar gaat nu wel haar gebruikers proactief surveilleren en hun identiteit doorspelen aan ordediensten als het denkt dat iemand een pedofiel is.

De praktische werking zit in eerste instantie wel goed. Beelden die vanaf een iPhone worden geüpload, krijgen een hashwaarde, een bijna unieke code afgeleid uit de samenstelling van het beeld. Die codes worden vergeleken met een database van gekende beelden van kindermisbruik, aangeleverd door organisaties die bezig zijn met de bestrijding van kindermisbruik. Dat wil zeggen dat foto's van bijvoorbeeld je eigen kinderen in hun blootje in principe niet worden beschouwd als kindermisbruik.

Maar waterdicht is zo'n systeem niet. Matthew Green, cryptograaf aan het Johns Hopkins Information Security Institute, zegt op Twitter dat zo'n hash niet noodzakelijk uniek is en je een beeld kan maken dat dezelfde code genereert, maar perfect onschuldig is. Het is dus niet uitgesloten dat je beelden toegestuurd krijgt die geen noemenswaardige betekenis hebben, maar die volgens de database wel onder kinderporno vallen.

'Een goed uitgewerkte achterdeur blijft een achterdeur'

Ook privacyorganisaties staan door het initiatief op hun achterste poten. De Electronic Frontier Foundation (EFF) erkent dat kindermisbruik een ernstig probleem is, maar wijst erop dat een dergelijk initiatief een zeer hoge prijs heeft voor privacy.

'Apple legt misschien uitgebreid uit hoe ze technisch gezien privacy en security vrijwaren, maar aan het einde van de rit is ook een nauwe, maar goed gedocumenteerde achterdeur gewoon een achterdeur,' klinkt het.

De EFF zegt teleurgesteld te zijn in de plannen van Apple, zeker gezien het bedrijf altijd een grote voorvechter was van end-to-end encryptie. Zo adverteerde het enkele jaren geleden nog met de slogan 'What happens on your iPhone stays on your iPhone', een leuze waar vandaag weinig van overblijft.

Een advertentie waar Apple in 2019 mee uitpakte op de CES-technologiebeurs., .
Een advertentie waar Apple in 2019 mee uitpakte op de CES-technologiebeurs. © .

Vandaag kindermisbruik, morgen andere zaken?

Een tweede hamvraag is hoe zulke scans binnen enkele jaren worden toegepast. Hoe groot is de kans dat Apple op termijn via AI beelden probeert te herkennen, waarbij de kans bestaat dat bijvoorbeeld een foto van je eigen kinderen in hun blootje wél wordt aanzien als ongepast materiaal? Ook of en wanneer Apple die aanpak uitbreidt naar Europese of andere gebruikers is onduidelijk.

Maar de grootste vrees is dat de praktijk ook voor andere zaken kan worden toegepast. De EFF waarschuwt dat zo'n systeem onmogelijk uitsluitend voor kindermisbruik kan worden ontwikkeld. 'Zelfs een goed bedoelde inspanning om zoiets te bouwen, breekt de belofte van encryptie en opent de deur voor breed (privacy)misbruik.' De organisatie stelt dat het maar een paar aanpassingen vergt om ook te scannen op andere soorten afbeeldingen.

'Terrorisme' lijkt daarbij het meest voor de hand liggende onderwerp. Maar ook dat is een breed begrip, gaande van iemand die daadwerkelijk een aanslag wil plegen, tot iemand die bijvoorbeeld graag anti-Westerse of anti-Amerikaanse propaganda verzamelt. En wat onder terrorisme valt, kan al eens verschillen van land tot land.

Autoritaire regimes

Daarmee staat dan weer de deur open voor autoritaire regimes om van Apple te eisen dat ze de technologie anders toepassen. Als China morgen beslist dat Apple geen iPhones meer mag verkopen in het land, tenzij het toestellen scant op anti-Chinese of pro-democratische propaganda, dan ontstaat er al snel een situatie waar een goedbedoelde technologie rechtstreeks wordt gebruikt om mensen met een andere ideologie te identificeren en aan te pakken.

Encryptie of niet?

We moeten wel nuanceren dat Apple en andere grote technologiespelers al lang onder druk staan om achterpoortjes in te bouwen in encryptie. Dat communicatie tussen gebruikers of naar de cloud niet kan worden ingekeken, is voor ordediensten wereldwijd al langer een doorn in het hoog en sommigen roepen openlijk op om dat om veiligheidsredenen af te bouwen.

Mogelijk kiest Apple met deze aanpak voor een gulden middenweg op eigen voorwaarden, waarbij het zelf controleert in beperkte omstandigheden, in plaats van overheden zelf een sleutel te geven om in te kijken. De vraag blijft echter hoe lang die beperkte omstandigheden overeind blijven. De technologie is er, nu is het afwachten of ze ook misbruikt zal worden voor andere doeleinden.

In een mededeling zegt Apple dat het voortaan meer gaat doen tegen de verspreiding van beelden van kindermisbruik, in de VS omschreven als Child Sexual Abuse Material of CSAM. Daarom zal het vanaf de volgende versies van zijn besturingssystemen (met name iOS 15, iPadOS 15, WatchOS 8 en MacOS 12 Monterey) tools installeren die detecteren wanneer beelden met kindermisbruik worden geüpload naar iCloud.Zodra er een aantal van die beelden wordt gedetecteerd, volgt er menselijke controle en worden ordediensten ingelicht over wie die beelden verzamelt. 'Het systeem is ontworpen voor privacy en zal Apple helpen om waardevolle informatie aan politiediensten over te dragen rond collecties van CSAM in iCloud Fotos.'Op dit moment is het de bedoeling om het automatisch scannen toe te passen op Amerikaanse gebruikers en enkel voor kinderporno. Maar Apple geeft zelf aan dat het daar niet bij blijft. 'Dit is een ambitieus programma en het beschermen van kinderen is een belangrijke verantwoordelijkheid. Deze inspanningen zullen evolueren en uitbreiden met de tijd', zo klinkt het.Tegelijk komt er ook een tool voor ouders die meldingen geeft als hun kind via een iMessage-bericht 'gevoelig materiaal' ontvangt. Die controle gebeurt met behulp van AI.Het initiatief is goedbedoeld, maar roept bijzonder veel vragen op, niet in het minst over privacy. Apple gooide zich de laatste jaren op als de privacyvriendelijke partij ten opzichte van Google of Facebook. Het verkoopt inderdaad geen data, maar gaat nu wel haar gebruikers proactief surveilleren en hun identiteit doorspelen aan ordediensten als het denkt dat iemand een pedofiel is.De praktische werking zit in eerste instantie wel goed. Beelden die vanaf een iPhone worden geüpload, krijgen een hashwaarde, een bijna unieke code afgeleid uit de samenstelling van het beeld. Die codes worden vergeleken met een database van gekende beelden van kindermisbruik, aangeleverd door organisaties die bezig zijn met de bestrijding van kindermisbruik. Dat wil zeggen dat foto's van bijvoorbeeld je eigen kinderen in hun blootje in principe niet worden beschouwd als kindermisbruik.Maar waterdicht is zo'n systeem niet. Matthew Green, cryptograaf aan het Johns Hopkins Information Security Institute, zegt op Twitter dat zo'n hash niet noodzakelijk uniek is en je een beeld kan maken dat dezelfde code genereert, maar perfect onschuldig is. Het is dus niet uitgesloten dat je beelden toegestuurd krijgt die geen noemenswaardige betekenis hebben, maar die volgens de database wel onder kinderporno vallen.Ook privacyorganisaties staan door het initiatief op hun achterste poten. De Electronic Frontier Foundation (EFF) erkent dat kindermisbruik een ernstig probleem is, maar wijst erop dat een dergelijk initiatief een zeer hoge prijs heeft voor privacy.'Apple legt misschien uitgebreid uit hoe ze technisch gezien privacy en security vrijwaren, maar aan het einde van de rit is ook een nauwe, maar goed gedocumenteerde achterdeur gewoon een achterdeur,' klinkt het.De EFF zegt teleurgesteld te zijn in de plannen van Apple, zeker gezien het bedrijf altijd een grote voorvechter was van end-to-end encryptie. Zo adverteerde het enkele jaren geleden nog met de slogan 'What happens on your iPhone stays on your iPhone', een leuze waar vandaag weinig van overblijft.Een tweede hamvraag is hoe zulke scans binnen enkele jaren worden toegepast. Hoe groot is de kans dat Apple op termijn via AI beelden probeert te herkennen, waarbij de kans bestaat dat bijvoorbeeld een foto van je eigen kinderen in hun blootje wél wordt aanzien als ongepast materiaal? Ook of en wanneer Apple die aanpak uitbreidt naar Europese of andere gebruikers is onduidelijk.Maar de grootste vrees is dat de praktijk ook voor andere zaken kan worden toegepast. De EFF waarschuwt dat zo'n systeem onmogelijk uitsluitend voor kindermisbruik kan worden ontwikkeld. 'Zelfs een goed bedoelde inspanning om zoiets te bouwen, breekt de belofte van encryptie en opent de deur voor breed (privacy)misbruik.' De organisatie stelt dat het maar een paar aanpassingen vergt om ook te scannen op andere soorten afbeeldingen.'Terrorisme' lijkt daarbij het meest voor de hand liggende onderwerp. Maar ook dat is een breed begrip, gaande van iemand die daadwerkelijk een aanslag wil plegen, tot iemand die bijvoorbeeld graag anti-Westerse of anti-Amerikaanse propaganda verzamelt. En wat onder terrorisme valt, kan al eens verschillen van land tot land.Daarmee staat dan weer de deur open voor autoritaire regimes om van Apple te eisen dat ze de technologie anders toepassen. Als China morgen beslist dat Apple geen iPhones meer mag verkopen in het land, tenzij het toestellen scant op anti-Chinese of pro-democratische propaganda, dan ontstaat er al snel een situatie waar een goedbedoelde technologie rechtstreeks wordt gebruikt om mensen met een andere ideologie te identificeren en aan te pakken.We moeten wel nuanceren dat Apple en andere grote technologiespelers al lang onder druk staan om achterpoortjes in te bouwen in encryptie. Dat communicatie tussen gebruikers of naar de cloud niet kan worden ingekeken, is voor ordediensten wereldwijd al langer een doorn in het hoog en sommigen roepen openlijk op om dat om veiligheidsredenen af te bouwen.Mogelijk kiest Apple met deze aanpak voor een gulden middenweg op eigen voorwaarden, waarbij het zelf controleert in beperkte omstandigheden, in plaats van overheden zelf een sleutel te geven om in te kijken. De vraag blijft echter hoe lang die beperkte omstandigheden overeind blijven. De technologie is er, nu is het afwachten of ze ook misbruikt zal worden voor andere doeleinden.