Het verhaal klinkt als een privacy nachtmerrie. De peuter in kwestie had zwellingen rond zijn kruis en ter voorbereiding van een videoconsultatie stuurde hij, op vraag van medisch personeel, foto's van de aandoening door naar de arts. De feiten dateren van februari 2021, toen in de VS veel artsenpraktijken niet vlot toegankelijk waren door corona.

De aandoening zelf werd met antibiotica verholpen, maar twee dagen later kreeg de man een melding van Google dat zijn accounts werden geblokkeerd voor schadelijke content, dat hij daarmee het beleid van Google overtrad en mogelijk illegale feiten had gepleegd.

Daardoor had de man niet langer toegang tot mails, contacten, online foto's en zelfs zijn eigen telefoonnummer zou een tijd onbruikbaar zijn geweest. De man kon bij Google wel in beroep gaan tegen de beslissing, maar dat verzoek werd afgewezen.

De zaak werd in december verder onderzocht door de lokale politie in San Francisco, waar de man woont, maar werd later niet verder gezet omdat duidelijk was dat het om een misverstand ging waar er geen criminele feiten werden gepleegd.

Proactieve scanning

Het verhaal van de vader wordt nu opgetekend door de New York Times. Maar hoe komt het dat een privéfoto die privé wordt gedeeld zo'n mechanisme triggert?

Google scant foto's en ander materiaal dat via haar servers loopt op mogelijk kindermisbruik. De meeste techbedrijven doen dat door beelden te hashen, vereenvoudigen tot een stuk code, en die codes aftoetsen met een database van gekend kindermisbruik.

Sinds 2018 heeft Google zelf haar Content Safety API AI toolkit uitgebracht. Daarmee kan het naar eigen zeggen proactief onbekende kinderporno herkennen. Naast Google kunnen ook andere organisaties de technologie gebruiken. Maar blijkbaar werkt die niet altijd even feilloos waardoor ook onschuldige beelden met naakt uit de privésfeer als kinderporno wordt geklasseerd.

Scant Google je telefoon?

Wil dat zeggen dat Google elke foto op je telefoon scant? Ja en neen. Een woordvoerder van Google zegt aan de New York Times dat er alleen wordt gescand bij bepaalde acties, zoals het backuppen van je beelden naar Google Photos.

Zodra daarbij een beeld wordt geklasseerd als kinderporno, meldt het dat ook aan bepaalde instanties zoals het Amerikaanse National Center for Missing & Exploited Children (NCMEC). Vorig jaar rapporteerde Google zo'n 621.583 gevallen aan de organisatie. in 4.260 gevallen leidde dat tot meldingen bij de politie door NCMEC, zoals in dit verhaal.

De zaak doet denken aan de plannen van Apple vorig jaar. Toen klonk het dat beelden in iCloud, waar foto's op een iPhone standaard een backup krijgen, ook zouden worden gescand op gekende kinderporno, tenminste voor Amerikaanse gebruikers. Zodra er verschillende meldingen opdoken, zou Apple daar melding van maken. Maar de werkwijze kreeg felle kritiek van privacyactivisten en werd uitgesteld.

Maar weg is die methode dus niet want ze wordt in praktijk wel toegepast bij Google. En ook in Europa gaan stemmen op om zo'n werkwijze te verplichten voor techbedrijven.

Het verhaal klinkt als een privacy nachtmerrie. De peuter in kwestie had zwellingen rond zijn kruis en ter voorbereiding van een videoconsultatie stuurde hij, op vraag van medisch personeel, foto's van de aandoening door naar de arts. De feiten dateren van februari 2021, toen in de VS veel artsenpraktijken niet vlot toegankelijk waren door corona.De aandoening zelf werd met antibiotica verholpen, maar twee dagen later kreeg de man een melding van Google dat zijn accounts werden geblokkeerd voor schadelijke content, dat hij daarmee het beleid van Google overtrad en mogelijk illegale feiten had gepleegd.Daardoor had de man niet langer toegang tot mails, contacten, online foto's en zelfs zijn eigen telefoonnummer zou een tijd onbruikbaar zijn geweest. De man kon bij Google wel in beroep gaan tegen de beslissing, maar dat verzoek werd afgewezen.De zaak werd in december verder onderzocht door de lokale politie in San Francisco, waar de man woont, maar werd later niet verder gezet omdat duidelijk was dat het om een misverstand ging waar er geen criminele feiten werden gepleegd.Het verhaal van de vader wordt nu opgetekend door de New York Times. Maar hoe komt het dat een privéfoto die privé wordt gedeeld zo'n mechanisme triggert?Google scant foto's en ander materiaal dat via haar servers loopt op mogelijk kindermisbruik. De meeste techbedrijven doen dat door beelden te hashen, vereenvoudigen tot een stuk code, en die codes aftoetsen met een database van gekend kindermisbruik. Sinds 2018 heeft Google zelf haar Content Safety API AI toolkit uitgebracht. Daarmee kan het naar eigen zeggen proactief onbekende kinderporno herkennen. Naast Google kunnen ook andere organisaties de technologie gebruiken. Maar blijkbaar werkt die niet altijd even feilloos waardoor ook onschuldige beelden met naakt uit de privésfeer als kinderporno wordt geklasseerd.Wil dat zeggen dat Google elke foto op je telefoon scant? Ja en neen. Een woordvoerder van Google zegt aan de New York Times dat er alleen wordt gescand bij bepaalde acties, zoals het backuppen van je beelden naar Google Photos.Zodra daarbij een beeld wordt geklasseerd als kinderporno, meldt het dat ook aan bepaalde instanties zoals het Amerikaanse National Center for Missing & Exploited Children (NCMEC). Vorig jaar rapporteerde Google zo'n 621.583 gevallen aan de organisatie. in 4.260 gevallen leidde dat tot meldingen bij de politie door NCMEC, zoals in dit verhaal.De zaak doet denken aan de plannen van Apple vorig jaar. Toen klonk het dat beelden in iCloud, waar foto's op een iPhone standaard een backup krijgen, ook zouden worden gescand op gekende kinderporno, tenminste voor Amerikaanse gebruikers. Zodra er verschillende meldingen opdoken, zou Apple daar melding van maken. Maar de werkwijze kreeg felle kritiek van privacyactivisten en werd uitgesteld.Maar weg is die methode dus niet want ze wordt in praktijk wel toegepast bij Google. En ook in Europa gaan stemmen op om zo'n werkwijze te verplichten voor techbedrijven.