In december nam Apple afscheid van zijn plannen om iCloud-afbeeldingen automatisch te scannen. Nu geeft het bedrijf een reden: het is “vrijwel onmogelijk” om automatische scans te combineren met privacy en veiligheid. Dit zorgt er ook voor dat mensen rechtop gaan zitten en kennis nemen in het licht van het EU-debat over chatcontrole.
Volgens Apple is het technisch onmogelijk om afbeeldingen in iCloud te scannen zonder de privacy en veiligheid van je eigen gebruikers in gevaar te brengen. Dat blijkt uit een reactie van het bedrijf aan een kinderbeschermingsorganisatie, gemeld door Wired . In december vorig jaar nam Apple afstand van zijn eigen plan om iCloud-foto’s automatisch te scannen op bekende afbeeldingen van kindermisbruik (Child Sexual Abuse Material, CSAM). De brief bevat nu een meer gedetailleerde rechtvaardiging voor de verhuizing.
Deur naar massasurveillance
Er vond intensieve uitwisseling plaats met experts op het gebied van kinderbescherming, mensenrechten, privacy en veiligheid en scantechnologieën werden ‘van alle kanten bekeken’, schrijft Erik Neuenschwander, directeur privacy en kinderbescherming bij Apple. “Naar onze mening zou het scannen van ieders privé-iCloud-inhoud ernstige onbedoelde gevolgen hebben.”
I read the information Apple put out yesterday and I'm concerned. I think this is the wrong approach and a setback for people's privacy all over the world.
People have asked if we'll adopt this system for WhatsApp. The answer is no.
— Will Cathcart (@wcathcart) August 6, 2021
Neuenschwander schrijft dat het oorspronkelijke plan van Apple de deur opent voor massale surveillance, inclusief andere inhoud en andere systemen: “Hoe kunnen gebruikers er zeker van zijn dat een hulpmiddel voor één type surveillance niet is omgezet om andere inhoud te monitoren, zoals politieke activiteiten of religieuze vervolging ?” Apple kondigde de technologieën in augustus 2021 aan. Na publieke protesten heeft het bedrijf een maand later zijn plannen voor het scannen aan de clientzijde van iCloud stopgezet .
Om kinderen te beschermen, vertrouwt Apple steeds meer op de eigen ‘Communicatieveiligheid’-tool van het bedrijf. Afbeeldingen en video’s die via Apple-services naar kinderaccounts worden verzonden, worden gescand op naaktheid en dienovereenkomstig wazig weergegeven. Ook krijgen de kinderen informatie over het onderwerp en kunnen ze contact opnemen met een vertrouwenspersoon. In tegenstelling tot CSAM-scannen in de cloud vinden alle scans plaats op het eindapparaat (client-side scanning). Volgens de FAQ van Apple wordt encryptie niet omzeild.
Risico’s voor privacy en veiligheid
Een tool die je volledige iCloud-fotobibliotheek afschuimt en alle beeldmateriaal analyseert, is natuurlijk bijzonder krachtig. Zoals Apple de functie voor ogen had, zou die vooral moeten dienen om beelden van kindermisbruik op te sporen. De technologiegigant vreesde echter dat bepaalde landen de technologie voor andere doeleinden zouden aanwenden. “Het scannen voor één contenttype, zet de deur open voor massasurveillance en de wens om ook in andere, versleutelde berichtsystemen rond te zoeken,” zegt Apple daarover in de brief. Technisch zou het omvormen van de tool niet zo moeilijk mogen zijn. Daardoor zou die ook ingesteld kunnen worden om boodschappen van religieuze en politieke aard te onderscheppen.
Bovendien hangen er ook risico’s aan zo’n detectiesysteem. Indien hackers toegang zouden krijgen tot het systeem, kunnen ze meteen meekijken in je iCloud-gegevens. Apple zou de tool weliswaar goed beveiligd hebben, maar het risico valt natuurlijk nooit uit te sluiten. Bovendien zijn scansystemen niet helemaal trefzeker: Ze kunnen valse positieven opleveren. Met andere woorden: gebruikers worden beticht beelden van kindermisbruik te bezitten, terwijl dat helemaal niet het geval is.
Daarom besloot Apple om af te zien van de client-serveraanpak, die zo’n tool hanteert: zo’n systeem maakt het “praktisch onmogelijk om de veiligheid en privacy van gebruikers te garanderen,” concludeert Erik Neuenschwander, directeur voor privacy en kinderveiligheid bij Apple.
Kinderbeschermingsorganisatie bekritiseerde Apple
De reactie van Neuenschwander is een reactie op een brief van Sarah Gardner, oprichtster van het Heat Initiative, een nieuwe kinderbeschermingsorganisatie die pleit voor digitale oplossingen in de strijd tegen seksueel geweld tegen kinderen. Daarin klaagt Gardner dat Apple het CSAM-scanplan heeft geschrapt en kondigt hij een campagne aan tegen Apple’s “voortdurende vertraging bij het implementeren van cruciale technologie die afbeeldingen en video’s van kindermisbruik op iCloud kan detecteren.”
Gardner was geen onbekende in roem en werkte minstens tien jaar bij Thorn, een organisatie die eigendom was van acteur Ashton Kutcher. Er wordt zwaar gelobbyd voor chatcontrole in de EU . Daarnaast biedt Thorn zelf technologieën aan voor het opsporen van CSAM.
De reactie van Apple op de brief van Gardner is ook relevant voor het Europese debat over chatcontrole en scannen aan de clientzijde. Apple sluit zich daarmee aan bij degenen die van mening zijn dat privacy en veiligheid een groot risico lopen door dergelijke procedures .