De invasieve benadering van het privacy-first bedrijf valt bij velen niet in goede aarde.
Apple, het bedrijf dat in zijn recente iOS 15-preview trots de privacy van zijn gebruikers prees , heeft onlangs een functie geïntroduceerd die in strijd lijkt te zijn met zijn privacy-first-ethos: de mogelijkheid om iPhone-foto’s te scannen en de autoriteiten te waarschuwen als een van deze foto’s bevat materiaal voor seksueel misbruik van kinderen (CSAM). Hoewel de strijd tegen seksueel misbruik van kinderen objectief gezien een goede zaak is, zijn privacy-experts niet enthousiast over de manier waarop Apple ervoor kiest om het te doen.
De nieuwe scanfunctie heeft ook veel klanten van Apple in de war gebracht en naar verluidt veel van zijn werknemers van streek gemaakt. Sommigen zeggen dat het een achterdeur in Apple-apparaten bouwt, iets wat het bedrijf zwoer dat het nooit zou doen. Dus Apple heeft de afgelopen week een beetje een schadecontrole-tour gedaan, toegevend dat de eerste berichten niet geweldig waren, terwijl het de technologie verdedigde en beter probeerde uit te leggen – wat volgens het bedrijf geen achterdeur is, maar in feite beter voor gebruikers ‘ privacy dan de methoden die andere bedrijven gebruiken om naar CSAM te zoeken.
Apple’s nieuwe “uitgebreide bescherming voor kinderen” is misschien niet zo slecht als het lijkt als het bedrijf zijn beloften nakomt. Maar het is ook weer een herinnering dat we onze gegevens of apparaten niet bezitten , zelfs niet degene die we fysiek bezitten. Je kunt voor een flink bedrag een iPhone kopen, er een foto mee maken en in je zak steken. En dan kan Apple figuurlijk in die zak en in die iPhone reiken om te controleren of je foto legaal is.
Apple’s kinderbeschermingsmaatregelen, uitgelegd
Begin augustus kondigde Apple aan dat de nieuwe technologie voor het scannen van foto’s op CSAM op de apparaten van gebruikers zal worden geïnstalleerd met de komende iOS 15- en macOS Monterey-updates. Afbeeldingen scannen voor CSAM is niet nieuw – Facebook en Google scannen al jaren afbeeldingen die naar hun platforms zijn geüpload – en Apple heeft al toegang tot foto’s die zijn geüpload naar iCloud-accounts. Het scannen van foto’s die naar iCloud zijn geüpload om CSAM te herkennen, zou logisch zijn en consistent zijn met de concurrenten van Apple.
Maar Apple doet iets anders, iets dat invasiever aanvoelt, ook al zegt het bedrijf dat het minder bedoeld is. De beeldscans vinden plaats op de apparaten zelf, niet op de servers waarnaar u uw foto’s uploadt. Apple zegt ook dat het nieuwe tools in de Message-app zal gebruiken die foto’s die van of naar kinderen zijn verzonden, scannen op seksuele beelden, met een optie om de ouders van kinderen van 12 jaar en jonger te vertellen of ze die afbeeldingen hebben bekeken. Ouders kunnen zich aanmelden voor die functies en al het scannen gebeurt op de apparaten.
In feite heeft een bedrijf dat niet één maar twee wijdverbreide standpunten innam tegen de eisen van de FBI om een achterdeur te creëren in de telefoons van vermoedelijke terroristen, schijnbaar een achterdeur gecreëerd . Het is niet meteen duidelijk waarom Apple deze stap op deze manier maakt op dit moment, maar het kan iets te maken hebben met lopende wetten in het buitenland en mogelijke wetten in de VS. Momenteel kunnen bedrijven een boete krijgen van maximaal $ 300.000 als ze CSAM vinden, maar dit niet melden aan de autoriteiten, hoewel ze niet verplicht zijn om naar CSAM te zoeken .
Na de terugslag na de eerste aankondiging van de nieuwe functies, heeft Apple zondag een FAQ uitgebracht met een paar verduidelijkende details over hoe de scantechnologie op het apparaat werkt. In principe downloadt Apple een database met bekende CSAM-afbeeldingen van het National Center for Missing and Exploited Children (NCMEC) naar al zijn apparaten. De CSAM is omgezet in reeksen getallen, zodat de afbeeldingen niet naar uw apparaat worden gedownload. De technologie van Apple scant foto’s in uw iCloud-fotobibliotheek en vergelijkt ze met de database. Als het een bepaald aantal overeenkomsten vindt (Apple heeft niet gespecificeerd wat dat aantal is), zal een mens het beoordelen en het vervolgens rapporteren aan NCMEC, die het vanaf daar zal overnemen. Het analyseert de foto’s niet om te zoeken naar tekenen dat ze CSAM kunnen bevatten, zoals de Berichten-tool lijkt te doen; het is gewoon op zoek naar overeenkomsten met bekende CSAM.
“Een grondig gedocumenteerde, zorgvuldig doordachte en nauw begrensde achterdeur is nog steeds een achterdeur”
Bovendien zegt Apple dat alleen foto’s die u uploadt naar iCloud-foto’s worden gescand. Als u iCloud-foto’s uitschakelt, worden uw foto’s niet gescand. In 2018 meldde CNBC dat er ongeveer 850 miljoen iCloud-gebruikers waren, waarvan 170 miljoen betaalden voor de extra opslagcapaciteit (Apple biedt alle iPhone-gebruikers 5 GB gratis cloudopslag). Er kunnen hier dus veel mensen getroffen worden.
Apple zegt dat deze methode “aanzienlijke privacyvoordelen” heeft ten opzichte van het simpelweg scannen van foto’s nadat ze zijn geüpload naar iCloud. Niets verlaat het apparaat of wordt gezien door Apple tenzij er een match is. Apple houdt ook vol dat het alleen een CSAM-database zal gebruiken en alle overheidsverzoeken om andere soorten inhoud eraan toe te voegen, zal weigeren.
Waarom sommige privacy- en beveiligingsexperts niet enthousiast zijn
Maar voorstanders van privacy denken dat de nieuwe functie de deur zal openen voor misbruiken. Nu Apple heeft vastgesteld dat het dit voor sommige afbeeldingen kan doen, zal het vrijwel zeker worden gevraagd om dit voor andere afbeeldingen te doen. De Electronic Frontier Foundation ziet gemakkelijk een toekomst waarin regeringen Apple onder druk zetten om apparaten van gebruikers te scannen op inhoud die in hun land verboden is, zowel in iCloud-fotobibliotheken op het apparaat als in berichten van gebruikers.
“Dat is geen gladde helling; dat is een volledig gebouwd systeem dat wacht op externe druk om de minste verandering aan te brengen”, aldus de EFF. “Uiteindelijk is zelfs een grondig gedocumenteerde, zorgvuldig doordachte en nauw begrensde achterdeur nog steeds een achterdeur.”
Het Center for Democracy and Technology zei in een verklaring aan Recode dat de nieuwe tools van Apple zeer zorgwekkend waren en een alarmerende verandering vormden ten opzichte van de eerdere privacyhouding van het bedrijf. Het hoopte dat Apple de beslissing zou heroverwegen.
“Apple biedt niet langer volledig end-to-end versleutelde berichten via iMessage en ondermijnt de privacy die eerder werd geboden voor de opslag van foto’s van iPhone-gebruikers”, aldus CDT.
Will Cathcart, hoofd van Facebook’s versleutelde berichtenservice WhatsApp, veroordeelt Apple’s nieuwe maatregelen in een Twitter-thread:
Instead of focusing on making it easy for people to report content that's shared with them, Apple has built software that can scan all the private photos on your phone — even photos you haven't shared with anyone. That's not privacy.
— Will Cathcart (@wcathcart) August 6, 2021
(Facebook en Apple staan op gespannen voet sinds Apple zijn anti-tracking-functie heeft geïntroduceerd in zijn mobiele besturingssysteem, die Apple heeft geframed als een manier om de privacy van zijn gebruikers te beschermen tegen bedrijven die hun activiteiten in apps volgen, met name Facebook. Dus je kunt je voorstellen dat een Facebook-manager heel blij was met de kans om in te gaan op Apples eigen privacykwesties.)
En Edward Snowden drukte zijn gedachten uit in memevorm:
— Edward Snowden (@Snowden) August 6, 2021
Sommige experts denken dat de zet van Apple een goede zou kunnen zijn – of in ieder geval niet zo slecht als het lijkt. Techblogger John Gruber vroeg zich af of dit Apple een manier zou kunnen bieden om iCloud-back-ups volledig te versleutelen van overheidstoezicht, terwijl het ook kan zeggen dat het de inhoud van zijn gebruikers controleert op CSAM.
“Als deze functies werken zoals beschreven en alleen zoals beschreven, is er bijna geen reden tot bezorgdheid”, schreef Gruber, erkennend dat er nog steeds “volledig legitieme zorgen zijn van betrouwbare experts over hoe de functies in de toekomst kunnen worden misbruikt of misbruikt.”
Ben Thompson van Stratechery wees erop dat dit Apple’s manier zou kunnen zijn om potentiële wetten in Europa voor te zijn die internetserviceproviders verplichten om naar CSAM op hun platforms te zoeken. In de Verenigde Staten hebben Amerikaanse wetgevers geprobeerd om hun eigen wetgeving aan te nemen die zogenaamd zou vereisen dat internetdiensten hun platforms controleren op CSAM, anders verliezen ze hun Sectie 230-bescherming . Het is niet ondenkbaar dat ze dat wetsvoorstel of iets dergelijks dit congres opnieuw zullen indienen.
Of misschien zijn de motieven van Apple eenvoudiger. Twee jaar geleden bekritiseerde de New York Times Apple, samen met een aantal andere technologiebedrijven, omdat ze niet zo veel deden als ze konden om hun diensten te scannen op CSAM en voor het implementeren van maatregelen, zoals encryptie, die dergelijke scans onmogelijk maakten en CSAM moeilijker te detecteren. Het internet werd nu “overspoeld” met CSAM, zei de Times.
De poging van Apple om de maatregelen ter bescherming van kinderen opnieuw uit te leggen
Op vrijdag meldde Reuters dat Apple’s interne Slack honderden berichten had van Apple-medewerkers die bang waren dat de CSAM-scanner door andere regeringen zou kunnen worden misbruikt en hoe zijn reputatie op het gebied van privacy werd geschaad. Een nieuwe PR-push van Apple volgde. Craig Federighi, Apple’s hoofd software-engineering, sprak met de Wall Street Journal in een gelikt geproduceerde video , en vervolgens bracht Apple een beoordeling uit van een veiligheidsbedreigingsmodel van zijn kinderveiligheidsfuncties met enkele nieuwe details over het proces en hoe Apple ervoor zorgde dat het zou alleen worden gebruikt voor het beoogde doel.
Dus hier gaan we: de databases zullen worden geleverd door ten minste twee afzonderlijke, niet-gouvernementele kinderveiligheidsinstanties om te voorkomen dat regeringen afbeeldingen invoegen die geen CSAM zijn, maar waarvoor ze mogelijk de telefoons van hun burgers willen scannen. Apple is van mening dat dit, in combinatie met de weigering om te voldoen aan de eisen van de overheid dat dit systeem voor iets anders dan CSAM wordt gebruikt, en het feit dat matches door een Apple-medewerker worden beoordeeld voordat ze aan iemand anders worden gemeld, voldoende bescherming biedt tegen gebruikers worden gescand en gestraft voor alles behalve CSAM.
Apple wilde ook duidelijk maken dat er een openbare lijst zal zijn van de database-hashes, of reeksen getallen, die eigenaren van apparaten kunnen controleren om er zeker van te zijn dat dit de databases zijn die op hun apparaten zijn geplaatst als ze bang zijn dat een slechte acteur een andere database op hun telefoon. Hierdoor kunnen onafhankelijke derde partijen ook de database-hashes controleren. Wat betreft de bron van de databases, zegt Apple dat de database moet worden geleverd door twee afzonderlijke kinderveiligheidsorganisaties die zich in twee afzonderlijke soevereine jurisdicties bevinden, en dat alleen de afbeeldingen die beide instanties hebben in de database worden opgenomen. Dit zal voorkomen dat één organisatie voor kinderveiligheid niet-CSAM-afbeeldingen levert.
Apple heeft nog niet precies gezegd wanneer de CSAM-functie zal worden vrijgegeven, dus het staat nog niet op je apparaat. Wat betreft hoeveel CSAM-overeenkomsten zijn technologie zal maken voordat het wordt doorgegeven aan een menselijke recensent (de “drempel”), het bedrijf is er vrij zeker van dat dit er 30 zullen zijn, maar dit aantal kan nog veranderen.
Dit lijkt allemaal geruststellend, en Apple lijkt de manieren te hebben bedacht waarop fotoscans op het apparaat kunnen worden misbruikt en manieren om ze te voorkomen. Het is gewoon jammer dat het bedrijf niet beter anticipeerde op hoe de eerste aankondiging zou worden ontvangen.
Maar het enige dat Apple nog steeds niet heeft aangepakt – waarschijnlijk omdat het dat niet kan – is dat veel mensen gewoon niet op hun gemak zijn met het idee dat een bedrijf op een dag kan besluiten om gewoon technologie in hun apparaten te steken die gegevens scant ze beschouwen als privé en gevoelig. Ja, andere diensten scannen de foto’s van hun gebruikers ook op CSAM, maar het op het apparaat doen is een grens die veel klanten niet wilden of verwachtten dat Apple zou overschrijden. Apple heeft hen immers jarenlang ervan overtuigd dat dit nooit zou gebeuren.
Update, 13 augustus, 16:55 uur: bijgewerkt met nieuwe informatie over de berichten van Apple rond de CSAM-scantechnologie.