Categorie
Sicurezza Informatica

Apple iCloud Photos: perchè ha dismesso il piano contro CSAM

Tempo di lettura: 2 minuti. Apple spiega il motivo dell’abbandono del suo piano di rilevare il Materiale di Abuso Sessuale su Minori in iCloud Photos, citando preoccupazioni sulla privacy e sulla sicurezza.

Tempo di lettura: 2 minuti.

Apple ha fornito giovedì la spiegazione più dettagliata sul perché, l’anno scorso, ha abbandonato il suo controverso piano di rilevare il noto Materiale di Abuso Sessuale su Minori (CSAM) memorizzato in iCloud Photos.

Dichiarazione di Apple

La dichiarazione di Apple, condivisa con Wired, è arrivata in risposta alla richiesta del gruppo di sicurezza infantile Heat Initiative che l’azienda “rilevasse, segnalasse e rimuovesse” il CSAM da iCloud e offrisse più strumenti agli utenti per segnalare tale contenuto all’azienda. “La pornografia infantile è abominevole e siamo impegnati a rompere la catena di coercizione e influenza che rende i bambini suscettibili ad essa”, ha scritto Erik Neuenschwander, direttore della privacy degli utenti e della sicurezza dei minori di Apple, nella risposta dell’azienda a Heat Initiative. Ha aggiunto, tuttavia, che dopo aver collaborato con una serie di ricercatori sulla privacy e sulla sicurezza, gruppi per i diritti digitali e sostenitori della sicurezza dei minori, l’azienda ha concluso che non poteva procedere con lo sviluppo di un meccanismo di scansione CSAM, nemmeno uno specificamente progettato per preservare la privacy.

“Scansionare i dati di iCloud memorizzati privatamente da ogni utente creerebbe nuovi vettori di minaccia per i ladri di dati da trovare e sfruttare”, ha scritto Neuenschwander. “Introdurrebbe anche il potenziale per una serie di conseguenze non intenzionali. Scansionare un tipo di contenuto, ad esempio, apre la porta alla sorveglianza di massa e potrebbe creare il desiderio di cercare altri sistemi di messaggistica crittografata attraverso tipi di contenuto.”

Storia e critiche

Nell’agosto 2021, Apple aveva annunciato piani per tre nuove funzionalità di sicurezza infantile, tra cui un sistema per rilevare immagini CSAM note memorizzate in iCloud Photos. Tuttavia, la funzione di rilevamento CSAM non è mai stata lanciata. Nonostante le iniziali affermazioni di Apple, il piano è stato criticato da una vasta gamma di individui e organizzazioni.

Il dibattito sulla crittografia

La recente risposta di Apple arriva in un momento in cui il dibattito sulla crittografia è stato riacceso dal governo britannico. Apple ha dichiarato che ritirerà servizi come FaceTime e iMessage nel Regno Unito se la legislazione verrà approvata nella sua forma attuale.

Pronto a supportare l'informazione libera?

Iscriviti alla nostra newsletter // Seguici gratuitamente su Google News
Exit mobile version