- James Clayton
- Reporter tecnologico per il Nord America
Apple ha annunciato i dettagli di un sistema che consente di rilevare materiale pedopornografico (CSAM) sugli iPhone di proprietà di americani.
Prima che una foto venga archiviata in Foto di iCloud, la nuova tecnologia consentirà di cercare materiale relativo all’abuso sessuale su minori (CSAM).
Se viene rilevata una corrispondenza, ha affermato Apple, un revisore umano valuterà il contenuto e poi lo segnalerà alle forze dell’ordine, se necessario.
Ma c’è il timore che questa tecnologia possa invadere la privacy, in quanto potrebbe includere la scansione di iPhone alla ricerca di contenuti proibiti o persino di discorsi politici.
Gli esperti sono preoccupati per il sistema utilizzato dai governi dittatoriali per spiare i propri cittadini.
Apple ha affermato che le nuove versioni di iOS e iPadOS, che verranno rilasciate entro la fine dell’anno, verranno fornite con “nuove applicazioni di crittografia per limitare la diffusione di materiale CSAM su Internet”.
Il sistema funziona confrontando le immagini con i dati noti sugli abusi sessuali su minori raccolti dal National Center for Missing and Exploited Children negli Stati Uniti, nonché da altre organizzazioni per la sicurezza dei bambini.
Queste immagini sono state tradotte in “codici”, ovvero codici digitali che possono essere “identici” a un’immagine memorizzata su un dispositivo Apple.
Apple afferma che la tecnologia rileverà anche versioni modificate identiche alle foto originali.
“Alto livello di precisione”
“Prima che una foto venga archiviata in iCloud Photos, viene eseguito un processo di corrispondenza per quella foto con i codici CSA noti”, ha affermato Apple.
La società ha affermato che questo sistema è “altamente accurato e garantisce un tasso di errore inferiore a uno per trilione all’anno”.
Apple afferma che esaminerà manualmente ogni rapporto per garantire una corrispondenza. Può quindi adottare alcune misure per disabilitare l’account dell’utente e segnalarlo alle autorità.
La società aggiunge che la nuova tecnologia offre vantaggi “significativi” per la privacy rispetto alle tecnologie esistenti, perché Apple apprende dalle foto degli utenti se hanno una raccolta di materiale pedopornografico (CSAM) nel proprio account.
E la privacy?
Tuttavia, alcuni esperti di privacy hanno espresso preoccupazione.
“Non importa quali siano i piani a lungo termine di Apple, ha inviato un segnale molto chiaro. È sicuro costruire sistemi che scansionano i telefoni degli utenti alla ricerca di contenuti proibiti”, ha affermato Matthew Green, ricercatore di sicurezza presso la Johns Hopkins University.
Ha concluso: “Che abbiano ragione o torto su questo punto, poco importa. Questo romperà la diga – i governi lo chiederanno a tutti”.
“Esploratore. Scrittore appassionato. Appassionato di Twitter. Organizzatore. Amico degli animali ovunque.”