Secondo le notizie di giovedì, Apple prevede di scansionare le foto archiviate sugli iPhone delle persone e nei loro account iCloud alla ricerca di immagini che suggeriscano abusi sui minori. Lo sforzo potrebbe aiutare nelle indagini delle forze dell'ordine, ma potrebbe anche favorire l'accesso controverso ai dati degli utenti da parte delle agenzie governative.
L'aggiornamento di Apple alla sua pagina web"Protezioni ampliate per i bambini” – vedi sotto il sottotitolo “Rilevamento CSAM” – sembra rendere ufficiale il piano di scansione. CSAM sta per "materiale pedopornografico".
Il sistema che Apple sta mettendo in atto, chiamato neuralMatch, "avviserà in modo proattivo un team di revisori umani in caso di problemi". ritiene che vengano rilevate immagini illegali, che contatterebbero quindi le forze dell'ordine se il materiale può essere verificato", il Financial Timessegnalato Giovedi.
Apple ha parlato del piano agli accademici negli Stati Uniti questa settimana e potrebbe condividere di più "non appena questa settimana", hanno affermato due ricercatori di sicurezza informati sulla questione, secondo il
Financial Times.Foto sospette rispetto alle immagini del database
Il giornale ha aggiunto che gli esperti hanno "addestrato" neuralMatch utilizzando 200.000 immagini del National Center for Missing & Exploited Children. Le foto sospette saranno sottoposte a hash e quindi confrontate con immagini di abusi sessuali su minori in un database.
Il sistema viene distribuito prima negli Stati Uniti e poi altrove, FT segnalato.
“Secondo le persone informate sui piani, ogni foto è stata caricata su iCloud negli Stati Uniti; verrà dato un "buono di sicurezza", che dice se è sospetto o meno " FT disse. "Una volta contrassegnato come sospetto un certo numero di foto, Apple consentirà a tutte le foto sospette di essere decifrate e, se apparentemente illegali, trasmesse alle autorità competenti".
Preoccupazioni per il sistema
Il Verge ha osservato che il professore e crittografo della Johns Hopkins University Matthew Green ha sollevato preoccupazioni sul sistema su Twitter. "Questo tipo di strumento può essere un vantaggio per trovare materiale pedopornografico nei telefoni delle persone", Green ha detto. “Ma immagina cosa potrebbe fare nelle mani di un governo autoritario?”
"Anche se ritieni che Apple non permetterà che questi strumenti vengano utilizzati in modo improprio [emoji con le dita incrociate], c'è ancora molto di cui preoccuparsi", Ha aggiunto. "Questi sistemi si basano su un database di" hash dei media problematici "che tu, come consumatore, non puoi rivedere."
Apple e altri fanno già qualcosa di simile
Apple e altri importanti fornitori di servizi cloud controllano già i file rispetto a immagini note di abusi sui minori. Ma il sistema neuralMatch va oltre ciò che fanno, in quanto consente l'accesso centralizzato all'archiviazione locale, Il Verge disse.
Gli osservatori fanno notare che sarebbe facile estendere il sistema ad altri crimini. In un paese come la Cina, dove Apple fa affari considerevoli, quel tipo di accesso e applicazione legale potrebbe rivelarsi preoccupante.
Apple sulla privacy
Apple ha fatto molto dei suoi dispositivi protezione della privacy, comprese le recenti dichiarazioni del CEO Tim Cook in a video diretto all'Unione Europea attenta alla privacy.
L'azienda ha dominato brevemente le notizie quando ha resistito ad assistere la richiesta dell'FBI che fornisce all'ufficio l'accesso a un iPhone appartenente a un tiratore in un attacco del 2015 a San Bernardino, in California.
I notiziari hanno riferito giovedì che Apple non ha risposto alle richieste di commento sul suo piano per la scansione delle immagini.