Venerdì Apple ha confermato di aver ritardato i piani controversi per avviare la scansione delle foto degli utenti per materiale pedopornografico (CSAM).
La caratteristica era originariamente previsto per la fine dell'anno. Apple ora afferma che ci vorrà del tempo per "raccogliere input e apportare miglioramenti" prima che vengano apportate modifiche, ma sono tutt'altro che annullate del tutto.
Il piano iniziale di Apple, annunciato il mese scorso, era quello di scansionare tutte le immagini caricate su iCloud Photos per rilevare il contenuto CSAM. Quando trovava una corrispondenza, veniva esaminata da un essere umano prima di essere segnalata alle autorità.
Apple ha anche annunciato funzionalità per i dispositivi utilizzati dai bambini che li avrebbero avvertiti prima che aprissero o tentassero di condividere contenuti identificati come sessualmente espliciti. Ma i piani non sono andati bene a molti fan di Apple.
Apple ritarda il piano CSAM
Utenti, sostenitori della privacy, e anche i dipendenti di Apple
hanno espresso le loro preoccupazioni per il rilevamento di CSAM e il potenziale per essere ampliato per rilevare altri contenuti in seguito sotto pressione esterna.Apple ora afferma che il piano è in sospeso mentre ci vuole tempo per migliorarlo. Una dichiarazione rilasciata a Culto di Mac venerdì leggi:
Il mese scorso abbiamo annunciato piani per funzionalità destinate a proteggere i bambini dai predatori che usano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione degli abusi sessuali su minori Materiale. Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare questi elementi di fondamentale importanza per la sicurezza dei bambini caratteristiche.
Anche Apple ha aggiornato il suo comunicato stampa originale annunciando la funzione per includere questa dichiarazione.
La lotta alla scansione CSAM
All'inizio di questo mese, un gruppo di oltre 90 organizzazioni ha scritto una lettera aperta al CEO di Apple Tim Cook, esortandolo ad annullare il piano di scansione CSAM. Ha inoltre esortato Apple ad avviare discussioni con i gruppi della società civile e le comunità vulnerabili prima di implementare funzionalità simili.
Prima di questo, Apple ha tentato di alleviare le preoccupazioni pubblicando una lunga FAQ che descriveva la scansione CSAM e le sue nuove funzionalità di sicurezza dei bambini in modo più dettagliato. Ha anche chiarito la confusione su come esattamente ogni funzione avrebbe funzionato individualmente.
Quel documento ha fatto ben poco per sedare le preoccupazioni, tuttavia. Un gran numero di utenti ha ancora minacciato di boicottare i dispositivi Apple online, mentre gli esperti hanno continuato a esprimere i loro avvertimenti sulle potenziali insidie.
La decisione di Apple di ritardare il piano conferma che la società ha sentito tali preoccupazioni. Sembra, tuttavia, che il suo piano per scansionare foto per CSAM in futuro sia tutt'altro che morto.