Apple ritarda il piano per la scansione delle foto degli utenti per materiale pedopornografico (CSAM)

Venerdì Apple ha confermato di aver ritardato i piani controversi per avviare la scansione delle foto degli utenti per materiale pedopornografico (CSAM).

La caratteristica era originariamente previsto per la fine dell'anno. Apple ora afferma che ci vorrà del tempo per "raccogliere input e apportare miglioramenti" prima che vengano apportate modifiche, ma sono tutt'altro che annullate del tutto.

Il piano iniziale di Apple, annunciato il mese scorso, era quello di scansionare tutte le immagini caricate su iCloud Photos per rilevare il contenuto CSAM. Quando trovava una corrispondenza, veniva esaminata da un essere umano prima di essere segnalata alle autorità.

Apple ha anche annunciato funzionalità per i dispositivi utilizzati dai bambini che li avrebbero avvertiti prima che aprissero o tentassero di condividere contenuti identificati come sessualmente espliciti. Ma i piani non sono andati bene a molti fan di Apple.

Apple ritarda il piano CSAM

Utenti, sostenitori della privacy, e anche i dipendenti di Apple

hanno espresso le loro preoccupazioni per il rilevamento di CSAM e il potenziale per essere ampliato per rilevare altri contenuti in seguito sotto pressione esterna.

Apple ora afferma che il piano è in sospeso mentre ci vuole tempo per migliorarlo. Una dichiarazione rilasciata a Culto di Mac venerdì leggi:

Il mese scorso abbiamo annunciato piani per funzionalità destinate a proteggere i bambini dai predatori che usano strumenti di comunicazione per reclutarli e sfruttarli e limitare la diffusione degli abusi sessuali su minori Materiale. Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare questi elementi di fondamentale importanza per la sicurezza dei bambini caratteristiche.

Anche Apple ha aggiornato il suo comunicato stampa originale annunciando la funzione per includere questa dichiarazione.

La lotta alla scansione CSAM

All'inizio di questo mese, un gruppo di oltre 90 organizzazioni ha scritto una lettera aperta al CEO di Apple Tim Cook, esortandolo ad annullare il piano di scansione CSAM. Ha inoltre esortato Apple ad avviare discussioni con i gruppi della società civile e le comunità vulnerabili prima di implementare funzionalità simili.

Prima di questo, Apple ha tentato di alleviare le preoccupazioni pubblicando una lunga FAQ che descriveva la scansione CSAM e le sue nuove funzionalità di sicurezza dei bambini in modo più dettagliato. Ha anche chiarito la confusione su come esattamente ogni funzione avrebbe funzionato individualmente.

Quel documento ha fatto ben poco per sedare le preoccupazioni, tuttavia. Un gran numero di utenti ha ancora minacciato di boicottare i dispositivi Apple online, mentre gli esperti hanno continuato a esprimere i loro avvertimenti sulle potenziali insidie.

La decisione di Apple di ritardare il piano conferma che la società ha sentito tali preoccupazioni. Sembra, tuttavia, che il suo piano per scansionare foto per CSAM in futuro sia tutt'altro che morto.

Ultimo post sul blog

$ 770 di sconto su una TV Samsung 4K HD, $ 130 di sconto su Apple Watch e altro [Offerte]
October 21, 2021

Internet sta impazzendo con le offerte questa settimana, con enormi risparmi su Apple Watch Sport, uno dei televisori HD 4K di punta di Samsung e m...

| Culto di Mac
October 21, 2021

Redditor jondajaba ha recentemente terminato di mettere insieme una configurazione del computer e ha chiesto in un post consigli su cosa manca che ...

| Culto di Mac
October 21, 2021

Archiviazione e sicurezza sono tra le risorse più importanti nelle nostre vite digitali. Quindi abbiamo raccolto quattro grandi offerte su enormi a...