Oltre 90 organizzazioni esortano Tim Cook a rinunciare al piano di scansione delle foto di Apple

Una coalizione internazionale di oltre 90 gruppi politici e per i diritti sta esortando Apple a rinunciare ai piani per la scansione delle foto degli utenti alla ricerca di materiale pedopornografico (CSAM).

In una lettera aperta indirizzata al CEO di Apple Tim Cook, pubblicata giovedì, la coalizione ha affermato di essere preoccupata che la funzione "sarà utilizzata censurare i discorsi protetti, minacciare la privacy e la sicurezza delle persone in tutto il mondo e avere conseguenze disastrose per figli."

Apple ha subito un contraccolpo schiacciante contro il suo controverse nuove caratteristiche di sicurezza dei bambini, che avviserà i bambini quando tentano di visualizzare immagini di nudo nell'app Messaggi ed eseguirà la scansione di CSAM in Foto di iCloud.

Un numero crescente di utenti e sostenitori della privacy ha hanno espresso le loro preoccupazioni sulle caratteristiche, con alcuni che minacciano di abbandonare completamente i dispositivi Apple. I dipendenti di Apple hanno anche aderito al contraccolpo.

Ora, Apple affronta la più grande campagna contro la mossa finora.

I gruppi per i diritti si uniscono alla lotta contro la scansione delle foto

La lettera non solo invita Cook e Apple a eliminare le sue nuove funzionalità di sicurezza dei bambini, che dovrebbero essere implementate in seguito quest'anno, ma sottolinea perché le funzionalità mettono a rischio bambini e altri utenti, "sia ora che nel futuro."

Come altri, il gruppo avverte di potenziali insidie ​​​​della censura e della sorveglianza. Evidenzia anche una serie di rischi per la sicurezza dei bambini che ritiene che Apple possa aver trascurato presumendo che tutti i bambini siano protetti dai loro genitori.

"Le organizzazioni sottoscritte impegnate per i diritti civili, i diritti umani e i diritti digitali in tutto il mondo stanno scrivendo per sollecitare Apple a abbandonare i piani annunciati il ​​5 agosto 2021 per integrare funzionalità di sorveglianza in iPhone, iPad e altri prodotti Apple", la lettera inizia.

“Sebbene queste capacità abbiano lo scopo di proteggere i bambini e ridurre la diffusione di materiale pedopornografico (CSAM), siamo preoccupati che verrà utilizzato per censurare la parola protetta, minacciare la privacy e la sicurezza delle persone in tutto il mondo e avere conseguenze disastrose per molti figli."

Una minaccia per la sicurezza dei bambini?

"Gli algoritmi progettati per rilevare materiale sessualmente esplicito sono notoriamente inaffidabili", spiega la coalizione. “Sono inclini a segnalare erroneamente arte, informazioni sanitarie, risorse educative, messaggi di advocacy e altre immagini. I diritti dei bambini di inviare e ricevere tali informazioni sono protetti dalla Convenzione delle Nazioni Unite sui diritti dell'infanzia".

"Inoltre, il sistema che Apple ha sviluppato presuppone che gli account "genitore" e "figlio" siano coinvolti in realtà appartengono a un adulto che è il genitore di un bambino e che quegli individui hanno un sano relazione. Questo potrebbe non essere sempre il caso; un adulto violento potrebbe essere l'organizzatore dell'account e le conseguenze della notifica ai genitori potrebbero minacciare la sicurezza e il benessere del bambino".

Le funzionalità significano che iMessage non fornirà più riservatezza e privacy agli utenti che ne hanno bisogno, afferma la lettera. Avverte inoltre che una volta integrata la "funzione backdoor", i governi potrebbero costringere Apple a "rilevare immagini discutibili per ragioni diverse dall'essere sessualmente esplicite".

Una “fondazione per censura, sorveglianza e persecuzione”

Durante la scansione delle foto degli utenti caricate su iCloud, il gruppo afferma di essere fermamente contrario alla proliferazione di CSAM, ma avverte che il piano di Apple pone "le basi per la censura, la sorveglianza e la persecuzione su scala globale" base."

Apple "affronterà un'enorme pressione - e potenzialmente requisiti legali - da parte dei governi di tutto il mondo" mondo per scansionare foto non solo per CSAM, ma anche per altre immagini che un governo trova discutibili", è dice.

“Queste immagini possono essere di violazioni dei diritti umani, proteste politiche, società di immagini etichettate come “terroristiche” o contenuti estremisti violenti o persino immagini poco lusinghiere degli stessi politici che faranno pressione sull'azienda per la scansione per loro."

La lettera si conclude con un appello ad Apple per eliminare le sue nuove funzionalità di sicurezza dei bambini e riaffermare il suo impegno a proteggere la privacy degli utenti. Esorta inoltre l'azienda a consultarsi con i gruppi della società civile e con le comunità vulnerabili "che potrebbero essere colpite in modo sproporzionato" da tali mosse.

Puoi leggi la lettera completa, insieme all'elenco dei firmatari, sul sito web del Center for Democracy & Technology.

Attraverso: Reuters

Ultimo post sul blog

| Culto di Mac
August 20, 2021

La "forte domanda" di nuovi iPad fa aumentare le entrate del produttoreFoto: melaLa gente può parlare di flatline delle vendite di tablet, ma se i ...

| Culto di Mac
August 20, 2021

La prossima Smart Cover per iPad di Apple potrebbe presentare una tastiera in stile Surface [brevetto]I possibili piani di Apple per una smart cove...

| Culto di Mac
August 20, 2021

Steve Jobs chiama grasso il taccuino del giornalista, poi lo schernisce con la magrezza del MacBook AirSteve Jobs si sente piuttosto compiaciuto do...