Más de 90 organizaciones instan a Tim Cook a abandonar el plan de escaneo de fotografías de Apple

Una coalición internacional de más de 90 grupos de políticas y derechos está instando a Apple a abandonar sus planes de escanear fotos de usuarios en busca de material de abuso infantil (CSAM).

En una carta abierta dirigida al CEO de Apple, Tim Cook, publicada el jueves, la coalición dijo que le preocupa que la función “se utilice censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo y tener consecuencias desastrosas para niños."

Apple se ha enfrentado a una abrumadora reacción contra su nuevas y controvertidas funciones de seguridad infantil, que advertirá a los niños cuando intenten ver imágenes de desnudos en la aplicación Mensajes y buscará CSAM en Fotos de iCloud.

Un número creciente de usuarios y defensores de la privacidad expresó sus preocupaciones sobre las funciones, y algunas amenazan con deshacerse por completo de los dispositivos Apple. Los propios empleados de Apple también se han unido a la reacción.

Ahora, Apple enfrenta la mayor campaña contra la medida hasta ahora.

Grupos de derechos se unen a la lucha contra el escaneo de fotografías

La carta no solo pide a Cook y Apple que eliminen sus nuevas características de seguridad infantil, programadas para implementarse más tarde. este año, pero señala por qué las funciones ponen en riesgo a los niños y a otros usuarios, “tanto ahora como en el futuro."

Como otros, el grupo advierte sobre posibles trampas de censura y vigilancia. También destaca una serie de riesgos para la seguridad infantil que cree que Apple pudo haber pasado por alto al asumir que todos los niños están protegidos por sus padres.

“Las organizaciones abajo firmantes comprometidas con los derechos civiles, los derechos humanos y los derechos digitales en todo el mundo escriben para instar a Apple a abandonar los planes que anunció el 5 de agosto de 2021 para desarrollar capacidades de vigilancia en iPhones, iPads y otros productos de Apple ”, dice la carta comienza.

“Aunque estas capacidades están destinadas a proteger a los niños y reducir la propagación de material de abuso sexual infantil (MASI), nos preocupa que se utilizará para censurar el discurso protegido, amenazar la privacidad y la seguridad de las personas en todo el mundo y tendrá consecuencias desastrosas para muchos niños."

¿Una amenaza para la seguridad infantil?

"Los algoritmos diseñados para detectar material sexualmente explícito son notoriamente poco fiables", explica la coalición. “Son propensos a marcar por error el arte, la información de salud, los recursos educativos, los mensajes de defensa y otras imágenes. Los derechos de los niños a enviar y recibir dicha información están protegidos en la Convención de las Naciones Unidas sobre los Derechos del Niño ".

"Además, el sistema que Apple ha desarrollado asume que las cuentas" principal "y" secundaria "involucradas realmente pertenecen a un adulto que es el padre de un niño, y que esos individuos tienen una salud relación. Puede que no siempre sea así; un adulto abusivo puede ser el organizador de la cuenta, y las consecuencias de la notificación a los padres podrían amenazar la seguridad y el bienestar del niño ".

Las características significan que iMessage ya no brindará confidencialidad y privacidad a los usuarios que lo necesiten, dice la carta. También advierte que una vez que se incorpore la "función de puerta trasera", los gobiernos podrían obligar a Apple a "detectar imágenes que son objetables por razones distintas de ser sexualmente explícitas".

Una "base para la censura, la vigilancia y la persecución"

Al escanear las fotos de los usuarios subidas a iCloud, el grupo dice que se opone firmemente a la proliferación de CSAM, pero advierte que el plan de Apple sienta "las bases para la censura, la vigilancia y la persecución a nivel mundial base."

Apple “enfrentará una enorme presión, y potencialmente requisitos legales, de los gobiernos de todo el mundo. mundo para escanear fotos no solo para CSAM, sino también para otras imágenes que un gobierno considere objetables ”, dice.

"Esas imágenes pueden ser de abusos contra los derechos humanos, protestas políticas, imágenes que las empresas han etiquetado como 'terroristas' o contenido extremista violento, o incluso imágenes poco halagadoras de los mismos políticos que presionarán a la empresa para escanear para ellos."

La carta termina con un pedido a Apple para que elimine sus nuevas características de seguridad infantil y reafirme su compromiso de proteger la privacidad del usuario. También insta a la empresa a consultar con los grupos de la sociedad civil y con las comunidades vulnerables “que pueden verse afectadas de manera desproporcionada” por tales medidas.

Usted puede lee la carta completa, junto con la lista de signatarios, en el sitio web del Centro para la Democracia y la Tecnología.

Vía: Reuters

Última publicación de blog

El nuevo Apple TV e iWatch serán MIA en WWDC el próximo mes
September 11, 2021

El nuevo Apple TV e iWatch serán MIA en WWDC el próximo mesAquellos que esperan echar un vistazo a los productos futuros que cambiarán las reglas d...

Informe confirma que iOS 5 renovará las notificaciones e introducirá widgets
September 11, 2021

Cuando Apple estrene iOS 5 en la WWDC de junio, de hecho contará con la tecnología de reconocimiento de voz de Nuance... pero de manera contraria a...

| Culto de Mac
September 11, 2021

Como se predijo, el gran anuncio de iTunes de Apple hoy no fue iTunes en la nube, o transmisión, o una tarifa de suscripción... son John, Paul, Rin...