Apple retrasa plan para escanear fotos de usuarios en busca de material de abuso infantil (CSAM)

Apple confirmó el viernes que ha retrasado los controvertidos planes para comenzar a escanear fotos de usuarios en busca de material de abuso sexual infantil (CSAM).

La característica fue originalmente programado para implementarse a finales de este año. Apple ahora dice que tomará tiempo "recopilar información y realizar mejoras" antes de que se realicen los cambios, pero están lejos de cancelarse por completo.

El plan inicial de Apple, que se anunció el mes pasado, era escanear todas las imágenes cargadas en iCloud Photos para detectar contenido CSAM. Cuando encontrara una coincidencia, sería revisada por un humano antes de ser reportada a las autoridades.

Apple también anunció funciones para dispositivos utilizados por niños que les advertirían antes de que abrieran o intentaran compartir contenido identificado como sexualmente explícito. Pero los planes no les sentaron bien a muchos fanáticos de Apple.

Apple retrasa el plan CSAM

Usuarios defensores de la privacidad, y incluso los propios empleados de Apple

expresaron sus preocupaciones sobre la detección de CSAM y la posibilidad de que se amplíe para detectar otro contenido más adelante bajo presión externa.

Apple ahora dice que el plan está en espera mientras se necesita tiempo para mejorarlo. Una declaración emitida a Culto de Mac el viernes leer:

El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del abuso sexual infantil Material. Basándonos en los comentarios de clientes, grupos de defensa, investigadores y otros, hemos decidido dedicar más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de publicar estos temas de seguridad infantil de importancia crítica características.

Apple también ha actualizado su comunicado de prensa original anunciando la función para incluir esta declaración.

La lucha contra el escaneo CSAM

A principios de este mes, un grupo de más de 90 organizaciones escribió una carta abierta al CEO de Apple, Tim Cook, instándolo a cancelar el plan de escaneo CSAM. También instó a Apple a entablar conversaciones con grupos de la sociedad civil y comunidades vulnerables antes de implementar funciones similares.

Antes de esto, Apple intentó aliviar las preocupaciones publicando una extensa sección de preguntas frecuentes que describía el escaneo CSAM y sus nuevas funciones de seguridad infantil con más detalle. También aclaró la confusión sobre cómo funcionaría exactamente cada función individualmente.

Sin embargo, ese documento hizo poco para calmar las preocupaciones. Un gran número de usuarios seguía amenazando con boicotear los dispositivos de Apple en línea, mientras que los expertos seguían dando voz a sus advertencias sobre los posibles obstáculos.

La decisión de Apple de retrasar el plan confirma que la empresa escuchó esas preocupaciones. Sin embargo, parece que su plan de escanear fotos para CSAM en el futuro está lejos de estar muerto.

Última publicación de blog

| Culto de Mac
September 10, 2021

Apple lanza una nueva línea de iMac con procesadores de cuatro núcleos, Thunderbolt y cámara FaceTime HDLa tienda en línea de Apple ha realizado un...

La Mac todavía está muy en juego para Apple
September 11, 2021

Apple puede ser más una compañía de teléfonos inteligentes en estos días, pero su producto heredado, la computadora personal, sigue siendo popular....

Apple culpa a la batería de terceros por la explosión de los auriculares
September 11, 2021

Apple ha culpado a una batería de terceros por la explosión de un par de auriculares con cancelación de ruido.Apple no especifica qué baterías debe...