Apple confirmó el viernes que ha retrasado los controvertidos planes para comenzar a escanear fotos de usuarios en busca de material de abuso sexual infantil (CSAM).
La característica fue originalmente programado para implementarse a finales de este año. Apple ahora dice que tomará tiempo "recopilar información y realizar mejoras" antes de que se realicen los cambios, pero están lejos de cancelarse por completo.
El plan inicial de Apple, que se anunció el mes pasado, era escanear todas las imágenes cargadas en iCloud Photos para detectar contenido CSAM. Cuando encontrara una coincidencia, sería revisada por un humano antes de ser reportada a las autoridades.
Apple también anunció funciones para dispositivos utilizados por niños que les advertirían antes de que abrieran o intentaran compartir contenido identificado como sexualmente explícito. Pero los planes no les sentaron bien a muchos fanáticos de Apple.
Apple retrasa el plan CSAM
Usuarios defensores de la privacidad, y incluso los propios empleados de Apple
expresaron sus preocupaciones sobre la detección de CSAM y la posibilidad de que se amplíe para detectar otro contenido más adelante bajo presión externa.Apple ahora dice que el plan está en espera mientras se necesita tiempo para mejorarlo. Una declaración emitida a Culto de Mac el viernes leer:
El mes pasado anunciamos planes para funciones destinadas a ayudar a proteger a los niños de los depredadores que usan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación del abuso sexual infantil Material. Basándonos en los comentarios de clientes, grupos de defensa, investigadores y otros, hemos decidido dedicar más tiempo durante los próximos meses para recopilar información y realizar mejoras antes de publicar estos temas de seguridad infantil de importancia crítica características.
Apple también ha actualizado su comunicado de prensa original anunciando la función para incluir esta declaración.
La lucha contra el escaneo CSAM
A principios de este mes, un grupo de más de 90 organizaciones escribió una carta abierta al CEO de Apple, Tim Cook, instándolo a cancelar el plan de escaneo CSAM. También instó a Apple a entablar conversaciones con grupos de la sociedad civil y comunidades vulnerables antes de implementar funciones similares.
Antes de esto, Apple intentó aliviar las preocupaciones publicando una extensa sección de preguntas frecuentes que describía el escaneo CSAM y sus nuevas funciones de seguridad infantil con más detalle. También aclaró la confusión sobre cómo funcionaría exactamente cada función individualmente.
Sin embargo, ese documento hizo poco para calmar las preocupaciones. Un gran número de usuarios seguía amenazando con boicotear los dispositivos de Apple en línea, mientras que los expertos seguían dando voz a sus advertencias sobre los posibles obstáculos.
La decisión de Apple de retrasar el plan confirma que la empresa escuchó esas preocupaciones. Sin embargo, parece que su plan de escanear fotos para CSAM en el futuro está lejos de estar muerto.