Apple planea escanear fotos almacenadas en los iPhones de las personas y en sus cuentas de iCloud en busca de imágenes que sugieran abuso infantil, según informes de noticias del jueves. El esfuerzo podría ayudar en las investigaciones de aplicación de la ley, pero también podría invitar a las agencias gubernamentales al acceso controvertido a los datos de los usuarios.
Actualización de Apple a su página web "Protecciones ampliadas para niños”- ver bajo el subtítulo“ Detección de CSAM ”- parece hacer oficial el plan de escaneo. CSAM significa "material de abuso sexual infantil".
El sistema que Apple está implementando, llamado neuralMatch, "alertará proactivamente a un equipo de revisores humanos si cree que se detectan imágenes ilegales, que luego se pondría en contacto con la policía si el material puede ser verificado ", el Tiempos financierosinformó Jueves.
Apple le dijo a los académicos en Estados Unidos sobre el plan esta semana y podría compartir más "tan pronto como esta semana", dijeron dos investigadores de seguridad informados sobre el asunto, según el Tiempos financieros.
Fotos sospechosas comparadas con imágenes de la base de datos
El periódico agregó que los expertos “entrenaron” a neuralMatch usando 200,000 imágenes del Centro Nacional para Niños Desaparecidos y Explotados. Las fotos sospechosas se codificarán y luego se compararán con imágenes de abuso sexual infantil en una base de datos.
El sistema se implementa primero en los Estados Unidos y luego en otros lugares, PIE informó.
“Según las personas informadas sobre los planes, cada foto cargada en iCloud en los EE. UU.; se le entregará un 'vale de seguridad', en el que se indicará si es sospechoso o no " PIE dijo. "Una vez que un cierto número de fotos se marcan como sospechosas, Apple permitirá que todas las fotos sospechosas se descifren y, si aparentemente son ilegales, se transmitirán a las autoridades pertinentes".
Preocupaciones sobre el sistema
El borde señaló que el profesor y criptógrafo de la Universidad Johns Hopkins, Matthew Green, expresó su preocupación sobre el sistema en Twitter. "Este tipo de herramienta puede ser de gran ayuda para encontrar pornografía infantil en los teléfonos de las personas", Green dijo. "¿Pero imagina lo que podría hacer en manos de un gobierno autoritario?"
"Incluso si crees que Apple no permitirá que estas herramientas se utilicen incorrectamente [emoji de dedos cruzados], todavía hay mucho de qué preocuparse". él agregó. "Estos sistemas se basan en una base de datos de 'hash de medios problemáticos' que usted, como consumidor, no puede revisar".
Apple y otros ya hacen algo similar
Apple y otros importantes proveedores de servicios en la nube ya comparan archivos con imágenes conocidas de abuso infantil. Pero el sistema neuralMatch va más allá de lo que hacen, ya que permite el acceso centralizado al almacenamiento local, El borde dijo.
Los observadores señalan que sería fácil extender el sistema a otros delitos. En un país como China, donde Apple hace negocios considerables, ese tipo de acceso y aplicación legal podría resultar preocupante.
Apple sobre la privacidad
Apple ha hecho gran parte de sus dispositivos " protecciones de privacidad, incluyendo declaraciones recientes del CEO Tim Cook en un vídeo dirigido a la Unión Europea consciente de la privacidad.
La empresa dominó las noticias brevemente cuando resistido a ayudar a la demanda del FBI que proporcione a la oficina acceso a un iPhone perteneciente a un tirador en un ataque de 2015 en San Bernardino, California.
Los medios de comunicación informaron el jueves que Apple no ha respondido a las solicitudes de comentarios sobre su plan para escanear imágenes.