Apple lanza controvertido plan para escanear fotos de iCloud en busca de CSAM

Nosotros y nuestros socios usamos cookies para almacenar y/o acceder a información en un dispositivo. Nosotros y nuestros socios usamos datos para anuncios y contenido personalizados, medición de anuncios y contenido, información sobre la audiencia y desarrollo de productos. Un ejemplo de datos que se procesan puede ser un identificador único almacenado en una cookie. Algunos de nuestros socios pueden procesar sus datos como parte de su interés comercial legítimo sin solicitar su consentimiento. Para ver los fines para los que creen que tienen un interés legítimo, o para oponerse a este procesamiento de datos, use el enlace de la lista de proveedores a continuación. El consentimiento presentado solo se utilizará para el procesamiento de datos provenientes de este sitio web. Si desea cambiar su configuración o retirar el consentimiento en cualquier momento, el enlace para hacerlo se encuentra en nuestra política de privacidad accesible desde nuestra página de inicio.

Apple lanza controvertido plan para escanear fotos de iCloud en busca de CSAM

Apple lanza controvertido plan para escanear fotos de iCloud en busca de CSAM
Las imágenes en Fotos de iCloud no se escanearán en busca de material de abuso sexual infantil.
Imagen: manzana

Apple abandonó por completo su plan previamente anunciado para escanear las bibliotecas de iCloud Photos en busca de material de abuso sexual infantil. La empresa no revisará las imágenes de los usuarios en sus servidores de almacenamiento en la nube en busca de imágenes CSAM.

En cambio, Apple va en la dirección opuesta al permitir que los usuarios cifren las imágenes almacenadas en iCloud Photos.

El controvertido plan CSAM de Apple está muerto

El plan original de Apple, anunciado en 2021, fue usar un sistema llamado neuralMatch para descubrir imágenes sospechosas de abuso infantil en las bibliotecas de fotos de los usuarios cargadas en iCloud. También planeó emplear revisores humanos para verificar que el material era ilegal. Todas las imágenes de CSAM ubicadas se habrían informado a las autoridades locales pertinentes.

Las intenciones de la empresa eran buenas, pero se enfrentaron a un aluvión de críticas por parte de defensores de la privacidad, grupos de derechos y organizaciones como Electronic Frontier Foundation. Incluso sus propios empleados silenciosamente se unió a la reacción.

Manzana poner el plan en espera el pasado diciembre. Y ahora lo ha dejado por completo.

El fabricante de Mac dio una declaración a cableado que dice, en parte:

“Hemos decidido además no seguir adelante con nuestra herramienta de detección de CSAM propuesta anteriormente para iCloud Photos. Los niños pueden estar protegidos sin que las empresas revisen los datos personales”.

Sobre la base de esta decisión, Apple lanzó Protección de datos avanzada para iCloud El miércoles. Esto trae el cifrado de extremo a extremo a iCloud Photos para que nadie más que el usuario pueda acceder a las imágenes almacenadas allí. Incluso Apple no puede.

La característica, que es viene en iOS 16.2 y el iPad equivalente, también dará a los usuarios la opción de cifrar las copias de seguridad del dispositivo y las notas almacenadas en iCloud, así como muchos otros tipos de datos.

Apple sigue protegiendo a los niños del sexting

El cambio no significa que Apple haya renunciado a luchar contra la explotación infantil. Su declaración a cableado también dice:

“Después de una extensa consulta con expertos para recopilar comentarios sobre las iniciativas de protección infantil que propusimos el año pasado, estamos profundizando nuestra inversión en la característica de seguridad de la comunicación que pusimos a disposición por primera vez en diciembre de 2021”.

Usando un sistema integrado en iOS, los iPhones pueden detectar si un niño recibe o envía fotos sexualmente explícitas a través de la aplicación Mensajes. A continuación, se advierte al usuario. Este proceso ocurre completamente en el teléfono, no en un servidor remoto. Y los mensajes permanecen encriptados.

Campana Killian contribuido a este artículo.

Última publicación de blog

¿Te gustaría poder hacer que ese cable desaparezca? Así es cómo. [Configuraciones]
March 11, 2022

Muchas configuraciones de computadoras casi prístinas se ven afectadas por una cosa bastante fea: un cable de alimentación. Las personas se enorgul...

Los estuches Casetify Sheer Impact traen colores neón geniales al iPhone
March 11, 2022

Los estuches Casetify Sheer Impact traen colores neón geniales al iPhone Excelente protección y opciones de colores brillantes. Fotos: CasetificarS...

'Severance' en Apple TV+ alcanza el puesto número 1 en la serie más reproducida
March 11, 2022

Ruptura en Apple TV+ alcanza el número 1 de series más reproducidas En Ruptura, tienes que aprender a esperar lo inesperado. Foto: Apple TV+Apple T...