Apple busca aliviar las preocupaciones sobre el escaneo de fotos CSAM con nuevas preguntas frecuentes

Apple ha publicado una nueva sección de preguntas frecuentes sobre su plan para escanear fotos de usuarios en busca de imágenes de abuso infantil (CSAM) en un esfuerzo por combatir las crecientes preocupaciones.

El documento tiene como objetivo proporcionar "más claridad y transparencia", dijo Apple, después de señalar que "muchos las partes interesadas, incluidas las organizaciones de privacidad y las organizaciones de seguridad infantil, han expresado su apoyo " para la mudanza.

Las preguntas frecuentes explican las diferencias entre el escaneo CSAM en iCloud y las nuevas funciones de protección infantil que vienen a Messages. También asegura a los usuarios que Apple no aceptará solicitudes gubernamentales para expandir las funciones.

Las nuevas preguntas frecuentes se producen después de que Apple confirmara la semana pasada que se lanzará nuevas características de seguridad para niños que incluyen el escaneo de material de abuso sexual infantil (CSAM) en las bibliotecas de fotos de iCloud y la detección de fotos explícitas en Mensajes.

Desde el anuncio, varios defensores de la privacidad, incluido el denunciante Edward Snowden y la Electronic Frontier Foundation (EFF), han hablado en contra del plan, que se lanzará a finales de este año.

"Incluso un esfuerzo bien intencionado para construir un sistema de este tipo romperá las promesas clave del cifrado del mensajero y abrirá la puerta a abusos más amplios", advirtió la EFF. Apple espera poder aliviar esas preocupaciones con una nueva sección de preguntas frecuentes.

Apple publica preguntas frecuentes sobre el escaneo de fotos de iCloud

“Queremos proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión del material sobre abuso sexual infantil (MASI) ”, se lee en el documento de seis páginas publicado en la fin de semana.

“Desde que anunciamos estas funciones, muchas partes interesadas, incluidas organizaciones de privacidad y seguridad infantil organizaciones han expresado su apoyo a esta nueva solución, y algunas se han comunicado con preguntas.

“Este documento sirve para abordar estas preguntas y brindar más claridad y transparencia en el proceso”.

La primera preocupación de las preguntas frecuentes es la diferencia entre la detección de CSAM en iCloud Photos y las nuevas herramientas de seguridad de comunicación en Mensajes. “Las dos funciones no son iguales”, afirma Apple.

Aclarando la confusión

La seguridad de la comunicación en Mensajes "solo funciona con imágenes enviadas o recibidas en la aplicación Mensajes para cuentas de niños configuradas en Compartir en familia", explica la sección de preguntas frecuentes. "Analiza las imágenes en el dispositivo, por lo que no cambia las garantías de privacidad de los mensajes".

Cuando una cuenta infantil envía o recibe una imagen sexualmente explícita, la imagen se ve borrosa y se le advertirá al niño sobre lo que está enviando. También se les proporcionará "recursos útiles", dice Apple, y "se les asegurará que está bien si no quieren ver o enviar la foto".

También se les dirá a los niños que, para garantizar que estén seguros, se notificará a sus padres si eligen ver o enviar una imagen sexualmente explícita.

La detección de CSAM en iCloud Photos es muy diferente. Está diseñado para "mantener CSAM fuera de iCloud Photos sin proporcionar información a Apple sobre cualquier foto que no sea la que coincida con imágenes CSAM conocidas".

"Esta función solo afecta a los usuarios que han optado por utilizar Fotos de iCloud", añade Apple. "No hay impacto en ningún otro dato del dispositivo", y no se aplica a los Mensajes, que no se escanean en el dispositivo de un adulto.

Seguridad de la comunicación en Mensajes

Las preguntas frecuentes continúan abordando diversas inquietudes acerca de ambas funciones. Sobre la seguridad de la comunicación en Mensajes, explica que los padres o tutores deben optar por utilizar la función para cuentas de niños y que está disponible solo para niños de 12 años o menos.

Apple nunca se entera cuando se descubren imágenes sexualmente explícitas en la aplicación Mensajes, y no se comparte ni se informa a las agencias de aplicación de la ley. Apple también confirma que la seguridad de las comunicaciones no rompe el cifrado de extremo a extremo en Mensajes.

Las preguntas frecuentes también confirman que no se advertirá a los padres sobre el contenido sexualmente explícito en Mensajes a menos que un niño elija verlo o compartirlo. Si se les advierte, pero eligen no ver o compartir el contenido, no se envía ninguna notificación. Y si tienen entre 13 y 17 años, todavía aparece una advertencia, pero los padres no son notificados.

Detección de CSAM en Fotos de iCloud

En la detección de CSAM, Apple confirma que la función no escanea todas las imágenes almacenadas en el iPhone de un usuario, solo las cargadas en Fotos de iCloud. "E incluso entonces, Apple solo aprende sobre las cuentas que almacenan colecciones de imágenes CSAM conocidas, y solo las imágenes que coinciden con CSAM conocidas".

Si tiene Fotos de iCloud deshabilitadas, la función no funciona. Y las imágenes CSAM reales no se utilizan para comparar. “En lugar de imágenes reales, Apple usa hashes ilegibles que se almacenan en el dispositivo. Estos hash son cadenas de números que representan imágenes CSAM conocidas, pero no es posible leer o convertir esos hash en las imágenes CSAM en las que se basan ".

“Uno de los desafíos importantes en este espacio es proteger a los niños y al mismo tiempo preservar la privacidad de los usuarios”, explica Apple. “Con esta nueva tecnología, Apple aprenderá acerca de las fotos CSAM conocidas que se almacenan en Fotos de iCloud, donde la cuenta almacena una colección de CSAM conocidas. Apple no aprenderá nada sobre otros datos almacenados únicamente en el dispositivo ".

Sobre privacidad y seguridad

La sección final de las preguntas frecuentes aborda las preocupaciones de privacidad y seguridad planteadas desde el anuncio inicial de Apple. Confirma que la detección de CSAM funciona solo en CSAM, no puede buscar nada más, y aunque Apple informará CSAM a las fuerzas del orden, el proceso no está automatizado.

"Apple realiza una revisión humana antes de presentar un informe al NCMEC", dice FAW. “Como resultado, el sistema solo está diseñado para reportar fotos que son CSAM conocidas en Fotos de iCloud. En la mayoría de los países, incluido Estados Unidos, el simple hecho de poseer estas imágenes es un delito ".

Apple también confirma que "rechazará cualquier demanda de este tipo" de los gobiernos que intenten obligar a Apple a detectar cualquier otra cosa que no sea CSAM. "Hemos enfrentado demandas para construir e implementar cambios obligatorios por el gobierno que degradan la privacidad de los usuarios antes, y hemos rechazado firmemente esas demandas".

"Seamos claros", agrega Apple, "esta tecnología se limita a detectar CSAM almacenado en iCloud y no accederemos a la solicitud de ningún gobierno para expandirla".

Usted puede lea las preguntas frecuentes completas en el sitio web de Apple ahora.

Última publicación de blog

Cómo personalizar la pantalla de inicio del iPhone con iconos personalizados en iOS 14
October 21, 2021

Ya no es necesario hacer jailbreak a tu iPhone para revisar completamente la apariencia de su pantalla de inicio. Todo lo que necesita es la aplica...

Mientras Apple adelgaza, las PC con Windows engordan en CES 2017
October 21, 2021

Mientras Apple adelgaza, las PC con Windows engordan en CES 2017¿Necesitas puertos adicionales? Diviértete cargando con esta bestia.Foto: Acer Appl...

Obtenga una muestra inicial de iOS 15 y macOS Monterey con nuevos fondos de pantalla
October 21, 2021

Obtenga una muestra inicial de iOS 15 y macOS Monterey con nuevos fondos de pantallaSolo hay uno para macOS, pero es una maravilla.Foto: AppleTodos...