A Apple pretende aliviar as preocupações com a digitalização de fotos CSAM com novas perguntas frequentes

A Apple publicou um novo FAQ sobre seu plano de escanear fotos de usuários em busca de imagens de abuso infantil (CSAM) em um esforço para combater as crescentes preocupações.

O documento visa fornecer “mais clareza e transparência”, disse a Apple, após observar que “muitos partes interessadas, incluindo organizações de privacidade e organizações de segurança infantil, expressaram seu apoio ” para a mudança.

O FAQ explica as diferenças entre a varredura de CSAM no iCloud e os novos recursos de proteção infantil que vêm para o Mensagens. Ele também garante aos usuários que a Apple não atenderá aos pedidos do governo para expandir os recursos.

O novo FAQ vem depois que a Apple confirmou na semana passada que vai ser lançado novos recursos de segurança infantil que incluem a verificação de material de abuso sexual infantil (CSAM) nas bibliotecas de fotos do iCloud e a detecção de fotos explícitas nas mensagens.

Desde o anúncio, vários defensores da privacidade - incluindo o denunciante Edward Snowden e a Electronic Frontier Foundation (EFF) -

falaram contra o plano, que será lançado ainda este ano.

“Mesmo um esforço bem-intencionado para construir tal sistema quebrará as promessas fundamentais da criptografia do próprio mensageiro e abrirá a porta para abusos mais amplos”, alertou a EFF. A Apple espera aliviar essas preocupações com um novo FAQ.

Apple publica FAQ sobre digitalização de fotos iCloud

“Queremos proteger as crianças de predadores que usam ferramentas de comunicação para recrutá-los e explorá-los, e limitar a disseminação de Material de Abuso Sexual Infantil (CSAM) ”, diz o documento de seis páginas publicado no final de semana.

“Desde que anunciamos esses recursos, muitas partes interessadas, incluindo organizações de privacidade e segurança infantil organizações expressaram seu apoio a esta nova solução, e algumas entraram em contato com perguntas.

“Este documento serve para abordar essas questões e fornecer mais clareza e transparência no processo.”

A primeira preocupação abordada pelo FAQ é a diferença entre a detecção de CSAM no iCloud Photos e as novas ferramentas de segurança de comunicação em Mensagens. “Os dois recursos não são iguais”, afirma a Apple.

Esclarecendo a confusão

A segurança de comunicação em Mensagens “funciona apenas em imagens enviadas ou recebidas no aplicativo Mensagens para contas de crianças configuradas no Compartilhamento de Família”, explica o FAQ. “Ele analisa as imagens no dispositivo e, portanto, não altera as garantias de privacidade das Mensagens.”

Quando uma imagem sexualmente explícita é enviada ou recebida por uma conta de criança, a imagem fica borrada e a criança será avisada sobre o que está enviando. Eles também receberão “recursos úteis”, diz a Apple, e “assegurados de que não há problema se não quiserem ver ou enviar a foto”.

As crianças também serão informadas de que, para garantir que estejam seguras, seus pais serão notificados se decidirem ver ou enviar uma imagem sexualmente explícita.

A detecção de CSAM no iCloud Photos é muito diferente. Ele foi projetado para “manter o CSAM fora do iCloud Photos sem fornecer informações à Apple sobre quaisquer fotos além daquelas que correspondem às imagens CSAM conhecidas”.

“Esse recurso afeta apenas os usuários que optaram por usar o iCloud Photos”, acrescenta a Apple. “Não há impacto em quaisquer outros dados no dispositivo” - e não se aplica a Mensagens, que não são verificadas no dispositivo de um adulto.

Segurança de comunicação em mensagens

O FAQ prossegue abordando várias questões sobre os dois recursos. Sobre a segurança da comunicação em Mensagens, ele explica que os pais ou responsáveis ​​devem optar por usar o recurso para contas de crianças, e que ele está disponível apenas para crianças de 12 anos ou menos.

A Apple nunca descobre quando imagens sexualmente explícitas são descobertas no aplicativo Mensagens, e nenhuma informação é compartilhada ou relatada para as agências de segurança, diz ele. A Apple também confirma que a segurança da comunicação não quebra a criptografia de ponta a ponta em Mensagens.

As Perguntas frequentes também confirmam que os pais não serão avisados ​​sobre conteúdo sexualmente explícito nas Mensagens, a menos que uma criança opte por visualizá-lo ou compartilhá-lo. Se eles forem avisados, mas escolherem não visualizar ou compartilhar o conteúdo, nenhuma notificação será enviada. E se eles tiverem entre 13 e 17 anos, um aviso ainda aparecerá, mas os pais não serão notificados.

Detecção de CSAM em fotos do iCloud

Na detecção de CSAM, a Apple confirma que o recurso não verifica todas as imagens armazenadas no iPhone de um usuário - apenas aquelas carregadas no iCloud Photos. “E, mesmo assim, a Apple só aprende sobre contas que estão armazenando coleções de imagens CSAM conhecidas e apenas as imagens que correspondem a CSAM conhecidas.”

Se você desativou o Fotos do iCloud, o recurso não funciona. E as imagens reais do CSAM não são usadas para comparação. “Em vez de imagens reais, a Apple usa hashes ilegíveis que são armazenados no dispositivo. Esses hashes são sequências de números que representam imagens CSAM conhecidas, mas não é possível ler ou converter esses hashes em imagens CSAM baseadas em. ”

“Um dos desafios significativos neste espaço é proteger as crianças e, ao mesmo tempo, preservar a privacidade dos usuários”, explica Apple. “Com esta nova tecnologia, a Apple aprenderá sobre as fotos CSAM conhecidas sendo armazenadas no iCloud Photos, onde a conta está armazenando uma coleção de CSAM conhecidas. A Apple não aprenderá nada sobre outros dados armazenados apenas no dispositivo. ”

Sobre privacidade e segurança

A seção final do FAQ aborda as questões de privacidade e segurança levantadas desde o anúncio inicial da Apple. Ele confirma que a detecção de CSAM funciona apenas no CSAM - não pode procurar por mais nada - e, embora a Apple denuncie o CSAM às autoridades, o processo não é automatizado.

“A Apple conduz uma revisão humana antes de fazer um relatório ao NCMEC”, diz o FAW. “Como resultado, o sistema é projetado apenas para relatar fotos que são CSAM conhecidas no iCloud Photos. Na maioria dos países, incluindo os Estados Unidos, simplesmente possuir essas imagens é um crime ”.

A Apple também confirma que irá “recusar tais demandas” de governos que tentem forçar a Apple a detectar qualquer coisa que não seja o CSAM. “Já enfrentamos demandas para construir e implantar mudanças impostas pelo governo que degradam a privacidade dos usuários antes, e temos recusado firmemente essas demandas.”

“Sejamos claros”, acrescenta a Apple, “esta tecnologia se limita a detectar CSAM armazenados no iCloud e não atenderemos a nenhum pedido do governo para expandi-la”.

Você pode leia o FAQ completo no site da Apple agora.

Última postagem do blog

| Culto de Mac
August 21, 2021

Wacom anuncia uma caneta mini de bambu de 1,85 "super fofaEu amo minha caneta Wacom Bamboo; é de longe a melhor caneta que já tive para o iPad. E e...

| Culto de Mac
August 21, 2021

Apple interessada em adquirir a empresa de mapas sociais Waze [boato]Arquivo em: Rampant Speculation. O Apple Maps é muito ruim em comparação com o...

| Culto de Mac
August 19, 2021

Os wearables dispararam no segundo trimestre de 2015, com o Apple Watch se projetando para o topoNem todo mundo que comprou o Apple Watch o está us...