Apple은 금요일에 사용자 사진에서 아동 성적 학대 자료(CSAM)를 스캔하기 시작하는 논란의 여지가 있는 계획을 연기했다고 확인했습니다.
기능은 원래 올해 말 출시 예정. Apple은 이제 변경 사항이 적용되기 전에 "입력을 수집하고 개선하는 데" 시간이 걸릴 것이라고 말하지만 완전히 취소되는 것은 아닙니다.
지난달 발표된 애플의 초기 계획은 아이클라우드 포토에 업로드된 모든 이미지를 스캔해 CSAM 콘텐츠를 감지하는 것이었다. 일치하는 항목을 찾으면 사람이 검토한 후 당국에 보고합니다.
또한 Apple은 성적으로 노골적인 것으로 식별된 콘텐츠를 열거나 공유하려고 시도하기 전에 어린이가 사용하는 기기에 대해 경고하는 기능을 발표했습니다. 그러나 이 계획은 많은 Apple 팬들에게 잘 맞지 않았습니다.
애플, CSAM 계획 연기
사용자, 개인 정보 보호 옹호자, 그리고 심지어 애플 직원들까지도 CSAM 탐지에 대한 우려를 표명했으며 나중에 외부 압력 하에서 다른 콘텐츠를 탐지하도록 확장될 가능성도 있습니다.
Apple은 이제 계획을 개선하는 데 시간이 걸리는 동안 계획이 보류 중이라고 말합니다. 에게 발행된 성명서 컬트 오브 맥 금요일에 읽기:
지난 달에 우리는 포식자로부터 어린이를 보호하기 위한 기능에 대한 계획을 발표했습니다. 그들을 모집하고 착취하고 아동 성적 학대의 확산을 제한하기 위한 커뮤니케이션 도구 재료. 고객, 옹호 단체, 연구원 및 기타 사람들의 피드백을 바탕으로 추가 시간을 갖기로 결정했습니다. 이러한 매우 중요한 아동 안전을 공개하기 전에 의견을 수집하고 개선하기 위해 앞으로 몇 달 동안 특징.
Apple도 업데이트했습니다. 원래 보도 자료 이 문을 포함하는 기능을 발표합니다.
CSAM 스캐닝과의 싸움
이달 초 90개 이상의 조직으로 구성된 그룹 팀 쿡 애플 최고경영자(CEO)에게 공개 서한을 보냈다., CSAM 스캔 계획을 취소할 것을 촉구합니다. 또한 Apple이 유사한 기능을 출시하기 전에 시민 사회 단체 및 취약한 커뮤니티와 논의를 시작할 것을 촉구했습니다.
이에 앞서 Apple은 CSAM 스캐닝과 새로운 어린이 안전 기능에 대해 자세히 설명하는 긴 FAQ를 게시하여 우려를 완화하려고 시도했습니다. 또한 각 기능이 개별적으로 정확히 어떻게 작동하는지에 대한 혼란을 해소했습니다.
그러나 그 문서는 우려를 가라앉히는 데 거의 도움이 되지 않았습니다. 많은 사용자들이 여전히 온라인에서 Apple 기기를 보이콧하겠다고 위협했으며 전문가들은 잠재적인 함정에 대해 계속 경고했습니다.
계획을 연기하기로 한 Apple의 결정은 회사가 이러한 우려를 들었다는 것을 확인시켜줍니다. 그러나 앞으로 CSAM을 위해 사진을 스캔하려는 계획은 아직 죽지 않은 것 같습니다.