Apple откладывает план сканирования фотографий пользователей на предмет жестокого обращения с детьми (CSAM)

В пятницу Apple подтвердила, что отложила вызывающие споры планы начать сканирование фотографий пользователей на предмет материалов о сексуальном насилии над детьми (CSAM).

Особенность была изначально планировалось выпустить позже в этом году. Apple теперь заявляет, что потребуется время, чтобы «собрать информацию и внести улучшения», прежде чем изменения будут внесены, но они еще далеко не отменены полностью.

Первоначальный план Apple, о котором было объявлено в прошлом месяце, заключался в сканировании всех изображений, загруженных в iCloud Photos, для обнаружения содержимого CSAM. Когда он обнаруживает совпадение, его проверяет человек, прежде чем сообщить властям.

Apple также анонсировала функции для устройств, используемых детьми, которые будут предупреждать их, прежде чем они откроют или попытаются поделиться контентом, который был идентифицирован как откровенно сексуальный. Но планы не понравились многим поклонникам Apple.

Apple откладывает план CSAM

Пользователи, защитники конфиденциальности

, а также даже собственные сотрудники Apple выразили обеспокоенность по поводу обнаружения CSAM - и возможности его расширения для обнаружения другого контента позже под давлением извне.

Apple заявляет, что реализация этого плана приостановлена, пока требуется время, чтобы его улучшить. Заявление, выданное Культ Mac в пятницу прочтите:

В прошлом месяце мы объявили о планах по созданию функций, призванных помочь защитить детей от хищников, которые используют средства коммуникации для их вербовки и эксплуатации, а также ограничения распространения сексуального насилия над детьми Материал. Основываясь на отзывах клиентов, правозащитных групп, исследователей и других лиц, мы решили уделить дополнительное время ближайшие месяцы для сбора информации и внесения улучшений, прежде чем выпускать эти критически важные вопросы безопасности детей Особенности.

Apple также обновила свой оригинальный пресс-релиз объявление функции, чтобы включить это заявление.

Борьба со сканированием CSAM

Ранее в этом месяце группа из более чем 90 организаций написал открытое письмо генеральному директору Apple Тиму Куку, убеждая его отменить план сканирования CSAM. Он также призвал Apple вступить в обсуждения с группами гражданского общества и уязвимыми сообществами, прежде чем внедрять аналогичные функции.

До этого Apple пыталась развеять опасения, опубликовав обширный FAQ, в котором более подробно описывалось сканирование CSAM и его новые функции безопасности для детей. Это также устранило путаницу в отношении того, как именно каждая функция будет работать индивидуально.

Однако этот документ мало помог развеять опасения. Большое количество пользователей по-прежнему угрожали бойкотировать устройства Apple в Интернете, в то время как эксперты продолжали озвучивать свои предупреждения о потенциальных ловушках.

Решение Apple отложить выполнение плана подтверждает, что компания слышала эти опасения. Однако кажется, что его план сканирования фотографий для CSAM в будущем далек от мертвых.

Последнее сообщение в блоге

| Культ Mac
August 21, 2021

Что Apple может сделать с WWDC? [Мнение]С 2008 года билеты на WWDC раскупаются все быстрее и быстрее. В 2009 году билеты на WWDC были раскуплены за...

| Культ Mac
August 21, 2021

Galaxy S9 vs. iPhone: Samsung превзошла Apple лучше всех?Есть ли у Galaxy S9 все необходимое, чтобы противостоять iPhone X?Фото: SamsungСерия Samsu...

| Культ Mac
August 21, 2021

Samsung страдает от "медленного спроса" на iPhone XIPhone X не был продан в ожидаемых количествах.Фотография: Ste Smith / Cult of MacSamsung присое...