Мы и наши партнеры используем файлы cookie для хранения и/или доступа к информации на устройстве. Мы и наши партнеры используем данные для персонализированной рекламы и контента, измерения рекламы и контента, изучения аудитории и разработки продуктов. Примером обрабатываемых данных может быть уникальный идентификатор, хранящийся в файле cookie. Некоторые из наших партнеров могут обрабатывать ваши данные в рамках своих законных деловых интересов, не спрашивая согласия. Чтобы просмотреть цели, в которых, по их мнению, они имеют законный интерес, или возразить против этой обработки данных, используйте ссылку со списком поставщиков ниже. Предоставленное согласие будет использоваться только для обработки данных, поступающих с этого веб-сайта. Если вы хотите изменить свои настройки или отозвать согласие в любое время, ссылка для этого находится в нашей политике конфиденциальности, доступной на нашей домашней странице.
Apple отказывается от спорного плана сканирования фотографий iCloud для CSAM
Apple полностью отказалась от своего ранее объявленного плана по сканированию библиотек iCloud Photos на наличие материалов сексуального насилия над детьми. Компания не будет просматривать изображения пользователей на своих облачных серверах в поисках изображений CSAM.
Вместо этого Apple идет в противоположном направлении, позволяя пользователям шифровать изображения, хранящиеся в iCloud Photos.
Спорный план Apple CSAM мертв
Первоначальный план Apple, анонсировано в 2021 году, заключалась в том, чтобы использовать систему neuroMatch для обнаружения изображений с подозрением на жестокое обращение с детьми в библиотеках фотографий пользователей, загруженных в iCloud. Он также планировал нанять рецензентов для проверки того, что материал был незаконным. О любых обнаруженных изображениях CSAM сообщалось соответствующим местным властям.
Намерения компании были благими, но столкнулись с шквалом критики со стороны защитники конфиденциальности, группы прав и такие организации, как Electronic Frontier Foundation. Даже собственные сотрудники тихонько присоединился к люфту.
Яблоко отложить план в декабре прошлого года. А сейчас совсем забросил.
Производитель Mac дал заявление Проводной что говорит, в частности:
«Мы также решили не продвигать наш ранее предложенный инструмент обнаружения CSAM для iCloud Photos. Дети могут быть защищены без компаний, прочесывающих личные данные».
Опираясь на это решение, Apple запустила Расширенная защита данных для iCloud в среду. Это обеспечивает сквозное шифрование для iCloud Photos, поэтому никто, кроме пользователя, не может получить доступ к изображениям, хранящимся там. Даже Apple не может.
Особенность, которая появится в iOS 16.2 и эквиваленте iPad, также даст пользователям возможность шифровать резервные копии устройств и заметки, хранящиеся в iCloud, а также многие другие типы данных.
Apple по-прежнему защищает детей от секстинга
Это изменение не означает, что Apple отказалась от борьбы с эксплуатацией детей. Его заявление для Проводной также говорит:
«После обширных консультаций с экспертами для сбора отзывов об инициативах по защите детей, которые мы предложили в прошлом году, мы углубляем наши инвестиции в функция безопасности связи который мы впервые сделали доступным в декабре 2021 года».
Используя систему, встроенную в iOS, iPhone может определить, получает или отправляет ли ребенок фотографии сексуального характера через приложение «Сообщения». Затем пользователь получает предупреждение. Этот процесс происходит полностью на телефоне, а не на удаленном сервере. И сообщения остаются зашифрованными.
Киллиан Белл способствовал этой статье.