Apple відкладає план сканування фотографій користувачів на предмет матеріалів для жорстокого поводження з дітьми (CSAM)

Apple у п'ятницю підтвердила, що відклала спірні плани розпочати сканування фотографій користувачів на предмет сексуального насильства над дітьми (CSAM).

Особливістю була спочатку планувалося випустити пізніше цього року. Тепер Apple стверджує, що перш ніж внести зміни, знадобиться час, щоб «зібрати вхідні дані та внести вдосконалення», але вони ще не зовсім скасовані.

Початковий план Apple, який був оголошений минулого місяця, полягав у скануванні всіх зображень, завантажених у iCloud Photos, для виявлення вмісту CSAM. Коли він знаходив відповідність, його перевіряла б людина, перш ніж повідомити про це владі.

Apple також оголосила про функції для пристроїв, які використовуються дітьми, які б попереджали їх перед відкриттям або спробою поділитися вмістом, який був ідентифікований як сексуальний. Але плани не сподобалися багатьом шанувальникам Apple.

Apple затримує план CSAM

Користувачі, прихильники конфіденційності, і навіть співробітники Apple висловили свою стурбованість щодо виявлення CSAM - і можливості його розширення для виявлення іншого вмісту пізніше під тиском ззовні.

Тепер Apple заявляє, що план призупинений, а на його вдосконалення потрібен час. Заява, видана на адресу Культ Mac у п’ятницю прочитав:

Минулого місяця ми оголосили про плани щодо функцій, призначених для захисту дітей від хижаків, які їх використовують засоби комунікації для їх вербування та використання та обмеження поширення сексуального насильства над дітьми Матеріал. На основі відгуків клієнтів, адвокатських груп, дослідників та інших, ми вирішили приділити додатковий час найближчі місяці для збору інформації та вдосконалення, перш ніж випустити цю надзвичайно важливу безпеку дітей особливості.

Apple також оновила свою версію оригінальний прес -реліз оголошуючи про можливість включення цієї заяви.

Боротьба зі скануванням CSAM

На початку цього місяця група з більш ніж 90 організацій написав відкритий лист генеральному директору Apple Тіму Куку, закликаючи його скасувати план сканування CSAM. Він також закликав Apple почати обговорення з групами громадянського суспільства та вразливими громадами, перш ніж випустити подібні функції.

До цього Apple намагалася полегшити проблеми, опублікувавши довгий FAQ, де більш детально описано сканування CSAM та його нові функції безпеки дітей. Це також усувало плутанину щодо того, як саме кожна функція буде працювати окремо.

Однак цей документ мало що придушив побоювання. Велика кількість користувачів все ще погрожує бойкотувати пристрої Apple в Інтернеті, тоді як експерти продовжують озвучувати свої попередження щодо потенційних підводних каменів.

Рішення Apple відкласти цей план підтверджує, що компанія почула ці побоювання. Схоже, однак, що його план сканування фотографій для CSAM у майбутньому далекий від мертвого.

Остання публікація в блозі

Отримайте відремонтований MacBook Air із футляром менш ніж за 250 доларів США
April 07, 2023

Ми та наші партнери використовуємо файли cookie для зберігання та/або доступу до інформації на пристрої. Ми та наші партнери використовуємо дані дл...

| Культ Mac
June 02, 2023

Ми та наші партнери використовуємо файли cookie для зберігання та/або доступу до інформації на пристрої. Ми та наші партнери використовуємо дані дл...

Святкування радості володіння 2 Mac [Налаштування]
April 07, 2023

Чи два комп’ютери Mac краще одного комп’ютера? Думки людей розходяться. Те, що для однієї людини є надмірним, для іншої може бути цілком розумним в...