Apple прагне вирішити проблеми зі скануванням фотографій CSAM за допомогою нових поширених запитань

Apple опублікувала новий FAQ щодо свого плану сканування фотографій користувачів на предмет зображення жорстокого поводження з дітьми (CSAM), намагаючись подолати зростаючі проблеми.

Документ має на меті забезпечити «більшу ясність та прозорість», - сказала Apple, зазначивши, що «багато зацікавлені сторони, включаючи організації конфіденційності та організації безпеки дітей, висловили свою підтримку » за переїзд.

Поширені запитання пояснюють відмінності між скануванням CSAM в iCloud та новими функціями захисту дітей, які надходять у Повідомлення. Він також запевняє користувачів, що Apple не буде задовольняти урядові запити щодо розширення функцій.

Нові поширені запитання з’явилися після того, як Apple минулого тижня підтвердила, що вони будуть представлені нові функції безпеки дітей які включають сканування матеріалів сексуального насильства над дітьми (CSAM) у бібліотеках iCloud Photos та виявлення явних фотографій у повідомленнях.

З моменту оголошення ряд прихильників конфіденційності - включаючи викривача інформації Едварда Сноудена та Фонд електронних кордонів (EFF) -

виступили проти плану, який з’явиться пізніше цього року.

"Навіть добросовісні зусилля по створенню такої системи порушать ключові обіцянки самого шифрування месенджера і відкриють двері для більш широких зловживань",-попередив EFF. Apple сподівається, що це полегшить ці проблеми за допомогою нового FAQ.

Apple публікує поширені запитання щодо сканування фотографій iCloud

«Ми хочемо захистити дітей від хижаків, які використовують засоби комунікації для вербування та експлуатації їх, і обмежити поширення матеріалів про сексуальне насильство над дітьми (CSAM) »,-йдеться у шестисторінковому документі, опублікованому над вихідні.

«Оскільки ми оголосили про ці функції, багато зацікавлених сторін, включаючи організації конфіденційності та безпеку дітей організації висловили свою підтримку цьому новому рішенню, а деякі звернулися до нього питання.

"Цей документ служить для вирішення цих питань та забезпечення більшої ясності та прозорості процесу".

Перше, що турбує адреси поширених запитань, - це різниця між виявленням CSAM у iCloud Photos та новими засобами безпеки зв’язку в Повідомленнях. "Ці дві функції не однакові", - заявляє Apple.

Усунення плутанини

Безпека зв’язку в Повідомленнях “працює лише на зображеннях, надісланих або отриманих у програмі Повідомлення для дочірніх облікових записів, створених у Family Sharing”, - пояснюється у поширених запитаннях. "Він аналізує зображення на пристрої і не змінює гарантій конфіденційності повідомлень".

Коли дохідний обліковий запис надсилає або отримує сексуальне зображення, зображення розмивається, і дитину попереджають про те, що вони надсилають. Вони також отримають "корисні ресурси", каже Apple, і "запевняють, що це нормально, якщо вони не хочуть переглядати або надсилати фотографію".

Дітям також буде повідомлено, що для забезпечення їхньої безпеки їхні батьки будуть сповіщені, якщо вони вирішать переглянути або надіслати сексуальне зображення.

Виявлення CSAM у iCloud Photos дуже відрізняється. Він розроблений для того, щоб "утримувати CSAM від iCloud Photos без надання інформації Apple про будь -які фотографії, крім тих, що відповідають відомим зображенням CSAM".

"Ця функція впливає лише на користувачів, які вирішили використовувати фотографії iCloud", - додає Apple. "Не впливає на інші дані на пристрої"-і це не стосується Повідомлень, які не скануються на пристрої дорослого.

Безпека зв'язку в повідомленнях

Далі поширені запитання розглядають різні проблеми щодо обох функцій. Щодо безпеки спілкування в Повідомленнях, у ньому пояснюється, що батьки або опікуни повинні дозволити використовувати цю функцію для дитячих облікових записів, і що вона доступна лише для дітей віком до 12 років.

Apple ніколи не дізнається, коли зображення сексуального характеру виявляються в додатку Повідомлення, і жодна інформація не передається правоохоронним органам і не повідомляється про них. Apple також підтверджує, що безпека зв'язку не порушує наскрізне шифрування в Повідомленнях.

Поширені запитання також підтверджують, що батьки не будуть попереджені про вміст сексуального характеру в Повідомленнях, якщо дитина не вирішить переглядати або ділитися ним. Якщо вони отримали попередження, але вирішили не переглядати та не ділитися вмістом, сповіщення не надсилається. І якщо їм 13-17 років, попередження все одно з'являється, але батьки не повідомляються.

Виявлення CSAM у iCloud Photos

При виявленні CSAM Apple підтверджує, що ця функція не сканує всі зображення, збережені на iPhone користувача - лише ті, що завантажені в iCloud Photos. "І навіть тоді Apple дізнається лише про облікові записи, які зберігають колекції відомих зображень CSAM, і лише зображення, що відповідають відомим CSAM".

Якщо у вас вимкнено iCloud Photos, ця функція не працює. А фактичні образи CSAM не використовуються для порівняння. «Замість реальних зображень Apple використовує нечитабельні хеші, які зберігаються на пристрої. Ці хеші - це рядки чисел, які представляють відомі образи CSAM, але неможливо прочитати або перетворити ці хеші в образи CSAM, на основі яких ”.

"Однією із значних проблем у цьому просторі є захист дітей, а також збереження конфіденційності користувачів", - пояснює Apple. «За допомогою цієї нової технології Apple дізнається про відомі фотографії CSAM, які зберігаються в iCloud Photos, де обліковий запис зберігає колекцію відомих CSAM. Apple нічого не дізнається про інші дані, що зберігаються виключно на пристрої ».

Про конфіденційність та безпеку

Останній розділ поширених запитань стосується проблем конфіденційності та безпеки, висловлених після першого оголошення Apple. Він підтверджує, що виявлення CSAM працює лише на CSAM - воно не може шукати нічого іншого - і хоча Apple повідомляє про CSAM правоохоронним органам, цей процес не автоматизований.

"Apple проводить огляд людей перед тим, як скласти звіт до NCMEC", - йдеться у FAW. “В результаті система розроблена лише для того, щоб повідомляти про фотографії, відомі CSAM у iCloud Photos. У більшості країн, включаючи США, просто володіння цими зображеннями є злочином ».

Apple також підтверджує, що "відмовиться від будь -яких таких вимог" урядів, які намагаються змусити Apple виявити що -небудь, крім CSAM. "Ми раніше стикалися з вимогами розробити та впровадити санкціоновані урядом зміни, які погіршують конфіденційність користувачів, і рішуче відмовлялися від цих вимог".

«Давайте будемо зрозумілими, - додає Apple, - ця технологія обмежується виявленням CSAM, що зберігається в iCloud, і ми не погодимось на будь -який урядовий запит на його розширення».

Ти можеш прочитайте повний FAQ на веб -сайті Apple зараз.

Остання публікація в блозі

| Культ Mac
September 10, 2021

WSJ: До жовтня буде планшет Amazon, який би міг конкурувати з iPadДжерела для Wall Street Journal стверджують, що Amazon збирається випустити свій ...

| Культ Mac
September 10, 2021

Джиммі Кіммель перетворює загальнонаціональний текст Трампа на голлівудський блокбастерТексти Трампа викликають загальнонаціональний хаос у веселом...

| Культ Mac
September 10, 2021

Новий iPhone не буде в руках людей до 24 червня, але існуючі власники iDevice, які з нетерпінням чекають неймовірних функцій iOS 4 не буде довго че...