Apple се стреми да облекчи проблемите със сканирането на снимки от CSAM с нови често задавани въпроси

Apple публикува нов често задаван въпрос относно плана си за сканиране на потребителски снимки за изображения на насилие над деца (CSAM) в опит да се справи с нарастващите притеснения.

Документът има за цел да осигури „по -голяма яснота и прозрачност“, заяви Apple, след като отбеляза, че „много заинтересованите страни, включително организациите за защита на личните данни и организациите за безопасност на децата, изразиха своята подкрепа “ за преместването.

Често задаваните въпроси обясняват разликите между CSAM сканирането в iCloud и новите функции за защита на децата, които идват в Messages. Той също така уверява потребителите, че Apple няма да изпълнява исканията на правителството за разширяване на функциите.

Новият FAQ идва след като Apple миналата седмица потвърди, че ще се появи нови функции за безопасност на децата които включват сканиране за материали за сексуална злоупотреба с деца (CSAM) в библиотеките на iCloud Photos и откриване на явни снимки в Съобщения.

След съобщението редица защитници на поверителността - включително сигнализиращият Едуард Сноудън и Фондацията за електронни граници (EFF) -

се обявиха против плана, който се появява по -късно тази година.

„Дори добронамерените усилия за изграждане на такава система ще нарушат ключовите обещания за самото шифроване на пратеника и ще отворят вратата за по-широки злоупотреби“, предупреди EFF. Apple се надява, че може да облекчи тези притеснения с нов FAQ.

Apple публикува често задавани въпроси относно сканирането на iCloud Photos

„Искаме да защитим децата от хищници, които използват комуникационни инструменти, за да ги вербуват и експлоатират, и ограничаване на разпространението на материали за сексуална злоупотреба с деца (CSAM) “, гласи документът от шест страници, публикуван в уикенд.

„Откакто обявихме тези функции, много заинтересовани страни, включително организации за поверителност и безопасност на децата организациите изразиха подкрепата си за това ново решение, а някои са се свързали с въпроси.

„Този ​​документ служи за решаване на тези въпроси и за осигуряване на по -голяма яснота и прозрачност в процеса.“

Първото притеснение на адресите с често задавани въпроси е разликата между откриването на CSAM в iCloud Photos и новите инструменти за безопасност на комуникацията в Messages. „Двете функции не са еднакви“, заявява Apple.

Изчистване на объркването

Безопасността на комуникацията в Messages „работи само върху изображения, изпратени или получени в приложението Messages за детски акаунти, създадени в Family Sharing“, обяснява ЧЗВ. „Той анализира изображенията на устройството и така не променя гаранциите за поверителност на съобщенията.“

Когато сексуално явно изображение се изпраща или получава от детски акаунт, изображението се замъглява и детето ще бъде предупредено за това, което изпраща. Те също така ще бъдат снабдени с „полезни ресурси“, казва Apple и „уверени, че е добре, ако не искат да видят или изпратят снимката“.

Децата също ще бъдат уведомени, че за да бъдат сигурни, родителите им ще бъдат уведомени, ако решат да видят или изпратят сексуално явно изображение.

Откриването на CSAM в iCloud Photos е много различно. Той е проектиран да „държи CSAM извън iCloud Photos, без да предоставя информация на Apple за снимки, различни от тези, които съответстват на известни CSAM изображения“.

„Тази функция засяга само потребителите, избрали да използват iCloud Photos“, добавя Apple. „Няма въздействие върху други данни на устройството“-и не се отнася за съобщения, които не се сканират на устройството на възрастен.

Безопасност на комуникацията в Messages

Често задаваните въпроси продължават да адресират различни притеснения относно двете функции. Що се отнася до безопасността на комуникацията в Messages, той обяснява, че родителите или настойниците трябва да се включат, за да използват функцията за детски акаунти, и че тя е достъпна само за деца на 12 години или по-млади.

Apple никога не открива, когато в приложението Messages са открити сексуално откровени изображения, и не се споделя или съобщава информация на правоохранителните органи, се казва в него. Apple също потвърждава, че комуникационната безопасност не нарушава криптирането от край до край в Messages.

Често задаваните въпроси също потвърждават, че родителите няма да бъдат предупредени за сексуално откровено съдържание в Съобщения, освен ако детето не реши да го прегледа или сподели. Ако те са предупредени, но решат да не преглеждат или споделят съдържанието, не се изпраща известие. И ако са на възраст 13-17, все още се появява предупреждение, но родителите не са уведомени.

Откриване на CSAM в iCloud Photos

При откриване на CSAM Apple потвърждава, че функцията не сканира всички изображения, съхранявани на iPhone на потребителя - само тези, качени в iCloud Photos. „И дори тогава Apple научава само за акаунти, които съхраняват колекции от известни CSAM изображения, и само изображенията, които съответстват на известните CSAM.“

Ако сте деактивирали iCloud Photos, функцията не работи. А действителните изображения на CSAM не се използват за сравнение. „Вместо реални изображения, Apple използва нечетливи хешове, които се съхраняват на устройството. Тези хешове са низове от числа, които представляват известни CSAM изображения, но не е възможно да се четат или преобразуват тези хешове в изображенията на CSAM, на които се основават. "

„Едно от значимите предизвикателства в това пространство е защитата на децата, като същевременно се запазва поверителността на потребителите“, обяснява Apple. „С тази нова технология Apple ще научи за известни CSAM снимки, съхранявани в iCloud Photos, където акаунтът съхранява колекция от известни CSAM. Apple няма да научи нищо за други данни, съхранявани единствено на устройството. "

За поверителността и сигурността

Последният раздел на често задаваните въпроси разглежда проблемите, свързани с поверителността и сигурността, повдигнати след първоначалното съобщение на Apple. Той потвърждава, че откриването на CSAM работи само на CSAM - не може да търси нищо друго - и въпреки че Apple ще докладва CSAM на правоприлагащите органи, процесът не е автоматизиран.

„Apple провежда човешки преглед, преди да направи доклад пред NCMEC“, пише FAW. „В резултат на това системата е предназначена само за отчитане на снимки, които са известни като CSAM в iCloud Photos. В повечето страни, включително САЩ, просто притежаването на тези изображения е престъпление. "

Apple също потвърждава, че ще „откаже всякакви подобни искания“ от правителствата, които се опитват да принудят Apple да открие нещо различно от CSAM. „Преди сме се сблъсквали с искания за изграждане и внедряване на мандатни от правителството промени, които влошават поверителността на потребителите, и твърдо отказвахме тези изисквания.“

„Нека бъдем ясни“, добавя Apple, „тази технология е ограничена до откриване на CSAM, съхраняван в iCloud, и ние няма да се съгласим с искането на правителството да я разшири.“

Можеш прочетете пълните често задавани въпроси на уебсайта на Apple сега.

Последна публикация в блога

| Култът към Mac
August 20, 2021

Оферта с ограничено време: 92% отстъпка от допълнителното зареждане на вашия пакет Mac [Сделки]Този пакет от 9 приложения ще разшири и разтегне фун...

Новини на Apple, анализ и мнение, плюс общи технически новини
August 20, 2021

Когато Apple Music дебютира, една от най -големите причини да премине от конкурентни стрийминг услуги беше за семейния си план от 15 долара. Но не ...

| Култът към Mac
August 20, 2021

Интеграцията на Smartplug с Hue не замества Siri [Рецензии]Умният щепсел на Zuli и неговото приложение имат някои готини функции, но не могат да на...