Apple se snaží zmírnit starosti se skenováním fotografií CSAM pomocí nových FAQ

Apple ve snaze bojovat proti rostoucím obavám zveřejnil nový FAQ ke svému plánu skenování uživatelských fotografií na snímky zneužívání dětí (CSAM).

Dokument si klade za cíl poskytnout „větší srozumitelnost a transparentnost“, řekl Apple poté, co poznamenal, že „mnoho zúčastněné strany včetně organizací na ochranu soukromí a organizací pro bezpečnost dětí vyjádřily svou podporu “ na tah.

Nejčastější dotazy vysvětlují rozdíly mezi skenováním CSAM v iCloudu a novými funkcemi ochrany dětí přicházejícími do Zpráv. Ujišťuje také uživatele, že Apple nebude vyhovovat žádostem vlády o rozšíření funkcí.

Nové FAQ přichází poté, co Apple minulý týden potvrdil, že bude spuštěn nové funkce dětské bezpečnosti které zahrnují skenování materiálu pro sexuální zneužívání dětí (CSAM) v knihovnách iCloud Photos a detekci explicitních fotografií ve Zprávách.

Od tohoto oznámení řada zastánců ochrany osobních údajů - včetně informátora Edwarda Snowdena a nadace Electronic Frontier Foundation (EFF) - se vyslovili proti plánu, který vyjde později v tomto roce.

"I dobře míněná snaha vybudovat takový systém poruší klíčové sliby samotného šifrování posla a otevře dveře širšímu zneužívání," varoval EFF. Apple doufá, že může tyto obavy zmírnit pomocí nové FAQ.

Apple publikuje FAQ o skenování fotografií na iCloudu

"Chceme chránit děti před predátory, kteří k jejich náboru a vykořisťování používají komunikační nástroje, a." omezit šíření materiálu pro sexuální zneužívání dětí (CSAM), “uvádí šestistránkový dokument zveřejněný na webu víkend.

"Od té doby, co jsme tyto funkce oznámili, mnoho zúčastněných stran včetně organizací na ochranu soukromí a bezpečnosti dětí." organizace vyjádřily podporu tomuto novému řešení a některé s ním oslovily otázky.

"Tento dokument slouží k řešení těchto otázek a poskytuje větší srozumitelnost a transparentnost procesu."

Prvním problémem, na který se adresy FAQ obracejí, je rozdíl mezi detekcí CSAM v iCloud Photos a novými nástroji pro bezpečnost komunikace ve Zprávách. "Tyto dvě funkce nejsou stejné," říká Apple.

Vyčištění zmatku

Bezpečnost komunikace ve Zprávách „funguje pouze na obrázcích odeslaných nebo přijatých v aplikaci Zprávy pro dětské účty zřízené v Rodinném sdílení,“ vysvětluje FAQ. "Analyzuje obrázky na zařízení, a tím se nemění záruky soukromí zpráv."

Když je podřízený účet odeslán nebo přijat sexuálně explicitní obrázek, obraz je rozmazaný a dítě bude upozorněno na to, co odesílá. Rovněž jim budou poskytnuty „užitečné zdroje“, říká Apple, a „ujistily se, že je v pořádku, pokud si fotografii nechtějí prohlédnout nebo poslat“.

Dětem bude také sděleno, že aby byli v bezpečí, budou jejich rodiče informováni, pokud se rozhodnou zobrazit nebo poslat sexuálně explicitní obrázek.

Detekce CSAM v iCloud Photos je velmi odlišná. Je navržen tak, aby „udržoval CSAM mimo iCloud Photos, aniž by poskytoval společnosti Apple informace o jakýchkoli jiných fotografiích, než jsou ty, které odpovídají známým obrázkům CSAM“.

"Tato funkce se týká pouze uživatelů, kteří se rozhodli používat iCloud Photos," dodává Apple. „Neexistuje žádný dopad na žádná další data v zařízení“-a nevztahuje se na Zprávy, které nejsou naskenovány na zařízení dospělého.

Bezpečnost komunikace ve Zprávách

Časté dotazy dále řeší různé obavy týkající se obou funkcí. Pokud jde o bezpečnost komunikace ve Zprávách, vysvětluje, že rodiče nebo zákonní zástupci se musí přihlásit k používání této funkce pro dětské účty a že je k dispozici pouze pro děti do 12 let.

Apple nikdy nezjistí, když jsou v aplikaci Zprávy objeveny sexuálně explicitní obrázky, a žádné informace nejsou sdíleny ani hlášeny orgánům činným v trestním řízení. Apple také potvrzuje, že bezpečnost komunikace neporušuje šifrování typu end-to-end ve Zprávách.

Nejčastější dotazy také potvrzují, že rodiče nebudou upozorněni na sexuálně explicitní obsah ve Zprávách, pokud se dítě nerozhodne jej zobrazit nebo sdílet. Pokud jsou varováni, ale rozhodnou se obsah nezobrazovat ani sdílet, nebude odesláno žádné oznámení. A pokud je jim 13-17 let, varování se stále zobrazuje, ale rodiče nejsou upozorněni.

Detekce CSAM v iCloud Photos

Při detekci CSAM společnost Apple potvrzuje, že tato funkce nenaskenuje všechny obrázky uložené v iPhone uživatele - pouze ty, které byly nahrány do iCloud Photos. "A i přesto se Apple dozví pouze o účtech, které ukládají sbírky známých obrázků CSAM, a pouze obrázky, které se shodují se známými CSAM."

Pokud máte zakázané iCloud Photos, tato funkce nefunguje. A skutečné obrázky CSAM se pro srovnání nepoužívají. "Místo skutečných obrázků používá Apple nečitelné hashe, které jsou uloženy v zařízení." Tyto hodnoty hash jsou řetězce čísel, která představují známé obrázky CSAM, ale nelze je číst ani převádět na obrázky CSAM, na nichž jsou založeny. “

"Jednou z důležitých výzev v tomto prostoru je ochrana dětí a zároveň zachování soukromí uživatelů," vysvětluje Apple. "Díky této nové technologii se Apple dozví o známých fotografiích CSAM uložených v iCloud Photos, kde účet ukládá sbírku známých CSAM." Apple se nedozví nic o dalších datech uložených pouze v zařízení. “

O soukromí a zabezpečení

Poslední část nejčastějších dotazů se zabývá obavami o soukromí a zabezpečení, které vznikly od prvního oznámení společnosti Apple. Potvrzuje, že detekce CSAM funguje pouze na CSAM - nemůže hledat nic jiného - a přestože Apple bude CSAM hlásit orgánům činným v trestním řízení, proces není automatizovaný.

"Apple provádí lidskou kontrolu před podáním zprávy NCMEC," píše FAW. "V důsledku toho je systém navržen pouze pro hlášení fotografií, které jsou známé jako CSAM, na iCloud Photos." Ve většině zemí, včetně Spojených států, je prostě vlastnit tyto obrázky zločin. “

Apple také potvrzuje, že „odmítne jakékoli takové požadavky“ od vlád, které se pokoušejí přinutit Apple detekovat cokoli jiného než CSAM. "Čelili jsme požadavkům na vybudování a zavedení vládou nařízených změn, které dříve degradovaly soukromí uživatelů, a tyto požadavky jsme vytrvale odmítli."

"Pojďme si ujasnit," dodává Apple, "tato technologie je omezena na detekci CSAM uloženého v iCloudu a my nepřistoupíme na žádost žádné vlády o jeho rozšíření."

Můžeš přečtěte si úplné FAQ na webových stránkách společnosti Apple Nyní.

Poslední příspěvek na blogu

| Kult Mac
October 21, 2021

Nudí vás punčochy? Laser iPhone to pravděpodobně dokáže opravit. [Nabídky]Pouzdro na nabíječku Juiceboxx je jen jedním z doplňků punčoch, které by ...

6 věcí, které jsme se naučili při tvorbě dokumentu pro iPhone
October 21, 2021

Pokud jste to ještě neslyšeli, tento týden si připomínáme desáté výročí prodeje malého zařízení s názvem iPhone. Na oslavu, Wall Street Journal vyt...

Společnost Apple převezme technologii displeje LG G7 pro iPhone iPhone 2018
October 21, 2021

Společnost Apple převezme technologii displeje LG G7 pro iPhone iPhone 2018Displej MLCD+ telefonu LG G7 ThinQ je jasnější a má přesnější barvy.Foto...