Společnost Apple v pátek potvrdila, že odložila kontroverzní plány na zahájení skenování uživatelských fotografií na materiál pro sexuální zneužívání dětí (CSAM).
Funkce byla původně měl být vydán později v tomto roce. Apple nyní říká, že než budou provedeny změny, bude nějakou dobu trvat „shromáždit vstup a provést vylepšení“ - ale zdaleka nejsou zcela zrušeny.
Počáteční plán společnosti Apple, který byl oznámen minulý měsíc, byl skenovat všechny obrázky nahrané na iCloud Photos a detekovat obsah CSAM. Když najde shodu, bude zkontrolován člověkem, než bude nahlášen úřadům.
Apple také oznámil funkce pro zařízení používaná dětmi, která by je varovala před otevřením nebo pokusem o sdílení obsahu, který byl identifikován jako sexuálně explicitní. Plány ale nesedly mnoha fanouškům Applu.
Apple zdržuje plán CSAM
Uživatelé, zastánci soukromí, a dokonce i vlastní zaměstnanci společnosti Apple vyjádřili své obavy ohledně detekce CSAM - a potenciálu, aby byl rozšířen o detekci dalšího obsahu později pod vnějším tlakem.
Apple nyní říká, že plán je pozastaven, zatímco jeho vylepšení vyžaduje čas. Prohlášení vydané pro Kult Mac v pátek čtěte:
Minulý měsíc jsme oznámili plány na funkce určené k ochraně dětí před predátory, kteří je používají komunikační nástroje pro jejich nábor a využívání a omezení šíření sexuálního zneužívání dětí Materiál. Na základě zpětné vazby od zákazníků, advokačních skupin, výzkumných pracovníků a dalších jsme se rozhodli věnovat více času v nadcházejících měsících shromáždit podněty a provést vylepšení před vydáním těchto kriticky důležitých bezpečnostních opatření pro děti funkce.
Apple také aktualizoval svůj původní tisková zpráva oznámením funkce, která bude obsahovat toto prohlášení.
Boj proti skenování CSAM
Začátkem tohoto měsíce skupina více než 90 organizací napsal otevřený dopis generálnímu řediteli Apple Timu Cookovia naléhal na něj, aby zrušil plán skenování CSAM. Rovněž vyzvala společnost Apple, aby zahájila diskuse se skupinami občanské společnosti a zranitelnými komunitami, než zavede podobné funkce.
Předtím se Apple pokoušel zmírnit obavy zveřejněním zdlouhavých častých dotazů, které podrobněji popisovaly skenování CSAM a jeho nové funkce ochrany dětí. Rovněž vyjasnilo zmatek ohledně toho, jak přesně by každá funkce fungovala jednotlivě.
Tento dokument však jen málo potlačil obavy. Velké množství uživatelů stále vyhrožovalo bojkotováním zařízení Apple online, zatímco experti nadále vyjadřovali svá varování před potenciálními nástrahami.
Rozhodnutí společnosti Apple odložit plán potvrzuje, že společnost tyto obavy vyslyšela. Zdá se však, že jeho plán skenování fotografií pro CSAM v budoucnosti zdaleka není mrtvý.