Apple zpožďuje plán skenování uživatelských fotografií na materiál zneužívající děti (CSAM)

Společnost Apple v pátek potvrdila, že odložila kontroverzní plány na zahájení skenování uživatelských fotografií na materiál pro sexuální zneužívání dětí (CSAM).

Funkce byla původně měl být vydán později v tomto roce. Apple nyní říká, že než budou provedeny změny, bude nějakou dobu trvat „shromáždit vstup a provést vylepšení“ - ale zdaleka nejsou zcela zrušeny.

Počáteční plán společnosti Apple, který byl oznámen minulý měsíc, byl skenovat všechny obrázky nahrané na iCloud Photos a detekovat obsah CSAM. Když najde shodu, bude zkontrolován člověkem, než bude nahlášen úřadům.

Apple také oznámil funkce pro zařízení používaná dětmi, která by je varovala před otevřením nebo pokusem o sdílení obsahu, který byl identifikován jako sexuálně explicitní. Plány ale nesedly mnoha fanouškům Applu.

Apple zdržuje plán CSAM

Uživatelé, zastánci soukromí, a dokonce i vlastní zaměstnanci společnosti Apple vyjádřili své obavy ohledně detekce CSAM - a potenciálu, aby byl rozšířen o detekci dalšího obsahu později pod vnějším tlakem.

Apple nyní říká, že plán je pozastaven, zatímco jeho vylepšení vyžaduje čas. Prohlášení vydané pro Kult Mac v pátek čtěte:

Minulý měsíc jsme oznámili plány na funkce určené k ochraně dětí před predátory, kteří je používají komunikační nástroje pro jejich nábor a využívání a omezení šíření sexuálního zneužívání dětí Materiál. Na základě zpětné vazby od zákazníků, advokačních skupin, výzkumných pracovníků a dalších jsme se rozhodli věnovat více času v nadcházejících měsících shromáždit podněty a provést vylepšení před vydáním těchto kriticky důležitých bezpečnostních opatření pro děti funkce.

Apple také aktualizoval svůj původní tisková zpráva oznámením funkce, která bude obsahovat toto prohlášení.

Boj proti skenování CSAM

Začátkem tohoto měsíce skupina více než 90 organizací napsal otevřený dopis generálnímu řediteli Apple Timu Cookovia naléhal na něj, aby zrušil plán skenování CSAM. Rovněž vyzvala společnost Apple, aby zahájila diskuse se skupinami občanské společnosti a zranitelnými komunitami, než zavede podobné funkce.

Předtím se Apple pokoušel zmírnit obavy zveřejněním zdlouhavých častých dotazů, které podrobněji popisovaly skenování CSAM a jeho nové funkce ochrany dětí. Rovněž vyjasnilo zmatek ohledně toho, jak přesně by každá funkce fungovala jednotlivě.

Tento dokument však jen málo potlačil obavy. Velké množství uživatelů stále vyhrožovalo bojkotováním zařízení Apple online, zatímco experti nadále vyjadřovali svá varování před potenciálními nástrahami.

Rozhodnutí společnosti Apple odložit plán potvrzuje, že společnost tyto obavy vyslyšela. Zdá se však, že jeho plán skenování fotografií pro CSAM v budoucnosti zdaleka není mrtvý.

Poslední příspěvek na blogu

Strávte celý život učením se 14 nových jazyků s touto neuvěřitelnou nabídkou Babbel
September 11, 2021

Pokud „znalost je síla“, jak mocné by pak bylo mít znalosti 14 různých jazyků?Právě teď to můžete sami zjistit pomocí bezkonkurenční nabídky: Můžet...

Naše oblíbené fotografické aplikace roku 2013
September 11, 2021

Vedle výkonného iPhonu 5 a nyní úžasného iPhonu 5S si iPhoneografové v roce 2013 užili i několik rad rad foto aplikací. Následuje zcela subjektivní...

| Kult Mac
September 11, 2021

Proto je Apple tak nadšený příležitostmi pro iPhone v IndiiApple je v současné době trochu hráč, ale je připravený to zasáhnout ve velkém.Foto: Ste...