Apple mešká s plánovaním skenovania fotografií používateľov na materiál zneužívajúci deti (CSAM)

Spoločnosť Apple v piatok potvrdila, že odložila kontroverzné plány na spustenie skenovania fotografií používateľov s cieľom nájsť materiál pre sexuálne zneužívanie detí (CSAM).

Funkcia bola Pôvodne sa malo objaviť koncom tohto roka. Spoločnosť Apple teraz tvrdí, že „zozbieranie vstupov a vylepšenia“ bude chvíľu trvať, kým sa zmeny vykonajú - nie sú však ani zďaleka úplne zrušené.

Pôvodný plán spoločnosti Apple, ktorý bol oznámený minulý mesiac, bol skenovať všetky obrázky nahrané do iCloud Photos, aby sa zistil obsah CSAM. Keď nájde zhodu, pred nahlásením úradom ho skontroluje človek.

Spoločnosť Apple tiež oznámila funkcie pre zariadenia používané deťmi, ktoré by ich varovali pred otvorením alebo pokusom o zdieľanie obsahu, ktorý bol identifikovaný ako sexuálne explicitný. Plány ale mnohým fanúšikom Apple nesadli.

Apple odďaľuje plán CSAM

Používatelia, zástancovia ochrany osobných údajova dokonca aj vlastní zamestnanci spoločnosti Apple vyjadrili svoje obavy z detekcie CSAM - a z potenciálu jeho rozšírenia tak, aby neskôr bolo možné pod vonkajším tlakom detekovať ďalší obsah.

Spoločnosť Apple teraz tvrdí, že plán je pozastavený, pričom jeho vylepšenie si vyžaduje čas. Vyhlásenie vydané pre Kult Maca v piatok čítajte:

Minulý mesiac sme oznámili plány funkcií, ktoré majú pomôcť chrániť deti pred dravcami, ktorí ich používajú komunikačné nástroje na ich nábor a zneužívanie a obmedzenie šírenia sexuálneho zneužívania detí Materiál. Na základe spätnej väzby od zákazníkov, advokátskych skupín, výskumníkov a ďalších sme sa rozhodli venovať viac času nadchádzajúce mesiace, aby sme zhromaždili podnety a urobili vylepšenia pred vydaním tejto kriticky dôležitej bezpečnosti detí Vlastnosti.

Spoločnosť Apple tiež aktualizovala svoje pôvodná tlačová správa oznámením funkcie zahrnúť toto vyhlásenie.

Boj proti skenovaniu CSAM

Začiatkom tohto mesiaca skupina viac ako 90 organizácií napísal otvorený list generálnemu riaditeľovi spoločnosti Apple Timovi Cookovi, vyzývajúc ho, aby zrušil plán skenovania CSAM. Tiež vyzvalo spoločnosť Apple, aby pred zavedením podobných funkcií začala diskusie so skupinami občianskej spoločnosti a zraniteľnými komunitami.

Predtým sa spoločnosť Apple pokúsila zmierniť obavy zverejnením dlhých častých otázok, ktoré podrobnejšie popisovali skenovanie CSAM a jeho nové funkcie ochrany detí. Tiež sa vyjasnilo zmätok nad tým, ako presne budú jednotlivé funkcie fungovať jednotlivo.

Tento dokument však len málo na potlačenie obáv. Veľký počet používateľov sa stále vyhrážal bojkotom zariadení Apple online, zatiaľ čo experti naďalej upozorňovali na potenciálne nástrahy.

Rozhodnutie spoločnosti Apple odložiť plán potvrdzuje, že spoločnosť tieto obavy vypočula. Zdá sa však, že jeho plán skenovania fotografií pre CSAM v budúcnosti nie je ani zďaleka mŕtvy.

Najnovší blogový príspevok

| Kult Maca
September 10, 2021

Najlepšie aplikácie ARKit na vyskúšanie na iPhone a iPadThe Machines je najlepšia hra AR, ktorú nájdete v App Store.Foto: Direktívne hryTento týžde...

| Kult Maca
September 10, 2021

Prvé dojmy z iPhone X: Zatiaľ najlepšie od AppleVáš starý iPhone by mohol stáť malé šťastie.Foto: Killian Bell/Kult MacaKonečne máme iPhone X v ruk...

| Kult Maca
October 21, 2021

Samsung tiež trpí poklesom predaja smartfónov v ČíneApple nie je jediným, kto v Číne trpí.Foto: Killian Bell/Kult MacaUkazuje sa, že Apple nie je j...