Spoločnosť Apple v piatok potvrdila, že odložila kontroverzné plány na spustenie skenovania fotografií používateľov s cieľom nájsť materiál pre sexuálne zneužívanie detí (CSAM).
Funkcia bola Pôvodne sa malo objaviť koncom tohto roka. Spoločnosť Apple teraz tvrdí, že „zozbieranie vstupov a vylepšenia“ bude chvíľu trvať, kým sa zmeny vykonajú - nie sú však ani zďaleka úplne zrušené.
Pôvodný plán spoločnosti Apple, ktorý bol oznámený minulý mesiac, bol skenovať všetky obrázky nahrané do iCloud Photos, aby sa zistil obsah CSAM. Keď nájde zhodu, pred nahlásením úradom ho skontroluje človek.
Spoločnosť Apple tiež oznámila funkcie pre zariadenia používané deťmi, ktoré by ich varovali pred otvorením alebo pokusom o zdieľanie obsahu, ktorý bol identifikovaný ako sexuálne explicitný. Plány ale mnohým fanúšikom Apple nesadli.
Apple odďaľuje plán CSAM
Používatelia, zástancovia ochrany osobných údajova dokonca aj vlastní zamestnanci spoločnosti Apple vyjadrili svoje obavy z detekcie CSAM - a z potenciálu jeho rozšírenia tak, aby neskôr bolo možné pod vonkajším tlakom detekovať ďalší obsah.
Spoločnosť Apple teraz tvrdí, že plán je pozastavený, pričom jeho vylepšenie si vyžaduje čas. Vyhlásenie vydané pre Kult Maca v piatok čítajte:
Minulý mesiac sme oznámili plány funkcií, ktoré majú pomôcť chrániť deti pred dravcami, ktorí ich používajú komunikačné nástroje na ich nábor a zneužívanie a obmedzenie šírenia sexuálneho zneužívania detí Materiál. Na základe spätnej väzby od zákazníkov, advokátskych skupín, výskumníkov a ďalších sme sa rozhodli venovať viac času nadchádzajúce mesiace, aby sme zhromaždili podnety a urobili vylepšenia pred vydaním tejto kriticky dôležitej bezpečnosti detí Vlastnosti.
Spoločnosť Apple tiež aktualizovala svoje pôvodná tlačová správa oznámením funkcie zahrnúť toto vyhlásenie.
Boj proti skenovaniu CSAM
Začiatkom tohto mesiaca skupina viac ako 90 organizácií napísal otvorený list generálnemu riaditeľovi spoločnosti Apple Timovi Cookovi, vyzývajúc ho, aby zrušil plán skenovania CSAM. Tiež vyzvalo spoločnosť Apple, aby pred zavedením podobných funkcií začala diskusie so skupinami občianskej spoločnosti a zraniteľnými komunitami.
Predtým sa spoločnosť Apple pokúsila zmierniť obavy zverejnením dlhých častých otázok, ktoré podrobnejšie popisovali skenovanie CSAM a jeho nové funkcie ochrany detí. Tiež sa vyjasnilo zmätok nad tým, ako presne budú jednotlivé funkcie fungovať jednotlivo.
Tento dokument však len málo na potlačenie obáv. Veľký počet používateľov sa stále vyhrážal bojkotom zariadení Apple online, zatiaľ čo experti naďalej upozorňovali na potenciálne nástrahy.
Rozhodnutie spoločnosti Apple odložiť plán potvrdzuje, že spoločnosť tieto obavy vypočula. Zdá sa však, že jeho plán skenovania fotografií pre CSAM v budúcnosti nie je ani zďaleka mŕtvy.