Apple zo svojej webovej stránky potichu vymaže všetky zmienky o kontroverznom pláne CSAM
Foto: Apple
Spoločnosť Apple zo svojej webovej stránky potichu odstránila všetky odkazy na svoj kontroverzný plán skenovania materiálov týkajúcich sa sexuálneho zneužívania detí (CSAM).
Cupertino už v auguste oznámilo svoj zámer prechádzať cez knižnice iCloud Photos s cieľom odhaliť materiál CSAM. Po výraznej kritike od odborníkov, skupín na ochranu práv a dokonca aj vlastných zamestnancov bola funkcia odložená.
Apple v septembri uviedol, že sa „rozhodol venovať viac času“ zhromažďovaniu vstupov a vylepšeniam funkcie. Teraz však nie je jasné, či vôbec bude pokračovať so skenovaním fotografií CSAM.
Kontroverzný plán spoločnosti Apple CSAM
Pôvodným plánom spoločnosti Apple bolo použiť systém s názvom neuralMatch na odhaľovanie obrázkov podozrivých zo zneužívania detí v knižniciach fotografií používateľov nahraných na iCloud. Zamestnával by aj ľudských recenzentov, aby overili, že materiál bol nezákonný.
Akonáhle sa nájde a overí zhoda, Apple to plánoval nahlásiť príslušným orgánom, aby bolo možné podniknúť kroky. Jeho zámery boli očividne dobré, no ukázalo sa, že ľudia neboli spokojní s myšlienkou nechať si naskenovať svoje fotografie.
Čoskoro po oznámení plánu CSAM čelil Apple záplave kritiky obhajcovia súkromia, skupiny práva organizácie ako EFF. Dokonca aj jej vlastní zamestnanci ticho sa pripája k odporu.
Apple rýchlo zverejnil ďalšie podrobný sprievodca skenovaním fotografií CSAM v snahe potlačiť obavy, ale nerobilo to žiadny rozdiel. Len mesiac po oznámení plánu spoločnosť Apple potvrdila, že bol pozastavený.
Na stránke Detská bezpečnosť spoločnosti Apple sa už nespomína CSAM
„V priebehu nasledujúcich mesiacov sme sa rozhodli venovať viac času zhromaždeniu vstupných informácií a vykonaniu zlepšení pred vydaním týchto kriticky dôležitých prvkov bezpečnosti detí,“ uviedla spoločnosť vo vyhlásení zverejnenom v septembri.
Zdalo sa, že Apple má stále v úmysle pokračovať v tejto funkcii, ktorá sa mala pôvodne spustiť v aktualizácii iOS 15. Teraz sú všetky zmienky o CSAM preč Webová stránka spoločnosti Apple Child Safety.
Zatiaľ nie je jasné, čo to znamená pre skenovanie CSAM. Aj keď bol Apple odhodlaný posunúť sa vpred s touto funkciou, najnovší vývoj naznačuje, že možno v tichosti úplne zrušil túto myšlienku.
Požiadali sme Apple o vysvetlenie a ak dostaneme odpoveď, aktualizujeme tento príspevok.