Apple șterge în liniște toate mențiunile planului CSAM de pe site-ul său

Apple șterge în liniște toate mențiunile despre planul controversat CSAM de pe site-ul său

Scanare foto Apple CSAM
Ce se întâmplă cu scanarea CSAM?
Foto: Apple

Apple a eliminat în liniște toate referințele la planul său controversat de scanare a materialului pentru abuz sexual asupra copiilor (CSAM) de pe site-ul său.

Cupertino și-a anunțat în august intenția de a căuta prin bibliotecile iCloud Photos pentru a detecta materialul CSAM. Dar după critici semnificative din partea experților, a grupurilor de drepturi și chiar a propriilor angajați, caracteristica a fost abandonată.

Apple a declarat în septembrie că „a decis să-și ia mai mult timp” pentru a colecta informații și pentru a aduce îmbunătățiri caracteristicii. Dar acum nu este clar dacă va merge mai departe cu scanarea foto CSAM.

Controversatul plan CSAM al Apple

Planul inițial al Apple a fost să folosească un sistem numit neuralMatch pentru a descoperi imagini suspectate de abuz asupra copiilor din bibliotecile de fotografii ale utilizatorilor încărcate pe iCloud. De asemenea, ar angaja recenzori umani pentru a verifica dacă materialul este ilegal.

Odată ce o potrivire a fost realizată și verificată, Apple a plănuit să o raporteze autorităților relevante, astfel încât să poată fi luate măsuri. Intențiile sale au fost în mod evident bune, dar se pare că oamenii nu erau mulțumiți de ideea de a le scana fotografiile.

La scurt timp după ce planul CSAM a fost anunțat, Apple s-a confruntat cu un val de critici din partea susținătorii confidențialității, grupuri de drepturi, și organizații precum EFF. Chiar și propriii angajați au fost alăturându-se în liniște reacției.

Apple a publicat rapid un mai mult ghid detaliat pentru scanarea fotografiilor CSAM într-un efort de a potoli preocupările, dar nu a avut nicio diferență. La doar o lună după ce planul a fost anunțat, Apple a confirmat că este suspendat.

Pagina Apple Siguranța copiilor nu mai menționează CSAM

„Am decis să acordăm mai mult timp în următoarele luni pentru a colecta informații și pentru a face îmbunătățiri înainte de a lansa aceste funcții de siguranță pentru copii extrem de importante.” a spus compania într-un comunicat publicat în septembrie.

Se părea că Apple încă intenționează să continue cu funcția – care inițial trebuia să fie lansată într-o actualizare iOS 15 – în cele din urmă. Acum, toate mențiunile despre CSAM au dispărut Pagina web Apple Siguranța copiilor.

Nu este încă clar ce înseamnă acest lucru pentru scanarea CSAM. Deși Apple era hotărât să avanseze cu această funcție, cele mai recente evoluții sugerează că este posibil să fi abandonat în liniște ideea în întregime.

Am cerut Apple clarificări și vom actualiza această postare dacă primim un răspuns.

Ultima postare pe blog

Mac-urile din 2018 pot avea tastaturi adaptive pentru emoji și multe altele
October 21, 2021

Uitați de o simplă bara tactilă OLED adaptivă pentru Mac-urile viitoare! Potrivit unui nou raport, Apple lucrează cu un startup australian pentru a...

Amazon ar putea aduce streaming-ul sportului live abonaților Prime
October 21, 2021

Se pare că Amazon încearcă să aducă streaming live sport abonaților Prime. Se spune că gigantul cu amănuntul este în discuții cu o serie de organiz...

Și prima noastră privire la iMac-ul de 24 de inci din 2014 cu afișaj Retina vine de la... Dell?
October 21, 2021

Am văzut MacBook Pro de 13 inci și 15 inci Retina. Totuși, când va primi iMac ecrane de înaltă rezoluție?Nu se știe, dar se pare că ne apropiem. De...