Apple po cichu usuwa wszystkie wzmianki o planie CSAM ze swojej strony internetowej

Apple po cichu usuwa wszystkie wzmianki o kontrowersyjnym planie CSAM ze swojej strony internetowej

Skanowanie zdjęć Apple CSAM
Co się dzieje ze skanowaniem CSAM?
Zdjęcie: Jabłko

Firma Apple po cichu usunęła ze swojej strony internetowej wszelkie odniesienia do swojego kontrowersyjnego planu skanowania materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM).

Cupertino w sierpniu ogłosił zamiar przeszukania bibliotek iCloud Photos w celu wykrycia materiału CSAM. Jednak po znaczącej krytyce ze strony ekspertów, organizacji zajmujących się prawami, a nawet własnych pracowników, funkcja została odłożona na półkę.

Apple powiedział we wrześniu, że „postanowił poświęcić dodatkowy czas” na zebranie danych wejściowych i wprowadzenie ulepszeń funkcji. Ale teraz nie jest jasne, czy skanowanie zdjęć CSAM będzie w ogóle kontynuowane.

Kontrowersyjny plan CSAM firmy Apple

Pierwotnym planem Apple było wykorzystanie systemu o nazwie neuralMatch do wyszukiwania obrazów podejrzanych o wykorzystywanie dzieci w bibliotekach zdjęć użytkowników przesłanych do iCloud. Zatrudniłby również recenzentów ludzkich, aby sprawdzić, czy materiał jest nielegalny.

Gdy dopasowanie zostało dokonane i zweryfikowane, Apple planowało zgłosić to odpowiednim władzom, aby można było podjąć działania. Jego intencje były oczywiście dobre, ale okazuje się, że ludzie nie byli zadowoleni z pomysłu zeskanowania swoich zdjęć.

Wkrótce po ogłoszeniu planu CSAM Apple spotkało się z falą krytyki ze strony obrońcy prywatności, grupy praw, oraz organizacje takie jak EFF. Nawet jej pracownicy byli po cichu dołączając do luzu.

Apple szybko opublikował więcej szczegółowy przewodnik po skanowaniu zdjęć CSAM starając się stłumić obawy, ale niewiele to zmieniło. Zaledwie miesiąc po ogłoszeniu planu firma Apple potwierdziła, że ​​został wstrzymany.

Strona Apple dotycząca bezpieczeństwa dzieci nie wspomina już o CSAM

„Zdecydowaliśmy się poświęcić dodatkowy czas w nadchodzących miesiącach na zebranie opinii i wprowadzenie ulepszeń przed wydaniem tych niezwykle ważnych funkcji bezpieczeństwa dzieci” firma powiedziała w oświadczeniu opublikowanym we wrześniu.

Wyglądało na to, że Apple nadal zamierzało kontynuować tę funkcję – która pierwotnie miała zostać wprowadzona w aktualizacji iOS 15 – w końcu. Teraz wszystkie wzmianki o CSAM zniknęły Strona internetowa Apple dotycząca bezpieczeństwa dzieci.

Nie jest jeszcze jasne, co to oznacza dla skanowania CSAM. Chociaż firma Apple była zdeterminowana, aby rozwijać tę funkcję, najnowsze osiągnięcia sugerują, że po cichu całkowicie zrezygnowała z tego pomysłu.

Poprosiliśmy Apple o wyjaśnienie i zaktualizujemy ten post, jeśli otrzymamy odpowiedź.

Najnowszy wpis na blogu

| Kult Maca
August 20, 2021

Jak korzystać z kontrolera PS4 lub Xbox One z systemem iOS 13 i iPadOSObsługa kontrolera jest lepsza niż kiedykolwiek.Zdjęcie: Evan Killham/Cult of...

| Kult Maca
August 20, 2021

Nigdy nie było bardziej mylącego czasu na zakup iPhone'a.Jeśli szukasz najlepszej oferty na nowy iPhone 6s lub iPhone 6s Plus, masz mnóstwo opcji. ...

| Kult Maca
August 20, 2021

Apple porzuci Google w nowej aplikacji Mapy „pod koniec tego roku” [Zgłoś]W związku z licznymi twierdzeniami, że Apple porzuci Mapy Google i wypuśc...