Apple po cichu usuwa wszystkie wzmianki o kontrowersyjnym planie CSAM ze swojej strony internetowej
Zdjęcie: Jabłko
Firma Apple po cichu usunęła ze swojej strony internetowej wszelkie odniesienia do swojego kontrowersyjnego planu skanowania materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM).
Cupertino w sierpniu ogłosił zamiar przeszukania bibliotek iCloud Photos w celu wykrycia materiału CSAM. Jednak po znaczącej krytyce ze strony ekspertów, organizacji zajmujących się prawami, a nawet własnych pracowników, funkcja została odłożona na półkę.
Apple powiedział we wrześniu, że „postanowił poświęcić dodatkowy czas” na zebranie danych wejściowych i wprowadzenie ulepszeń funkcji. Ale teraz nie jest jasne, czy skanowanie zdjęć CSAM będzie w ogóle kontynuowane.
Kontrowersyjny plan CSAM firmy Apple
Pierwotnym planem Apple było wykorzystanie systemu o nazwie neuralMatch do wyszukiwania obrazów podejrzanych o wykorzystywanie dzieci w bibliotekach zdjęć użytkowników przesłanych do iCloud. Zatrudniłby również recenzentów ludzkich, aby sprawdzić, czy materiał jest nielegalny.
Gdy dopasowanie zostało dokonane i zweryfikowane, Apple planowało zgłosić to odpowiednim władzom, aby można było podjąć działania. Jego intencje były oczywiście dobre, ale okazuje się, że ludzie nie byli zadowoleni z pomysłu zeskanowania swoich zdjęć.
Wkrótce po ogłoszeniu planu CSAM Apple spotkało się z falą krytyki ze strony obrońcy prywatności, grupy praw, oraz organizacje takie jak EFF. Nawet jej pracownicy byli po cichu dołączając do luzu.
Apple szybko opublikował więcej szczegółowy przewodnik po skanowaniu zdjęć CSAM starając się stłumić obawy, ale niewiele to zmieniło. Zaledwie miesiąc po ogłoszeniu planu firma Apple potwierdziła, że został wstrzymany.
Strona Apple dotycząca bezpieczeństwa dzieci nie wspomina już o CSAM
„Zdecydowaliśmy się poświęcić dodatkowy czas w nadchodzących miesiącach na zebranie opinii i wprowadzenie ulepszeń przed wydaniem tych niezwykle ważnych funkcji bezpieczeństwa dzieci” firma powiedziała w oświadczeniu opublikowanym we wrześniu.
Wyglądało na to, że Apple nadal zamierzało kontynuować tę funkcję – która pierwotnie miała zostać wprowadzona w aktualizacji iOS 15 – w końcu. Teraz wszystkie wzmianki o CSAM zniknęły Strona internetowa Apple dotycząca bezpieczeństwa dzieci.
Nie jest jeszcze jasne, co to oznacza dla skanowania CSAM. Chociaż firma Apple była zdeterminowana, aby rozwijać tę funkcję, najnowsze osiągnięcia sugerują, że po cichu całkowicie zrezygnowała z tego pomysłu.
Poprosiliśmy Apple o wyjaśnienie i zaktualizujemy ten post, jeśli otrzymamy odpowiedź.