Apple ჩუმად წაშლის ყველა ხსენებას საკამათო CSAM გეგმის შესახებ თავისი ვებსაიტიდან
ფოტო: Apple
Apple-მა ჩუმად წაშალა ყველა მითითება ბავშვთა სექსუალური ძალადობის მასალის (CSAM) სკანირების გეგმის შესახებ.
კუპერტინომ ჯერ კიდევ აგვისტოში გამოაცხადა თავისი განზრახვა გადაიტანა iCloud Photos ბიბლიოთეკებში CSAM მასალის აღმოსაჩენად. მაგრამ ექსპერტების, უფლებადამცველი ჯგუფებისა და საკუთარი თანამშრომლების მხრიდან მნიშვნელოვანი კრიტიკის შემდეგ, ფუნქცია შეჩერდა.
Apple-მა სექტემბერში განაცხადა, რომ მან „გადაწყვიტა დამატებითი დრო დასჭირდეს“ ინფორმაციის შეგროვებას და ფუნქციის გაუმჯობესებას. მაგრამ ახლა გაურკვეველია, განაგრძობს თუ არა ის საერთოდ CSAM ფოტოების სკანირებას.
Apple-ის საკამათო CSAM გეგმა
Apple-ის თავდაპირველი გეგმა იყო გამოეყენებინა სისტემა, სახელწოდებით neuralMatch, რათა აღმოეჩინა ბავშვზე ძალადობის საეჭვო სურათები iCloud-ზე ატვირთული მომხმარებლის ფოტო ბიბლიოთეკებში. ის ასევე დაასაქმებს ადამიანთა მიმომხილველებს, რათა დაადასტურონ, რომ მასალა უკანონო იყო.
მას შემდეგ, რაც მატჩი გაკეთდა და დადასტურდა, Apple გეგმავდა ამის შესახებ ეცნობებინა შესაბამის ორგანოებს, რათა შესაძლებელი ყოფილიყო ზომების მიღება. მისი განზრახვები აშკარად კარგი იყო, მაგრამ თურმე ხალხს არ გაუხარდა მათი ფოტოების სკანირების იდეა.
CSAM გეგმის გამოცხადებიდან მალევე, Apple-ის მხრიდან კრიტიკის ქარცეცხლში მოხვდა კონფიდენციალურობის დამცველები, უფლებათა ჯგუფები, და ორგანიზაციები, როგორიცაა EFF. საკუთარი თანამშრომლებიც კი იყვნენ ჩუმად უერთდება საპასუხო რეაქციას.
Apple-მა სწრაფად გამოაქვეყნა მეტი დეტალური სახელმძღვანელო CSAM ფოტო სკანირებისთვის შეშფოთების ჩახშობის მცდელობაში, მაგრამ ამას მცირე მნიშვნელობა ჰქონდა. გეგმის გამოცხადებიდან მხოლოდ ერთი თვის შემდეგ, Apple-მა დაადასტურა, რომ ის შეჩერებულია.
Apple-ის ბავშვთა უსაფრთხოების გვერდზე აღარ არის ნახსენები CSAM
„ჩვენ გადავწყვიტეთ, რომ მომდევნო თვეებში დამატებითი დრო დაგვეხარჯა, რათა შევაგროვოთ ინფორმაცია და გაუმჯობესებულიყო ბავშვების უსაფრთხოების ამ კრიტიკულად მნიშვნელოვანი მახასიათებლების გამოშვებამდე. განაცხადა კომპანიამ სექტემბერში გამოქვეყნებულ განცხადებაში.
ჩანდა, რომ Apple კვლავ აპირებდა ფუნქციის გაგრძელებას - რომელიც თავდაპირველად iOS 15-ის განახლებაში უნდა გამოსულიყო - საბოლოოდ. ახლა, CSAM-ის ყველა ხსენება გაქრა Apple-ის ბავშვთა უსაფრთხოების ვებგვერდი.
ჯერ არ არის ნათელი რას ნიშნავს ეს CSAM სკანირებისთვის. მიუხედავად იმისა, რომ Apple-ს ჰქონდა გადაწყვეტილი, წინ წასულიყო ფუნქციით, უახლესი განვითარებები ვარაუდობს, რომ შესაძლოა ჩუმად გააუქმა ეს იდეა.
ჩვენ ვთხოვეთ Apple-ს განმარტება და ჩვენ განვაახლებთ ამ პოსტს, თუ პასუხს მივიღებთ.