90+ ორგანიზაცია მოუწოდებს ტიმ კუკს უარი თქვას Apple– ის ფოტო სკანირების გეგმაზე

90 -ზე მეტი პოლიტიკისა და უფლებების ჯგუფის საერთაშორისო კოალიცია მოუწოდებს Apple- ს, უარი თქვას მომხმარებლის ფოტოების სკანირებაზე ბავშვებზე ძალადობის მასალების (CSAM) გამოსაძიებლად.

ხუთშაბათს გამოქვეყნებულ ღია წერილში, რომელიც მიმართულია Apple– ის აღმასრულებელ დირექტორს ტიმ კუკს, კოალიციამ განაცხადა, რომ შეშფოთებულია, რომ ეს ფუნქცია „გამოყენებული იქნება მოახდინოს დაცული სიტყვის ცენზურა, საფრთხე შეუქმნას ადამიანების კონფიდენციალურობას და უსაფრთხოებას მთელს მსოფლიოში და დამანგრეველი შედეგები მოჰყვეს მას ბავშვები. ”

Apple– ს მის წინააღმდეგ დიდი გამოხმაურება მოჰყვა საკამათო ახალი ბავშვის უსაფრთხოების მახასიათებლები, რომელიც გააფრთხილებს ბავშვებს, როდესაც ისინი ცდილობენ შიშველი სურათების ნახვას შეტყობინებების აპლიკაციაში და CSAM- ის სკანირებას iCloud Photos- ში.

მომხმარებელთა და კონფიდენციალურობის დამცველთა მზარდი რაოდენობა ჰყავს გამოხატა მათი შეშფოთება მახასიათებლების შესახებ, ზოგი ემუქრება მთლიანად Apple მოწყობილობების გაუქმებას. Apple– ის საკუთარი თანამშრომლები ასევე შეუერთდნენ საპასუხო რეაქციას.

ახლა, Apple აწყდება ყველაზე მასშტაბურ კამპანიას ამ ნაბიჯის საწინააღმდეგოდ.

უფლებების ჯგუფები უერთდებიან ფოტო სკანირების წინააღმდეგ ბრძოლას

წერილი არა მხოლოდ მოუწოდებს კუკს და Apple– ს გააუქმონ ბავშვის უსაფრთხოების ახალი მახასიათებლები, რომლებიც დაგეგმილია მოგვიანებით წელს, მაგრამ ის აღნიშნავს, თუ რატომ აყენებს მახასიათებლები ბავშვებს და სხვა მომხმარებლებს რისკის ქვეშ, „როგორც ახლა, ისე საქართველოში მომავალი. ”

სხვათა მსგავსად, ჯგუფი აფრთხილებს ცენზურისა და თვალთვალის პოტენციურ პრობლემებზე. იგი ასევე ხაზს უსვამს ბავშვთა უსაფრთხოების უამრავ რისკს, რომელიც მას მიაჩნია, რომ Apple– მა შეიძლება შეუმჩნეველი დარჩა იმ ვარაუდით, რომ ყველა ბავშვი დაცულია მათი მშობლების მიერ.

”ქვემომწერი ორგანიზაციები, რომლებიც ემორჩილებიან სამოქალაქო უფლებებს, ადამიანის უფლებებს და ციფრულ უფლებებს მთელს მსოფლიოში, წერენ იმისათვის, რომ მოუწოდონ Apple- ს მიატოვეთ გეგმები, რომელიც გამოცხადდა 2021 წლის 5 აგვისტოს, iPhone– ის, iPad– ებისა და Apple– ის სხვა პროდუქტებზე სათვალთვალო შესაძლებლობების შესაქმნელად “, - ნათქვამია წერილში. იწყება.

”მიუხედავად იმისა, რომ ეს შესაძლებლობები გამიზნულია ბავშვების დასაცავად და ბავშვებზე სექსუალური ძალადობის მასალის გავრცელების შესამცირებლად (CSAM), ჩვენ შეშფოთებულნი ვართ, რომ ისინი გამოყენებული იქნება დაცული სიტყვის ცენზურისთვის, საფრთხეს შეუქმნის ადამიანების კონფიდენციალურობას და უსაფრთხოებას მთელს მსოფლიოში და დამღუპველი შედეგები მოჰყვება ბევრს ბავშვები. ”

საფრთხეს უქმნის ბავშვის უსაფრთხოებას?

"ალგორითმები, რომლებიც შექმნილია სექსუალური ხასიათის მასალის გამოსავლენად, არასაიმედოდ არის სანდო", - განმარტავს კოალიცია. ”ისინი მიდრეკილნი არიან შეცდომით მონიშნონ ხელოვნება, ჯანმრთელობის ინფორმაცია, საგანმანათლებლო რესურსები, ადვოკატირების შეტყობინებები და სხვა გამოსახულებები. ბავშვთა უფლებები გაგზავნის და იღებენ ასეთ ინფორმაციას დაცულია გაეროს ბავშვთა უფლებების კონვენციაში. ”

”უფრო მეტიც, Apple– ის შემუშავებული სისტემა ვარაუდობს, რომ მასში მონაწილეობენ” მშობლების ”და” შვილების ”ანგარიშები რეალურად ეკუთვნის ზრდასრულს, რომელიც არის ბავშვის მშობელი და რომ მათ აქვთ ჯანმრთელი ურთიერთობა. ეს შეიძლება ყოველთვის ასე არ იყოს; შეურაცხმყოფელი ზრდასრული შეიძლება იყოს ანგარიშის ორგანიზატორი და მშობლების შეტყობინების შედეგები შეიძლება საფრთხეს შეუქმნას ბავშვის უსაფრთხოებას და კეთილდღეობას. ”

მახასიათებლები ნიშნავს, რომ iMessage აღარ უზრუნველყოფს კონფიდენციალურობას და კონფიდენციალურობას იმ მომხმარებლებს, რომლებსაც ეს სჭირდებათ, ნათქვამია წერილში. ის ასევე აფრთხილებს, რომ მას შემდეგ რაც "უკანა ფუნქცია" ჩაშენდება, მთავრობებს შეეძლებათ აიძულონ Apple- ი "აღმოაჩინოს ის სურათები, რომლებიც გასაჩივრებულია სხვა მიზეზების გამო, გარდა სექსუალური ხასიათისა".

"საფუძველი ცენზურის, თვალთვალისა და დევნისათვის"

ICloud– ზე ატვირთული მომხმარებლის ფოტოების სკანირებისას, ჯგუფი ამბობს, რომ ის მტკიცედ ეწინააღმდეგება CSAM– ის გამრავლებას, მაგრამ აფრთხილებს, რომ Apple– ის გეგმა აყალიბებს „ცენზურის, თვალთვალისა და დევნის საფუძველს გლობალურ სამყაროში საფუძველი. ”

Apple- ს „უზარმაზარი ზეწოლა და პოტენციურად კანონიერი მოთხოვნები ექნება გარშემო მთავრობების მხრიდან მსოფლიოს ფოტოების დასკანირება არა მხოლოდ CSAM– ისთვის, არამედ სხვა სურათებისთვისაც, რომელსაც მთავრობა გასაჩივრებს ", - ნათქვამია განცხადებაში ამბობს

”ეს სურათები შეიძლება იყოს ადამიანის უფლებების დარღვევის, პოლიტიკური პროტესტის, სურათების კომპანიები, რომლებიც მონიშნულია როგორც“ ტერორისტული ”ან ძალადობრივი ექსტრემისტული შინაარსი, ან თუნდაც პოლიტიკოსების უპერსპექტივო სურათები, რომლებიც ზეწოლას მოახდენენ კომპანიას სკანირებისთვის მათთვის."

წერილი მთავრდება თხოვნით, რომ Apple– მა გააუქმოს ბავშვთა უსაფრთხოების ახალი მახასიათებლები და კიდევ ერთხელ დაადასტუროს მისი ვალდებულება დაიცვას მომხმარებლის კონფიდენციალურობა. ის ასევე მოუწოდებს კომპანიას კონსულტაციები გაუწიოს სამოქალაქო საზოგადოების ჯგუფებს და დაუცველ თემებს, რომელთაც შეიძლება ჰქონდეთ არაპროპორციული გავლენა ამგვარი ქმედებებით.

Შენ შეგიძლია წაიკითხეთ სრული წერილიდემოკრატიისა და ტექნოლოგიების ცენტრის ვებგვერდზე ხელმომწერთა სიასთან ერთად.

ვია: როიტერი

უახლესი ბლოგი

| Mac- ის კულტი
August 20, 2021

თუ თქვენ იმ მრავალთაგანი ხართ, ვინც თავს არიდებდა ახალი სმარტფონის ყიდვას მანამ, სანამ Apple- მა iPhone 5 არ წარადგინა, დროა გადაწყვეტილების მიღება...

| Mac- ის კულტი
August 20, 2021

macOS Catalina აცოცხლებს Expansion Slot Utility პროგრამას ახალი Mac Pro– სთვისგაფართოების სლოტის პროგრამა ხელახლა დაიბადა macOS Catalina– ში.ფოტო: ...

| Mac- ის კულტი
August 20, 2021

დაზოგეთ $ 200 iMac– ზე და/ან $ 14 AirPods– ზე [გარიგებები და მოპარვები]დაზოგეთ ასეული 27 დიუმიან iMac– ზე 5K Retina დისპლეით!ფოტო: AppleDeals &...