Apple ยกเลิกแผนการโต้เถียงในการสแกน iCloud Photos สำหรับ CSAM

เราและพันธมิตรของเราใช้คุกกี้เพื่อจัดเก็บและ/หรือเข้าถึงข้อมูลบนอุปกรณ์ เราและพันธมิตรของเราใช้ข้อมูลสำหรับโฆษณาและเนื้อหาที่ปรับเปลี่ยนในแบบของคุณ การวัดผลโฆษณาและเนื้อหา ข้อมูลเชิงลึกของผู้ชมและการพัฒนาผลิตภัณฑ์ ตัวอย่างของข้อมูลที่กำลังประมวลผลอาจเป็นตัวระบุเฉพาะที่จัดเก็บไว้ในคุกกี้ พันธมิตรบางรายของเราอาจประมวลผลข้อมูลของคุณโดยเป็นส่วนหนึ่งของผลประโยชน์ทางธุรกิจที่ชอบด้วยกฎหมายโดยไม่ต้องขอความยินยอม หากต้องการดูวัตถุประสงค์ที่พวกเขาเชื่อว่ามีผลประโยชน์โดยชอบด้วยกฎหมาย หรือเพื่อคัดค้านการประมวลผลข้อมูลนี้ ให้ใช้ลิงก์รายชื่อผู้ขายด้านล่าง ความยินยอมที่ส่งจะใช้สำหรับการประมวลผลข้อมูลที่มาจากเว็บไซต์นี้เท่านั้น หากคุณต้องการเปลี่ยนการตั้งค่าหรือถอนความยินยอมเมื่อใดก็ได้ ลิงก์สำหรับดำเนินการดังกล่าวจะอยู่ในนโยบายความเป็นส่วนตัวของเรา ซึ่งสามารถเข้าถึงได้จากหน้าแรกของเรา..

Apple ยกเลิกแผนการโต้เถียงในการสแกน iCloud Photos สำหรับ CSAM

Apple ยกเลิกแผนการโต้เถียงในการสแกน iCloud Photos สำหรับ CSAM
รูปภาพในรูปภาพ iCloud จะไม่สแกนหาเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก
รูปภาพ: แอปเปิ้ล

Apple ละทิ้งแผนที่จะสแกนคลังรูปภาพ iCloud เพื่อค้นหาเนื้อหาการล่วงละเมิดทางเพศเด็กที่ประกาศไปก่อนหน้านี้โดยสิ้นเชิง บริษัทจะไม่ตรวจสอบรูปภาพของผู้ใช้บนเซิร์ฟเวอร์ที่เก็บข้อมูลบนคลาวด์เพื่อค้นหารูปภาพ CSAM

ในทางกลับกัน Apple กลับทำตรงกันข้ามโดยให้ผู้ใช้เข้ารหัสรูปภาพที่จัดเก็บไว้ใน iCloud Photos

แผน CSAM ที่ขัดแย้งกันของ Apple นั้นตายแล้ว

แผนดั้งเดิมของ Apple ประกาศในปี 2564คือการใช้ระบบที่เรียกว่า neuralMatch เพื่อค้นหาภาพการล่วงละเมิดเด็กที่ต้องสงสัยในคลังภาพของผู้ใช้ที่อัปโหลดไปยัง iCloud นอกจากนี้ยังวางแผนที่จะว่าจ้างผู้ตรวจสอบที่เป็นมนุษย์เพื่อตรวจสอบว่าเนื้อหานั้นผิดกฎหมาย ภาพ CSAM ใด ๆ ที่มีอยู่จะถูกรายงานไปยังหน่วยงานท้องถิ่นที่เกี่ยวข้อง

ความตั้งใจของ บริษัท นั้นดี แต่ต้องเผชิญกับการวิพากษ์วิจารณ์จาก ผู้สนับสนุนความเป็นส่วนตัว, กลุ่มสิทธิ และ องค์กรต่างๆ เช่น Electronic Frontier Foundation. แม้แต่พนักงานของตัวเอง เข้าร่วมฟันเฟืองอย่างเงียบ ๆ.

แอปเปิล พักแผนไว้ก่อน เมื่อเดือนธันวาคมที่ผ่านมา และตอนนี้มันก็ลดลงอย่างสมบูรณ์

ผู้ผลิต Mac ให้คำชี้แจงกับ มีสาย ที่กล่าวว่าบางส่วน:

“เราได้ตัดสินใจเพิ่มเติมว่าจะไม่ดำเนินการต่อด้วยเครื่องมือตรวจจับ CSAM ที่เสนอไปก่อนหน้านี้สำหรับ iCloud Photos เด็กสามารถได้รับการคุ้มครองโดยไม่ต้องให้บริษัทต่างๆ เข้าไปยุ่งเกี่ยวกับข้อมูลส่วนบุคคล”

จากการตัดสินใจนี้ Apple จึงเปิดตัว การปกป้องข้อมูลขั้นสูงสำหรับ iCloud ในวันพุธ. สิ่งนี้นำการเข้ารหัสตั้งแต่ต้นทางถึงปลายทางมาสู่รูปภาพ iCloud ดังนั้นไม่มีใครนอกจากผู้ใช้เท่านั้นที่สามารถเข้าถึงรูปภาพที่จัดเก็บไว้ที่นั่นได้ แม้แต่ Apple ก็ไม่สามารถ

ซึ่งมีคุณลักษณะคือ มาใน iOS 16.2 และเทียบเท่ากับ iPadจะให้ตัวเลือกแก่ผู้ใช้ในการเข้ารหัสข้อมูลสำรองของอุปกรณ์และบันทึกย่อที่จัดเก็บไว้ใน iCloud รวมถึงข้อมูลประเภทอื่นๆ อีกมากมาย

Apple ยังคงปกป้องเด็กจากการมีเพศสัมพันธ์

การเปลี่ยนแปลงไม่ได้หมายความว่า Apple ยอมแพ้ในการต่อสู้กับการแสวงหาประโยชน์จากเด็ก แถลงการณ์ถึง มีสาย ยังพูดว่า:

“หลังจากปรึกษาหารือกับผู้เชี่ยวชาญอย่างละเอียดถี่ถ้วนเพื่อรวบรวมข้อเสนอแนะเกี่ยวกับโครงการคุ้มครองเด็กที่เราเสนอเมื่อปีที่แล้ว เรากำลังลงทุนอย่างลึกซึ้ง คุณสมบัติความปลอดภัยในการสื่อสาร ที่เราเปิดให้บริการครั้งแรกในเดือนธันวาคม 2564”

iPhone สามารถตรวจจับได้ว่าเด็กได้รับหรือส่งรูปภาพที่ไม่เหมาะสมทางเพศผ่านแอป Messages โดยใช้ระบบที่สร้างขึ้นใน iOS จากนั้นผู้ใช้จะถูกเตือน กระบวนการนี้เกิดขึ้นบนมือถือทั้งหมด ไม่ใช่บนเซิร์ฟเวอร์ระยะไกล และข้อความยังคงเข้ารหัส

คิลเลียน เบลล์ สนับสนุนบทความนี้

โพสต์บล็อกล่าสุด

Pokémon Go ผู้เล่นปะทะผู้เล่นการต่อสู้อีกครั้ง
September 11, 2021

โปเกมอน โก การต่อสู้ระหว่างผู้เล่นกับผู้เล่นอีกครั้งฟีเจอร์สำคัญที่ขาดหายไปจาก Pokémon Go จะถูกเพิ่มในเร็วๆ นี้ภาพถ่าย: “Niantic”โปเกมอนทุกเวอร์ชั่...

ฉีก. David Bunnell ผู้ก่อตั้ง MacWorld
September 12, 2021

David Bunnell ผู้ก่อตั้ง Macworld และเป็นคนดีรอบด้าน เสียชีวิตในคืนวันอังคารด้วยวัย 69 ปี ที่บ้านของเขาในเบิร์กลีย์ รัฐแคลิฟอร์เนียBunnell เป็นผู้บ...

แอพ iPhone อันดับต้น ๆ ยังคงดึงเงินได้มากกว่าเกมขายดีของ Android อย่างมากมาย
September 11, 2021

นักพัฒนาซอฟต์แวร์รายใหญ่ที่สุด 100 รายใน Apple App Store ครองส่วนแบ่งมากกว่าผู้ผลิตแอป Android ที่มีรายได้สูงสุดถึง 64 เปอร์เซ็นต์ในช่วงสามเดือนแรก...