Apple ลบการกล่าวถึงแผน CSAM ทั้งหมดออกจากเว็บไซต์ของตนอย่างเงียบ ๆ

Apple ลบการกล่าวถึงแผน CSAM ที่ขัดแย้งทั้งหมดออกจากเว็บไซต์ของตนอย่างเงียบ ๆ

การสแกนรูปภาพ Apple CSAM
เกิดอะไรขึ้นกับการสแกน CSAM
ภาพถ่าย: “Apple”

Apple ได้ลบการอ้างอิงทั้งหมดอย่างเงียบ ๆ เกี่ยวกับแผนการสแกนเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก (CSAM) ที่ขัดแย้งออกจากเว็บไซต์ของตน

Cupertino ย้อนกลับไปในเดือนสิงหาคมได้ประกาศความตั้งใจที่จะสืบค้นผ่านไลบรารี iCloud Photos เพื่อตรวจจับวัสดุ CSAM แต่หลังจากการวิพากษ์วิจารณ์ที่สำคัญจากผู้เชี่ยวชาญ กลุ่มสิทธิ และแม้แต่พนักงานของบริษัทเอง คุณลักษณะดังกล่าวก็ถูกระงับ

Apple กล่าวในเดือนกันยายนว่า "ได้ตัดสินใจที่จะใช้เวลาเพิ่มเติม" เพื่อรวบรวมข้อมูลและปรับปรุงคุณลักษณะนี้ แต่ตอนนี้ยังไม่ชัดเจนว่าจะดำเนินการสแกนภาพถ่าย CSAM ต่อไปหรือไม่

แผน CSAM ที่ขัดแย้งกันของ Apple

แผนเดิมของ Apple คือการใช้ระบบที่เรียกว่า NeuralMatch เพื่อค้นพบรูปภาพที่ต้องสงสัยว่าเป็นการล่วงละเมิดเด็กในไลบรารีรูปภาพของผู้ใช้ที่อัปโหลดไปยัง iCloud นอกจากนี้ยังจะจ้างผู้ตรวจสอบที่เป็นมนุษย์เพื่อตรวจสอบว่าเนื้อหานั้นผิดกฎหมาย

เมื่อจับคู่และตรวจสอบแล้ว Apple วางแผนที่จะรายงานไปยังหน่วยงานที่เกี่ยวข้องเพื่อให้สามารถดำเนินการได้ เห็นได้ชัดว่าเจตนาของมันดี แต่กลับกลายเป็นว่าผู้คนไม่พอใจกับแนวคิดที่จะสแกนรูปภาพของพวกเขา

ไม่นานหลังจากประกาศแผน CSAM Apple เผชิญกับการวิพากษ์วิจารณ์จาก ผู้สนับสนุนความเป็นส่วนตัว, กลุ่มสิทธิ, และ องค์กรเช่นEFF. แม้แต่พนักงานของตัวเองก็ยัง เข้าร่วมฟันเฟืองอย่างเงียบ ๆ.

Apple ได้เผยแพร่ more. อย่างรวดเร็ว คำแนะนำโดยละเอียดเกี่ยวกับการสแกนภาพถ่าย CSAM ในความพยายามที่จะระงับข้อกังวล แต่ก็ทำให้เกิดความแตกต่างเล็กน้อย เพียงหนึ่งเดือนหลังจากประกาศแผน Apple ยืนยันว่าถูกระงับ

หน้าความปลอดภัยของเด็กของ Apple ไม่ได้กล่าวถึง CSAM. อีกต่อไป

"เราได้ตัดสินใจที่จะใช้เวลาเพิ่มเติมในช่วงหลายเดือนที่จะถึงนี้เพื่อรวบรวมข้อมูลและปรับปรุงก่อนที่จะเปิดตัวคุณลักษณะด้านความปลอดภัยสำหรับเด็กที่สำคัญอย่างยิ่งเหล่านี้" บริษัทกล่าวว่า ในแถลงการณ์ที่เผยแพร่ในเดือนกันยายน

ดูเหมือนว่า Apple ยังคงตั้งใจที่จะใช้งานคุณลักษณะนี้ซึ่งเดิมควรจะเปิดตัวในการอัปเดต iOS 15 ในที่สุด ตอนนี้การกล่าวถึง CSAM ทั้งหมดหายไปจาก หน้าเว็บความปลอดภัยของเด็กของ Apple.

ยังไม่ชัดเจนว่าสิ่งนี้หมายถึงอะไรสำหรับการสแกน CSAM แม้ว่า Apple ตั้งใจแน่วแน่ที่จะผลักดันคุณลักษณะนี้ แต่การพัฒนาล่าสุดแนะนำว่าอาจเลิกคิดอย่างเงียบ ๆ ไปโดยสิ้นเชิง

เราได้ขอให้ Apple ชี้แจงและเราจะอัปเดตโพสต์นี้หากเราได้รับคำตอบ

โพสต์บล็อกล่าสุด

| ลัทธิ Mac
August 21, 2021

Fortnite อัปเดตนำระเบิด Clinger ปรับแต่งการควบคุมมือถือระเบิดมือเกาะติดกับผู้เล่นและวัตถุภาพ: Epic GamesFortnite's การอัปเดตเนื้อหาล่าสุดกำลังเปิดต...

| ลัทธิ Mac
August 21, 2021

รับการ์ดบิงโกสำคัญของ Apple!การ์ดบิงโกของ Apple, Appency.com มารยาทเรากำลังตื่นเต้นกับงานวันที่ 9 กันยายนของ Apple เช่นเดียวกับคุณ เราคาดหวังให้ iP...

| ลัทธิ Mac
August 21, 2021

เผยการเปลี่ยนแปลงครั้งใหญ่ของ iPhone 7 โดยเคสรั่วiPhone 6 ในเคส iPhone 7ภาพถ่าย: “Unbox Therapy”วิดีโอใหม่ของเคส iPhone 7 ที่ถูกกล่าวหาดูเหมือนจะแส...