Apple วางแผนที่จะสแกนรูปภาพที่เก็บไว้ใน iPhone ของผู้คนและในบัญชี iCloud ของพวกเขาเพื่อหาภาพที่บ่งชี้ว่ามีการล่วงละเมิดเด็ก ตามรายงานข่าวเมื่อวันพฤหัสบดี ความพยายามนี้อาจช่วยในการตรวจสอบการบังคับใช้กฎหมาย แต่ก็สามารถเชิญชวนให้หน่วยงานของรัฐเข้าถึงข้อมูลผู้ใช้ที่เป็นข้อโต้แย้งได้
การอัปเดตของ Apple เป็นหน้าเว็บ “การคุ้มครองเพิ่มเติมสำหรับเด็ก” — ดูภายใต้หัวข้อย่อย “CSAM Detection” — ดูเหมือนจะทำให้แผนการสแกนเป็นทางการ CSAM ย่อมาจาก "สื่อการล่วงละเมิดทางเพศเด็ก"
ระบบที่ Apple วางไว้เรียกว่า NeuralMatch จะ "แจ้งเตือนทีมผู้ตรวจสอบที่เป็นมนุษย์ในเชิงรุกหาก เชื่อว่ามีการตรวจพบภาพที่ผิดกฎหมาย ใครจะติดต่อหน่วยงานบังคับใช้กฎหมายหากสามารถตรวจสอบเนื้อหาได้” ภาวะเศรษกิจรายงาน วันพฤหัสบดี.
Apple บอกนักวิชาการในสหรัฐอเมริกาเกี่ยวกับแผนในสัปดาห์นี้ และสามารถแชร์เพิ่มเติม “ในสัปดาห์นี้” นักวิจัยด้านความปลอดภัยสองคนสรุปเกี่ยวกับเรื่องนี้ ตามรายงานของ Apple ภาวะเศรษกิจ.
ภาพถ่ายต้องสงสัยเปรียบเทียบกับภาพฐานข้อมูล
หนังสือพิมพ์กล่าวเสริมว่าผู้เชี่ยวชาญ "ฝึกฝน" neuralMatch โดยใช้ 200,000 ภาพจาก National Center for Missing & Exploited Children ภาพถ่ายผู้ต้องสงสัยจะถูกแฮชแล้วนำไปเปรียบเทียบกับภาพการล่วงละเมิดทางเพศเด็กในฐานข้อมูล
ระบบนี้เปิดตัวครั้งแรกในสหรัฐอเมริกาและที่อื่นๆ ในภายหลัง FT รายงาน
“ตามที่ผู้คนบรรยายสรุปเกี่ยวกับแผนดังกล่าว รูปภาพทุกภาพที่อัปโหลดไปยัง iCloud ในสหรัฐอเมริกา จะได้รับ 'บัตรกำนัลความปลอดภัย' โดยระบุว่าเป็นผู้ต้องสงสัยหรือไม่” FT กล่าวว่า. “เมื่อมีการทำเครื่องหมายภาพถ่ายจำนวนหนึ่งว่าต้องสงสัย Apple จะเปิดใช้งานภาพถ่ายต้องสงสัยทั้งหมดเพื่อถอดรหัสและส่งต่อไปยังหน่วยงานที่เกี่ยวข้องหากเห็นได้ชัดว่าผิดกฎหมาย”
ความกังวลเกี่ยวกับระบบ
The Verge ตั้งข้อสังเกตว่า Matthew Green ศาสตราจารย์และวิทยาการเข้ารหัสลับของมหาวิทยาลัย Johns Hopkins ได้แสดงความกังวลเกี่ยวกับระบบบน Twitter “เครื่องมือประเภทนี้สามารถเป็นประโยชน์สำหรับการค้นหาภาพอนาจารเด็กในโทรศัพท์ของผู้คน” กรีนกล่าวว่า. “แต่ลองนึกภาพว่ามันจะทำอะไรได้บ้างในมือของรัฐบาลเผด็จการ?”
“แม้ว่าคุณจะเชื่อว่า Apple จะไม่อนุญาตให้ใช้เครื่องมือเหล่านี้ในทางที่ผิด [อิโมจิไขว้กัน] ยังมีอีกมากที่ต้องกังวล” เขาเพิ่ม. “ระบบเหล่านี้อาศัยฐานข้อมูลของ 'แฮชสื่อที่มีปัญหา' ซึ่งคุณในฐานะผู้บริโภคไม่สามารถตรวจสอบได้”
Apple และบริษัทอื่นๆ ทำสิ่งที่คล้ายกันอยู่แล้ว
Apple และผู้ให้บริการระบบคลาวด์รายใหญ่รายอื่นๆ ได้ตรวจสอบไฟล์กับภาพที่ทราบว่าเป็นการล่วงละเมิดเด็ก แต่ระบบ NeuralMatch เป็นมากกว่าสิ่งที่พวกเขาทำ เนื่องจากช่วยให้เข้าถึงที่เก็บข้อมูลในเครื่องจากส่วนกลางได้ The Verge กล่าวว่า.
ผู้สังเกตการณ์ทราบว่าการขยายระบบไปสู่การก่ออาชญากรรมอื่น ๆ จะเป็นการง่าย ในประเทศอย่างจีนที่ Apple ทำธุรกิจจำนวนมาก การเข้าถึงและการสมัครทางกฎหมายแบบนั้นอาจเป็นเรื่องที่น่าเป็นห่วง
Apple เกี่ยวกับความเป็นส่วนตัว
Apple ทำอุปกรณ์มากมาย การปกป้องความเป็นส่วนตัวรวมถึงแถลงการณ์ล่าสุดโดย CEO Tim Cook ใน วิดีโอที่กำกับโดยสหภาพยุโรปที่คำนึงถึงความเป็นส่วนตัว.
บริษัท ครองข่าวสั้น ๆ เมื่อมัน ไม่ยอมช่วยเหลือเอฟบีไอตามคำเรียกร้อง ที่อนุญาตให้สำนักงานเข้าถึง iPhone ของมือปืนในการโจมตีปี 2015 ในเมืองซานเบอร์นาดิโน รัฐแคลิฟอร์เนีย
ร้านข่าวรายงานเมื่อวันพฤหัสบดีว่า Apple ไม่ตอบสนองต่อการร้องขอความคิดเห็นเกี่ยวกับแผนการสแกนภาพ