Apple วางแผนที่จะสแกน iPhone และ iCloud สำหรับภาพการล่วงละเมิดเด็ก [อัพเดท]

Apple วางแผนที่จะสแกนรูปภาพที่เก็บไว้ใน iPhone ของผู้คนและในบัญชี iCloud ของพวกเขาเพื่อหาภาพที่บ่งชี้ว่ามีการล่วงละเมิดเด็ก ตามรายงานข่าวเมื่อวันพฤหัสบดี ความพยายามนี้อาจช่วยในการตรวจสอบการบังคับใช้กฎหมาย แต่ก็สามารถเชิญชวนให้หน่วยงานของรัฐเข้าถึงข้อมูลผู้ใช้ที่เป็นข้อโต้แย้งได้

การอัปเดตของ Apple เป็นหน้าเว็บ “การคุ้มครองเพิ่มเติมสำหรับเด็ก” — ดูภายใต้หัวข้อย่อย “CSAM Detection” — ดูเหมือนจะทำให้แผนการสแกนเป็นทางการ CSAM ย่อมาจาก "สื่อการล่วงละเมิดทางเพศเด็ก"

ระบบที่ Apple วางไว้เรียกว่า NeuralMatch จะ "แจ้งเตือนทีมผู้ตรวจสอบที่เป็นมนุษย์ในเชิงรุกหาก เชื่อว่ามีการตรวจพบภาพที่ผิดกฎหมาย ใครจะติดต่อหน่วยงานบังคับใช้กฎหมายหากสามารถตรวจสอบเนื้อหาได้” ภาวะเศรษกิจรายงาน วันพฤหัสบดี.

Apple บอกนักวิชาการในสหรัฐอเมริกาเกี่ยวกับแผนในสัปดาห์นี้ และสามารถแชร์เพิ่มเติม “ในสัปดาห์นี้” นักวิจัยด้านความปลอดภัยสองคนสรุปเกี่ยวกับเรื่องนี้ ตามรายงานของ Apple ภาวะเศรษกิจ.

ภาพถ่ายต้องสงสัยเปรียบเทียบกับภาพฐานข้อมูล

หนังสือพิมพ์กล่าวเสริมว่าผู้เชี่ยวชาญ "ฝึกฝน" neuralMatch โดยใช้ 200,000 ภาพจาก National Center for Missing & Exploited Children ภาพถ่ายผู้ต้องสงสัยจะถูกแฮชแล้วนำไปเปรียบเทียบกับภาพการล่วงละเมิดทางเพศเด็กในฐานข้อมูล

ระบบนี้เปิดตัวครั้งแรกในสหรัฐอเมริกาและที่อื่นๆ ในภายหลัง FT รายงาน

“ตามที่ผู้คนบรรยายสรุปเกี่ยวกับแผนดังกล่าว รูปภาพทุกภาพที่อัปโหลดไปยัง iCloud ในสหรัฐอเมริกา จะได้รับ 'บัตรกำนัลความปลอดภัย' โดยระบุว่าเป็นผู้ต้องสงสัยหรือไม่” FT กล่าวว่า. “เมื่อมีการทำเครื่องหมายภาพถ่ายจำนวนหนึ่งว่าต้องสงสัย Apple จะเปิดใช้งานภาพถ่ายต้องสงสัยทั้งหมดเพื่อถอดรหัสและส่งต่อไปยังหน่วยงานที่เกี่ยวข้องหากเห็นได้ชัดว่าผิดกฎหมาย”

ความกังวลเกี่ยวกับระบบ

The Verge ตั้งข้อสังเกตว่า Matthew Green ศาสตราจารย์และวิทยาการเข้ารหัสลับของมหาวิทยาลัย Johns Hopkins ได้แสดงความกังวลเกี่ยวกับระบบบน Twitter “เครื่องมือประเภทนี้สามารถเป็นประโยชน์สำหรับการค้นหาภาพอนาจารเด็กในโทรศัพท์ของผู้คน” กรีนกล่าวว่า. “แต่ลองนึกภาพว่ามันจะทำอะไรได้บ้างในมือของรัฐบาลเผด็จการ?”

“แม้ว่าคุณจะเชื่อว่า Apple จะไม่อนุญาตให้ใช้เครื่องมือเหล่านี้ในทางที่ผิด [อิโมจิไขว้กัน] ยังมีอีกมากที่ต้องกังวล” เขาเพิ่ม. “ระบบเหล่านี้อาศัยฐานข้อมูลของ 'แฮชสื่อที่มีปัญหา' ซึ่งคุณในฐานะผู้บริโภคไม่สามารถตรวจสอบได้”

Apple และบริษัทอื่นๆ ทำสิ่งที่คล้ายกันอยู่แล้ว

Apple และผู้ให้บริการระบบคลาวด์รายใหญ่รายอื่นๆ ได้ตรวจสอบไฟล์กับภาพที่ทราบว่าเป็นการล่วงละเมิดเด็ก แต่ระบบ NeuralMatch เป็นมากกว่าสิ่งที่พวกเขาทำ เนื่องจากช่วยให้เข้าถึงที่เก็บข้อมูลในเครื่องจากส่วนกลางได้ The Verge กล่าวว่า.

ผู้สังเกตการณ์ทราบว่าการขยายระบบไปสู่การก่ออาชญากรรมอื่น ๆ จะเป็นการง่าย ในประเทศอย่างจีนที่ Apple ทำธุรกิจจำนวนมาก การเข้าถึงและการสมัครทางกฎหมายแบบนั้นอาจเป็นเรื่องที่น่าเป็นห่วง

Apple เกี่ยวกับความเป็นส่วนตัว

Apple ทำอุปกรณ์มากมาย การปกป้องความเป็นส่วนตัวรวมถึงแถลงการณ์ล่าสุดโดย CEO Tim Cook ใน วิดีโอที่กำกับโดยสหภาพยุโรปที่คำนึงถึงความเป็นส่วนตัว.

บริษัท ครองข่าวสั้น ๆ เมื่อมัน ไม่ยอมช่วยเหลือเอฟบีไอตามคำเรียกร้อง ที่อนุญาตให้สำนักงานเข้าถึง iPhone ของมือปืนในการโจมตีปี 2015 ในเมืองซานเบอร์นาดิโน รัฐแคลิฟอร์เนีย

ร้านข่าวรายงานเมื่อวันพฤหัสบดีว่า Apple ไม่ตอบสนองต่อการร้องขอความคิดเห็นเกี่ยวกับแผนการสแกนภาพ

โพสต์บล็อกล่าสุด

ที่ชาร์จที่เข้ากันได้กับ MagSafe นี้มีค่าใช้จ่ายน้อยกว่าครึ่งหนึ่งของ Apple
June 02, 2022

ที่ชาร์จที่เข้ากันได้กับ MagSafe นี้มีค่าใช้จ่ายน้อยกว่าครึ่งหนึ่งของ Apple ทำไมต้องเสียภาษี Apple? ภาพถ่าย: “Cult of Mac Deals” ที่ชาร์จที่เข้ากัน...

พร้อมที่จะเล่น WWDC22 บิงโกแล้วหรือยัง? ดูการคาดการณ์ของนักพัฒนา
June 02, 2022

พร้อมที่จะเล่น WWDC22 บิงโกแล้วหรือยัง? ดูการคาดการณ์ของนักพัฒนา ถึงเวลาเล่น WWDC22 บิงโกแล้ว! รูปถ่าย: Peter Rimar / Wikimedia Commonsทีมงานที่อยู...

ราคาเหมาะสมสำหรับ 3 พอร์ต UGreen GaN Fast Charger [รีวิว]
June 02, 2022

น่าแปลกที่เมื่อไม่นานนี้เอง ผู้คนต่างพกที่ชาร์จแยกกันสำหรับแต่ละอุปกรณ์ และบางคนก็ยังทำอยู่ แต่ถ้าคุณกำลังเดินทางเพื่อทำงานหรือพักผ่อน จะดีกว่าไหมท...