Apple กำลังสร้างที่เก็บถาวรขนาดใหญ่ของรูปภาพชุดชั้นในที่เป็นของผู้ใช้ผู้หญิงหรือไม่? เพื่อเรียกใช้ กฎของเบตเตอริดจ์ เกี่ยวกับหัวข้อข่าวที่ดึงดูดความสนใจซึ่งลงท้ายด้วยเครื่องหมายคำถาม ไม่ใช่ ไม่ใช่
เมื่อวานอินเทอร์เน็ตเป็นบ้าหลังจากทวีตจากผู้ใช้อินเทอร์เน็ตคนหนึ่งชี้ให้เห็นว่าการพิมพ์ "brassiere" ลงใน แถบค้นหาแอพ Photos ของ iPhone ของเธอแสดงสิ่งที่ดูเหมือนจะเป็นโฟลเดอร์ที่แสดงภาพต่างๆ ของเธอในสถานะ เปลื้องผ้า ปรากฏว่าไม่เป็นเช่นนั้น
เทคโนโลยีการจดจำภาพของ Apple
“สาวๆ ทุกคนระวัง! ไปที่รูปถ่ายของคุณและพิมพ์บราเซีย เหตุใด Apple จึงบันทึกสิ่งเหล่านี้และทำให้เป็นโฟลเดอร์!?” ผู้ใช้ Twitter ที่เป็นปัญหาเขียนไว้ มีเสียงโวยวายขึ้นทันที โดยผู้ใช้รายอื่นชี้ให้เห็นว่า Apple กำลังบันทึกรูปภาพเหล่านี้ในโฟลเดอร์ของตนเอง และการทำเช่นนี้ทำให้พวกเขารู้สึกว่า "ถูกละเมิดจริงๆ"
อันที่จริง Apple ไม่ได้ค้นดูรูปภาพของคุณและเลือกรูปภาพที่ดูน่าเกรงขามมากกว่า แต่สิ่งที่ “ค้นพบ” กลับเป็นความสามารถอันน่าทึ่งของการเรียนรู้ด้วยเครื่องของ Apple ที่นำมาใช้แทน ด้วยการรีเฟรช iOS ของปีที่แล้ว ซึ่งใช้แมชชีนเลิร์นนิงเพื่อค้นหาว่ามีวัตถุใดบ้างใน ภาพ
![](/f/8e7bcc110ec5a63f9340f4bdf2a2c868.jpg)
เอล
@ellieeewbu
โปรดทราบ สาว ๆ ทุกคน!!! ไปที่รูปภาพของคุณและพิมพ์ใน 'Brassiere' เหตุใด Apple จึงบันทึกสิ่งเหล่านี้และทำให้เป็นโฟลเดอร์???😱😱😱😱
25.9K
12.6K
เสื้อชั้นในก็เป็นหนึ่งในไอเทมดังกล่าว แต่บางชิ้นก็มีของที่ไม่ค่อยถกเถียงกัน เช่น ลูกคิด, ลานนิทรรศการ, ตู้ปลา, Bassett Hounds, ผลไม้รสเปรี้ยว, หัวไชเท้าญี่ปุ่น และอื่นๆ อีกหลายร้อยชนิด (สำหรับรายการทั้งหมดตรวจสอบนี้ แบบครบวงจรที่นี่.) เมื่อคุณค้นหารายการเหล่านี้ อัลกอริธึม AI ของ Apple จะสแกนรูปภาพของคุณและประกอบเป็นโฟลเดอร์ชั่วคราวเพื่อให้คุณสามารถเข้าถึงได้
ประเด็นที่ใหญ่ที่สุดเกี่ยวกับเรื่องนี้ก็คือภาพที่ Apple ไม่สามารถมองผ่านได้ การจดจำใบหน้าและการตรวจจับฉากและวัตถุและการประมวลผลทั้งหมดจะทำในอุปกรณ์ของคุณพร้อมรูปภาพที่จัดเก็บไว้ในเครื่อง หากมีสิ่งใด ฟันเฟืองทั้งหมดแสดงให้เห็นว่า Apple จำเป็นต้องโฆษณาคุณลักษณะล้ำสมัยเหล่านี้ให้ดีขึ้นกว่าเดิม
ทางเลือกอื่น
หากคุณกังวลเกี่ยวกับภาพที่ละเอียดอ่อนบนอุปกรณ์ของคุณ ฉันสามารถแนะนำแอปที่ฉันเขียนถึงใน a สรุป “แอพที่ยอดเยี่ยมประจำสัปดาห์” ล่าสุด. แอปที่เรียกว่า Nude ทำงานโดยใช้ AI คล้ายกับเทคโนโลยีการจดจำรูปภาพการเรียนรู้เชิงลึกของ Apple ด้วยวิธีนี้ มันจะสแกนภาพถ่ายของคุณเพื่อหาภาพเปลือย จากนั้นจึงจัดเก็บไว้ในห้องนิรภัยส่วนตัว ลบออกจากม้วนฟิล์มของคุณ และทำให้แน่ใจว่าจะไม่มีรูปเหล่านั้นมาสู่ iCloud
Nude ซึ่งดาวน์โหลดได้ฟรี แต่มีค่าใช้จ่าย $10 ต่อปีในการทำงาน จะติดตามความพยายามในการเข้าไปในรูปภาพของคุณ ห้องนิรภัย และยังสามารถใช้ป้องกันภาพที่ละเอียดอ่อน เช่น บัตรเครดิต บัตรประจำตัว หรือใบขับขี่ ภาพ คุณ สามารถดาวน์โหลดได้ ที่นี่.