ไม่ Apple ไม่ได้สร้างคลังภาพชุดชั้นในขนาดใหญ่

Apple กำลังสร้างที่เก็บถาวรขนาดใหญ่ของรูปภาพชุดชั้นในที่เป็นของผู้ใช้ผู้หญิงหรือไม่? เพื่อเรียกใช้ กฎของเบตเตอริดจ์ เกี่ยวกับหัวข้อข่าวที่ดึงดูดความสนใจซึ่งลงท้ายด้วยเครื่องหมายคำถาม ไม่ใช่ ไม่ใช่

เมื่อวานอินเทอร์เน็ตเป็นบ้าหลังจากทวีตจากผู้ใช้อินเทอร์เน็ตคนหนึ่งชี้ให้เห็นว่าการพิมพ์ "brassiere" ลงใน แถบค้นหาแอพ Photos ของ iPhone ของเธอแสดงสิ่งที่ดูเหมือนจะเป็นโฟลเดอร์ที่แสดงภาพต่างๆ ของเธอในสถานะ เปลื้องผ้า ปรากฏว่าไม่เป็นเช่นนั้น

เทคโนโลยีการจดจำภาพของ Apple

“สาวๆ ทุกคนระวัง! ไปที่รูปถ่ายของคุณและพิมพ์บราเซีย เหตุใด Apple จึงบันทึกสิ่งเหล่านี้และทำให้เป็นโฟลเดอร์!?” ผู้ใช้ Twitter ที่เป็นปัญหาเขียนไว้ มีเสียงโวยวายขึ้นทันที โดยผู้ใช้รายอื่นชี้ให้เห็นว่า Apple กำลังบันทึกรูปภาพเหล่านี้ในโฟลเดอร์ของตนเอง และการทำเช่นนี้ทำให้พวกเขารู้สึกว่า "ถูกละเมิดจริงๆ"

อันที่จริง Apple ไม่ได้ค้นดูรูปภาพของคุณและเลือกรูปภาพที่ดูน่าเกรงขามมากกว่า แต่สิ่งที่ “ค้นพบ” กลับเป็นความสามารถอันน่าทึ่งของการเรียนรู้ด้วยเครื่องของ Apple ที่นำมาใช้แทน ด้วยการรีเฟรช iOS ของปีที่แล้ว ซึ่งใช้แมชชีนเลิร์นนิงเพื่อค้นหาว่ามีวัตถุใดบ้างใน ภาพ

เอล

@ellieeewbu

โปรดทราบ สาว ๆ ทุกคน!!! ไปที่รูปภาพของคุณและพิมพ์ใน 'Brassiere' เหตุใด Apple จึงบันทึกสิ่งเหล่านี้และทำให้เป็นโฟลเดอร์???😱😱😱😱

ภาพ
16:53 น. · 30 ต.ค. 2017

25.9K

12.6K

เสื้อชั้นในก็เป็นหนึ่งในไอเทมดังกล่าว แต่บางชิ้นก็มีของที่ไม่ค่อยถกเถียงกัน เช่น ลูกคิด, ลานนิทรรศการ, ตู้ปลา, Bassett Hounds, ผลไม้รสเปรี้ยว, หัวไชเท้าญี่ปุ่น และอื่นๆ อีกหลายร้อยชนิด (สำหรับรายการทั้งหมดตรวจสอบนี้ แบบครบวงจรที่นี่.) เมื่อคุณค้นหารายการเหล่านี้ อัลกอริธึม AI ของ Apple จะสแกนรูปภาพของคุณและประกอบเป็นโฟลเดอร์ชั่วคราวเพื่อให้คุณสามารถเข้าถึงได้

ประเด็นที่ใหญ่ที่สุดเกี่ยวกับเรื่องนี้ก็คือภาพที่ Apple ไม่สามารถมองผ่านได้ การจดจำใบหน้าและการตรวจจับฉากและวัตถุและการประมวลผลทั้งหมดจะทำในอุปกรณ์ของคุณพร้อมรูปภาพที่จัดเก็บไว้ในเครื่อง หากมีสิ่งใด ฟันเฟืองทั้งหมดแสดงให้เห็นว่า Apple จำเป็นต้องโฆษณาคุณลักษณะล้ำสมัยเหล่านี้ให้ดีขึ้นกว่าเดิม

ทางเลือกอื่น

หากคุณกังวลเกี่ยวกับภาพที่ละเอียดอ่อนบนอุปกรณ์ของคุณ ฉันสามารถแนะนำแอปที่ฉันเขียนถึงใน a สรุป “แอพที่ยอดเยี่ยมประจำสัปดาห์” ล่าสุด. แอปที่เรียกว่า Nude ทำงานโดยใช้ AI คล้ายกับเทคโนโลยีการจดจำรูปภาพการเรียนรู้เชิงลึกของ Apple ด้วยวิธีนี้ มันจะสแกนภาพถ่ายของคุณเพื่อหาภาพเปลือย จากนั้นจึงจัดเก็บไว้ในห้องนิรภัยส่วนตัว ลบออกจากม้วนฟิล์มของคุณ และทำให้แน่ใจว่าจะไม่มีรูปเหล่านั้นมาสู่ iCloud

Nude ซึ่งดาวน์โหลดได้ฟรี แต่มีค่าใช้จ่าย $10 ต่อปีในการทำงาน จะติดตามความพยายามในการเข้าไปในรูปภาพของคุณ ห้องนิรภัย และยังสามารถใช้ป้องกันภาพที่ละเอียดอ่อน เช่น บัตรเครดิต บัตรประจำตัว หรือใบขับขี่ ภาพ คุณ สามารถดาวน์โหลดได้ ที่นี่.

โพสต์บล็อกล่าสุด

บล็อกสด WWDC 2018: Apple เปิดตัวเฟรมเวิร์กสำหรับอนาคต
October 21, 2021

ฉันเดาว่าพวกเขาพูดคำว่า "HomePod" แต่ไม่มีการพูดถึง AirPower เลยใช่ไหม คุณพูดถูก บัสเตอร์ – ทิมหัวเราะให้กับคนรักฮาร์ดแวร์โดยสิ้นเชิงไม่ Apple ไม่ไ...

| ลัทธิ Mac
October 21, 2021

Apple ทุ่ม 1 พันล้านดอลลาร์สหรัฐ คู่แข่ง Uber ของจีนApple เพิ่งทำการลงทุนครั้งใหญ่ในประเทศจีนภาพถ่าย: “Cult of Mac .”Apple ลงทุน 1 พันล้านดอลลาร์ใน...

รัฐบาลจีนปิด iTunes Movies และ iBooks Store
October 21, 2021

ในการเคลื่อนไหวที่ยิ่งใหญ่ที่สุดที่ยังไม่ได้ควบคุม Apple ในประเทศจีน รัฐบาลจีนได้บังคับให้ Apple ปิดตัวลง iBooks Store และ iTunes Movies ในประเทศ —...