Apple नए अक्सर पूछे जाने वाले प्रश्नों के साथ CSAM फोटो स्कैनिंग चिंताओं को कम करना चाहता है

ऐप्पल ने बढ़ती चिंताओं से निपटने के प्रयास में बाल दुर्व्यवहार इमेजरी (सीएसएएम) के लिए उपयोगकर्ता की तस्वीरों को स्कैन करने की अपनी योजना पर एक नया एफएक्यू प्रकाशित किया है।

दस्तावेज़ का उद्देश्य "अधिक स्पष्टता और पारदर्शिता" प्रदान करना है, Apple ने कहा, "कई" को ध्यान में रखते हुए गोपनीयता संगठनों और बाल सुरक्षा संगठनों सहित हितधारकों ने अपना समर्थन व्यक्त किया है" चाल के लिए।

अक्सर पूछे जाने वाले प्रश्न iCloud में CSAM स्कैनिंग और संदेशों में आने वाली नई बाल सुरक्षा सुविधाओं के बीच अंतर बताते हैं। यह उपयोगकर्ताओं को यह भी आश्वस्त करता है कि ऐप्पल सुविधाओं के विस्तार के लिए सरकारी अनुरोधों पर ध्यान नहीं देगा।

नया अक्सर पूछे जाने वाले प्रश्न Apple द्वारा पिछले सप्ताह पुष्टि किए जाने के बाद आता है कि यह रोल आउट हो जाएगा नई बाल सुरक्षा सुविधाएँ जिसमें आईक्लाउड फोटो लाइब्रेरी में बाल यौन शोषण सामग्री (सीएसएएम) के लिए स्कैनिंग और संदेशों में स्पष्ट तस्वीरों का पता लगाना शामिल है।

घोषणा के बाद से, कई गोपनीयता अधिवक्ताओं - जिनमें व्हिसलब्लोअर एडवर्ड स्नोडेन और इलेक्ट्रॉनिक फ्रंटियर फाउंडेशन (EFF) शामिल हैं - योजना के खिलाफ बोल चुके हैं, जो इस साल के अंत में शुरू होगा।

ईएफएफ ने चेतावनी दी, "यहां तक ​​​​कि इस तरह की प्रणाली बनाने के लिए एक सुविचारित प्रयास भी मैसेंजर के एन्क्रिप्शन के प्रमुख वादों को तोड़ देगा और व्यापक दुरुपयोग के लिए द्वार खोल देगा।" ऐप्पल उम्मीद कर रहा है कि यह उन चिंताओं को एक नए एफएक्यू के साथ कम कर सकता है।

ऐप्पल आईक्लाउड फोटो स्कैनिंग पर अक्सर पूछे जाने वाले प्रश्न प्रकाशित करता है

"हम उन शिकारियों से बच्चों की रक्षा करना चाहते हैं जो संचार उपकरणों का उपयोग भर्ती करने और उनका शोषण करने के लिए करते हैं, और बाल यौन शोषण सामग्री (सीएसएएम) के प्रसार को सीमित करें," पर प्रकाशित छह-पृष्ठ के दस्तावेज़ को पढ़ता है सप्ताहांत।

"चूंकि हमने इन सुविधाओं की घोषणा की है, गोपनीयता संगठनों और बाल सुरक्षा सहित कई हितधारक" संगठनों ने इस नए समाधान के लिए अपना समर्थन व्यक्त किया है, और कुछ ने इसके साथ संपर्क किया है प्रशन।

"यह दस्तावेज़ इन सवालों का समाधान करने और प्रक्रिया में अधिक स्पष्टता और पारदर्शिता प्रदान करने का कार्य करता है।"

आईक्लाउड फोटोज में सीएसएएम डिटेक्शन और संदेशों में नए संचार सुरक्षा उपकरणों के बीच अंतर अक्सर पूछे जाने वाले प्रश्नों के पते की पहली चिंता है। "दो विशेषताएं समान नहीं हैं," Apple कहता है।

भ्रम दूर करना

संदेशों में संचार सुरक्षा "केवल पारिवारिक साझाकरण में स्थापित चाइल्ड खातों के लिए संदेश ऐप में भेजी या प्राप्त छवियों पर काम करती है," अक्सर पूछे जाने वाले प्रश्न बताते हैं। "यह डिवाइस पर छवियों का विश्लेषण करता है, और इसलिए संदेशों के गोपनीयता आश्वासन को नहीं बदलता है।"

जब कोई मुखर यौन छवि किसी बच्चे के खाते द्वारा भेजी या प्राप्त की जाती है, तो छवि धुंधली हो जाती है और बच्चे को चेतावनी दी जाएगी कि वे क्या भेज रहे हैं। उन्हें "सहायक संसाधन" भी प्रदान किए जाएंगे, Apple कहते हैं, और "आश्वस्त किया कि यह ठीक है अगर वे फोटो देखना या भेजना नहीं चाहते हैं।"

बच्चों को यह भी बताया जाएगा कि, यह सुनिश्चित करने के लिए कि वे सुरक्षित हैं, उनके माता-पिता को सूचित किया जाएगा यदि वे स्पष्ट यौन चित्र देखना या भेजना चुनते हैं।

आईक्लाउड फोटोज में सीएसएएम डिटेक्शन बहुत अलग है। इसे "CSAM को iCloud फ़ोटो से दूर रखने के लिए डिज़ाइन किया गया है, बिना Apple को किसी अन्य फ़ोटो के बारे में जानकारी प्रदान किए बिना जो ज्ञात CSAM छवियों से मेल खाती हैं।"

"यह सुविधा केवल उन उपयोगकर्ताओं को प्रभावित करती है जिन्होंने iCloud फ़ोटो का उपयोग करना चुना है," Apple कहते हैं। "किसी भी अन्य ऑन-डिवाइस डेटा पर कोई प्रभाव नहीं पड़ता है" - और यह उन संदेशों पर लागू नहीं होता है, जो किसी वयस्क के डिवाइस पर स्कैन नहीं किए जाते हैं।

संदेशों में संचार सुरक्षा

दोनों सुविधाओं के बारे में विभिन्न चिंताओं को दूर करने के लिए अक्सर पूछे जाने वाले प्रश्न जारी रहते हैं। संदेशों में संचार सुरक्षा पर, यह बताता है कि माता-पिता या अभिभावकों को चाइल्ड खातों के लिए इस सुविधा का उपयोग करने के लिए ऑप्ट-इन करना होगा, और यह केवल 12 वर्ष या उससे कम उम्र के बच्चों के लिए उपलब्ध है।

ऐप्पल कभी नहीं पता लगाता है कि संदेश ऐप में यौन रूप से स्पष्ट छवियां कब खोजी जाती हैं, और कानून प्रवर्तन एजेंसियों के साथ कोई जानकारी साझा या रिपोर्ट नहीं की जाती है, यह कहता है। Apple यह भी पुष्टि करता है कि संचार सुरक्षा संदेशों में एंड-टू-एंड एन्क्रिप्शन को नहीं तोड़ती है।

अक्सर पूछे जाने वाले प्रश्न यह भी पुष्टि करते हैं कि माता-पिता को संदेशों में स्पष्ट यौन सामग्री के बारे में तब तक चेतावनी नहीं दी जाएगी जब तक कि कोई बच्चा इसे देखने या साझा करने का विकल्प नहीं चुनता। अगर उन्हें चेतावनी दी जाती है लेकिन सामग्री को देखने या साझा नहीं करना चुनते हैं, तो कोई सूचना नहीं भेजी जाती है। और अगर उनकी उम्र १३-१७ है, तब भी एक चेतावनी दिखाई देती है लेकिन माता-पिता को सूचित नहीं किया जाता है।

आईक्लाउड फोटोज में सीएसएएम डिटेक्शन

CSAM का पता लगाने पर, Apple पुष्टि करता है कि यह सुविधा उपयोगकर्ता के iPhone पर संग्रहीत सभी छवियों को स्कैन नहीं करती है - केवल वे जो iCloud फ़ोटो पर अपलोड की गई हैं। "और फिर भी, Apple केवल उन खातों के बारे में सीखता है जो ज्ञात CSAM छवियों के संग्रह को संग्रहीत कर रहे हैं, और केवल वे चित्र जो ज्ञात CSAM से मेल खाते हैं।"

यदि आपके पास iCloud तस्वीर अक्षम है, तो यह सुविधा काम नहीं करती है। और वास्तविक सीएसएएम छवियों का उपयोग तुलना के लिए नहीं किया जाता है। "वास्तविक छवियों के बजाय, ऐप्पल डिवाइस पर संग्रहीत अपठनीय हैश का उपयोग करता है। ये हैश संख्याओं के तार हैं जो ज्ञात सीएसएएम छवियों का प्रतिनिधित्व करते हैं, लेकिन उन हैश को सीएसएएम छवियों में पढ़ना या परिवर्तित करना संभव नहीं है जो आधारित हैं।

"इस स्थान में महत्वपूर्ण चुनौतियों में से एक उपयोगकर्ताओं की गोपनीयता को संरक्षित करते हुए बच्चों की रक्षा करना है," Apple बताते हैं। "इस नई तकनीक के साथ, ऐप्पल ज्ञात सीएसएएम तस्वीरों के बारे में जानेंगे जिन्हें आईक्लाउड फोटोज में संग्रहीत किया जा रहा है, जहां खाता ज्ञात सीएसएएम का संग्रह संग्रहीत कर रहा है। ऐप्पल केवल डिवाइस पर संग्रहीत अन्य डेटा के बारे में कुछ नहीं सीखेगा।"

गोपनीयता और सुरक्षा पर

एफएक्यू का अंतिम खंड ऐप्पल की प्रारंभिक घोषणा के बाद से उठाई गई गोपनीयता और सुरक्षा चिंताओं को संबोधित करता है। यह पुष्टि करता है कि सीएसएएम डिटेक्शन केवल सीएसएएम पर काम करता है - यह किसी और चीज की तलाश नहीं कर सकता है - और हालांकि ऐप्पल सीएसएएम को कानून प्रवर्तन को रिपोर्ट करेगा, प्रक्रिया स्वचालित नहीं है।

"Apple NCMEC को रिपोर्ट करने से पहले मानव समीक्षा करता है," FAW पढ़ता है। "परिणामस्वरूप, सिस्टम को केवल उन तस्वीरों की रिपोर्ट करने के लिए डिज़ाइन किया गया है जिन्हें आईक्लाउड फोटोज में सीएसएएम के रूप में जाना जाता है। संयुक्त राज्य अमेरिका सहित अधिकांश देशों में, केवल इन छवियों को रखना एक अपराध है।"

Apple यह भी पुष्टि करता है कि वह उन सरकारों की "ऐसी किसी भी माँग को अस्वीकार" करेगा जो CSAM के अलावा किसी अन्य चीज़ का पता लगाने के लिए Apple को बाध्य करने का प्रयास करती हैं। "हमने सरकार द्वारा अनिवार्य परिवर्तनों को बनाने और तैनात करने की मांगों का सामना किया है जो पहले उपयोगकर्ताओं की गोपनीयता को कम करते हैं, और उन मांगों को दृढ़ता से अस्वीकार कर दिया है।"

"हमें स्पष्ट होना चाहिए," Apple कहते हैं, "यह तकनीक iCloud में संग्रहीत CSAM का पता लगाने तक सीमित है और हम इसे विस्तारित करने के लिए सरकार के किसी भी अनुरोध को स्वीकार नहीं करेंगे।"

आप ऐसा कर सकते हैं Apple की वेबसाइट पर अक्सर पूछे जाने वाले प्रश्न पढ़ें अभी।

नवीनतम ब्लॉग पोस्ट

| Mac. का पंथ
September 12, 2021

iPhone फोटोग्राफी पुरस्कार विजेता दिखाता है कि iPhone DSLR से प्रतिस्पर्धा कर सकता हैकेरेकेस इस्तवान को केवल अपना पहला आईफोन मिला। अब वह एक प्रसिद्...

| Mac. का पंथ
September 12, 2021

एपल के एरिजोना कमांड सेंटर में लगी आगहमने कहा 'नीलम', 'आग' नहींफोटो: 12 समाचारएरिजोना के मेसा में एपल के कमांड सेंटर में आज अज्ञात मूल की आग लग गई।...

| Mac. का पंथ
September 12, 2021

MagDoka डिस्क किसी भी iPhone को MagSafe के साथ संगत बनाती हैपुराने iPhone मॉडल में जादुई चुंबक लाएं।फोटो: MagEasyMagSafe का आनंद लेने के लिए आपको i...