Apple iCloud पर अपलोड की गई तस्वीरों को स्कैन करता है ताकि पता लगाया जा सके कि उनमें बाल शोषण तो नहीं है
![Apple iCloud पर अपलोड की गई तस्वीरों को स्कैन करता है ताकि पता लगाया जा सके कि उनमें बाल शोषण तो नहीं है FBI की चिंता के बाद Apple ने सुरक्षित iCloud बैकअप की योजना को छोड़ दिया](/f/240b32be76befd094ffcb4102e20bdf1.jpg)
फोटो: जिम मेरिट्यू / कल्ट ऑफ मैक
![सीईएस 2020 बग 2 सीईएस-2020-बग-2](/f/03825b85c7d28376abb354bc19259fbf.jpg)
ऐप्पल के मुख्य गोपनीयता अधिकारी का कहना है कि ऐप्पल आईक्लाउड पर अपलोड की गई तस्वीरों को स्कैन करता है ताकि यह जांचा जा सके कि उनमें बाल शोषण तो नहीं है। जेन होर्वथ ने एक के दौरान प्रौद्योगिकी के उपयोग पर चर्चा की सीईएस में उपयोगकर्ता गोपनीयता पर मंगलवार का पैनल.
होर्वाथ ने यह नहीं बताया कि Apple इसे कैसे करता है। कई कंपनियां - जिनमें फेसबुक, ट्विटर और गूगल शामिल हैं - पहले से ही माइक्रोसॉफ्ट द्वारा विकसित टूल का उपयोग कर रहे हैं जिसे कहा जाता है फोटोडीएनए. यह पहले से पहचाने गए चित्रों के डेटाबेस के विरुद्ध छवियों की जाँच करता है।
पैनल के दौरान उन्होंने भाग लिया, होर्वाथ ने केवल यह नोट किया: "हम बाल यौन शोषण सामग्री के लिए स्क्रीन में मदद करने के लिए कुछ तकनीकों का उपयोग कर रहे हैं।"
यह स्पष्ट नहीं है कि Apple ने इस तरह से छवियों को स्कैन करना कब शुरू किया। हालांकि, पिछले साल इसने अपनी गोपनीयता नीति में यह कहते हुए बदलाव किया कि वह बाल शोषण सामग्री के लिए छवियों को स्कैन कर सकती है। Apple की वेबसाइट पर it
एक अस्वीकरण पेश करता है जिसमें कहा गया है कि:"Apple बाल शोषण को खोजने और रिपोर्ट करने में मदद करने के लिए छवि मिलान तकनीक का उपयोग करता है। ईमेल में स्पैम फ़िल्टर की तरह, हमारे सिस्टम संदिग्ध बाल शोषण का पता लगाने के लिए इलेक्ट्रॉनिक हस्ताक्षर का उपयोग करते हैं। बाल शोषण सामग्री वाले खाते हमारे सेवा के नियमों और शर्तों का उल्लंघन करते हैं, और इस सामग्री के साथ हमें मिलने वाले किसी भी खाते को अक्षम कर दिया जाएगा।"
Apple संभावित बाल शोषण के लिए iCloud छवियों को परिमार्जन करता है
Apple की चुनौती गोपनीयता के साथ कानून प्रवर्तन को संतुलित करना है। कोई भी सभ्य व्यक्ति बाल शोषण पर नकेल कसने के प्रयासों का समर्थन करेगा। लेकिन गलत काम करने वालों को खोजने के लिए भारी मात्रा में उपयोगकर्ता डेटा को स्कैन करना ठीक है या नहीं, यह एक बड़ा, बेहद जटिल विषय है।
Apple ने पहले गोपनीयता के विषय पर एफबीआई के साथ गतिरोध. उस उदाहरण में, Apple उपयोगकर्ताओं के डेटा को निजी रखने के पक्ष में आ गया।
Apple पहले से ही तस्वीरों में लोगों और वस्तुओं की पहचान करने के लिए छवि पहचान तकनीक का उपयोग करता है। यह है मशीन लर्निंग का उपयोग करके किया गया. ML एक ऐसा क्षेत्र है जिसमें Apple ने हाल के वर्षों में तेजी से निवेश किया है। हालाँकि, चीजों की आवाज़ से, जब बाल शोषण का पता लगाने की बात आती है, तो इस क्षेत्र में Apple की तकनीक पहले से रिपोर्ट की गई छवियों के साथ मिलान करने पर अधिक केंद्रित है।
2018 में, ऐप्पल टम्बलर को ऐप स्टोर से हटा दिया. ऐसा कथित तौर पर इसलिए किया गया क्योंकि इसमें चाइल्ड पोर्नोग्राफ़ी थी, जो किसी तरह टम्बलर के फ़िल्टर के आसपास पहुंचने में कामयाब रही।
स्रोत: तार