Apple iCloud पर अपलोड की गई तस्वीरों को स्कैन करता है ताकि पता लगाया जा सके कि उनमें बाल शोषण तो नहीं है

Apple iCloud पर अपलोड की गई तस्वीरों को स्कैन करता है ताकि पता लगाया जा सके कि उनमें बाल शोषण तो नहीं है

FBI की चिंता के बाद Apple ने सुरक्षित iCloud बैकअप की योजना को छोड़ दिया
Apple के मुख्य गोपनीयता अधिकारी ने CES पैनल में तकनीक पर चर्चा की।
फोटो: जिम मेरिट्यू / कल्ट ऑफ मैक
सीईएस-2020-बग-2

ऐप्पल के मुख्य गोपनीयता अधिकारी का कहना है कि ऐप्पल आईक्लाउड पर अपलोड की गई तस्वीरों को स्कैन करता है ताकि यह जांचा जा सके कि उनमें बाल शोषण तो नहीं है। जेन होर्वथ ने एक के दौरान प्रौद्योगिकी के उपयोग पर चर्चा की सीईएस में उपयोगकर्ता गोपनीयता पर मंगलवार का पैनल.

होर्वाथ ने यह नहीं बताया कि Apple इसे कैसे करता है। कई कंपनियां - जिनमें फेसबुक, ट्विटर और गूगल शामिल हैं - पहले से ही माइक्रोसॉफ्ट द्वारा विकसित टूल का उपयोग कर रहे हैं जिसे कहा जाता है फोटोडीएनए. यह पहले से पहचाने गए चित्रों के डेटाबेस के विरुद्ध छवियों की जाँच करता है।

पैनल के दौरान उन्होंने भाग लिया, होर्वाथ ने केवल यह नोट किया: "हम बाल यौन शोषण सामग्री के लिए स्क्रीन में मदद करने के लिए कुछ तकनीकों का उपयोग कर रहे हैं।"

यह स्पष्ट नहीं है कि Apple ने इस तरह से छवियों को स्कैन करना कब शुरू किया। हालांकि, पिछले साल इसने अपनी गोपनीयता नीति में यह कहते हुए बदलाव किया कि वह बाल शोषण सामग्री के लिए छवियों को स्कैन कर सकती है। Apple की वेबसाइट पर it

एक अस्वीकरण पेश करता है जिसमें कहा गया है कि:

"Apple बाल शोषण को खोजने और रिपोर्ट करने में मदद करने के लिए छवि मिलान तकनीक का उपयोग करता है। ईमेल में स्पैम फ़िल्टर की तरह, हमारे सिस्टम संदिग्ध बाल शोषण का पता लगाने के लिए इलेक्ट्रॉनिक हस्ताक्षर का उपयोग करते हैं। बाल शोषण सामग्री वाले खाते हमारे सेवा के नियमों और शर्तों का उल्लंघन करते हैं, और इस सामग्री के साथ हमें मिलने वाले किसी भी खाते को अक्षम कर दिया जाएगा।"

Apple संभावित बाल शोषण के लिए iCloud छवियों को परिमार्जन करता है

Apple की चुनौती गोपनीयता के साथ कानून प्रवर्तन को संतुलित करना है। कोई भी सभ्य व्यक्ति बाल शोषण पर नकेल कसने के प्रयासों का समर्थन करेगा। लेकिन गलत काम करने वालों को खोजने के लिए भारी मात्रा में उपयोगकर्ता डेटा को स्कैन करना ठीक है या नहीं, यह एक बड़ा, बेहद जटिल विषय है।

Apple ने पहले गोपनीयता के विषय पर एफबीआई के साथ गतिरोध. उस उदाहरण में, Apple उपयोगकर्ताओं के डेटा को निजी रखने के पक्ष में आ गया।

Apple पहले से ही तस्वीरों में लोगों और वस्तुओं की पहचान करने के लिए छवि पहचान तकनीक का उपयोग करता है। यह है मशीन लर्निंग का उपयोग करके किया गया. ML एक ऐसा क्षेत्र है जिसमें Apple ने हाल के वर्षों में तेजी से निवेश किया है। हालाँकि, चीजों की आवाज़ से, जब बाल शोषण का पता लगाने की बात आती है, तो इस क्षेत्र में Apple की तकनीक पहले से रिपोर्ट की गई छवियों के साथ मिलान करने पर अधिक केंद्रित है।

2018 में, ऐप्पल टम्बलर को ऐप स्टोर से हटा दिया. ऐसा कथित तौर पर इसलिए किया गया क्योंकि इसमें चाइल्ड पोर्नोग्राफ़ी थी, जो किसी तरह टम्बलर के फ़िल्टर के आसपास पहुंचने में कामयाब रही।

स्रोत: तार

नवीनतम ब्लॉग पोस्ट

| Mac. का पंथ
September 11, 2021

iMac नाम का व्यक्ति कहता है कि Apple के नाम बहुत भ्रमित करने वाले हैंक्या Apple के लिए iPhone के नाम रखने का तरीका बदलने का समय आ गया है?फोटो: स्टी...

Sony और Philips HDTV के मालिक AppleTV के साथ समस्याओं की रिपोर्ट कर रहे हैं
September 11, 2021

Sony और Philips HDTV के मालिक AppleTV के साथ समस्याओं की रिपोर्ट कर रहे हैंकुछ एसिड पॉप करें और ऊपर दिया गया वीडियो आपको सामान्य रूप से दिखाई देगा,...

स्प्रिंट: हम अगले iPhone में LTE होने पर भी असीमित डेटा की पेशकश करते रहेंगे
September 10, 2021

स्प्रिंट: हम अगले iPhone में LTE होने पर भी असीमित डेटा की पेशकश करते रहेंगेअगर अगले आईफोन में एलटीई है, तो स्प्रिंट अभी भी आपको असीमित योजना पेश क...