Apple पहले से ही बाल शोषण सामग्री के लिए आपके ईमेल स्कैन कर रहा है
कई Apple प्रशंसक कंपनी के बारे में परेशान हैं बाल शोषण सामग्री के लिए स्कैनिंग शुरू करने की योजना (सीएसएएम) आईक्लाउड फोटोज में इस साल के अंत में अपलोड होता है। लेकिन क्या आप जानते हैं कि क्यूपर्टिनो पहले से ही आपके ईमेल में सीएसएएम के लिए स्कैन कर रहा है?
Apple ने पुष्टि की है कि उसने 2019 में वापस iCloud मेल में छवि मिलान तकनीक का उपयोग करके CSAM का पता लगाना शुरू कर दिया था। इसमें कहा गया है कि CSAM सामग्री वाले खाते इसके नियमों और शर्तों का उल्लंघन करते हैं और इन्हें अक्षम कर दिया जाएगा।
Apple के CSAM फोटो स्कैनिंग प्लान के बारे में बहुत कुछ कहा गया है। निजीऐसे अधिवक्ताओं को यह पसंद नहीं है. Apple के अपने कुछ कर्मचारी इसके बारे में अपनी चिंता व्यक्त की है. अधिकार संगठन टिम कुक से इसे मारने का आग्रह किया है इससे पहले कि यह यू.एस. में आईफोन उपयोगकर्ताओं के लिए भी शुरू हो जाए।
हालाँकि, ऐसा लगता है कि Apple में CSAM स्कैनिंग नई नहीं है। हालांकि कंपनी ने अतीत में आईक्लाउड फोटोज को स्कैन नहीं किया है, लेकिन यह चुपचाप बाल शोषण सामग्री के लिए हमारे आईक्लाउड मेल की जांच कर रही है।
Apple पुष्टि करता है कि वह CSAM के लिए iCloud मेल की जाँच करता है
"Apple ने मुझे पुष्टि की कि वह 2019 से CSAM अटैचमेंट के लिए आउटगोइंग और इनकमिंग आईक्लाउड मेल को स्कैन कर रहा है," बेन लवजॉय लिखते हैं 9to5Mac. "Apple ने यह भी संकेत दिया कि वह अन्य डेटा के लिए कुछ सीमित स्कैनिंग कर रहा था, लेकिन मुझे यह नहीं बताएगा कि वह क्या था।"
आईक्लाउड मेल उपयोगकर्ताओं के विशाल बहुमत को यह पता नहीं था कि ऐसा हो रहा है, लेकिन ऐप्पल ने इसे गुप्त नहीं रखा। इसकी बाल सुरक्षा वेबसाइट के एक संग्रहीत संस्करण में कहा गया है कि "Apple बाल शोषण को खोजने और रिपोर्ट करने में मदद करने के लिए छवि मिलान तकनीक का उपयोग करता है।"
"ईमेल में स्पैम फ़िल्टर की तरह, हमारा सिस्टम संदिग्ध बाल शोषण को खोजने के लिए इलेक्ट्रॉनिक हस्ताक्षर का उपयोग करता है। हम प्रत्येक मैच को व्यक्तिगत समीक्षा के साथ मान्य करते हैं। बाल शोषण सामग्री वाले खाते हमारे सेवा के नियमों और शर्तों का उल्लंघन करते हैं, और इस सामग्री के साथ हमें मिलने वाले किसी भी खाते को अक्षम कर दिया जाएगा।"
Apple के मुख्य गोपनीयता अधिकारी जेन होवार्थ भी जनवरी 2020 में सीईएस में अभ्यास की पुष्टि की. "हम बाल यौन शोषण सामग्री के लिए स्क्रीन में मदद करने के लिए कुछ तकनीकों का उपयोग कर रहे हैं," उसने कहा एक पैनल जिसमें उसने भाग लिया, Apple द्वारा उपयोग की जाने वाली तकनीक पर अधिक विवरण प्रदान किए बिना फिर।
Apple ने CSAM स्कैनिंग को आगे बढ़ाया
CSAM स्कैनिंग का विस्तार करने के Apple के निर्णय के पीछे के कारण अभी भी पूरी तरह से स्पष्ट नहीं हैं। लेकिन 2020 में Apple कर्मचारियों के बीच हुई बातचीत के अनुसार, कंपनी की चल रही कानूनी लड़ाई के हिस्से के रूप में उजागर हुआ एपिक गेम्स के खिलाफ, धोखाधड़ी-रोधी प्रमुख एरिक फ्रीडमैन ने Apple को "बच्चे के वितरण के लिए सबसे बड़ा मंच" के रूप में वर्णित किया पॉर्न।"
उस कथन के बावजूद, यह माना जाता है कि प्रत्येक वर्ष iCloud मेल में Apple द्वारा उजागर किए गए CSAM मामलों की कुल संख्या को "इसमें मापा जाता है" सैकड़ों।" यह इतना महत्वपूर्ण नहीं लगता - हालांकि सिर्फ एक पूरी तरह से अस्वीकार्य है - यह देखते हुए कि अरबों Apple उपकरणों का उपयोग किया जाता है विश्व स्तर पर।
विस्तार का इस तथ्य से कुछ लेना-देना हो सकता है कि Microsoft सहित Apple के कई प्रतिद्वंद्वी भी CSAM सामग्री के लिए स्कैन कर रहे हैं। हो सकता है कि Apple ने महसूस किया हो कि यदि अन्य प्लेटफ़ॉर्म CSAM पर मुहर लगाने के लिए काम कर रहे हैं तो यह अच्छा नहीं लगता, जबकि Apple आंखें मूंद लेता है।