تحذف Apple بهدوء جميع الإشارات إلى خطة CSAM المثيرة للجدل من موقعها على الإنترنت
الصورة: آبل
أزالت Apple بهدوء جميع الإشارات إلى خطة فحص مواد الاعتداء الجنسي على الأطفال المثيرة للجدل (CSAM) من موقعها على الإنترنت.
أعلن كوبرتينو مرة أخرى في أغسطس عن نيته البحث في مكتبات صور iCloud للكشف عن مواد CSAM. ولكن بعد انتقادات كبيرة من الخبراء والجماعات الحقوقية وحتى موظفيها ، تم تعليق الميزة.
صرحت شركة Apple في سبتمبر أنها "قررت تخصيص وقت إضافي" لجمع المدخلات وإجراء تحسينات على الميزة. ولكن من غير الواضح الآن ما إذا كان سيتم المضي قدمًا في مسح صور CSAM على الإطلاق.
خطة أبل CSAM المثيرة للجدل
كانت خطة Apple الأصلية هي استخدام نظام يسمى NeuralMatch للكشف عن الصور المشتبه بإساءة معاملة الأطفال في مكتبات صور المستخدم التي تم تحميلها على iCloud. كما ستوظف مراجعين بشريين للتحقق من أن المواد كانت غير قانونية.
بمجرد إجراء المطابقة والتحقق منها ، خططت Apple لإبلاغ السلطات المختصة بذلك حتى يمكن اتخاذ الإجراء. من الواضح أن نواياها كانت جيدة ، ولكن اتضح أن الناس لم يكونوا سعداء بفكرة إجراء مسح ضوئي لصورهم.
بعد فترة وجيزة من الإعلان عن خطة CSAM ، واجهت شركة Apple وابلًا من الانتقادات من دعاة الخصوصية, الجماعات الحقوقية، و منظمات مثل EFF. حتى موظفيها كانوا ينضم بهدوء إلى رد الفعل العنيف.
سرعان ما نشرت شركة آبل المزيد دليل مفصل لمسح صور CSAM في محاولة لتهدئة المخاوف ، لكنها لم تحدث فرقًا كبيرًا. بعد شهر واحد فقط من الإعلان عن الخطة ، أكدت شركة Apple أنها تم تأجيلها.
لم تعد صفحة أمان الأطفال من Apple تشير إلى CSAM
"لقد قررنا أن نأخذ وقتًا إضافيًا خلال الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إطلاق ميزات سلامة الأطفال بالغة الأهمية هذه ،" قالت الشركة في بيان نشر في سبتمبر.
بدا الأمر كما لو أن Apple لا تزال تنوي المضي قدمًا في الميزة - التي كان من المفترض في الأصل طرحها في تحديث iOS 15 - في النهاية. الآن ، اختفت جميع الإشارات إلى CSAM صفحة ويب Apple's سلامة الأطفال.
لم يتضح بعد ما يعنيه هذا بالنسبة لمسح CSAM. على الرغم من أن شركة Apple كانت مصممة على المضي قدمًا في هذه الميزة ، إلا أن التطورات الأخيرة تشير إلى أنها ربما ألغت الفكرة تمامًا بهدوء.
لقد طلبنا من Apple توضيحًا وسنقوم بتحديث هذه المشاركة إذا حصلنا على رد.