Apple supprime discrètement toutes les mentions du plan CSAM de son site Web

Apple supprime discrètement toutes les mentions du plan CSAM controversé de son site Web

Numérisation de photos Apple CSAM
Que se passe-t-il avec la numérisation CSAM ?
Photo: pomme

Apple a discrètement supprimé de son site Web toutes les références à son plan d'analyse controversé du matériel pédopornographique (CSAM).

Cupertino a annoncé en août son intention de parcourir les bibliothèques de photos iCloud pour détecter le matériel CSAM. Mais après d'importantes critiques d'experts, de groupes de défense des droits et même de ses propres employés, le long métrage a été suspendu.

Apple a déclaré en septembre qu'il avait "décidé de prendre plus de temps" pour collecter des informations et apporter des améliorations à la fonctionnalité. Mais il est maintenant difficile de savoir s'il ira de l'avant avec la numérisation de photos CSAM.

Le plan CSAM controversé d'Apple

Le plan initial d'Apple était d'utiliser un système appelé neuralMatch pour découvrir des images suspectées d'abus d'enfants dans les bibliothèques de photos d'utilisateurs téléchargées sur iCloud. Il emploierait également des examinateurs humains pour vérifier que le matériel était illégal.

Une fois la correspondance établie et vérifiée, Apple prévoyait de la signaler aux autorités compétentes afin que des mesures puissent être prises. Ses intentions étaient évidemment bonnes, mais il s'avère que les gens n'étaient pas contents à l'idée de faire numériser leurs photos.

Peu de temps après l'annonce du plan CSAM, Apple a fait face à un déluge de critiques de la part de défenseurs de la vie privée, groupes de droits, et des organisations comme l'EFF. Même ses propres employés étaient rejoindre tranquillement le contrecoup.

Apple a rapidement publié un plus guide détaillé de la numérisation de photos CSAM dans un effort pour apaiser les inquiétudes, mais cela a fait peu de différence. Un mois seulement après l'annonce du plan, Apple a confirmé qu'il était suspendu.

La page Sécurité des enfants d'Apple ne mentionne plus CSAM

« Nous avons décidé de prendre plus de temps au cours des prochains mois pour recueillir des commentaires et apporter des améliorations avant de publier ces fonctionnalités de sécurité pour enfants d'une importance cruciale » la société a dit dans un communiqué publié en septembre.

Il semblait qu'Apple avait toujours l'intention d'aller de l'avant avec la fonctionnalité – qui devait à l'origine être déployée dans une mise à jour iOS 15 – finalement. Maintenant, toutes les mentions de CSAM ont disparu de La page Web d'Apple sur la sécurité des enfants.

Ce que cela signifie pour l'analyse CSAM n'est pas encore clair. Bien qu'Apple soit déterminé à faire avancer la fonctionnalité, les derniers développements suggèrent qu'il a peut-être complètement abandonné l'idée.

Nous avons demandé des éclaircissements à Apple et nous mettrons à jour ce message si nous obtenons une réponse.

Dernier article de blog

Verizon iPhone 4, iPad 2 frappera Radio Shack le 15 septembre
September 10, 2021

Verizon iPhone 4, iPad 2 frappera Radio Shack le 15 septembreSuite à sa décision d'éviter T-Mobile et de commencer à vendre des appareils Verizon à...

Qué? Siri détruit Cortana et Google Now sur la précision de la langue
September 10, 2021

Trois ans et demi après les débuts de Siri, les assistants virtuels ne sont pas encore devenus un élément d'interface utilisateur comparable, par e...

| Culte de Mac
September 10, 2021

Dark Sky devient une application météo encore meilleure avec la grande refonte d'iOS 7Je sais toujours quand il va pleuvoir. Ce n'est pas parce que...