Apple, Perşembe günkü haberlere göre, çocukların iPhone'larında ve iCloud hesaplarında saklanan fotoğrafları çocuk istismarı düşündüren görüntüler için taramayı planlıyor. Bu çaba, kolluk kuvvetleri soruşturmalarına yardımcı olabilir, ancak aynı zamanda devlet kurumları tarafından kullanıcı verilerine tartışmalı erişime davet edebilir.
Apple'ın web sayfasındaki güncellemesi "Çocuklar için Genişletilmiş Korumalar” — “CSAM Tespiti” alt başlığına bakın — tarama planını resmileştiriyor gibi görünüyor. CSAM, “çocuk cinsel istismarı materyali” anlamına gelir.
Apple'ın uygulamaya koyduğu neuralMatch adı verilen sistem, "bir insan inceleme ekibini proaktif olarak uyaracaktır. yasa dışı görüntülerin tespit edildiğine inanıyor ve materyal doğrulanabilirse kim daha sonra kolluk kuvvetleriyle iletişime geçecek” dedi. Finansal Zamanlarrapor edildi Perşembe.
Apple, ABD'deki akademisyenlere bu hafta plan hakkında bilgi verdi ve iki güvenlik araştırmacısının konuyla ilgili brifing verdiği "bu hafta en kısa sürede" daha fazlasını paylaşabileceğini söyledi. Finansal Zamanlar.
Veritabanı görüntüleri ile karşılaştırıldığında şüpheli fotoğraflar
Gazete, uzmanların Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi'nden 200.000 görüntü kullanarak neuralMatch'i "eğittiğini" ekledi. Şüpheli fotoğrafların hash işlemi yapılacak ve ardından bir veri tabanındaki çocuk cinsel istismarı görüntüleri ile karşılaştırılacaktır.
Sistem önce Amerika Birleşik Devletleri'nde ve daha sonra başka yerlerde ortaya çıkıyor, FT bildirildi.
“Planlar hakkında bilgi verilen kişilere göre, ABD'de iCloud'a yüklenen her fotoğraf; şüpheli olup olmadığını belirten bir 'emniyet fişi' verilecek” FT dedim. “Belirli sayıda fotoğraf şüpheli olarak işaretlendiğinde, Apple tüm şüpheli fotoğrafların şifresinin çözülmesine ve görünüşe göre yasa dışıysa ilgili makamlara iletilmesine izin verecek.”
Sistemle ilgili endişeler
Sınır Johns Hopkins Üniversitesi profesörü ve kriptograf Matthew Green'in Twitter'da sistemle ilgili endişelerini dile getirdiğini kaydetti. "Bu tür bir araç, insanların telefonlarında çocuk pornografisi bulmak için bir nimet olabilir" yeşil dedi. “Ama otoriter bir hükümetin elinde neler yapabileceğini hayal edin?”
"Apple'ın bu araçların kötüye kullanılmasına izin vermeyeceğine inansanız bile [çapraz parmak emojisi] hala endişelenecek çok şey var." ekledi. "Bu sistemler, bir tüketici olarak inceleyemeyeceğiniz bir 'sorunlu medya karmaları' veritabanına dayanıyor."
Apple ve diğerleri zaten benzer bir şey yapıyor
Apple ve diğer büyük bulut sağlayıcıları, dosyaları bilinen çocuk istismarı görüntülerine karşı zaten kontrol ediyor. Ancak neuralMatch sistemi, yerel depolamaya merkezi erişime izin verdiği için yaptıklarının ötesine geçer. Sınır dedim.
Gözlemciler, sistemi diğer suçları kapsayacak şekilde genişletmenin kolay olacağını belirtiyor. Apple'ın önemli iş yaptığı Çin gibi bir ülkede, bu tür bir erişim ve yasal başvuru endişe verici olabilir.
Apple gizlilik konusunda
Apple, cihazlarının çoğunu yaptı' gizlilik korumalarıCEO Tim Cook tarafından yapılan son açıklamalar da dahil olmak üzere gizlilik bilincine sahip Avrupa Birliği'ne yönelik video.
Şirket, kısa bir süreliğine haberlere hakim oldu. FBI'ın talebine yardım etmeye direndi San Bernardino, California'daki 2015 saldırısında bir tetikçiye ait bir iPhone'a büro erişimi sağlıyor.
Haber kaynakları Perşembe günü Apple'ın görüntüleri tarama planı hakkında yorum taleplerine yanıt vermediğini bildirdi.