Apple, yeni SSS ile CSAM fotoğraf tarama endişelerini hafifletmeye çalışıyor

Apple, artan endişelerle mücadele etmek amacıyla kullanıcı fotoğraflarını çocuk istismarı görüntüleri (CSAM) için tarama planı hakkında yeni bir SSS yayınladı.

Apple, belgenin "daha fazla netlik ve şeffaflık" sağlamayı amaçladığını belirterek, "birçok mahremiyet kuruluşları ve çocuk güvenliği kuruluşları da dahil olmak üzere paydaşlar desteklerini ifade ettiler” hareket için.

SSS, iCloud'daki CSAM taraması ile Mesajlar'a gelen yeni çocuk koruma özellikleri arasındaki farkları açıklar. Ayrıca, Apple'ın, özellikleri genişletmek için devlet taleplerini kabul etmeyeceği konusunda kullanıcılara güvence veriyor.

Yeni SSS, Apple'ın geçen hafta kullanıma sunulacağını onayladıktan sonra geliyor yeni çocuk güvenliği özellikleri iCloud Fotoğrafları kitaplıklarında Çocukların Cinsel İstismarı Malzemesini (CSAM) taramayı ve Mesajlar'da müstehcen fotoğrafları algılamayı içerir.

Duyurudan bu yana, muhbir Edward Snowden ve Electronic Frontier Foundation (EFF) dahil olmak üzere bir dizi gizlilik savunucusu - plana karşı konuştu, bu yıl daha sonra ortaya çıkıyor.

EFF, "Böyle bir sistem kurmak için iyi niyetli bir çaba bile, habercinin şifrelemesinin temel vaatlerini bozacak ve daha geniş suistimallere kapı açacaktır" diye uyardı. Apple, yeni bir SSS ile bu endişeleri hafifletebileceğini umuyor.

Apple, iCloud Fotoğrafları taramasıyla ilgili SSS yayınladı

“Çocukları, onları işe almak ve sömürmek için iletişim araçlarını kullanan yırtıcılardan korumak istiyoruz ve Çocukların Cinsel İstismarı Materyalinin (CSAM) yayılmasını sınırlamak”, üzerinde yayınlanan altı sayfalık belgeyi okur. hafta sonu.

“Bu özellikleri duyurduğumuzdan beri, gizlilik kuruluşları ve çocuk güvenliği dahil olmak üzere birçok paydaş kuruluşlar bu yeni çözümü desteklediklerini ifade ettiler ve bazıları sorular.

"Bu belge, bu soruları ele almaya ve süreçte daha fazla netlik ve şeffaflık sağlamaya hizmet ediyor."

SSS adresleriyle ilgili ilk endişe, iCloud Fotoğrafları'ndaki CSAM algılaması ile Mesajlar'daki yeni iletişim güvenliği araçları arasındaki farktır. Apple, "İki özellik aynı değil" diyor.

Karışıklığı gidermek

SSS, Mesajlar'daki iletişim güvenliği "yalnızca Aile Paylaşımı'nda kurulan çocuk hesapları için Mesajlar uygulamasında gönderilen veya alınan görüntülerde çalışır" diye açıklıyor. “Cihazdaki görüntüleri analiz ediyor ve bu nedenle Mesajların gizlilik güvencelerini değiştirmiyor.”

Bir çocuk hesabı tarafından müstehcen bir görüntü gönderildiğinde veya alındığında, görüntü bulanıklaşır ve çocuk ne gönderdiği konusunda uyarılır. Apple ayrıca "faydalı kaynaklar" sağlanacak ve "fotoğrafı görüntülemek veya göndermek istemiyorlarsa sorun olmayacağına dair güvence verilecek" diyor.

Çocuklara ayrıca, güvende olduklarından emin olmak için, müstehcen bir görüntüyü görüntülemeyi veya göndermeyi seçerlerse ebeveynlerine bildirileceği söylenecektir.

iCloud Fotoğrafları'ndaki CSAM algılaması çok farklıdır. "Bilinen CSAM görüntüleriyle eşleşenler dışındaki herhangi bir fotoğraf hakkında Apple'a bilgi vermeden CSAM'ı iCloud Fotoğraflarından uzak tutmak" için tasarlanmıştır.

Apple, "Bu özellik yalnızca iCloud Fotoğraflarını kullanmayı seçen kullanıcıları etkiler" diye ekliyor. "Cihazdaki diğer veriler üzerinde hiçbir etkisi yoktur" - ve bir yetişkinin cihazında taranmayan Mesajlar için geçerli değildir.

Mesajlarda iletişim güvenliği

SSS, her iki özellikle ilgili çeşitli endişeleri gidermeye devam ediyor. Mesajlar'daki iletişim güvenliği konusunda, ebeveynlerin veya velilerin bu özelliği çocuk hesapları için kullanmayı seçmeleri gerektiğini ve bu özelliğin yalnızca 12 yaş ve altı çocuklar için geçerli olduğunu açıklar.

Apple, Mesajlar uygulamasında müstehcen görüntülerin ne zaman keşfedildiğini asla öğrenemez ve kolluk kuvvetleriyle hiçbir bilgi paylaşılmaz veya bildirilmez, diyor. Apple ayrıca, iletişim güvenliğinin Mesajlar'da uçtan uca şifrelemeyi bozmadığını da onaylar.

SSS ayrıca, bir çocuk görüntülemeyi veya paylaşmayı seçmediği sürece, Mesajlar'daki müstehcen içerik konusunda ebeveynlerin uyarılmayacağını da onaylar. Uyarıldıkları halde içeriği görüntülememeyi veya paylaşmamayı seçerlerse herhangi bir bildirim gönderilmez. Ve 13-17 yaşlarındalarsa, yine de bir uyarı görünür, ancak ebeveynlere bilgi verilmez.

iCloud Fotoğrafları'nda CSAM algılama

CSAM algılamasında Apple, özelliğin kullanıcının iPhone'unda depolanan tüm görüntüleri taramadığını, yalnızca iCloud Fotoğrafları'na yüklenenleri taradığını onaylar. "Ve o zaman bile, Apple yalnızca bilinen CSAM görüntülerinin koleksiyonlarını depolayan hesapları ve yalnızca bilinen CSAM ile eşleşen görüntüleri öğrenir."

iCloud Fotoğrafları'nı devre dışı bıraktıysanız, özellik çalışmaz. Ve gerçek CSAM görüntüleri karşılaştırma için kullanılmaz. “Gerçek görüntüler yerine Apple, cihazda depolanan okunamayan karmaları kullanıyor. Bu karmalar, bilinen CSAM görüntülerini temsil eden sayı dizileridir, ancak bu karmaları okumak veya temel alınan CSAM görüntülerine dönüştürmek mümkün değildir."

Apple, "Bu alandaki önemli zorluklardan biri, kullanıcıların gizliliğini korurken çocukları da korumaktır" diye açıklıyor. "Bu yeni teknoloji ile Apple, hesabın bilinen bir CSAM koleksiyonunu depoladığı iCloud Fotoğrafları'nda saklanan bilinen CSAM fotoğraflarını öğrenecek. Apple, yalnızca cihazda depolanan diğer veriler hakkında hiçbir şey öğrenmeyecek.”

Gizlilik ve güvenlik hakkında

SSS'nin son bölümü, Apple'ın ilk duyurusundan bu yana gündeme gelen gizlilik ve güvenlik endişelerini ele alıyor. CSAM algılamasının yalnızca CSAM'de çalıştığını doğrular - başka bir şey arayamaz - ve Apple CSAM'i kolluk kuvvetlerine bildirse de, süreç otomatik değildir.

FAW, "Apple, NCMEC'e rapor vermeden önce insan incelemesi yapıyor" diyor. “Sonuç olarak, sistem yalnızca iCloud Fotoğrafları'nda CSAM olarak bilinen fotoğrafları bildirmek için tasarlanmıştır. Amerika Birleşik Devletleri de dahil olmak üzere çoğu ülkede bu görüntülere sahip olmak bir suçtur.”

Apple ayrıca, Apple'ı CSAM dışındaki herhangi bir şeyi tespit etmeye zorlamaya çalışan hükümetlerden gelen "bu tür talepleri reddedeceğini" de doğrulamaktadır. "Daha önce kullanıcıların gizliliğini bozan devlet tarafından zorunlu kılınan değişiklikler oluşturma ve uygulama talepleriyle karşılaştık ve bu talepleri kararlı bir şekilde reddettik."

Apple, "Açık olalım," diye ekliyor, "bu teknoloji iCloud'da depolanan CSAM'i tespit etmekle sınırlıdır ve hiçbir hükümetin onu genişletme talebini kabul etmeyeceğiz."

Yapabilirsiniz Apple'ın web sitesinde tam SSS'yi okuyun şimdi.

Son Blog Yazısı

HomePod neden 349 dolardan çalınıyor?
October 21, 2021

HomePod'u rakip akıllı hoparlörlerle karşılaştırma ve onun için yakınma hatasına düşmeyin. 349 $ fiyat etiketi. Cihazın bir Amazon Echo'dan üç kat ...

Masanıza ve kontrol panelinize kablosuz şarj getirin [Fırsatlar]
October 21, 2021

Masanıza ve kontrol panelinize kablosuz şarj getirin [Fırsatlar]Kablosuz şarjın fütüristik rahatlığını arabanıza, evinize veya ofisinize getirin.Fo...

Apple Store'u Atlayın ve Daha Fazla İndirim Alın [Rapor]
October 21, 2021

Minimalist tasarım, Macbook ekranları, cana yakın, ansiklopedik satış personeli gibi eğik bir Apple Store'a girdiğinizde, biraz suskun olduğunuz iç...