Apple Cuma günü, çocuk cinsel istismarı materyali (CSAM) için kullanıcı fotoğraflarını taramaya başlama konusundaki tartışmalı planlarını ertelediğini doğruladı.
Özellik başlangıçta bu yıl içinde piyasaya sürülmesi planlanıyor. Apple şimdi, değişiklikler yapılmadan önce “girdi toplamak ve iyileştirmeler yapmak” için zaman alacağını söylüyor – ancak bunlar tamamen iptal olmaktan çok uzak.
Apple'ın geçen ay duyurulan ilk planı, CSAM içeriğini tespit etmek için iCloud Photos'a yüklenen tüm görüntüleri taramaktı. Bir eşleşme bulduğunda, yetkililere bildirilmeden önce bir insan tarafından incelenirdi.
Apple ayrıca, çocuklar tarafından kullanılan, cinsel içerikli olduğu belirlenen içerikleri açmadan veya paylaşmaya çalışmadan önce onları uyaran özellikleri de duyurdu. Ancak planlar pek çok Apple hayranının hoşuna gitmedi.
Apple, CSAM planını erteledi
Kullanıcılar, gizlilik savunucuları, ve Apple'ın kendi çalışanları bile CSAM tespiti konusundaki endişelerini ve daha sonra dış baskı altında diğer içerikleri tespit edecek şekilde genişletilme potansiyelini dile getirdi.
Apple şimdi planın beklemeye alındığını ve iyileştirmenin zaman aldığını söylüyor. için yayınlanan bir bildiri Mac kültü Cuma günü okuyun:
Geçen ay, çocukları aşağıdakileri kullanan yırtıcılardan korumaya yardımcı olacak özelliklerle ilgili planlarımızı duyurmuştuk. onları işe almak ve istismar etmek ve Çocuk Cinsel İstismarının yayılmasını sınırlamak için iletişim araçları Malzeme. Müşterilerden, savunuculuk gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, daha fazla zaman ayırmaya karar verdik. Bu kritik öneme sahip çocuk güvenliğini piyasaya sürmeden önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda özellikleri.
Apple da güncellemesini yaptı. orijinal basın bülteni özelliğinin bu ifadeye dahil edileceğini duyurdu.
CSAM taramasına karşı mücadele
Bu ayın başlarında, 90'dan fazla kuruluştan oluşan bir grup Apple CEO'su Tim Cook'a açık mektup yazdı, onu CSAM tarama planını iptal etmeye çağırıyor. Ayrıca Apple'ı benzer özellikleri kullanıma sunmadan önce sivil toplum grupları ve savunmasız topluluklarla tartışmalara girmeye çağırdı.
Bundan önce Apple, CSAM taramasını ve yeni çocuk güvenliği özelliklerini daha ayrıntılı olarak açıklayan uzun bir SSS yayınlayarak endişeleri gidermeye çalıştı. Ayrıca, her bir özelliğin ayrı ayrı nasıl çalışacağı konusundaki kafa karışıklığını da ortadan kaldırdı.
Ancak bu belge endişeleri gidermek için çok az şey yaptı. Çok sayıda kullanıcı hala Apple cihazlarını çevrimiçi boykot etmekle tehdit ederken, uzmanlar potansiyel tuzaklar hakkında uyarılarını dile getirmeye devam etti.
Apple'ın planı erteleme kararı, şirketin bu endişeleri duyduğunu doğruladı. Bununla birlikte, gelecekte CSAM için fotoğraf tarama planının ölü olmaktan uzak olduğu görülüyor.