Apple, çocuk istismarı materyali (CSAM) için kullanıcı fotoğraflarını tarama planını geciktiriyor

Apple Cuma günü, çocuk cinsel istismarı materyali (CSAM) için kullanıcı fotoğraflarını taramaya başlama konusundaki tartışmalı planlarını ertelediğini doğruladı.

Özellik başlangıçta bu yıl içinde piyasaya sürülmesi planlanıyor. Apple şimdi, değişiklikler yapılmadan önce “girdi toplamak ve iyileştirmeler yapmak” için zaman alacağını söylüyor – ancak bunlar tamamen iptal olmaktan çok uzak.

Apple'ın geçen ay duyurulan ilk planı, CSAM içeriğini tespit etmek için iCloud Photos'a yüklenen tüm görüntüleri taramaktı. Bir eşleşme bulduğunda, yetkililere bildirilmeden önce bir insan tarafından incelenirdi.

Apple ayrıca, çocuklar tarafından kullanılan, cinsel içerikli olduğu belirlenen içerikleri açmadan veya paylaşmaya çalışmadan önce onları uyaran özellikleri de duyurdu. Ancak planlar pek çok Apple hayranının hoşuna gitmedi.

Apple, CSAM planını erteledi

Kullanıcılar, gizlilik savunucuları, ve Apple'ın kendi çalışanları bile CSAM tespiti konusundaki endişelerini ve daha sonra dış baskı altında diğer içerikleri tespit edecek şekilde genişletilme potansiyelini dile getirdi.

Apple şimdi planın beklemeye alındığını ve iyileştirmenin zaman aldığını söylüyor. için yayınlanan bir bildiri Mac kültü Cuma günü okuyun:

Geçen ay, çocukları aşağıdakileri kullanan yırtıcılardan korumaya yardımcı olacak özelliklerle ilgili planlarımızı duyurmuştuk. onları işe almak ve istismar etmek ve Çocuk Cinsel İstismarının yayılmasını sınırlamak için iletişim araçları Malzeme. Müşterilerden, savunuculuk gruplarından, araştırmacılardan ve diğerlerinden gelen geri bildirimlere dayanarak, daha fazla zaman ayırmaya karar verdik. Bu kritik öneme sahip çocuk güvenliğini piyasaya sürmeden önce girdi toplamak ve iyileştirmeler yapmak için önümüzdeki aylarda özellikleri.

Apple da güncellemesini yaptı. orijinal basın bülteni özelliğinin bu ifadeye dahil edileceğini duyurdu.

CSAM taramasına karşı mücadele

Bu ayın başlarında, 90'dan fazla kuruluştan oluşan bir grup Apple CEO'su Tim Cook'a açık mektup yazdı, onu CSAM tarama planını iptal etmeye çağırıyor. Ayrıca Apple'ı benzer özellikleri kullanıma sunmadan önce sivil toplum grupları ve savunmasız topluluklarla tartışmalara girmeye çağırdı.

Bundan önce Apple, CSAM taramasını ve yeni çocuk güvenliği özelliklerini daha ayrıntılı olarak açıklayan uzun bir SSS yayınlayarak endişeleri gidermeye çalıştı. Ayrıca, her bir özelliğin ayrı ayrı nasıl çalışacağı konusundaki kafa karışıklığını da ortadan kaldırdı.

Ancak bu belge endişeleri gidermek için çok az şey yaptı. Çok sayıda kullanıcı hala Apple cihazlarını çevrimiçi boykot etmekle tehdit ederken, uzmanlar potansiyel tuzaklar hakkında uyarılarını dile getirmeye devam etti.

Apple'ın planı erteleme kararı, şirketin bu endişeleri duyduğunu doğruladı. Bununla birlikte, gelecekte CSAM için fotoğraf tarama planının ölü olmaktan uzak olduğu görülüyor.

Son Blog Yazısı

| Mac kültü
August 21, 2021

Temize çıkma zamanı: Gitar çalıyorum ve bir disko grubunda şarkı söylüyorum. Biliyorum, biliyorum, bu tür müziğe karşı tepkiler 1977'den beri devam...

| Mac kültü
August 21, 2021

Son şans! Speck'ten MagSafe uyumlu bir Perfect-Clear vakası kazanın [Cult of Mac eşantiyonu]Speck'in şimdiye kadarki en koruyucu iPhone kılıfı.Foto...

| Mac kültü
August 21, 2021

Daha fazla değil, daha akıllı çalışmak için Instagram filtrelerinizi kolaylaştırınInstagram ile daha çok değil, daha akıllıca çalışın.Fotoğraf: Kır...