Electronic Frontier Foundation(EFF)は、Appleに対し、その後、子供の安全機能を完全に放棄するよう求めました。 彼らの展開は遅れました.
グループは、Appleの動きが今のところ保留されていることを「喜んでいる」と述べています。 しかし、それは、児童虐待資料(CSAM)のユーザー画像のスキャンを含む計画を「すべてのiCloudPhotosユーザーのプライバシーの低下」と呼んでいます。
Appleの最初の発表に対するEFFの請願には、現在25,000を超える署名が含まれています。 Fight for the FutureやOpenMediaなどのグループによって開始されたもう1つには、50,000を超えるものが含まれています。
CSAMが完全に受け入れられないことは言うまでもありませんが、児童虐待の資料について写真をスキャンするという同社の計画に同意する多くのAppleファンを見つけるのは難しいでしょう。 ほとんどの人は、それを重大なプライバシー侵害と見なしています。
一部の専門家は、Appleが政府からの避けられない圧力に屈した場合、機能を拡張して後で他の資料をスキャンする可能性があると警告しています。 他の人は、この動きが脆弱な子供たちを危険にさらす可能性があると言います。
Appleはそのフィードバックに耳を傾けてきました。 先週、「インプットの収集と改善」に時間がかかるため、計画が延期されたと発表した。 しかし、EFFはそれだけでは不十分だと信じています。
Appleは「ただ聞くだけではない」
「EFFは、Appleが顧客、研究者、市民的自由組織、人権の懸念に耳を傾けていることを喜んでいます。 活動家、LGBTQの人々、若者の代表者、その他のグループは、電話スキャンツールによってもたらされる危険性について」と述べています。 グループの 最新の投稿.
「しかし、会社は単に耳を傾けるだけでなく、暗号化にバックドアを完全に組み込む計画を打ち切る必要があります。 Appleが1か月前に発表した機能は、子供を保護することを目的としており、監視と検閲を強化するために簡単にリダイレクトできるインフラストラクチャを作成します。」
EFFはまた、この機能は「iPhoneユーザーのプライバシーとセキュリティに甚大な危険をもたらし、権威主義者を提供するだろう」と警告しました。 政府は市民をスパイするための新しい大量監視システムです。」 また、Appleのそれに続く圧倒的な反発も指摘しました 発表。
応答は「酷い」でした
「Appleの計画への反応はひどいものだった」とそれは言った。 強調表示 公開書簡 90を超える組織からTimCookまで、計画の廃止を呼びかけ、「Tell Apple:Do n’t Scan Our Phones」というタイトルの独自の請願書があり、現在25,000を超える署名があります。
「これは、Fight for the FutureやOpenMediaなどのグループによる他の請願に加えて、合計50,000をはるかに超える署名です。」 EFFは、Appleに警告する前に、ユーザーがデータを保持するという約束を維持することをユーザーが「要求し続ける」と述べた。 保護されています。
Appleは金曜日に延期されると発表して以来、CSAM計画について公にコメントしていない。 しばらくの間、これ以上聞くことはないでしょう。 しかし、現状では、Appleは「非常に重要」と表現した機能を将来利用できるようにすることを決意しているようです。