Appleは、物議を醸しているCSAM計画に関するすべての言及をWebサイトから静かに削除します
写真:アップル
Appleは、物議を醸している児童性的虐待資料(CSAM)スキャン計画へのすべての言及をWebサイトから静かに削除しました。
クパチーノは8月に、CSAM素材を検出するためにiCloudフォトライブラリをトロールする意向を発表しました。 しかし、専門家、権利グループ、さらにはその従業員からの重大な批判の後、この機能は棚上げになりました。
Appleは9月に、入力を収集して機能を改善するために「追加の時間をかけることを決定した」と述べた。 しかし、CSAM写真スキャンを進めるかどうかは今のところ不明です。
Appleの物議を醸すCSAM計画
Appleの当初の計画は、neuralMatchと呼ばれるシステムを使用して、iCloudにアップロードされたユーザーの写真ライブラリにある児童虐待の疑いのある画像を発掘することでした。 また、その資料が違法であることを確認するために人間の査読者を雇うでしょう。
一致が確認された後、Appleは、措置を講じられるように、関係当局に報告することを計画しました。 その意図は明らかに良かったのですが、人々は自分の写真をスキャンするというアイデアに満足していなかったことがわかりました。
CSAM計画が発表された直後、Appleは プライバシー擁護者, 権利グループ、 と EFFのような組織. 自社の従業員でさえ 静かにバックラッシュに参加.
Appleはすぐにもっと公開しました CSAM写真スキャンの詳細ガイド 懸念を鎮めるために努力しましたが、それはほとんど違いがありませんでした。 計画が発表されてからわずか1か月後、Appleは計画が保留になっていることを確認しました。
Appleの児童安全ページはCSAMについて言及しなくなりました
「これらの非常に重要な児童安全機能をリリースする前に、今後数か月にわたって入力を収集し、改善を行うために追加の時間をかけることにしました。」 会社は言った 9月に発表された声明の中で。
Appleは、もともとiOS 15アップデートで展開されるはずだったこの機能を、最終的にはまだ進めようとしているように見えた。 現在、CSAMに関するすべての言及は Appleの児童安全ウェブページ.
これがCSAMスキャンにとって何を意味するのかはまだ明らかではありません。 Appleはこの機能を推進することを決意したが、最新の開発は、Appleがそのアイデアを静かに完全に廃棄した可能性があることを示唆している。
Appleに説明を求めました。返信があれば、この投稿を更新します。