Appleは、女性ユーザーが所有するブラジャーの写真の大規模な集中アーカイブを構築していますか? 呼び出す ベットリッジの法則 疑問符で終わる注目を集める見出しについては、いいえ、そうではありません。
あるインターネットユーザーからのツイートで「ブラジャー」と入力すると指摘された後、昨日インターネットは大騒ぎになりました。 彼女のiPhoneの写真アプリ検索バーは、彼女のさまざまな画像を表示するフォルダのように見えるものを表示しました 服を脱ぎます。 しかし、結局のところ、そうではありません。
Appleの画像認識技術
「すべての女の子に注意してください! 写真に移動してブラジャーを入力します。 なぜAppleはこれらを保存してフォルダにしたのですか!?」 問題のTwitterユーザーが書いた。 すぐに抗議があり、他のユーザーは、Appleがこれらの写真を自分のフォルダに保存していること、そしてこれを行うと「本当に違反している」と感じると指摘しました。
実際には、Appleはあなたの写真をトロールして、もっと卑劣な写真を選んでいるわけではありません。 代わりに、「発見」されたのは、Appleの印象的な機械学習機能が導入されたことです。 昨年のiOSの更新では、機械学習を使用して、どのオブジェクトが存在するかを把握します 画像。
![](/f/8e7bcc110ec5a63f9340f4bdf2a2c868.jpg)
エル
@ellieeewbu
すべての女の子に注意してくださいすべての女の子!!! 写真に移動して「ブラジャー」と入力すると、アップルがこれらを保存してフォルダにしたのはなぜですか?😱😱😱😱
25.9K
12.6K
ブラはそのようなアイテムの1つですが、そろばん、見本市会場、水槽、バセットハウンド、柑橘系の果物、大根など、物議を醸すアイテムは他にもあります。 (完全なリストについては、これをチェックしてください 包括的なまとめはこちら。)これらのアイテムを検索すると、AppleのAIアルゴリズムが写真をスキャンし、それらにアクセスできるように一時フォルダーを作成します。
ただし、これに関する最大のポイントは、画像がAppleが見通すものではないということです。 すべての顔認識とシーンおよびオブジェクトの検出と処理は、ローカルに保存されている画像を使用してデバイス上でローカルに実行されます。 どちらかといえば、すべての反発は、Appleがこれらの最先端の機能のいくつかを宣伝するより良い仕事をする必要があるということです。
代替ソリューション
ただし、デバイス上の機密画像が心配な場合は、私が書いたアプリをお勧めします。 最近の「今週の素晴らしいアプリ」のまとめ. ヌードと呼ばれるこのアプリは、Apple独自のディープラーニング画像認識テクノロジーと同様のAIを使用して動作します。 これにより、写真をスキャンして裸の写真を探し、プライベートボールトに配置して、カメラロールから削除し、iCloudに移動しないようにします。
ヌードは無料でダウンロードできますが、実行にかかる費用は年間10ドルで、写真に侵入しようとする試みも追跡します。 ボールト、さらにクレジットカード、ID、運転免許証などの機密画像を保護するために使用できます 画像。 君は ここからダウンロードできます.