No, Apple no está construyendo un archivo masivo de fotos de sujetadores

¿Apple está construyendo un archivo centralizado masivo de fotos de sujetadores pertenecientes a sus usuarias? Invocar Ley de Betteridge sobre los titulares que llaman la atención y que terminan con un signo de interrogación, no, no lo es.

Internet se volvió loco ayer después de que un tuit de un usuario de Internet señalara que escribir "sujetador" en el La barra de búsqueda de la aplicación Fotos de su iPhone mostró lo que parecía ser una carpeta que mostraba varias imágenes de ella en un estado de desnudo. Sin embargo, resulta que ese no es exactamente el caso.

Tecnología de reconocimiento de imágenes de Apple

“¡Atención a todas las chicas! Ve a tus fotos y escribe sujetador. ¿¡Por qué Apple los guarda y los convierte en una carpeta!? " escribió el usuario de Twitter en cuestión. Inmediatamente hubo una protesta, y otros usuarios señalaron que Apple está guardando estas fotos en sus propias carpetas y que al hacerlo se sienten "realmente violadas".

En realidad, Apple no está revisando tus fotos y seleccionando las más lascivas. En cambio, lo que se había "descubierto" eran las impresionantes capacidades de aprendizaje automático de Apple introducidas con la actualización de iOS del año pasado, que utiliza el aprendizaje automático para averiguar qué objetos están presentes en imágenes.

ana

@ellieeewbu

ATENCIÓN TODAS LAS CHICAS TODAS LAS CHICAS!!! Ve a tus fotos y escribe "Brassiere", ¿por qué Apple las guarda y las convierte en una carpeta? 😱😱😱😱

Imagen
4:53 PM · 30 de Octubre de 2017

25,9 mil

12,6 mil

Los sujetadores son uno de esos artículos, pero otros incluyen artículos menos controvertidos como ábacos, recintos feriales, peceras, Bassett Hounds, frutas cítricas, rábanos japoneses y cientos más. (Para obtener una lista completa, consulte este resumen completo aquí.) Cuando busca estos elementos, los algoritmos de inteligencia artificial de Apple escanean sus imágenes y crean una carpeta temporal que le permite acceder a ellos.

Sin embargo, el punto más importante de esto es que las imágenes no son de ninguna manera para que Apple las vea. Todo el reconocimiento facial y la detección y procesamiento de escenas y objetos se realiza localmente en su dispositivo con imágenes que también se almacenan localmente. En todo caso, todo lo que muestra la reacción es que Apple necesita hacer un mejor trabajo publicitando algunas de estas características de vanguardia.

Una solución alternativa

Sin embargo, si le preocupan las imágenes sensibles en su dispositivo, puedo recomendar una aplicación sobre la que escribí en un resumen reciente de "Aplicaciones increíbles de la semana". Llamada Nude, la aplicación funciona mediante el uso de inteligencia artificial similar a la propia tecnología de reconocimiento de imágenes de aprendizaje profundo de Apple. Con esto, escanea sus fotos en busca de fotos desnudas y luego las coloca en una bóveda privada, eliminándolas del rollo de la cámara y asegurándose de que ninguna de ellas llegue a iCloud.

Nude, que se puede descargar gratis pero cuesta $ 10 al año para ejecutar, incluso rastreará los intentos de ingresar a su foto bóveda y, además, se puede utilizar para proteger imágenes sensibles como tarjetas de crédito, identificación o licencia de conducir imágenes. usted puedes descargarlo aquí.

Última publicación de blog

| Culto de Mac
August 20, 2021

Por qué Microsoft Surface RT probablemente no tendrá una pantalla más clara que el nuevo iPadNo se deje engañar por las afirmaciones de Microsoft t...

| Culto de Mac
October 21, 2021

Use el flash de su iPhone para alertas de notificación visibles con LED [Consejos para iOS]Si ha leído estos consejos durante algún tiempo, sabrá q...

| Culto de Mac
September 10, 2021

iPad Pro con cámara de triple lente parece cada vez más probableEste folio de cuero Pad & Quill está listo si Apple incorpora más lentes en las...