Nee, Apple bouwt geen enorm archief met bh-foto's

Is Apple bezig met het opbouwen van een enorm gecentraliseerd archief van bh-foto's van zijn vrouwelijke gebruikers? aanroepen Wet van Betterridge over opvallende koppen die eindigen met een vraagteken, nee, dat is het niet.

Het internet werd gisteren gek nadat een tweet van een internetgebruiker erop wees dat het typen van "brassiere" in de De zoekbalk van de app Foto's van haar iPhone bracht naar voren wat leek op een map met verschillende afbeeldingen van haar in een staat van... uitkleden. Het blijkt echter dat dat niet precies het geval is.

Apple's beeldherkenningstechnologie

“Alle meiden opgelet! Ga naar je foto's en typ beha in. Waarom slaat Apple deze op en heeft er een map van gemaakt!?” schreef de Twitter-gebruiker in kwestie. Onmiddellijk was er een verontwaardiging, waarbij andere gebruikers erop wezen dat Apple deze foto's in hun eigen mappen opslaat, en dat ze zich hierdoor "echt geschonden" voelen.

In werkelijkheid bladert Apple niet door je foto's en kiest ze helemaal niet voor de meer wellustige. In plaats daarvan waren de indrukwekkende machine learning-mogelijkheden van Apple "ontdekt" met de iOS-vernieuwing van vorig jaar, die machine learning gebruikt om erachter te komen welke objecten aanwezig zijn in afbeeldingen.

el

@ellieeewbu

LET OP ALLE MEISJES ALLE MEISJES!!! Ga naar je foto's en typ in de 'Brassiere' waarom slaat Apple deze op en heeft er een map van gemaakt???😱😱😱😱

Afbeelding
16:53 · 30 okt. 2017

25,9 K

12.6K

Beha's zijn zo'n item, maar andere bevatten minder controversiële items zoals telraampjes, kermisterreinen, aquaria, Bassett Hounds, citrusvruchten, Japanse radijs en honderden meer. (Voor een volledige lijst bekijk dit uitgebreide samenvatting hier.) Wanneer u deze items doorzoekt, scannen de AI-algoritmen van Apple uw afbeeldingen en stellen ze een tijdelijke map samen waarmee u ze kunt openen.

Het grootste punt hiervan is echter dat de afbeeldingen op geen enkele manier door Apple kunnen worden bekeken. Alle gezichtsherkenning en scène- en objectdetectie en -verwerking gebeurt lokaal op uw apparaat met afbeeldingen die ook lokaal worden opgeslagen. Als er iets is, blijkt uit alle terugslag dat Apple beter moet adverteren voor een aantal van deze geavanceerde functies.

Een alternatieve oplossing

Als u zich echter zorgen maakt over gevoelige afbeeldingen op uw apparaat, kan ik u een app aanbevelen waarover ik in a. heb geschreven recente verzameling "Geweldige apps van de week". De app, Nude genaamd, werkt met behulp van AI, vergelijkbaar met Apple's eigen deep learning-beeldherkenningstechnologie. Hiermee scant het je foto's op naaktfoto's en plaatst ze vervolgens in een privékluis, verwijdert ze uit je filmrol en zorgt ervoor dat geen van hen hun weg naar iCloud vindt.

Naakt, dat gratis te downloaden is maar $ 10 per jaar kost om te draaien, zal zelfs pogingen volgen om op je foto te komen kluis en kan bovendien worden gebruikt om gevoelige afbeeldingen zoals creditcard, identiteitsbewijs of rijbewijs te beschermen afbeeldingen. Jij kan het hier downloaden.

Laatste blogbericht

| Cult van Mac
September 11, 2021

Vergeet de iPad 3, de iPad 2 is nu geweldig!Ik voel me behoorlijk slecht over post van gisteren over de iPad 3 die degene is om een ​​lied te maken...

Apple zal toekomstige iPhone van Liquidmetal bouwen, zegt een andere voormalige directeur [exclusief]
September 11, 2021

Apple zal toekomstige iPhones en andere gadgets van Liquidmetal bouwen, zegt een voormalig toponderzoeker bij Liquidmetal Technologies, wiens techn...

Apple geeft de knoploze Touch ID nog niet op
September 11, 2021

Apple heeft mogelijk plannen om Touch ID-sensoren in iPhone-schermen in te bouwen in de steek gelaten voorstander van gezichtsherkenning, maar dat ...