Is Apple bezig met het opbouwen van een enorm gecentraliseerd archief van bh-foto's van zijn vrouwelijke gebruikers? aanroepen Wet van Betterridge over opvallende koppen die eindigen met een vraagteken, nee, dat is het niet.
Het internet werd gisteren gek nadat een tweet van een internetgebruiker erop wees dat het typen van "brassiere" in de De zoekbalk van de app Foto's van haar iPhone bracht naar voren wat leek op een map met verschillende afbeeldingen van haar in een staat van... uitkleden. Het blijkt echter dat dat niet precies het geval is.
Apple's beeldherkenningstechnologie
“Alle meiden opgelet! Ga naar je foto's en typ beha in. Waarom slaat Apple deze op en heeft er een map van gemaakt!?” schreef de Twitter-gebruiker in kwestie. Onmiddellijk was er een verontwaardiging, waarbij andere gebruikers erop wezen dat Apple deze foto's in hun eigen mappen opslaat, en dat ze zich hierdoor "echt geschonden" voelen.
In werkelijkheid bladert Apple niet door je foto's en kiest ze helemaal niet voor de meer wellustige. In plaats daarvan waren de indrukwekkende machine learning-mogelijkheden van Apple "ontdekt" met de iOS-vernieuwing van vorig jaar, die machine learning gebruikt om erachter te komen welke objecten aanwezig zijn in afbeeldingen.
![](/f/8e7bcc110ec5a63f9340f4bdf2a2c868.jpg)
el
@ellieeewbu
LET OP ALLE MEISJES ALLE MEISJES!!! Ga naar je foto's en typ in de 'Brassiere' waarom slaat Apple deze op en heeft er een map van gemaakt???😱😱😱😱
25,9 K
12.6K
Beha's zijn zo'n item, maar andere bevatten minder controversiële items zoals telraampjes, kermisterreinen, aquaria, Bassett Hounds, citrusvruchten, Japanse radijs en honderden meer. (Voor een volledige lijst bekijk dit uitgebreide samenvatting hier.) Wanneer u deze items doorzoekt, scannen de AI-algoritmen van Apple uw afbeeldingen en stellen ze een tijdelijke map samen waarmee u ze kunt openen.
Het grootste punt hiervan is echter dat de afbeeldingen op geen enkele manier door Apple kunnen worden bekeken. Alle gezichtsherkenning en scène- en objectdetectie en -verwerking gebeurt lokaal op uw apparaat met afbeeldingen die ook lokaal worden opgeslagen. Als er iets is, blijkt uit alle terugslag dat Apple beter moet adverteren voor een aantal van deze geavanceerde functies.
Een alternatieve oplossing
Als u zich echter zorgen maakt over gevoelige afbeeldingen op uw apparaat, kan ik u een app aanbevelen waarover ik in a. heb geschreven recente verzameling "Geweldige apps van de week". De app, Nude genaamd, werkt met behulp van AI, vergelijkbaar met Apple's eigen deep learning-beeldherkenningstechnologie. Hiermee scant het je foto's op naaktfoto's en plaatst ze vervolgens in een privékluis, verwijdert ze uit je filmrol en zorgt ervoor dat geen van hen hun weg naar iCloud vindt.
Naakt, dat gratis te downloaden is maar $ 10 per jaar kost om te draaien, zal zelfs pogingen volgen om op je foto te komen kluis en kan bovendien worden gebruikt om gevoelige afbeeldingen zoals creditcard, identiteitsbewijs of rijbewijs te beschermen afbeeldingen. Jij kan het hier downloaden.