Apple scanner allerede dine e -mails efter materiale til misbrug af børn
![Apple scanner allerede dine e -mails efter materiale til misbrug af børn iCloud -adgangskoder lander på Windows](/f/4b15b361fc53a5e7873e039f225fec9d.jpeg)
Foto: Apple
Mange Apple -fans er kede af virksomhedens planlægger at begynde at scanne efter materiale til misbrug af børn (CSAM) i iCloud Photos uploades senere på året. Men vidste du, at Cupertino allerede har scannet efter CSAM i dine e -mails?
Apple har bekræftet, at det begyndte at opdage CSAM ved hjælp af billedtilpasningsteknologi i iCloud Mail tilbage i 2019. Det siger, at konti med CSAM -indhold overtræder dets vilkår og betingelser og deaktiveres.
Meget er blevet sagt om Apples CSAM -fotoscanningsplan. Privacy -fortalere kan ikke lide det. Nogle af Apples egne medarbejdere har givet udtryk for deres bekymringer om det. Rettighedsorganisationer har opfordret Tim Cook til at dræbe det før det overhovedet begynder at rulle ud til iPhone -brugere i USA
Det ser imidlertid ud til, at CSAM -scanning ikke er ny hos Apple. Selvom virksomheden ikke tidligere har scannet iCloud -fotos ud, har den stille og roligt tjekket vores iCloud Mail for materiale til misbrug af børn.
Apple bekræfter, at det kontrollerer iCloud Mail for CSAM
"Apple bekræftede over for mig, at det har scannet udgående og indgående iCloud Mail efter CSAM -vedhæftede filer siden 2019," skriver Ben Lovejoy for 9 til 5Mac. "Apple angav også, at det foretog en begrænset scanning efter andre data, men ville ikke fortælle mig, hvad det var."
Langt de fleste iCloud Mail -brugere havde sandsynligvis ingen anelse om, at dette skete, men Apple holdt det ikke hemmeligt. En arkiveret version af sit børnesikkerhedswebsted siger, at "Apple bruger teknologi til billedtilpasning til at finde og rapportere børneudnyttelse."
”Ligesom spamfiltre i e -mail bruger vores system elektroniske signaturer til at finde mistanke om udnyttelse af børn. Vi validerer hver kamp med individuel gennemgang. Konti med indhold til udnyttelse af børn overtræder vores servicevilkår og betingelser, og alle konti, vi finder med dette materiale, deaktiveres. ”
Apples chef for beskyttelse af personlige oplysninger, Jane Hovarth, også bekræftede praksis på CES i januar 2020. "Vi bruger nogle teknologier til at hjælpe med at screene materiale for seksuelt misbrug af børn," sagde hun under et panel, hun deltog i, uden at give yderligere detaljer om den teknologi, Apple brugte derefter.
Apple øger CSAM -scanningen
Årsagerne bag Apples beslutning om at udvide CSAM -scanning er stadig ikke helt klare. Men ifølge en samtale mellem Apple -medarbejdere i 2020, afdækket som en del af virksomhedens igangværende juridiske kamp mod Epic Games beskrev chef for bekæmpelse af svig Eric Friedman Apple som "den største platform til distribution af børn porno. ”
På trods af denne erklæring menes det, at det samlede antal CSAM -sager, der afdækkes af Apple i iCloud Mail hvert år, "måles i hundredvis. ” Det virker ikke så betydningsfuldt - selvom kun en er helt uacceptabel - i betragtning af at der bruges milliarder af Apple -enheder globalt.
Udvidelsen kan have noget at gøre med, at en række af Apples rivaler, herunder Microsoft, også scanner efter CSAM -indhold. Apple har måske følt, at det ikke ser godt ud, hvis andre platforme arbejder på at stemple CSAM, mens Apple lukker øjnene.