Apple skanner allerede e -postene dine etter barnemishandling

Apple skanner allerede e -postene dine etter barnemishandling

iCloud -passord lander på Windows
iCloud Mail -kontoer er utestengt for deling av CSAM.
Foto: Apple

Mange Apple -fans er opprørt over selskapets planlegger å begynne å skanne etter barnemishandling (CSAM) i iCloud Photos lastes opp senere i år. Men visste du at Cupertino allerede har søkt etter CSAM i e -postene dine?

Apple har bekreftet at det begynte å oppdage CSAM ved hjelp av bildematchingsteknologi i iCloud Mail tilbake i 2019. Den sier at kontoer med CSAM -innhold bryter vilkårene og vil bli deaktivert.

Mye har blitt sagt om Apples CSAM -fotoskanningsplan. Privadvokater fra acy liker det ikke. Noen av Apples egne ansatte har uttrykt sin bekymring for det. Rettighetsorganisasjoner har oppfordret Tim Cook til å drepe den før det begynner å rulle ut til iPhone -brukere i USA

Det ser imidlertid ut til at CSAM -skanning ikke er nytt hos Apple. Selv om selskapet ikke har skannet ut iCloud -bilder tidligere, har det rolig sjekket vår iCloud Mail for materiale om overgrep mot barn.

Apple bekrefter at det sjekker iCloud Mail for CSAM

"Apple bekreftet overfor meg at det har skannet utgående og innkommende iCloud Mail for CSAM -vedlegg siden 2019," skriver Ben Lovejoy for 9 til 5Mac. "Apple indikerte også at det foretok en begrenset skanning etter andre data, men ville ikke fortelle meg hva det var."

De aller fleste iCloud Mail -brukere ante sannsynligvis ikke at dette skjedde, men Apple holdt det ikke hemmelig. En arkivert versjon av nettstedet for barnesikkerhet sier at "Apple bruker teknologi for bildematching for å finne og rapportere utnyttelse av barn."

“I likhet med søppelfiltre i e -post, bruker systemet vårt elektroniske signaturer for å finne mistanke om utnyttelse av barn. Vi bekrefter hver kamp med individuell anmeldelse. Kontoer med innhold for utnyttelse av barn bryter med våre vilkår og betingelser, og alle kontoer vi finner med dette materialet vil bli deaktivert. ”

Apples sjef for personvern Jane Hovarth også bekreftet praksisen på CES i januar 2020. "Vi bruker noen teknologier for å hjelpe til med å se etter materiale for seksuelle overgrep mot barn," sa hun under et panel hun deltok i, uten å gi ytterligere detaljer om teknologien Apple brukte deretter.

Apple trapper opp CSAM -skanning

Årsakene bak Apples beslutning om å utvide CSAM -skanning er fremdeles ikke helt klare. Men ifølge en samtale mellom Apple -ansatte i 2020, avdekket som en del av selskapets pågående juridiske kamp mot Epic Games, beskrev bedragerisjef Eric Friedman Apple som "den største plattformen for å distribuere barn porno. "

Til tross for denne uttalelsen, antas det at det totale antallet CSAM -tilfeller som Apple avdekker i iCloud Mail hvert år er "målt i hundrevis. " Det virker ikke så viktig - selv om bare en er helt uakseptabel - med tanke på at milliarder av Apple -enheter brukes globalt.

Utvidelsen kan ha noe å gjøre med at en rekke av Apples rivaler, inkludert Microsoft, også søker etter CSAM -innhold. Apple kan ha følt at det ikke ser bra ut hvis andre plattformer jobber med å stanse CSAM mens Apple lukker øynene.

Siste blogginnlegg

| Cult of Mac
August 20, 2021

Gjør et bilde av underbuksene dine (eller noe annet) til Siris bakgrunnsbilde [Jailbreak]Syk av den kjedelige gamle grå linbakgrunnen på din Siri? ...

| Cult of Mac
August 20, 2021

Apple målretter Vietnam som sitt neste store iPhone -markedBrukervaner for smarttelefoner kan endres avhengig av hvor du er i verden, men en ting e...

Rapport: iPad 2 vil ha to omnivisjonskameraer, raskere prosessor
August 20, 2021

Rapport: iPad 2 vil ha to omnivisjonskameraer, raskere prosessorSelv da den debuterte på den tiden, var iPad iøynefallende på grunn av mangelen på ...