Apple scanner allerede dine e -mails efter materiale til misbrug af børn

Apple scanner allerede dine e -mails efter materiale til misbrug af børn

iCloud -adgangskoder lander på Windows
iCloud Mail -konti er forbudt til deling af CSAM.
Foto: Apple

Mange Apple -fans er kede af virksomhedens planlægger at begynde at scanne efter materiale til misbrug af børn (CSAM) i iCloud Photos uploades senere på året. Men vidste du, at Cupertino allerede har scannet efter CSAM i dine e -mails?

Apple har bekræftet, at det begyndte at opdage CSAM ved hjælp af billedtilpasningsteknologi i iCloud Mail tilbage i 2019. Det siger, at konti med CSAM -indhold overtræder dets vilkår og betingelser og deaktiveres.

Meget er blevet sagt om Apples CSAM -fotoscanningsplan. Privacy -fortalere kan ikke lide det. Nogle af Apples egne medarbejdere har givet udtryk for deres bekymringer om det. Rettighedsorganisationer har opfordret Tim Cook til at dræbe det før det overhovedet begynder at rulle ud til iPhone -brugere i USA

Det ser imidlertid ud til, at CSAM -scanning ikke er ny hos Apple. Selvom virksomheden ikke tidligere har scannet iCloud -fotos ud, har den stille og roligt tjekket vores iCloud Mail for materiale til misbrug af børn.

Apple bekræfter, at det kontrollerer iCloud Mail for CSAM

"Apple bekræftede over for mig, at det har scannet udgående og indgående iCloud Mail efter CSAM -vedhæftede filer siden 2019," skriver Ben Lovejoy for 9 til 5Mac. "Apple angav også, at det foretog en begrænset scanning efter andre data, men ville ikke fortælle mig, hvad det var."

Langt de fleste iCloud Mail -brugere havde sandsynligvis ingen anelse om, at dette skete, men Apple holdt det ikke hemmeligt. En arkiveret version af sit børnesikkerhedswebsted siger, at "Apple bruger teknologi til billedtilpasning til at finde og rapportere børneudnyttelse."

”Ligesom spamfiltre i e -mail bruger vores system elektroniske signaturer til at finde mistanke om udnyttelse af børn. Vi validerer hver kamp med individuel gennemgang. Konti med indhold til udnyttelse af børn overtræder vores servicevilkår og betingelser, og alle konti, vi finder med dette materiale, deaktiveres. ”

Apples chef for beskyttelse af personlige oplysninger, Jane Hovarth, også bekræftede praksis på CES i januar 2020. "Vi bruger nogle teknologier til at hjælpe med at screene materiale for seksuelt misbrug af børn," sagde hun under et panel, hun deltog i, uden at give yderligere detaljer om den teknologi, Apple brugte derefter.

Apple øger CSAM -scanningen

Årsagerne bag Apples beslutning om at udvide CSAM -scanning er stadig ikke helt klare. Men ifølge en samtale mellem Apple -medarbejdere i 2020, afdækket som en del af virksomhedens igangværende juridiske kamp mod Epic Games beskrev chef for bekæmpelse af svig Eric Friedman Apple som "den største platform til distribution af børn porno. ”

På trods af denne erklæring menes det, at det samlede antal CSAM -sager, der afdækkes af Apple i iCloud Mail hvert år, "måles i hundredvis. ” Det virker ikke så betydningsfuldt - selvom kun en er helt uacceptabel - i betragtning af at der bruges milliarder af Apple -enheder globalt.

Udvidelsen kan have noget at gøre med, at en række af Apples rivaler, herunder Microsoft, også scanner efter CSAM -indhold. Apple har måske følt, at det ikke ser godt ud, hvis andre platforme arbejder på at stemple CSAM, mens Apple lukker øjnene.

Seneste blogindlæg

Apples nyheder, analyse og udtalelse plus generelle teknologiske nyheder
August 20, 2021

iPhone 11 ser muligvis et lille prisfald [Opdateret]iPhone 11 med et bedre kamera og måske understøttelse af Apple Pencil koster muligvis mindre en...

Apples nyheder, analyse og udtalelse plus generelle teknologiske nyheder
August 20, 2021

Retten dømmer mod Apple i patentkamp på 440 millioner dollarsApple skal muligvis betale store penge.Billede: Ste Smith/Cult of MacEn amerikansk ank...

Apples nyheder, analyse og udtalelse plus generelle teknologiske nyheder
August 20, 2021

Virgin Australia forbyder alle MacBooks fra indtjekket bagageDu kan stadig flyve med dem i håndbagage.Foto: Sergey Zolkin/UnsplashVirgin Australia ...