Apple jau skenē jūsu e -pastus, lai meklētu materiālu par vardarbību pret bērniem

Apple jau skenē jūsu e -pastus, lai meklētu materiālu par vardarbību pret bērniem

iCloud paroles atrodas operētājsistēmā Windows
iCloud Mail konti ir aizliegti, lai kopīgotu CSAM.
Foto: Apple

Daudzi Apple fani ir satraukti par uzņēmuma darbību plāno sākt skenēt materiālus par vardarbību pret bērniem (CSAM) iCloud Photos augšupielādēs vēlāk šogad. Bet vai jūs zinājāt, ka Cupertino jau ir skenējis CSAM jūsu e -pastos?

Apple ir apstiprinājis, ka tā sāka noteikt CSAM, izmantojot attēlu saskaņošanas tehnoloģiju, iCloud Mail jau 2019. Tajā teikts, ka konti ar CSAM saturu pārkāpj tā noteikumus un nosacījumus un tiks atspējoti.

Daudz ir runāts par Apple CSAM fotoattēlu skenēšanas plānu. Privacy aizstāvjiem tas nepatīk. Daži Apple darbinieki paudušas bažas par to. Tiesību organizācijas ir mudinājuši Timu Kuku to nogalināt pirms tā pat sāka izplatīties iPhone lietotājiem ASV

Tomēr šķiet, ka CSAM skenēšana Apple nav jauna. Lai gan uzņēmums iepriekš nav skenējis iCloud fotoattēlus, tas klusi pārbauda mūsu iCloud Mail, vai tajā nav materiālu par vardarbību pret bērniem.

Apple apstiprina, ka pārbauda iCloud Mail, vai tajā nav CSAM

“Apple man apstiprināja, ka kopš 2019. gada skenē izejošos un ienākošos iCloud Mail, lai iegūtu CSAM pielikumus,” raksta Bens Lavdžou. 9 līdz 5 Mac. "Apple arī norādīja, ka veic ierobežotu citu datu skenēšanu, taču man neteiks, kas tas bija."

Lielākajai daļai iCloud Mail lietotāju, iespējams, nebija ne jausmas, ka tas notiek, taču Apple to neslēpa. Bērnu drošības vietnes arhivētajā versijā teikts, ka “Apple izmanto attēlu saskaņošanas tehnoloģiju, lai palīdzētu atrast un ziņot par bērnu izmantošanu”.

“Līdzīgi kā surogātpasta filtri e -pastā, mūsu sistēma izmanto elektroniskos parakstus, lai atrastu aizdomas par bērnu izmantošanu. Mēs apstiprinām katru spēli, veicot individuālu pārskatīšanu. Konti ar bērnu ekspluatācijas saturu pārkāpj mūsu pakalpojumu sniegšanas noteikumus, un visi konti, ko atradīsim ar šo materiālu, tiks atspējoti. ”

Arī Apple galvenā privātuma amatpersona Džeina Hovarta apstiprināja praksi CES 2020. gada janvārī. "Mēs izmantojam dažas tehnoloģijas, lai palīdzētu pārbaudīt bērnu seksuālās izmantošanas materiālu," viņa teica laikā panelī, kurā viņa piedalījās, nesniedzot sīkāku informāciju par Apple izmantoto tehnoloģiju tad.

Apple pastiprina CSAM skenēšanu

Iemesli Apple lēmumam paplašināt CSAM skenēšanu joprojām nav pilnīgi skaidri. Bet saskaņā ar sarunu starp Apple darbiniekiem 2020. gadā, kas tika atklāta kā daļa no uzņēmuma notiekošās juridiskās cīņas pret Epic Games, krāpšanas apkarošanas vadītājs Ēriks Frīdmens raksturoja Apple kā “lielāko platformu bērnu izplatīšanai porno. ”

Neskatoties uz šo apgalvojumu, tiek uzskatīts, ka kopējais CSAM gadījumu skaits, ko Apple ik gadu atklāj iCloud Mail, tiek “mērīts simtiem. ” Tas nešķiet tik nozīmīgi - lai gan tikai viens ir pilnīgi nepieņemams -, ņemot vērā miljardu Apple ierīču izmantošanu globāli.

Paplašināšanai varētu būt kaut kas saistīts ar faktu, ka vairāki Apple konkurenti, tostarp Microsoft, arī skenē CSAM saturu. Iespējams, Apple uzskatīja, ka tas neizskatās labi, ja citas platformas strādā, lai izskaustu CSAM, kamēr Apple piever acis.

Jaunākais emuāra ziņojums

Viss, kas jums jāzina par iOS 11 dokstaciju
October 21, 2021

iOS 11 ievieš jaunu dokstaciju. Tas ir konceptuāli saistīts ar Mac Dock, kas ieviests OS X, un ir pārsteidzoši līdzīgs. Patiesībā lielākā atšķirība...

5 lielas atrunas no iPhone 12 atklāšanas pasākuma
October 21, 2021

Apple “Hi, Speed” pasākumā ietilpa uzņēmuma kritiskākais izlaidums 2020. gadā: ļoti gaidītā iPhone 12 sērija. Un arī ilgi gaidītais lētākais HomePo...

Nekad nepārtrauciet mācīties, piekļūstot 170 kursiem [piedāvājumi]
October 21, 2021

Nekad nepārtrauciet mācīties, piekļūstot 170 kursiem [piedāvājumi]Piekļūstiet vienam no 170 plus kursiem Stone River eLearning tieši no sava iPhone...