Apple soovib CSAM -i fotode skannimise muret uute KKK -ga leevendada

Apple on avaldanud uue KKK oma plaanist skannida kasutajate fotosid laste väärkohtlemise kujutiste (CSAM) jaoks, et võidelda kasvavate muredega.

Dokumendi eesmärk on pakkuda "rohkem selgust ja läbipaistvust", ütles Apple, märkides, et "paljud sidusrühmad, sealhulgas eraelu puutumatuse organisatsioonid ja laste ohutusorganisatsioonid, on avaldanud oma toetust. ” käigu eest.

KKK selgitab erinevusi CSAM -i skannimisel iCloudis ja uutesse lastekaitsefunktsioonidesse, mis tulevad sõnumitesse. Samuti kinnitab see kasutajatele, et Apple ei rahulda valitsuse taotlusi funktsioonide laiendamiseks.

Uus KKK ilmub pärast seda, kui Apple eelmisel nädalal kinnitas, et see avaldatakse uued laste turvaelemendid mis hõlmavad laste seksuaalse kuritarvitamise materjali (CSAM) skannimist iCloud Photos teekides ja selgesõnaliste fotode tuvastamist rakenduses Messages.

Pärast teadaannet on mitmed eraelu puutumatuse pooldajad, sealhulgas rikkumisest teataja Edward Snowden ja Electronic Frontier Foundation (EFF) - on plaani vastu sõna võtnud, mis ilmub selle aasta lõpus.

"Isegi hea kavatsusega jõupingutused sellise süsteemi loomiseks rikuvad sõnumitooja enda krüpteerimise peamisi lubadusi ja avavad ukse laiematele kuritarvitustele," hoiatas Euroopa Kalandusfond. Apple loodab, et saab neid muresid uue KKK -ga leevendada.

Apple avaldab KKK -d iCloud Photos -i skannimisel

"Me tahame kaitsta lapsi kiskjate eest, kes kasutavad suhtlusvahendeid nende värbamiseks ja kasutamiseks ning piirata laste seksuaalse kuritarvitamise materjali (CSAM) levikut, ”seisab kuueleheküljelises dokumendis nädalavahetus.

„Pärast nende funktsioonide väljakuulutamist on paljud sidusrühmad, sealhulgas eraelu puutumatuse organisatsioonid ja laste turvalisus organisatsioonid on sellele uuele lahendusele oma toetust avaldanud ja mõned on sellega ka ühendust võtnud küsimused.

"Selle dokumendi eesmärk on lahendada need küsimused ning anda protsessile rohkem selgust ja läbipaistvust."

KKK -aadresside esimene mure on erinevus CSAM -i tuvastamise vahel iCloud Photos'is ja sõnumite uued suhtlusohutuse tööriistad. "Need kaks funktsiooni pole samad," ütleb Apple.

Segaduse klaarimine

Kommunikatsiooni ohutus rakenduses Messages „töötab ainult piltide puhul, mis on saadetud või vastu võetud rakenduses Sõnumid perejagamiseks seadistatud lapsekontodele,” selgitab KKK. "See analüüsib seadmes olevaid pilte ja ei muuda seega sõnumite privaatsustagatisi."

Kui lapse konto saadab või võtab vastu seksuaalselt vulgaarse pildi, on pilt hägune ja last hoiatatakse selle eest, mida ta saadab. Neile antakse ka "abistavaid ressursse", ütleb Apple ja "kinnitavad, et on korras, kui nad ei soovi fotot vaadata ega saata."

Lastele öeldakse ka, et nende turvalisuse tagamiseks teavitatakse nende vanemaid, kui nad otsustavad vaadata või saata seksuaalset pilti.

CSAM -i tuvastamine iCloud Photos'is on väga erinev. Selle eesmärk on „hoida CSAM iCloud Photosist välja, andmata Apple'ile teavet muude fotode kohta, välja arvatud need, mis vastavad teadaolevatele CSAM -piltidele”.

"See funktsioon mõjutab ainult kasutajaid, kes on otsustanud kasutada iCloud Photos'i," lisab Apple. „See ei mõjuta muid seadme andmeid”-ja see ei kehti sõnumite kohta, mida ei skannita täiskasvanu seadmes.

Sõnumite turvalisus sõnumites

KKK -s käsitletakse mõlema funktsiooni erinevaid probleeme. Sõnumite suhtlusohutuse kohta selgitatakse, et vanemad või eestkostjad peavad lubama selle funktsiooni kasutamiseks lapsekontodel ja see on saadaval ainult 12-aastastele või noorematele lastele.

Apple ei saa kunagi teada, kui rakenduses Sõnumid avastatakse seksuaalse sisuga pilte ning õiguskaitseorganitega ei jagata teavet ega teatata sellest. Samuti kinnitab Apple, et suhtlusohutus ei riku sõnumites otsast lõpuni krüptimist.

KKK kinnitab ka seda, et vanemaid ei hoiatata sõnumites sisalduva seksuaalse sisu eest, kui laps ei otsusta seda vaadata ega jagada. Kui neid hoiatatakse, kuid nad ei soovi sisu vaadata ega jagada, ei saadeta teatist. Ja kui nad on 13–17-aastased, ilmub endiselt hoiatus, kuid vanemaid ei teavitata.

CSAM -i tuvastamine teenuses iCloud Photos

CSAM -i tuvastamisel kinnitab Apple, et see funktsioon ei skaneeri kõiki kasutaja iPhone'i salvestatud pilte - ainult neid, mis on üles laaditud teenusesse iCloud Photos. "Ja isegi siis saab Apple teada ainult kontode kohta, mis salvestavad teadaolevate CSAM -piltide kogusid, ja ainult nende piltide kohta, mis vastavad teadaolevale CSAM -ile."

Kui teil on iCloud Photos keelatud, ei tööta see funktsioon. Ja tegelikke CSAM -pilte ei kasutata võrdluseks. „Tegelike piltide asemel kasutab Apple seadmesse salvestatud loetamatuid räsi. Need räsid on numbrid, mis esindavad teadaolevaid CSAM -pilte, kuid neid räsisid ei ole võimalik lugeda ega teisendada CSAM -kujutisteks, mis põhinevad. ”

"Üks olulisi väljakutseid selles ruumis on laste kaitsmine, kaitstes samal ajal ka kasutajate privaatsust," selgitab Apple. „Selle uue tehnoloogia abil saab Apple teada teadaolevatest CSAM -fotodest, mis on salvestatud iCloud Photos -i, kus konto salvestab tuntud CSAM -i kogu. Apple ei õpi midagi muudest ainult seadmesse salvestatud andmetest. ”

Privaatsuse ja turvalisuse kohta

KKK viimases osas käsitletakse privaatsuse ja turvalisusega seotud probleeme pärast Apple'i esialgset teadet. See kinnitab, et CSAM -i tuvastamine töötab ainult CSAM -i puhul - ta ei saa midagi muud otsida - ja kuigi Apple teatab CSAM -ist õiguskaitseorganitele, pole protsess automatiseeritud.

"Apple vaatab inimesed enne NCMEC -ile aru andmist läbi," seisab FAW -s. „Seetõttu on süsteem loodud ainult fotode teatamiseks, mis on iCloud Photosis tuntud CSAM -iga. Enamikus riikides, sealhulgas Ameerika Ühendriikides, on nende piltide omamine kuritegu. ”

Samuti kinnitab Apple, et keeldub sellistest valitsuste nõudmistest, kes üritavad sundida Apple'i avastama midagi muud kui CSAM. "Oleme varem seisnud silmitsi nõudmistega ehitada ja rakendada valitsuse volitatud muudatusi, mis halvendavad kasutajate privaatsust, ning oleme neist nõudmistest vankumatult keeldunud."

"Olgem selged," lisab Apple, "see tehnoloogia piirdub iCloudi salvestatud CSAM -i tuvastamisega ja me ei nõustu ühegi valitsuse taotlusega seda laiendada."

Sa saad lugege kõiki KKK -sid Apple'i veebisaidil nüüd.

Uusim blogipostitus

| Maci kultus
October 21, 2021

Täna Apple'i ajaloos: lõpu algus kloonide Mac jaoksClone Macid kõlasid alguses hea ideena.Foto: Antnik5. august 1997: Apple satub Macintoshi klooni...

| Maci kultus
October 21, 2021

Kuidas kleebistega selfisid saata?Kes ei tahaks seda täiesti jubedat kleebitud selfit saada?Foto: Maci kultusSa juba tead, kuidas selfie teha. See ...

Uus M1 MacBook Air jõuab pärast 150 dollari allahindlust täiesti madalale
October 21, 2021

Uus M1 MacBook Air jõuab pärast 150 dollari allahindlust täiesti madalaleHankige oma oma enne allahindluse kadumist.Foto: Leander Kahney/Cult of Ma...