Meie ja meie partnerid kasutame küpsiseid seadme teabe salvestamiseks ja/või sellele juurdepääsuks. Meie ja meie partnerid kasutame andmeid isikupärastatud reklaamide ja sisu, reklaamide ja sisu mõõtmise, vaatajaskonna ülevaate ja tootearenduse jaoks. Töödeldavate andmete näide võib olla küpsisesse salvestatud kordumatu identifikaator. Mõned meie partnerid võivad teie andmeid oma õigustatud ärihuvide raames ilma nõusolekut küsimata töödelda. Selleks, et vaadata, milliste eesmärkide osas nad usuvad, et neil on õigustatud huvi, või esitada sellele andmetöötlusele vastuväiteid, kasutage allolevat hankijate loendi linki. Esitatud nõusolekut kasutatakse ainult sellelt veebisaidilt pärinevate andmete töötlemiseks. Kui soovite oma seadeid igal ajal muuta või nõusolekut tagasi võtta, on selleks link meie privaatsuspoliitikas, millele pääsete juurde meie kodulehelt.
Apple loobub vastuolulisest plaanist skannida iCloud Photos CSAM-i jaoks
![Apple loobub vastuolulisest plaanist skannida iCloud Photos CSAM-i jaoks Apple loobub vastuolulisest plaanist skannida iCloud Photos CSAM-i jaoks](/f/9518ba8e357e3396b0a811e633aa70c0.jpg)
Pilt: Apple
Apple loobus täielikult oma varem välja kuulutatud plaanist skannida iCloud Photosi teeke laste seksuaalse kuritarvitamise materjali suhtes. Ettevõte ei vaata CSAM-pilte otsides oma pilvesalvestusserverites kasutajate pilte läbi.
Selle asemel liigub Apple vastupidises suunas, võimaldades kasutajatel krüptida iCloud Photosi salvestatud pilte.
Apple'i vastuoluline CSAM-plaan on surnud
Apple'i esialgne plaan, kuulutati välja 2021. aastal, pidi kasutama süsteemi nimega neuralMatch, et leida iCloudi üles laaditud kasutajate fotokogudest kahtlustatavad laste väärkohtlemise pildid. Samuti kavatses ta kasutada ülevaatajaid, et kontrollida, kas materjal on ebaseaduslik. Kõigist leitud CSAM-piltidest oleks teavitatud vastavaid kohalikke ametiasutusi.
Ettevõtte kavatsused olid head, kuid said silmitsi kriitikaga privaatsuse kaitsjad, õiguste rühmad ja organisatsioonid nagu Electronic Frontier Foundation. Isegi oma töötajad vaikselt liitus vastureaktsiooniga.
Apple pane plaan ootele möödunud detsembris. Ja nüüd on see täielikult maha jäetud.
Maci tootja andis avalduse Ühendatud mis ütleb osaliselt:
„Otsustasime ka mitte edasi liikuda meie varem pakutud CSAM-i tuvastamise tööriistaga iCloud Photosi jaoks. Lapsi saab kaitsta, ilma et ettevõtted isikuandmeid läbi kammiksid.
Sellele otsusele tuginedes käivitas Apple iCloudi täiustatud andmekaitse kolmapäeval. See toob teenusesse iCloud Photos täieliku krüptimise, nii et keegi peale kasutaja ei pääse sinna salvestatud piltidele juurde. Isegi Apple ei saa seda teha.
Funktsioon, mis on saadaval iOS 16.2-s ja samaväärses iPadis, annab kasutajatele ka võimaluse krüpteerida seadme varukoopiaid ja iCloudi salvestatud märkmeid ning palju muud tüüpi andmeid.
Apple kaitseb lapsi endiselt seksimise eest
Muudatus ei tähenda, et Apple oleks loobunud laste ärakasutamise vastu võitlemisest. Selle avaldus Ühendatud ütleb ka:
„Pärast ulatuslikku konsulteerimist ekspertidega, et koguda tagasisidet eelmisel aastal välja pakutud lastekaitsealgatuste kohta, suurendame oma investeeringuid sideohutuse funktsioon mille tegime esmakordselt kättesaadavaks 2021. aasta detsembris.
IOS-i sisseehitatud süsteemi abil saavad iPhone'id tuvastada, kas laps saab või saadab rakenduse Sõnumid kaudu seksuaalse sisuga fotosid. Seejärel hoiatatakse kasutajat. See protsess toimub täielikult telefonitorus, mitte kaugserveris. Ja sõnumid jäävad krüpteerituks.
Killian Bell andis oma panuse sellesse artiklisse.