Apple aikoo skannata ihmisten iPhonille ja heidän iCloud -tileilleen tallennetuista kuvista lasten hyväksikäyttöä viittaavia kuvia, uutisten mukaan torstaina. Pyrkimykset voivat auttaa lainvalvontatutkimuksissa, mutta voivat myös saada kiistanalaisen pääsyn käyttäjätietoihin valtion virastoilta.
Applen päivitys verkkosivuilleen "Laajennetut suojat lapsille” - katso” CSAM -havaitseminen ”-alaotsikko - näyttää tekevän skannaussuunnitelmasta virallisen. CSAM tarkoittaa "lasten seksuaalista hyväksikäyttöä koskevaa materiaalia".
Järjestelmä, jonka Apple ottaa käyttöön, nimeltään neuralMatch, "varoittaa ennakoivasti ihmisarvioijaryhmää, jos se uskoo laittomien kuvien havaitsevan, jotka ottaisivat sitten yhteyttä lainvalvontaviranomaisiin, jos materiaali voidaan todentaa ” Financial Timesraportoitu Torstai.
Apple kertoi Yhdysvaltain tiedemiehille suunnitelmista tällä viikolla ja voisi jakaa lisää "heti tällä viikolla", kertoivat kaksi tietoturvatutkijaa tiedotteessa asiasta. Financial Times.
Epäillä valokuvia verrattuna tietokannan kuviin
Sanomalehti lisäsi, että asiantuntijat ”kouluttivat” neuralMatchia käyttämällä 200 000 kuvaa kadonneiden ja hyväksikäytettyjen lasten kansalliskeskuksesta. Epäillyt valokuvat tiivistetään ja niitä verrataan sitten tietokantaan lasten seksuaalisen hyväksikäytön kuviin.
Järjestelmä otetaan käyttöön ensin Yhdysvalloissa ja myöhemmin muualla, FT raportoitu.
”Suunnitelmista tiedotettujen ihmisten mukaan jokainen valokuva, joka on ladattu iCloudiin Yhdysvalloissa; annetaan "turvakuponki", jossa sanotaan, onko se epäilty vai ei, FT sanoi. "Kun tietty määrä valokuvia on merkitty epäilyttäviksi, Apple sallii kaikkien epäiltyjen kuvien salauksen purkamisen ja, jos ne ovat ilmeisesti laittomia, välitetään asianomaisille viranomaisille."
Huoli järjestelmästä
Raja totesi, että Johns Hopkinsin yliopiston professori ja salakirjoittaja Matthew Green esittivät huolensa järjestelmästä Twitterissä. "Tällainen työkalu voi olla siunaus lapsipornografian löytämiselle ihmisten puhelimista" Green sanoi. "Mutta kuvitelkaa, mitä se voisi tehdä autoritaarisen hallituksen käsissä?"
"Vaikka uskotkin, että Apple ei salli näiden työkalujen väärinkäyttöä [sormien ristissä emoji], on silti paljon huolestuttavaa", hän lisäsi. "Nämä järjestelmät perustuvat tietokantaan" ongelmallisista median hajautuksista ", joita sinä kuluttajana et voi tarkistaa."
Apple ja muut tekevät jo jotain vastaavaa
Apple ja muut suuret pilvipalveluntarjoajat tarkistavat jo tiedostot tunnetuista lasten hyväksikäytön kuvista. Mutta neuralMatch -järjestelmä ylittää heidän toimintansa, koska se mahdollistaa keskitetyn pääsyn paikalliseen tallennustilaan, Raja sanoi.
Tarkkailijat huomauttavat, että järjestelmän ulottaminen muihin rikoksiin olisi helppoa. Kiinan kaltaisessa maassa, jossa Apple harjoittaa huomattavaa liiketoimintaa, tällainen käyttö ja laillinen soveltaminen voivat osoittautua huolestuttaviksi.
Apple yksityisyydestä
Apple on valmistanut suuren osan laitteistaan yksityisyyden suojat, mukaan lukien toimitusjohtajan Tim Cookin äskettäiset lausunnot video, joka on suunnattu yksityisyydentietoiselle Euroopan unionille.
Yhtiö hallitsi uutisia hetken ajan vastustanut FBI: n vaatimusten tukemista että se tarjoaa toimistolle pääsyn ampujan iPhoneen vuoden 2015 hyökkäyksessä San Bernardinossa, Kaliforniassa.
Uutiset kertoivat torstaina, että Apple ei ole vastannut pyyntöihin kommentoida suunnitelmiaan kuvien skannaamisesta.