Apple ser ud til at lette CSAM -fotoscanningsproblemer med nye ofte stillede spørgsmål

Apple har offentliggjort en ny FAQ om sin plan om at scanne brugerfotos for billeder af misbrug af børn (CSAM) i et forsøg på at bekæmpe de voksende bekymringer.

Dokumentet har til formål at give "mere klarhed og gennemsigtighed," sagde Apple efter at have bemærket, at "mange interessenter, herunder fortrolighedsorganisationer og børnesikkerhedsorganisationer, har udtrykt deres støtte ” til flytningen.

Ofte stillede spørgsmål forklarer forskellene mellem CSAM -scanning i iCloud og de nye funktioner til beskyttelse af børn, der kommer til Beskeder. Det beroliger også brugerne med, at Apple ikke vil underkaste regeringsanmodninger om at udvide funktionerne.

Den nye ofte stillede spørgsmål kommer, efter at Apple i sidste uge bekræftede, at den vil rulle ud nye børnesikkerhedsfunktioner der omfatter scanning efter materiale til seksuelt misbrug af børn (CSAM) i iCloud Photos -biblioteker og registrering af eksplicitte fotos i Beskeder.

Siden meddelelsen har en række fortalere for fortrolighed - herunder whistleblower Edward Snowden og Electronic Frontier Foundation (EFF) -

har talt imod planen, der udrulles senere på året.

"Selv en velmenende indsats for at bygge et sådant system vil bryde vigtige løfter om selve messengerens kryptering og åbne døren for større overgreb," advarede EFF. Apple håber, at det kan lette disse bekymringer med en ny FAQ.

Apple offentliggør ofte stillede spørgsmål om scanning af iCloud -fotos

”Vi vil beskytte børn mod rovdyr, der bruger kommunikationsværktøjer til at rekruttere og udnytte dem, og begrænse spredningen af ​​materiale til seksuelt misbrug af børn (CSAM), ”lyder det seks sider lange dokument, der blev offentliggjort over weekend.

”Siden vi annoncerede disse funktioner, har mange interessenter, herunder fortrolighedsorganisationer og børnesikkerhed organisationer har udtrykt deres støtte til denne nye løsning, og nogle har nået ud med spørgsmål.

"Dette dokument tjener til at behandle disse spørgsmål og give mere klarhed og gennemsigtighed i processen."

Den første bekymring FAQ -adresserne er forskellen mellem CSAM -detektion i iCloud Photos og de nye kommunikationssikkerhedsværktøjer i Beskeder. "De to funktioner er ikke de samme," siger Apple.

Opklaring af forvirring

Kommunikationssikkerhed i Beskeder "fungerer kun på billeder, der sendes eller modtages i appen Beskeder til børnekonti, der er oprettet i Familiedeling," forklarer FAQ. "Det analyserer billederne på enheden og ændrer derfor ikke beskyttelse af fortrolige oplysninger om meddelelser."

Når et seksuelt eksplicit billede sendes eller modtages af en barnekonto, er billedet sløret, og barnet vil blive advaret om, hvad det sender. De vil også blive forsynet med "nyttige ressourcer", siger Apple og "forsikret om, at det er i orden, hvis de ikke vil se eller sende billedet."

Børn får også at vide, at forældrene får besked, hvis de vælger at se eller sende et seksuelt eksplicit billede for at sikre, at de er i sikkerhed.

CSAM -registrering i iCloud -fotos er meget anderledes. Det er designet til at "holde CSAM fra iCloud -fotos uden at give Apple oplysninger om andre fotos end dem, der matcher kendte CSAM -billeder."

"Denne funktion påvirker kun brugere, der har valgt at bruge iCloud -fotos," tilføjer Apple. "Der er ingen indvirkning på andre data på enheden"-og det gælder ikke for Beskeder, som ikke scannes på en voksen enhed.

Kommunikationssikkerhed i Beskeder

Ofte stillede spørgsmål om forskellige bekymringer om begge funktioner. Om kommunikationssikkerhed i Beskeder forklarer det, at forældre eller værger skal tilmelde sig at bruge funktionen til børnekonti, og at den kun er tilgængelig for børn på 12 år eller yngre.

Apple finder aldrig ud af, hvornår seksuelt eksplicitte billeder opdages i appen Messages, og ingen oplysninger deles med eller rapporteres til retshåndhævende myndigheder, står der. Apple bekræfter også, at kommunikationssikkerhed ikke bryder ende-til-ende-kryptering i Beskeder.

Ofte stillede spørgsmål bekræfter, at forældre ikke bliver advaret om seksuelt eksplicit indhold i Beskeder, medmindre et barn vælger at se eller dele det. Hvis de advares, men vælger ikke at se eller dele indholdet, sendes der ingen meddelelse. Og hvis de er i alderen 13-17 år, vises der stadig en advarsel, men forældrene får ikke besked.

CSAM -registrering i iCloud -fotos

Ved registrering af CSAM bekræfter Apple, at funktionen ikke scanner alle billeder, der er gemt på en brugers iPhone - kun dem, der er uploadet til iCloud -fotos. "Og selv da lærer Apple kun om konti, der gemmer samlinger af kendte CSAM -billeder, og kun de billeder, der matcher kendte CSAM."

Hvis du har deaktiveret iCloud -fotos, fungerer funktionen ikke. Og egentlige CSAM -billeder bruges ikke til sammenligning. "I stedet for faktiske billeder bruger Apple ulæselige hash, der er gemt på enheden. Disse hash er talstrenge, der repræsenterer kendte CSAM -billeder, men det er ikke muligt at læse eller konvertere disse hash til de CSAM -billeder, der er baseret på. "

"En af de væsentlige udfordringer i dette rum er at beskytte børn og samtidig bevare brugernes privatliv," forklarer Apple. "Med denne nye teknologi vil Apple lære om kendte CSAM -fotos, der gemmes i iCloud -fotos, hvor kontoen gemmer en samling af kendte CSAM. Apple lærer ikke noget om andre data, der udelukkende er gemt på enheden. ”

Om privatliv og sikkerhed

Det sidste afsnit af ofte stillede spørgsmål omhandler de bekymringer vedrørende privatliv og sikkerhed, der er rejst siden Apples første meddelelse. Det bekræfter, at CSAM -registrering kun fungerer på CSAM - det kan ikke lede efter andet - og selvom Apple vil rapportere CSAM til retshåndhævelse, er processen ikke automatiseret.

"Apple foretager menneskelig gennemgang, inden der foretages en rapport til NCMEC," lyder det fra FAW. "Som et resultat er systemet kun designet til at rapportere fotos, der er kendt CSAM i iCloud Photos. I de fleste lande, herunder USA, er det simpelthen en kriminalitet at besidde disse billeder. ”

Apple bekræfter også, at det vil "afvise sådanne krav" fra regeringer, der forsøger at tvinge Apple til at opdage andet end CSAM. "Vi har stået over for krav om at opbygge og implementere regeringsmandaterede ændringer, der før forringer brugernes privatliv før, og har fast afvist disse krav."

"Lad os være klare," tilføjer Apple, "denne teknologi er begrænset til at registrere CSAM, der er gemt i iCloud, og vi vil ikke imødekomme nogen regerings anmodning om at udvide den."

Du kan læs den fulde FAQ på Apples websted nu.

Seneste blogindlæg

Samsung kunne bruge luskent trick til at forsinke foldbar iPhone
September 12, 2021

Samsung kunne bruge luskent trick til at forsinke foldbar iPhoneKan det være her en dag nu?Foto: SamsungSamsung har slået Apple til den foldbare sm...

Spring grinden over: 3 sjove mobilspil, der (næsten) spiller selv
September 11, 2021

Jeg kom lige op, mens jeg kørte for at hente mit barn fra skolen. Jeg oprettede en digital kamp ved hjælp af min iPhone, mens jeg sad i min indkørs...

Rejser med en iPad og et kamera: Batterier, sikkerhedskopier og tasker [Funktion]
September 11, 2021

Jeg er lige kommet hjem fra en uges ferie. Vi boede i Tel Aviv, Israel, hvilket betød masser af gåture og cykling (jeg tog min Brompton) plus dagst...