Apple forsinker planen om at scanne brugerfotos efter materiale til misbrug af børn (CSAM)

Apple bekræftede fredag, at det har forsinket kontroversielle planer om at begynde at scanne brugerbilleder efter materiale om seksuelt misbrug af børn (CSAM).

Indslaget var oprindeligt planlagt til at blive lanceret senere på året. Apple siger nu, at det vil tage tid at "indsamle input og foretage forbedringer", før ændringerne foretages - men de er langt fra helt annulleret.

Apples første plan, som blev annonceret i sidste måned, var at scanne alle billeder, der blev uploadet til iCloud -fotos for at registrere CSAM -indhold. Når det fandt et match, ville det blive gennemgået af et menneske, inden det blev rapporteret til myndighederne.

Apple annoncerede også funktioner til enheder, der bruges af børn, som ville advare dem, før de åbnede eller forsøgte at dele indhold, der blev identificeret som seksuelt eksplicit. Men planerne passede ikke godt hos mange Apple -fans.

Apple forsinker CSAM -planen

Brugere, fortalere for privatlivets fred, og selv Apples egne medarbejdere udtrykte deres bekymringer over CSAM -detektion - og potentialet for, at det kan udvides til at detektere andet indhold senere under pres udefra.

Apple siger nu, at planen er sat på vent, mens det tager tid at forbedre den. En erklæring udsendt til Cult of Mac lød fredag:

I sidste måned annoncerede vi planer for funktioner, der skal beskytte børn mod rovdyr, der bruger kommunikationsværktøjer til at rekruttere og udnytte dem og begrænse spredningen af ​​seksuelt misbrug af børn Materiale. Baseret på feedback fra kunder, fortalergrupper, forskere og andre, har vi besluttet at tage ekstra tid de kommende måneder for at indsamle input og foretage forbedringer, inden vi frigiver denne kritisk vigtige børnesikkerhed funktioner.

Apple har også opdateret sit original pressemeddelelse annoncerer funktionen til at inkludere denne erklæring.

Kampen mod CSAM -scanning

Tidligere på måneden havde en gruppe på mere end 90 organisationer skrev et åbent brev til Apples CEO Tim Cookopfordrede ham til at annullere CSAM -scanningsplanen. Det opfordrede også Apple til at indlede drøftelser med civilsamfundsgrupper og sårbare samfund, før de ruller lignende funktioner ud.

Inden dette forsøgte Apple at lette bekymringer ved at offentliggøre en lang FAQ, der mere detaljeret beskrev CSAM -scanning og dens nye børnesikkerhedsfunktioner. Det rydder også op til forvirring over, hvordan hver funktion præcist ville fungere individuelt.

Dette dokument dæmpede dog kun lidt. Et stort antal brugere truede stadig med at boykotte Apple -enheder online, mens eksperter fortsat udtalte deres advarsler om de potentielle faldgruber.

Apples beslutning om at forsinke planen bekræfter, at virksomheden hørte disse bekymringer. Det ser imidlertid ud til, at dets plan om at scanne fotos for CSAM i fremtiden langt fra er død.

Seneste blogindlæg

Apples nyheder, analyse og udtalelse plus generelle teknologiske nyheder
August 19, 2021

Jimmy Iovines Beats Music Service tæller ned til lancering tirsdagTilslutter sig lignende iTunes Radio, Pandora, Spotify, og Rdio, Beats Music - mu...

Apples nyheder, analyse og udtalelse plus generelle teknologiske nyheder
August 19, 2021

Brug af iMac som skærm kræver meget specifikt kabelFor at bruge den nye 27-tommer iMac som en ekstern skærm kræver et meget specifikt kabel for at ...

Apples nyheder, analyse og udtalelse plus generelle teknologiske nyheder
August 19, 2021

AT&T kan ikke finde ud af, om de vil sælge iPhone 4'er til walk-ins den 24. juniHvis din iPhone 4 forudbestilling var uforudsigeligt aflyst af ...