Apple sletter stille og roligt alle omtaler af CSAM-planen fra sin hjemmeside

Apple sletter stille og roligt alle omtaler af kontroversielle CSAM-planer fra sin hjemmeside

Apple CSAM-fotoscanning
Hvad sker der med CSAM-scanning?
Foto: Apple

Apple har stille og roligt fjernet alle henvisninger til sin kontroversielle scanningsplan for børns seksuelt misbrug (CSAM) fra sin hjemmeside.

Cupertino annoncerede tilbage i august sin hensigt om at trawle gennem iCloud Photos-biblioteker for at opdage CSAM-materiale. Men efter betydelig kritik fra eksperter, rettighedsgrupper og endda dets egne ansatte, blev indslaget skrinlagt.

Apple sagde i september, at det havde "besluttet at tage ekstra tid" til at indsamle input og foretage forbedringer af funktionen. Men det er nu uklart, om det overhovedet vil gå videre med CSAM-fotoscanning.

Apples kontroversielle CSAM-plan

Apples oprindelige plan var at bruge et system kaldet neuralMatch til at afdække mistænkte billeder af børnemishandling i brugerfotobiblioteker uploadet til iCloud. Det ville også ansætte menneskelige anmeldere til at bekræfte, at materialet var ulovligt.

Når et match var lavet og verificeret, planlagde Apple at rapportere det til de relevante myndigheder, så der kunne træffes foranstaltninger. Dens intentioner var naturligvis gode, men det viser sig, at folk ikke var glade for ideen om at få deres billeder scannet.

Kort efter CSAM-planen blev annonceret, stod Apple over for en byge af kritik fra fortalere for privatlivets fred, rettighedsgrupper, og organisationer som EFF. Selv dets egne ansatte var stille og roligt slutte sig til modreaktionen.

Apple udgav hurtigt en mere detaljeret guide til CSAM-fotoscanning i et forsøg på at dæmpe bekymringerne, men det gjorde ingen forskel. Blot en måned efter planen blev annonceret, bekræftede Apple, at den blev sat i bero.

Apples børnesikkerhedsside nævner ikke længere CSAM

"Vi har besluttet at tage yderligere tid i løbet af de kommende måneder til at indsamle input og foretage forbedringer, før vi frigiver disse kritisk vigtige børnesikkerhedsfunktioner," sagde virksomheden i en meddelelse offentliggjort i september.

Det virkede som om Apple stadig havde til hensigt at gå videre med funktionen - som oprindeligt skulle udrulles i en iOS 15-opdatering - til sidst. Nu er alle omtaler af CSAM væk Apples webside for børnesikkerhed.

Det er endnu ikke klart, hvad dette betyder for CSAM-scanning. Selvom Apple var fast besluttet på at skubbe frem med funktionen, tyder den seneste udvikling på, at den stille og roligt kan have skrottet ideen helt.

Vi har bedt Apple om en afklaring, og vi opdaterer dette indlæg, hvis vi får et svar.

Seneste blogindlæg

Apples nyheder, analyse og udtalelse plus generelle teknologiske nyheder
September 10, 2021

Når du indstiller musikken, indstiller SONOS -højttaleren rummetSONOS PLAY: 5 smart højttaleren analyserer akustikken i et rum og justerer lydene.F...

Apples nyheder, analyse og udtalelse plus generelle teknologiske nyheder
September 10, 2021

iCloud.com -e -mailadresser er nu tilgængelige med iOS 6 Beta 3Sammen med dagens lancering af iOS 6 Beta 3, Apple er begyndt at udrulle e -mailadre...

ITunes er ikke død. Det er levende og bedre end nogensinde [Opinion]
September 12, 2021

Overskrifter i denne uge udbasunerede iTunes's død. Selvom disse historier gav god clickbait, skabte de forståeligt nok bekymring for dem, der brug...