אפל מוחקת בשקט את כל האזכורים של תוכנית CSAM השנויה במחלוקת מאתר האינטרנט שלה
אפל הסירה בשקט את כל ההפניות לתוכנית הסריקה השנויה במחלוקת של חומרי התעללות מינית בילדים (CSAM) מהאתר שלה.
קופרטינו כבר באוגוסט הודיעה על כוונתה לסרוק דרך ספריות iCloud Photos כדי לזהות חומר CSAM. אבל לאחר ביקורת משמעותית של מומחים, קבוצות זכויות ואפילו עובדיה שלה, התכונה נגנזה.
אפל אמרה בספטמבר כי היא "החליטה לקחת זמן נוסף" כדי לאסוף מידע ולבצע שיפורים בתכונה. אבל כעת לא ברור אם זה ימשיך עם סריקת תמונות CSAM בכלל.
תוכנית ה-CSAM השנויה במחלוקת של אפל
התוכנית המקורית של אפל הייתה להשתמש במערכת בשם neuralMatch כדי לחשוף תמונות חשודות בהתעללות בילדים בספריות תמונות המשתמש שהועלו ל-iCloud. היא גם תעסיק סוקרים בני אדם כדי לוודא שהחומר אינו חוקי.
לאחר התאמה ואימות, אפל תכננה לדווח על כך לרשויות הרלוונטיות כדי שניתן יהיה לנקוט בפעולה. ברור שהכוונות שלו היו טובות, אבל מסתבר שאנשים לא היו מרוצים מהרעיון לסרוק את התמונות שלהם.
זמן קצר לאחר ההכרזה על תוכנית ה-CSAM, אפל התמודדה עם מטח ביקורת מצד תומכי הפרטיות, קבוצות זכויות, ו ארגונים כמו EFF. אפילו העובדים שלה היו מצטרף בשקט לתגובת הנגד.
אפל פרסמה במהירות עוד מדריך מפורט לסריקת תמונות CSAM במאמץ לדכא את החששות, אבל זה לא השפיע מעט. חודש בלבד לאחר ההכרזה על התוכנית, אפל אישרה שהיא מושהית.
עמוד בטיחות הילדים של אפל כבר לא מזכיר את CSAM
"החלטנו להקדיש זמן נוסף במהלך החודשים הקרובים כדי לאסוף מידע ולבצע שיפורים לפני שחרור תכונות בטיחות ילדים חשובות מאוד", אמרה החברה בהצהרה שפורסמה בספטמבר.
נראה היה שאפל עדיין מתכוונת להמשיך עם התכונה - שהייתה אמורה לצאת במקור בעדכון iOS 15 - בסופו של דבר. כעת, כל האזכורים של CSAM נעלמו דף האינטרנט של אפל לבטיחות ילדים.
עדיין לא ברור מה זה אומר עבור סריקת CSAM. למרות שאפל הייתה נחושה לדחוף קדימה עם התכונה, ההתפתחויות האחרונות מצביעות על כך שהיא ביטלה בשקט את הרעיון לחלוטין.
ביקשנו מאפל הבהרות ואנו נעדכן את הפוסט הזה אם נקבל תגובה.