Οι ενσωματωμένες συσκευές αποκλεισμού πορνογραφικού περιεχομένου του iOS 14 παρεμποδίζουν τις αναζητήσεις που περιλαμβάνουν τη λέξη «Ασιάτης», σύμφωνα με φοιτητή πληροφορικής.
Αυτό σημαίνει ότι οι αναζητήσεις για "ασιατικά τρόφιμα" ή "ασιατικές χώρες" αποκλείονται εάν είναι ενεργοποιημένα τα φίλτρα περιεχομένου για ενήλικες. Παρόμοια μπλοκ δεν υπάρχουν για όρους αναζήτησης που περιλαμβάνουν "μαύρο", "λευκό", "αραβικό", "γαλλικό" και άλλους εθνικούς ή φυλετικούς περιγραφείς.
Ο Steven Shen, φοιτητής πληροφορικής στο Πανεπιστήμιο Purdue της Ιντιάνα, σημείωσε την τάση στο Twitter.
"Στο iOS, εάν ενεργοποιήσετε τον" Περιορισμός ιστότοπου για ενήλικες "στην περιοχή Screen Time-> Περιορισμοί περιεχομένου, το Safari αποκλείει κάθε διεύθυνση URL ιστότοπου που περιέχει τη λέξη" ασιατικό ", έγραψε ο Shen. «Σοβαρά, πήγαινε να το δοκιμάσεις, είναι απίστευτο. Έχω καταθέσει ένα σχόλιο εδώ και πολύ καιρό. Τίποτα δεν άλλαξε."
Παρόμοιο, προαιρετικό πρόγραμμα αποκλεισμού περιεχομένου για ενήλικες είναι διαθέσιμο σε Mac. Ωστόσο, στο υλικό της Apple για επιτραπέζιους υπολογιστές, η λέξη "Asian" παραμένει αναζητήσιμη μετά την ενεργοποίηση του αποκλεισμού περιεχομένου.
![](/f/0cb707eec9320130d0f5788f81a52789.jpg)
Στίβεν Σεν (沈 畅)
@Stevenpotato
1,5Κ
814
Είναι απίθανο να είναι ανθρώπινο λάθος
Σε συνέντευξη με το Ο ανεξάρτητος, Είπε ο Σεν το μπλοκ ήταν απίθανο να είναι κωδικοποιημένο από άνθρωπο. Αντ 'αυτού, είναι πιθανότατα μια τεχνητή νοημοσύνη που αναζητά λέξεις που συχνά σχετίζονται με πορνογραφικές αναζητήσεις. Για το σκοπό αυτό, ο αποκλειστής περιεχομένου iOS σμιλεύει επίσης όρους όπως "έφηβος", "ερασιτέχνης" και "ώριμος". Αυτό συμβαίνει παρά το γεγονός ότι έχουν νόμιμη χρήση εκτός περιεχομένου για ενήλικες.
Οι ανταγωνιστές της Apple αντιμετωπίζουν αυτόν τον τύπο πρόκλησης και όταν πρόκειται για τεχνητή νοημοσύνη. Η Google, για παράδειγμα, αντιμετώπισε προβλήματα με αλγόριθμους ταξινόμησης εικόνων που εσφαλμένες φωτογραφίες των μαύρων ως γορίλες. Η Microsoft, εν τω μεταξύ, λάνσαρε ένα chatbot που ονομάζεται Tay, το οποίο οι διαδικτυακοί χρήστες γρήγορα «εκπαιδεύτηκαν» να συμπεριφέρονται σε ένα φυλετικά αναίσθητος τρόπος.
Εάν ο Shen είναι σωστός, η Apple δεν ανέθεσε σε έναν κωδικοποιητή να καταλήξει σε μια λίστα αποκλεισμένων όρων. Όλα γίνονται σε συσχετισμούς δεδομένων που, θα μπορούσε να υποστηριχθεί, αντικατοπτρίζουν ευρύτερες κοινωνικές τάσεις και συμπεριφορές που εισάγουν διακρίσεις. (Αν σας ενδιαφέρει αυτό το θέμα, σας προτείνω πραγματικά να διαβάσετε Αλγόριθμοι καταπίεσης από την Safiya Noble.)
Ο διευθύνων σύμβουλος της Apple Tim Cook συχνά μιλάει κατά του ρατσισμού και για τη σημασία της διαφορετικότητας. Φαίνεται πολύ πιθανό ότι, τώρα που εντοπίστηκε και δημοσιοποιήθηκε αυτό το σφάλμα iOS, θα εξαλειφθεί σε σύντομο χρονικό διάστημα. Ωστόσο, είναι ένα μάθημα σχετικά με τις βέλτιστες πρακτικές όταν πρόκειται για τεχνητή νοημοσύνη.