Ένας διεθνής συνασπισμός ομάδων πολιτικών δικαιωμάτων, δημοσίευσε μια ανοιχτή επιστολή την Πέμπτη ζητώντας από την Apple να «εγκαταλείψει τα πρόσφατα ανακοινωθέντα σχέδιά της να δημιουργήσει δυνατότητες επιτήρησης σε iPhone, iPad και άλλα προϊόντα της». Οι ομάδες περιλαμβάνουν την Αμερικανική Ένωση Πολιτικών Ελευθεριών, το ίδρυμα Electronic Frontier, το Access Now, το Privacy International και το Tor Project.
- Νωρίτερα αυτόν τον μήνα, η Apple ανακοίνωσε τα σχέδιά της να χρησιμοποιήσει νέα τεχνολογία στο iOS, για τον εντοπισμό πιθανών εικόνων κακοποίησης παιδιών με στόχο τον περιορισμό της διάδοσης υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στο διαδίκτυο. Η Apple ανακοίνωσε επίσης μια νέα λειτουργία «ασφάλειας επικοινωνίας», η οποία θα χρησιμοποιεί τη μηχανική εκμάθηση στη συσκευή για τον εντοπισμό και το θάμπωμα των σεξουαλικών εικόνων που λαμβάνουν τα παιδιά στην εφαρμογή Messages. Οι γονείς των παιδιών ηλικίας 12 ετών και κάτω μπορούν να ειδοποιηθούν εάν το παιδί δει ή στείλει μια τέτοια εικόνα.
«Αν και αυτές οι δυνατότητες αποσκοπούν στην προστασία των παιδιών και στη μείωση της διάδοσης υλικού σεξουαλικής κακοποίησης παιδιών, ανησυχούμε ότι θα χρησιμοποιηθούν για λογοκρισία, για να απειλήσουν την ιδιωτικότητα και την ασφάλεια των ανθρώπων σε όλο τον κόσμο και θα έχουν καταστροφικές συνέπειες για πολλά παιδιά», έγραψαν οι ομάδες στην επιστολή.
Η νέα σελίδα “Child Safety” της Apple περιγράφει λεπτομερώς τα σχέδια, τα οποία απαιτούν σάρωση στη συσκευή πριν δημιουργηθεί αντίγραφο ασφαλείας μιας εικόνας στο iCloud. Η σάρωση δεν πραγματοποιείται έως ότου δημιουργηθεί αντίγραφο ασφαλείας ενός αρχείου στο iCloud και η Apple λέει ότι λαμβάνει δεδομένα σχετικά με μια αντιστοίχιση μόνο εάν τα κρυπτογραφικά κουπόνια (που μεταφορτώνονται στο iCloud μαζί με την εικόνα) για έναν λογαριασμό αντιστοιχούν σε CSAM. Η Apple και άλλοι πάροχοι email cloud έχουν χρησιμοποιήσει συστήματα κατακερματισμού για σάρωση σχετικά με CSAM που αποστέλλεται μέσω email, αλλά το νέο πρόγραμμα θα εφαρμόζει τις ίδιες σαρώσεις σε εικόνες που είναι αποθηκευμένες στο iCloud, ακόμη και αν ο χρήστης δεν τις κοινοποιεί ή τις στέλνει σε κανέναν άλλο.
Σε απάντηση στις ανησυχίες σχετικά με τον τρόπο με τον οποίο η τεχνολογία μπορεί να χρησιμοποιηθεί για κατάχρηση, η Apple συνέχισε λέγοντας ότι θα περιορίσει τη χρήση της στην ανίχνευση CSAM «και δεν θα δεχθεί κανένα κυβερνητικό αίτημα για επέκταση».
Μεγάλο μέρος της αντίδρασης κατά των νέων μέτρων έχει επικεντρωθεί στη λειτουργία σάρωσης συσκευών, αλλά οι ομάδες πολιτικών δικαιωμάτων και απορρήτου δήλωσαν ότι το σχέδιο θόλωσης του γυμνού στα iMessages των παιδιών θα μπορούσε ενδεχομένως να θέσει τα παιδιά σε κίνδυνο και να σπάσει την κρυπτογράφηση edge-to-edge.
“Μόλις ενσωματωθεί αυτό το χαρακτηριστικό, οι κυβερνήσεις θα μπορούν να υποχρεώσουν την Apple να επεκτείνει την ειδοποίηση και σε άλλους λογαριασμούς και να εντοπίσει εικόνες που είναι μη αποδεκτές για άλλους λόγους εκτός από τη σεξουαλική έκφραση“, αναφέρει η επιστολή.