in

wowwow

Είναι επίσημο – Η Apple αποσύρει το σχέδιο παρακολούθησης των φωτογραφιών σας στο iCloud

Για την προστασία των παιδιών

Τίτλοι τέλους για την ανάπτυξη της τεχνολογίας CSAM της Apple, που θα της έδινε τη δυνατότητα να ελέγχει τις φωτογραφίες σας στο iCloud για εικόνες παιδικής σεξουαλικής κακοποίησης. Το Child Sexual Abuse Material αποκαλύφθηκε πέρυσι το φθινόπωρο, προκαλώντας έντονες αντιδράσεις από ειδικούς κρυπτογράφησης και ιδιωτικότητας, καθώς ενέχει τον κίνδυνο δημιουργίας ενός συστήματος παρακολούθησης το οποίο θα λειτουργεί απευθείας από το τηλέφωνό σας, το laptop ή το tablet σας.

Παρόλα αυτά, η Apple κυκλοφόρησε μία μορφή της CSAM τεχνολογίας με το iOS 15.2 και την ονόμασε “communication safety in iMessage”, όπου ο χρήστης μπορεί να επιλέξει από τις ρυθμίσεις Family Sharing της εφαρμογής Messages, να φιλτράρει εισερχόμενες και εξερχόμενες φωτογραφίες σεξουαλικού περιεχομένου σε λογαριασμούς παιδιών.

  • Αν εντοπίσει κάτι που θεωρεί πως ξεπερνά τα όρια, θολώνει την εικόνα και εμφανίζει ένα pop-up μήνυμα με οδηγίες βοήθειας ή μπλοκαρίσματος του αποστολέα. Το αρχικό σχέδιο ήταν να ειδοποιεί αυτόματα και το γονέα, αλλά στην πράξη αυτό παρέμεινε μόνο μία επιλογή για το χρήστη.

Τώρα, σύμφωνα με τη Wall Street Journal, η ανάπτυξη του CSAM σταματά και δίνεται έμφαση στην ιδιωτικότητα του χρήστη. Η εταιρία σχεδιάζει να επεκτείνει την κρυπτογράφηση απ’ άκρη σε άκρη για να συμπεριλαμβάνει τα backups του iPhone, προσθέτοντας νέα χαρακτηριστικά με στόχο τη διατήρηση της ιδιωτικότητας και της ασφάλειας κατά τη χρήση του iMessage και δεδομένων που αποθηκεύονται στο iCloud.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Τέλος το shadowban στο Instagram – Πλέον θα ξέρετε αν οι αναρτήσεις σας…

Είναι αλήθεια – Το πρόσωπό σας είναι γεμάτο με χιλιάδες από αυτά τα παράσιτα! (φωτο)