Αυτό περιλαμβάνει το κέντρο ισχύος του OpenAI, το Chat-GPT.
«Προς το παρόν, οποιοσδήποτε μπορεί να διαβάσει ιδιωτικές συνομιλίες που αποστέλλονται από το ChatGPT και άλλες υπηρεσίες», δήλωσε ο Yisroel Mirsky, επικεφαλής του Εργαστηρίου Επιθετικής AI Research Lab στο ArsTechnica.
«Αυτό περιλαμβάνει κακόβουλους ηθοποιούς στο ίδιο Wi-Fi ή LAN με έναν πελάτη (π.χ. το ίδιο καφενείο), ή ακόμα και έναν κακόβουλο ηθοποιό στο Διαδίκτυο — οποιονδήποτε μπορεί να παρατηρήσει την κίνηση. Η επίθεση είναι παθητική και μπορεί να συμβεί χωρίς τη γνώση του OpenAI ή του πελάτη τους. Το OpenAI κρυπτογραφεί την επισκεψιμότητά τους για να αποτρέψει αυτού του είδους τις επιθέσεις υποκλοπής, αλλά η έρευνά μας δείχνει ότι ο τρόπος με τον οποίο το OpenAI χρησιμοποιεί κρυπτογράφηση είναι ελαττωματικός και, επομένως, το περιεχόμενο των μηνυμάτων εκτίθεται».
Βασικά, σε μια προσπάθεια να γίνει το εργαλείο όσο το δυνατόν πιο γρήγορο – οι προγραμματιστές άνοιξαν τις πόρτες σε απατεώνες που μαζεύουν το περιεχόμενο. Όταν το chatbot αρχίζει να στέλνει πίσω την απάντησή του, δεν τη στέλνει όλη ταυτόχρονα. Στέλνει μικρά αποσπάσματα, με τη μορφή διακριτικών, για να επιταχύνει τη διαδικασία. Αυτά τα διακριτικά μπορεί να είναι κρυπτογραφημένα, αλλά καθώς αποστέλλονται ένα προς ένα, μόλις δημιουργηθούν, αυτό επιτρέπει στους εισβολείς να τα αναλύσουν.
Οι ερευνητές ανέλυσαν το μέγεθος, το μήκος, τη σειρά μέσω της οποίας φτάνουν και πολλά άλλα. Η ανάλυση και η επακόλουθη βελτίωση, οδήγησαν σε αποκρυπτογραφημένες απαντήσεις που ήταν σχεδόν πανομοιότυπες με αυτές που είδε το θύμα.
Οι ερευνητές πρότειναν στους προγραμματιστές να κάνουν ένα από τα δύο πράγματα: είτε να σταματήσουν να στέλνουν διακριτικά ένα κάθε φορά, είτε να τα διορθώσουν όλα στο μήκος του μεγαλύτερου δυνατού πακέτου, καθιστώντας την ανάλυση αδύνατη. Αυτή η τεχνική, την οποία ονόμασαν “padding”, υιοθετήθηκε από το OpenAI και το Cloudflare.