in

Περισσότερα ελαττώματα ασφαλείας που βρέθηκαν σε δημοφιλή chatbot AΙ

Εάν ένας χάκερ μπορεί να παρακολουθεί την κίνηση στο Διαδίκτυο μεταξύ του στόχου του και του βοηθού τεχνητής νοημοσύνης που βασίζεται στο cloud του στόχου, θα μπορούσε εύκολα να παρακολουθήσει τη συνομιλία. Και αν αυτή η συνομιλία περιείχε ευαίσθητες πληροφορίες – αυτές οι πληροφορίες θα κατέληγαν στα χέρια των επιτιθέμενων, επίσης.
Αυτό σύμφωνα με μια νέα ανάλυση από ερευνητές στο Εργαστήριο Επιθετικής Τεχνητής Νοημοσύνης από το Πανεπιστήμιο Ben-Gurion στο Ισραήλ, οι οποίοι βρήκαν έναν τρόπο να αναπτύσσουν επιθέσεις πλευρικών καναλιών σε στόχους χρησιμοποιώντας όλους τους βοηθούς Large Language Model (LLM), εκτός από το Google Gemini.

Αυτό περιλαμβάνει το κέντρο ισχύος του OpenAI, το Chat-GPT.

«Προς το παρόν, οποιοσδήποτε μπορεί να διαβάσει ιδιωτικές συνομιλίες που αποστέλλονται από το ChatGPT και άλλες υπηρεσίες», δήλωσε ο Yisroel Mirsky, επικεφαλής του Εργαστηρίου Επιθετικής AI Research Lab στο ArsTechnica.

«Αυτό περιλαμβάνει κακόβουλους ηθοποιούς στο ίδιο Wi-Fi ή LAN με έναν πελάτη (π.χ. το ίδιο καφενείο), ή ακόμα και έναν κακόβουλο ηθοποιό στο Διαδίκτυο — οποιονδήποτε μπορεί να παρατηρήσει την κίνηση. Η επίθεση είναι παθητική και μπορεί να συμβεί χωρίς τη γνώση του OpenAI ή του πελάτη τους. Το OpenAI κρυπτογραφεί την επισκεψιμότητά τους για να αποτρέψει αυτού του είδους τις επιθέσεις υποκλοπής, αλλά η έρευνά μας δείχνει ότι ο τρόπος με τον οποίο το OpenAI χρησιμοποιεί κρυπτογράφηση είναι ελαττωματικός και, επομένως, το περιεχόμενο των μηνυμάτων εκτίθεται».

Βασικά, σε μια προσπάθεια να γίνει το εργαλείο όσο το δυνατόν πιο γρήγορο – οι προγραμματιστές άνοιξαν τις πόρτες σε απατεώνες που μαζεύουν το περιεχόμενο. Όταν το chatbot αρχίζει να στέλνει πίσω την απάντησή του, δεν τη στέλνει όλη ταυτόχρονα. Στέλνει μικρά αποσπάσματα, με τη μορφή διακριτικών, για να επιταχύνει τη διαδικασία. Αυτά τα διακριτικά μπορεί να είναι κρυπτογραφημένα, αλλά καθώς αποστέλλονται ένα προς ένα, μόλις δημιουργηθούν, αυτό επιτρέπει στους εισβολείς να τα αναλύσουν. 

Οι ερευνητές ανέλυσαν το μέγεθος, το μήκος, τη σειρά μέσω της οποίας φτάνουν και πολλά άλλα. Η ανάλυση και η επακόλουθη βελτίωση, οδήγησαν σε αποκρυπτογραφημένες απαντήσεις που ήταν σχεδόν πανομοιότυπες με αυτές που είδε το θύμα. 

Οι ερευνητές πρότειναν στους προγραμματιστές να κάνουν ένα από τα δύο πράγματα: είτε να σταματήσουν να στέλνουν διακριτικά ένα κάθε φορά, είτε να τα διορθώσουν όλα στο μήκος του μεγαλύτερου δυνατού πακέτου, καθιστώντας την ανάλυση αδύνατη. Αυτή η τεχνική, την οποία ονόμασαν “padding”, υιοθετήθηκε από το OpenAI και το Cloudflare.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Η Alexa σας είναι το μυστικό σας όπλο για καλύτερο ύπνο

Monster S01 – Έξυπνα γυαλιά ηλίου με φακούς που αλλάζουν, Bluetooth και μπαταρία 240mAh για αυτονομία έως 6 ώρες