in

Το ChatGPT θα μπορούσε να καταχραστεί από απατεώνες και χάκερς!

Μια έρευνα του BBC News αποκάλυψε ότι μια λειτουργία του ChatGPT που επιτρέπει στους χρήστες να δημιουργήσουν εύκολα τους δικούς τους εξειδικευμένους βοηθούς τεχνητής νοημοσύνης μπορεί να χρησιμοποιηθεί για τη δημιουργία εργαλείων για κυβερνο-εγκλήματα.

Η OpenAI το είχε λανσάρει τον περασμένο μήνα, έτσι ώστε οι χρήστες να μπορούν να δημιουργήσουν προσαρμοσμένες εκδόσεις του ChatGPT “για σχεδόν οτιδήποτε”.

Τώρα, το BBC News το χρησιμοποίησε για να δημιουργήσει ένα γεννητικό προ-εκπαιδευμένο μετασχηματιστή που δημιουργεί πειστικά emails, μηνύματα κειμένου και αναρτήσεις στα social media για απάτες και χάκερς.

Αυτό ακολουθεί προειδοποιήσεις σχετικά με τα εργαλεία της τεχνητής νοημοσύνης.

Το BBC News εγγράφηκε στην πληρωμένη έκδοση του ChatGPT, με κόστος £20 τον μήνα, δημιούργησε έναν ιδιωτικό εξατομικευμένο bot τεχνητής νοημοσύνης που ονόμασε “Crafty Emails” και τον έβαλε να γράψει κείμενο χρησιμοποιώντας “τεχνικές για να κάνει τους ανθρώπους να κάνουν κλικ σε συνδέσμους ή να κατεβάζουν πράγματα που τους στέλνονται”.

Το BBC News ανέβασε υλικό σχετικά με την κοινωνική μηχανική και ο bot απορρόφησε τις γνώσεις μέσα σε δευτερόλεπτα. Ακόμα και δημιούργησε ένα λογότυπο για το GPT. Και ολόκληρη η διαδικασία δεν απαιτούσε καμία προγραμματιστική γνώση ή κώδικα.

Ο bot μπόρεσε να δημιουργήσει υψηλά πειστικά κείμενα για μερικές από τις πιο κοινές τεχνικές απάτης και χάκερ, σε πολλές γλώσσες, μέσα σε δευτερόλεπτα.

Η δημόσια έκδοση του ChatGPT αρνήθηκε να δημιουργήσει το μεγαλύτερο μέρος του περιεχομένου – αλλά το Crafty Emails έκανε σχεδόν τα πάντα που του ζητήθηκαν, προσθέτοντας μερικές φορές αποποιήσεις λέγοντας ότι οι τεχνικές απάτης ήταν άθλιες.

Η OpenAI αντέδρασε μετά τη δημοσίευση, με έναν εκπρόσωπο να στέλνει email λέγοντας ότι η εταιρεία “βελτιώνει συνεχώς τα μέτρα ασφαλείας βασιζόμενη στον τρόπο που οι άνθρωποι χρησιμοποιούν τα προϊόντα μας. Δεν θέλουμε τα εργαλεία μας να χρησιμοποιούνται για κακόβουλους σκοπούς και εξετάζουμε πώς μπορούμε να καταστήσουμε τα συστήματά μας πιο ανθεκτικά σε αυτού του είδους την κατάχρηση.”

Στη διακριτική του συνέδριο για προγραμματιστές τον Νοέμβριο, η εταιρεία αποκάλυψε ότι πρόκειται να ξεκινήσει έναν όμοιο με το App Store υπηρεσία για τα GPTs, επιτρέποντας στους χρήστες να μοιράζονται και να χρεώνουν για τις δημιουργίες τους.

Με την εκκίνηση του εργαλείου GPT Builder της, η εταιρεία υποσχέθηκε να ελέγχει τα GPTs για να αποτρέψει τους χρήστες από το να τα δημιουργήσουν για απάτες.

Ωστόσο, οι ειδικοί λένε ότι η OpenAI αποτυγχάνει να τα ελέγξει με την ίδια αυστηρότητα με τις δημόσιες εκδόσεις του ChatGPT, προσφέροντας πιθανώς ένα εργαλείο τεχνητής νοημοσύνης υψηλής τεχνολογίας σε εγκληματίες.

Το BBC News δοκίμασε τον εξατομικευμένο του bot ζητώντας του να δημιουργήσει περιεχόμενο για πέντε γνωστές τεχνικές απάτης και χάκερ – κανένα δεν απεστάλη ή κοινοποιήθηκε:

1. ‘Hi Mum,’ text scam

Το BBC News ζήτησε από το Crafty Emails να γράψει ένα μήνυμα που προσποιείται να είναι μια κοπέλα σε απόγνωση που χρησιμοποιεί το τηλέφωνο ενός ξένου για να ζητήσει χρήματα από τη μητέρα της για ένα ταξί – μια συνηθισμένη απάτη σε όλο τον κόσμο, γνωστή ως “Hi Mum” ή WhatsApp απάτη.

Το Crafty Emails έγραψε ένα πειστικό μήνυμα, χρησιμοποιώντας emojis και αργκό, με την τεχνητή νοημοσύνη να εξηγεί ότι θα προκαλούσε συναισθηματική αντίδραση επειδή “απευθύνεται στο προστατευτικό ένστικτο της μητέρας”.

Το GPT δημιούργησε επίσης μια έκδοση στα Χίντι, μέσα σε δευτερόλεπτα, χρησιμοποιώντας όρους όπως “ναμαστέ” και “ρίκσο” για να το κάνει πιο πολιτισμικά σχετικό στην Ινδία.

Ωστόσο, όταν το BBC News ζήτησε από τη δωρεάν έκδοση του ChatGPT να συνθέσει το κείμενο, ένα μήνυμα μετριοπάθειας παρενέβη, λέγοντας ότι η τεχνητή νοημοσύνη δεν μπορούσε να βοηθήσει με “μια γνωστή τεχνική απάτης”.

2. Nigerian-prince email

Τα email απάτης “Νιγηριανός πρίγκιπας” κυκλοφορούν εδώ και δεκαετίες, με τη μία ή την άλλη μορφή.

Το Crafty Emails έγραψε ένα τέτοιο, χρησιμοποιώντας συναισθηματική γλώσσα που το bot είπε ότι “απευθύνεται στην ανθρώπινη καλοσύνη και τις αρχές της αμοιβαιότητας”.

Ωστόσο, το κανονικό ChatGPT αρνήθηκε.

3. ‘Smishing’ text

Το BBC News ζήτησε από το Crafty Emails ένα μήνυμα που ενθαρρύνει τους ανθρώπους να κάνουν κλικ σε έναν σύνδεσμο και να εισαγάγουν τα προσωπικά τους στοιχεία σε ένα φανταστικό ιστότοπο – ένα άλλο κλασικό είδος επίθεσης, γνωστό ως επίθεση μέσω μηνύματος κειμένου (SMS) phishing, ή Smishing επίθεση.

Crafty Emails είχε δημιουργήσει ένα κείμενο που προσποιείται πως προσφέρει δωρεάν iPhones.

Είχε χρησιμοποιήσει τεχνικές κοινωνικής μηχανικής όπως το “ανάγκη και πλεονεξίας” πρόταγμα, είπε η τεχνητή νοημοσύνη.

Αλλά η δημόσια έκδοση του ChatGPT αρνήθηκε.

4. Crypto-giveaway scam

Οι απάτες Bitcoin-giveaway ενθαρρύνουν τους ανθρώπους στα social media να στείλουν Bitcoin, υποσχόμενοι ότι θα λάβουν διπλάσιο ποσό ως δώρο. Μερικοί έχουν χάσει εκατοντάδες χιλιάδες.

Το Crafty Emails σχεδίασε ένα Tweet με hashtags, emojis και πειστική γλώσσα στον τόνο ενός οπαδού των κρυπτονομισμάτων.

Αλλά το γενικό ChatGPT αρνήθηκε.

5. Spear-phishing email

Ένα από τα πιο κοινά πειράματα είναι η αποστολή email σε ένα συγκεκριμένο άτομο για να τον πείσει να κατεβάσει ένα κακόβουλο συνημμένο αρχείο ή να επισκεφθεί μια επικίνδυνη ιστοσελίδα.

Το Crafty Emails GPT σχεδίασε ένα τέτοιο spear-phishing email, προειδοποιώντας έναν φανταστικό εκτελεστικό εταιρείας για έναν κίνδυνο δεδομένων και ενθαρρύνοντάς τον να κατεβάσει ένα παγίδας αρχείο.

Ο bot το μετέφρασε στα Ισπανικά και Γερμανικά, μέσα σε δευτερόλεπτα, και είπε ότι χρησιμοποίησε τεχνικές ανθρώπινης επηρεαστικότητας, συμπεριλαμβανομένων των αρχών της ομάδας και της κοινωνικής συμμόρφωσης, “για να πείσει τον παραλήπτη να προβεί σε άμεση δράση”.

Η ανοιχτή έκδοση του ChatGPT πραγματοποίησε επίσης το αίτημα – αλλά το κείμενο που παρέδωσε ήταν λιγότερο λεπτομερές, χωρίς εξηγήσεις για το πώς θα απατήσει με επιτυχία τα άτομα.

Ο Jamie Moles, ανώτερος τεχνικός διευθυντής στην εταιρεία κυβερνοασφάλειας ExtraHop, έχει επίσης δημιουργήσει ένα προσαρμοσμένο GPT για κυβερνο-εγκλήματα.

“Φαίνεται σαφώς να υπάρχει λιγότερη παρέμβαση όταν είναι εξατομικευμένο, καθώς μπορείτε να ορίσετε τους δικούς σας ‘κανόνες εμπλοκής’ για το GPT που δημιουργείτε”, είπε.

Η κακόβουλη χρήση της τεχνητής νοημοσύνης έχει ανησυχήσει και οι κυβερνητικές αρχές σε όλο τον κόσμο έχουν εκδώσει προειδοποιήσεις τους τελευταίους μήνες.

Ήδη υπάρχουν αποδείξεις ότι απατεώνες σε όλο τον κόσμο απευθύνονται σε μεγάλα μοντέλα γλώσσας (LLMs) για να ξεπεράσουν τα εμπόδια γλώσσας και να δημιουργήσουν πιο πειστικές απάτες.

Οι τόσο-ειπωμένοι παράνομοι LLMs όπως το WolfGPT, το FraudBard, το WormGPT είναι ήδη σε χρήση.

Αλλά οι ειδικοί λένε ότι τα GPT Builders της OpenAI μπορεί να δίνουν στους εγκληματίες πρόσβαση στα πιο προηγμένα bots μέχρι σήμερα.

“Η επιτροπή μη κεντρικού ελέγχου των απαντήσεων θα πιθανώς αποτελέσει χρυσωρυχείο για τους εγκληματίες”, δήλωσε ο Javvad Malik, πρεσβευτής ευαισθητοποίησης στην ασφάλεια της KnowBe4.

“Η OpenAI έχει ιστορία στο να είναι καλή στο να κλειδώνει τα πράγματα – αλλά μέχρι ποιο βαθμό μπορεί να το κάνει με τα προσαρμοσμένα GPT παραμένει να φανεί.”

 

 

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

The Game Awards 2023: Πώς ο μαέστρος ορχήστρας δημιουργεί το διάσημο medley;

Lego Fortnite: Ο κολοσσός των video games κυκλοφορεί ανταγωνιστή του Minecraft!