in ,

Πρέπει να φοβόμαστε μια επίθεση των φωνητικών κλώνων;

“Είναι σημαντικό να φυλάξετε την ψήφο σας για τις εκλογές του Νοεμβρίου”, ανέφερε το ηχογραφημένο μήνυμα στους υποψήφιους ψηφοφόρους τον περασμένο μήνα, ενόψει των προκριματικών εκλογών των Δημοκρατικών στο Νιου Χάμσαϊρ. Ακουγόταν πολύ σαν τον Πρόεδρο.

Αλλά οι ψήφοι δεν χρειάζεται να φυλάσσονται, και η φωνή δεν ήταν ο Τζο Μπάιντεν, αλλά πιθανότατα ένας πειστικός κλώνος τεχνητής νοημοσύνης.

Το περιστατικό ανέβασε τους φόβους σχετικά με την ηχητική πλαστογράφηση με τεχνητή νοημοσύνη σε πυρετό – και η τεχνολογία γίνεται όλο και πιο ισχυρή, όπως έμαθα όταν απευθύνθηκα σε μια εταιρεία κυβερνοασφάλειας σχετικά με το θέμα.

Οργανώσαμε μια κλήση, η οποία πήγε κάπως έτσι:

“Γεια σου, Chris, είμαι ο Rafe Pilling από την Secureworks. Ανταποκρίνομαι στο τηλεφώνημά σου σχετικά με μια πιθανή συνέντευξη. Πώς πάει;”

Είπα ότι πήγαινε καλά.

“Χαίρομαι που το ακούω, Chris”, είπε ο κ. Pilling. “Το εκτιμώ που επικοινώνησες μαζί μου. Καταλαβαίνω ότι ενδιαφέρεστε για τις τεχνικές κλωνοποίησης φωνής. Σωστά;”

Ναι, απάντησα. Με απασχολούν οι κακόβουλες χρήσεις της τεχνολογίας.

“Απολύτως, Chris. Συμμερίζομαι την ανησυχία σου. Ας βρούμε χρόνο για τη συνέντευξη”, απάντησε.

Αλλά αυτός δεν ήταν ο πραγματικός κ. Pilling. Ήταν μια επίδειξη που έκανε η Secureworks για ένα σύστημα τεχνητής νοημοσύνης ικανό να με καλεί και να ανταποκρίνεται στις αντιδράσεις μου. Είχε επίσης προσπαθήσει να μιμηθεί τη φωνή του κ. Pilling.

Ακούστε το τηλεφώνημα με την κλωνοποιημένη φωνή στο τελευταίο επεισόδιο του Tech Life στο BBC Sounds.

Εκατομμύρια κλήσεις

“Ακούγομαι λίγο σαν μεθυσμένος Αυστραλός, αλλά αυτό ήταν αρκετά εντυπωσιακό”, είπε ο πραγματικός κ. Pilling, καθώς η επίδειξη τελείωνε. Δεν ήταν απολύτως πειστική. Υπήρχαν παύσεις πριν από τις απαντήσεις που θα μπορούσαν να φωνάξουν “ρομπότ!” στους επιφυλακτικούς.

Οι κλήσεις έγιναν με τη χρήση μιας ελεύθερα διαθέσιμης εμπορικής πλατφόρμας που ισχυρίζεται ότι έχει τη δυνατότητα να στέλνει “εκατομμύρια” τηλεφωνήματα την ημέρα, χρησιμοποιώντας πράκτορες τεχνητής νοημοσύνης που ακούγονται σαν άνθρωποι.

Στο μάρκετινγκ της προτείνει ως πιθανές χρήσεις τα τηλεφωνικά κέντρα και τις έρευνες.

Ο συνάδελφος του κ. Pilling, Ben Jacob είχε χρησιμοποιήσει την τεχνολογία ως παράδειγμα – όχι επειδή η εταιρεία πίσω από το προϊόν κατηγορείται ότι κάνει κάτι κακό. Δεν το κάνει. Αλλά για να δείξει τις δυνατότητες της νέας γενιάς συστημάτων. Και ενώ το δυνατό του σημείο ήταν η συνομιλία και όχι η μίμηση, ένα άλλο σύστημα που παρουσίασε ο κ. Τζέικομπ παρήγαγε αξιόπιστα αντίγραφα φωνών, με βάση μόνο μικρά αποσπάσματα ήχου που αντλήθηκαν από το YouTube.

Από την άποψη της ασφάλειας, ο κ. Pilling βλέπει την ικανότητα των συστημάτων να αναπτύσσουν γρήγορα χιλιάδες τέτοιου είδους συνομιλητικές Τεχνητές Νοημοσύνες ως μια σημαντική, ανησυχητική εξέλιξη. Η κλωνοποίηση φωνής είναι το κερασάκι στην τούρτα, μου λέει.

Επί του παρόντος, οι τηλεφωνικοί απατεώνες πρέπει να προσλάβουν στρατιές φτηνών εργατών για να διευθύνουν ένα μίνι τηλεφωνικό κέντρο, ή απλά να περνούν πολύ χρόνο στο τηλέφωνο οι ίδιοι. Η τεχνητή νοημοσύνη θα μπορούσε να τα αλλάξει όλα αυτά.

Αν είναι έτσι, θα αντικατοπτρίζει τον αντίκτυπο της τεχνητής νοημοσύνης γενικότερα.

“Το βασικό πράγμα που βλέπουμε με αυτές τις τεχνολογίες τεχνητής νοημοσύνης είναι η δυνατότητα βελτίωσης της αποτελεσματικότητας και της κλίμακας των υφιστάμενων λειτουργιών”, λέει.

Παραπληροφόρηση
Με τις μεγάλες εκλογές στο Ηνωμένο Βασίλειο, τις ΗΠΑ και την Ινδία που θα διεξαχθούν φέτος, υπάρχουν επίσης ανησυχίες για τα audio deepfakes – η ονομασία για το είδος των εξελιγμένων ψεύτικων φωνών που μπορεί να δημιουργήσει η ΤΝ – που θα μπορούσαν να χρησιμοποιηθούν για τη δημιουργία παραπληροφόρησης με στόχο τη χειραγώγηση των δημοκρατικών αποτελεσμάτων.

Υψηλόβαθμοι Βρετανοί πολιτικοί έχουν υποστεί audio deepfakes, όπως και πολιτικοί σε άλλα έθνη, συμπεριλαμβανομένης της Σλοβακίας και της Αργεντινής. Το Εθνικό Κέντρο Κυβερνοασφάλειας έχει προειδοποιήσει ρητά για τις απειλές που θέτουν οι ψεύτικες τεχνητές νοημοσύνες στις επόμενες εκλογές του Ηνωμένου Βασιλείου.

Η Lorena Martinez, η οποία εργάζεται για μια εταιρεία που εργάζεται για την αντιμετώπιση της διαδικτυακής παραπληροφόρησης, την Logically Facts, δήλωσε στο BBC ότι όχι μόνο τα audio deepfakes γίνονται όλο και πιο συχνά, αλλά είναι επίσης πιο δύσκολο να επαληθευτούν από ό,τι οι εικόνες AI.

“Αν κάποιος θέλει να καλύψει ένα audio deepfake, μπορεί να το κάνει και υπάρχουν λιγότερες τεχνολογικές λύσεις και εργαλεία στη διάθεση των fact-checkers”, δήλωσε η ίδια.

Ο κ. Pilling προσθέτει ότι μέχρι να αποκαλυφθεί η απομίμηση, συχνά έχει ήδη κυκλοφορήσει ευρέως.

Η κ. Martinez, η οποία εργάστηκε στο Twitter για την αντιμετώπιση της παραπληροφόρησης, υποστηρίζει ότι σε μια χρονιά που πάνω από τον μισό πληθυσμό του πλανήτη θα προσέλθει στις κάλπες, οι εταιρείες μέσων κοινωνικής δικτύωσης πρέπει να κάνουν περισσότερα και να ενισχύσουν τις ομάδες καταπολέμησης της παραπληροφόρησης.

Κάλεσε επίσης τους προγραμματιστές της τεχνολογίας κλωνοποίησης φωνής να “σκεφτούν πώς τα εργαλεία τους θα μπορούσαν να καταστραφούν” προτού τα λανσάρουν, αντί να “αντιδρούν στην κακή χρήση τους, κάτι που έχουμε δει με τα chatbots τεχνητής νοημοσύνης”.

Η Εκλογική Επιτροπή, ο εκλογικός παρατηρητής του Ηνωμένου Βασιλείου, μου είπε ότι οι αναδυόμενες χρήσεις της τεχνητής νοημοσύνης “προκαλούν σαφείς ανησυχίες σχετικά με το τι μπορούν και τι δεν μπορούν να εμπιστευτούν οι ψηφοφόροι σε αυτά που βλέπουν, ακούν και διαβάζουν κατά τη διάρκεια των εκλογών”.

Λέει ότι έχει συνεργαστεί με άλλους παρατηρητές για να προσπαθήσει να κατανοήσει τις ευκαιρίες και τις προκλήσεις της τεχνητής νοημοσύνης.

Ωστόσο, ο Sam Jeffers, συνιδρυτής του Who Targets Me, το οποίο παρακολουθεί την πολιτική διαφήμιση, υποστηρίζει ότι είναι σημαντικό να θυμόμαστε ότι οι δημοκρατικές διαδικασίες στο Ηνωμένο Βασίλειο είναι αρκετά ισχυρές.

Λέει ότι πρέπει να προφυλαχθούμε και από τον κίνδυνο του υπερβολικού κυνισμού – ότι τα deepfakes μας οδηγούν να μην πιστεύουμε τις αξιόπιστες πληροφορίες.

“Πρέπει να είμαστε προσεκτικοί για να αποφύγουμε μια κατάσταση όπου αντί να προειδοποιούμε τους ανθρώπους για τους κινδύνους της τεχνητής νοημοσύνης, προκαλούμε ακούσια τους ανθρώπους να χάσουν την πίστη τους σε πράγματα που μπορούν να εμπιστευτούν”, λέει ο κ. Jeffries.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Οι απατεώνες πήραν περισσότερες από 850 χιλιάδες λίρες από τους κατοίκους του Manx το 2023, λέει η έκθεση

“Δεν υπάρχει πραγματική εικόνα”, λέει το στέλεχος της Samsung