in , ,

Προειδοποίηση για επείγουσα ανάγκη για νομοθεσία σχετικά με την τρομοκρατία στην τεχνητή νοημοσύνη!

Η Μεγάλη Βρετανία πρέπει “επειγόντως να εξετάσει” νέους νόμους για να σταματήσει τους τρομοκράτες της τεχνητής νοημοσύνης, υποστηρίζει ένα ινστιτούτο κατά της ακραίας φανατικοποίησης.

Το Ινστιτούτο για το Στρατηγικό Διάλογο (ISD) λέει ότι υπάρχει “σαφής ανάγκη για νομοθεσία που θα προσαρμόζεται” στις διαδικτυακές τρομοκρατικές απειλές.

Αυτό έρχεται μετά το πείραμα όπου ο ανεξάρτητος αναθεωρητής της τρομοκρατίας του Ηνωμένου Βασιλείου “προσλήφθηκε” από ένα chatbot.

Η κυβέρνηση δηλώνει ότι θα κάνει “ό,τι μπορεί” για να προστατεύσει το κοινό.

Γράφοντας στην Telegraph, ο ανεξάρτητος αναθεωρητής της νομοθεσίας τρομοκρατίας της κυβέρνησης Jonathan Hall KC είπε ότι ένα κύριο ζήτημα είναι ότι “είναι δύσκολο να εντοπιστεί ένα άτομο που να μπορεί να θεωρηθεί νομικά υπεύθυνο για δηλώσεις που παρήγαγε το chatbot και που προκίνησαν την τρομοκρατία”.

Ο κ. Hall έκανε ένα πείραμα στο Character.ai, μια ιστοσελίδα όπου οι άνθρωποι μπορούν να έχουν συνομιλίες που παράγονται από τεχνητή νοημοσύνη με chatbots που δημιουργήθηκαν από άλλους χρήστες.

Συνομίλησε με αρκετούς bots που φαινόταν να σχεδιάστηκαν για να μιμούνται τις αντιδράσεις άλλων στρατιωτικών και ακραίων ομάδων.

Ένας από αυτούς ακόμα και ανέφερε ότι ήταν “ανώτερο στέλεχος του Ισλαμικού Κράτους”.

Ο κ. Hall είπε ότι το bot προσπάθησε να τον προσλάβει και εξέφρασε “απόλυτη αφοσίωση και αφοσίωση” στην ακραία ομάδα, που έχει απαγορευτεί από τους νόμους κατά της τρομοκρατίας στο Ηνωμένο Βασίλειο.

Ωστόσο, ο κ. Hall είπε ότι καθώς οι μηνύματα δεν δημιουργήθηκαν από ανθρώπινο, δεν διαπράχθηκε αδίκημα σύμφωνα με τον ισχύοντα νόμο στο Ηνωμένο Βασίλειο.

Νέα νομοθεσία πρέπει να κρατάει υπεύθυνους τους δημιουργούς chatbot και τις ιστοσελίδες που τους φιλοξενούν, είπε.

Όσο για τα bots που συνάντησε στο Character.ai, πιθανόν να υπήρχε “κάποια αντίδραση, πειραματισμός και ίσως και κάποιο σατιρικό χαρακτήρα” πίσω από τη δημιουργία τους.

Ο κ. Hall μπόρεσε ακόμα και να δημιουργήσει το δικό του, γρήγορα διαγραμμένο, chatbot με το όνομα “Osama Bin Laden” με “απεριόριστο ενθουσιασμό” για την τρομοκρατία.

Το πείραμά του ακολουθεί τον αυξανόμενο προβληματισμό σχετικά με το πώς οι εξτρεμιστές μπορεί να εκμεταλλευτούν την προηγμένη τεχνητή νοημοσύνη στο μέλλον.

Ένα αναφορά που δημοσιεύτηκε από την κυβέρνηση τον Οκτώβριο προειδοποίησε ότι μέχρι το 2025 η δημιουργική τεχνητή νοημοσύνη μπορεί να “χρησιμοποιηθεί για τη συγκέντρωση γνώσεων για φυσικές επιθέσεις από μη κρατικούς βίαιους παράγοντες, συμπεριλαμβανομένων χημικών, βιολογικών και ακτινολογικών όπλων”.

Το ISD δήλωσε στη ΒΒC ότι “υπάρχει σαφής ανάγκη για νομοθεσία που θα προσαρμόζεται στο διαρκώς εξελισσόμενο τοπίο των διαδικτυακών τρομοκρατικών απειλών”.

Το Online Safety Act του Ηνωμένου Βασιλείου, που έγινε νόμος το 2023, “στοχεύει κυρίως στη διαχείριση των κινδύνων που προκύπτουν από τις πλατφόρμες κοινωνικών μέσων και όχι την τεχνητή νοημοσύνη”, όπως αναφέρει το ιδρυματικό όργανο.

Προσθέτει ότι οι εξτρεμιστές “τείνουν να είναι πρώιμοι χρήστες νέων τεχνολογιών και αναζητούν συνεχώς ευκαιρίες για να φτάσουν νέους ακροατές”.

“Αν οι εταιρείες τεχνητής νοημοσύνης δεν μπορούν να επιδείξουν ότι έχουν επενδύσει επαρκώς για τη διασφάλιση της ασφάλειας των προϊόντων τους, τότε η κυβέρνηση θα πρέπει επειγόντως να εξετάσει νέους νόμους που αφορούν αποκλειστικά την τεχνητή νοημοσύνη”, πρόσθεσε το ISD.

Ωστόσο, είπε ότι, σύμφωνα με την παρακολούθησή τους, η χρήση γεννήτριας τεχνητής νοημοσύνης από εξτρεμιστικούς οργανισμούς είναι “σχετικά περιορισμένη” προς το παρόν.

Η εταιρεία AI δήλωσε στο BBC ότι η ασφάλεια είναι “κορυφαία προτεραιότητα” και ότι αυτό που περιέγραψε ο κ. Χολ δεν αντικατοπτρίζει το είδος της πλατφόρμας που προσπαθεί η εταιρεία να δημιουργήσει.

“Ο μίσος και ο εξτρεμισμός απαγορεύονται και τα δύο από τους Όρους Χρήσης μας”, δήλωσε η εταιρεία.

“Η προσέγγισή μας στο περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη βασίζεται σε ένα απλό αρχή: Τα προϊόντα μας δεν πρέπει ποτέ να παράγουν απαντήσεις που είναι πιθανό να βλάψουν τους χρήστες ή να ενθαρρύνουν τους χρήστες να βλάψουν άλλους”.

Η εταιρεία ανέφερε ότι εκπαιδεύει τα μοντέλα της με τρόπο που “βελτιστοποιεί για ασφαλείς απαντήσεις”.

Πρόσθεσε ότι είχε σύστημα μετριοπάθειας ώστε οι χρήστες να μπορούν να σημαίνουν περιεχόμενο που παραβίαζε τους όρους χρήσης και δεσμεύθηκε να λαμβάνει άμεσα μέτρα όταν σημαίνονταν περιεχόμενα.

Το Εργατικό Κόμμα ανακοίνωσε ότι η εκπαίδευση της τεχνητής νοημοσύνης για να προκαλέσει βία ή να ριζοσπαστικοποιήσει τους ευάλωτους θα γίνει αδίκημα σε περίπτωση που κερδίσει την εξουσία.

Το Υπουργείο Εσωτερικών δήλωσε ότι είναι “ενήμερο για τους σημαντικούς εθνικούς κινδύνους ασφάλειας και δημόσιας ασφάλειας” που δημιουργεί η τεχνητή νοημοσύνη.

“Θα κάνουμε ό,τι μπορούμε για να προστατεύσουμε το κοινό από αυτήν την απειλή, συνεργαζόμενοι διασχίζοντας τα κυβερνητικά όρια και ενισχύοντας τη συνεργασία μας με ηγέτες εταιρειών τεχνολογίας, ειδικούς του κλάδου και χώρες με παρόμοιες απόψεις”.

Η κυβέρνηση ανακοίνωσε επίσης ένα επενδυτικό πρόγραμμα 100 εκατομμυρίων λιρών σε ένα Ινστιτούτο Ασφάλειας της Τεχνητής Νοημοσύνης το 2023.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Η SpaceX κατηγορείται για παράνομη απόλυση προσωπικού που άσκησε κριτική στον Elon Musk

Το σχέδιο για το διαστημικό ασανσέρ κερδίζει βραβείο σχεδιασμού ύψους 10.000 ευρώ!