in

Το Ευρωπαϊκό Κοινοβούλιο ενέκρινε τον κανονισμό για την τεχνητή νοημοσύνη

Οι τρεις κλάδοι της Ευρωπαϊκής Ένωσης έχουν προσωρινά συμφωνήσει στον ιστορικό κανονισμό για την τεχνητή νοημοσύνη, ανοίγοντας το δρόμο για την οικονομική ένωση να απαγορεύσει ορισμένες χρήσεις της τεχνολογίας και να απαιτήσει διαφάνεια από τους παρόχους. Αλλά παρά τις προειδοποιήσεις ορισμένων παγκόσμιων ηγετών, παραμένει ασαφές το ποιες αλλαγές θα απαιτηθούν από τις εταιρείες τεχνητής νοημοσύνης — και πιθανόν αυτές να είναι ακόμα μακριά στο μέλλον.

Προτείνεται από το 2021, ο Κανονισμός για την Τεχνητή Νοημοσύνη δεν έχει ακόμα εγκριθεί πλήρως. Πολυσυζητημένες τελευταία στιγμή συμβιβαστικές λύσεις μείωσαν τις αυστηρότερες απειλές του ρυθμιστικού πλαισίου. Και η εφαρμογή πιθανώς δεν θα ξεκινήσει για χρόνια. “Στο πολύ μικρό χρονικό διάστημα, ο συμβιβασμός για τον Κανονισμό της ΕΕ για την Τεχνητή Νοημοσύνη δεν θα έχει πολύ άμεσο αντίκτυπο στους εγκατεστημένους σχεδιαστές τεχνητής νοημοσύνης που βρίσκονται στις ΗΠΑ, επειδή, σύμφωνα με τους όρους του, πιθανότατα δεν θα τεθεί σε ισχύ πριν το 2025,” δηλώνει ο Paul Barrett, αναπληρωτής διευθυντής του Κέντρου Επιχειρήσεων και Ανθρώπινων Δικαιωμάτων του NYU Stern.

Έτσι, για τώρα, λέει ο Barrett, μεγάλοι παίκτες της τεχνητής νοημοσύνης όπως η OpenAI, η Microsoft, η Google και η Meta πιθανόν θα συνεχίσουν να αγωνίζονται για την κυριαρχία, ιδίως καθώς αντιμετωπίζουν την ρυθμιστική αβεβαιότητα στις ΗΠΑ.

Ο Κανονισμός για την Τεχνητή Νοημοσύνη ξεκίνησε πριν από την έκρηξη των γενικής χρήσης εργαλείων Τεχνητής Νοημοσύνης (GPAI) όπως το μοντέλο γλώσσας GPT-4 της OpenAI, και η ρύθμισή τους έγινε ένα ιδιαίτερα περίπλοκο σημείο αδρανείας στις τελευταίες διαπραγματεύσεις. Ο κανονισμός διαιρεί τους κανόνες του ανάλογα με το επίπεδο κινδύνου που έχει ένα σύστημα Τεχνητής Νοημοσύνης στην κοινωνία, ή όπως δήλωσε η ΕΕ σε ανακοίνωσή της, “όσο υψηλότερος ο κίνδυνος, τόσο αυστηρότεροι οι κανόνες.”

Ωστόσο, ορισμένα κράτη μέλη ανησυχούσαν ότι αυτή η αυστηρότητα θα μπορούσε να καταστήσει την ΕΕ μια λιγότερο ελκυστική αγορά για την τεχνητή νοημοσύνη. Η Γαλλία, η Γερμανία και η Ιταλία προώθησαν την χαλάρωση των περιορισμών στα GPAI κατά τη διάρκεια των διαπραγματεύσεων. Κέρδισαν συμβιβασμούς, συμπεριλαμβανομένου του περιορισμού όσων θα θεωρούνται “υψηλού κινδύνου” συστήματα, τα οποία θα υπόκεινται σε ορισμένους από τους αυστηρότερους κανόνες. Αντί να κατατάσσονται όλα τα GPAI ως υψηλού κινδύνου, θα υπάρχει ένα διπλό σύστημα και εξαιρέσεις για εφαρμογές εκτός νόμου όπως η απαγόρευση της απομακρυσμένης βιομετρικής αναγνώρισης.

Αυτό δεν ικανοποίησε όλους τους κριτικούς. Ο Πρόεδρος της Γαλλίας, Emmanuel Macron, επικρότησε τους κανόνες, λέγοντας ότι ο Κανονισμός για την Τεχνητή Νοημοσύνη δημιουργεί ένα αυστηρό ρυθμιστικό περιβάλλον που εμποδίζει την καινοτομία. Ο Barrett είπε ότι ορισμένες νέες ευρωπαϊκές εταιρείες τεχνητής νοημοσύνης θα μπορούσαν να βρουν προκλήσεις στη συγκέντρωση κεφαλαίων με τους τρέχοντες κανόνες, πράγμα που δίνει πλεονέκτημα στις αμερικανικές εταιρείες. Εταιρείες εκτός Ευρώπης μπορεί ακόμα να επιλέξουν να αποφύγουν την εγκατάσταση στην περιοχή ή να αποκλείσουν την πρόσβαση σε πλατφόρμες για να μην πρόκειται να πληρώσουν πρόστιμα για την παραβίαση των κανόνων — ένα δυνητικό ρίσκο που αντιμετώπισε η Ευρώπη και στη μη-τεχνητή νοημοσύνη βιομηχανία τεχνολογίας μετά από κανονισμούς όπως ο Κανονισμός για τις Ψηφιακές Αγορές και ο Κανονισμός για τις Ψηφιακές Υπηρεσίες.

Τα μοντέλα Τεχνητής Νοημοσύνης που εκπαιδεύονται σε δεδομένα που είναι διαθέσιμα δημόσια — αλλά ευαίσθητα και πιθανώς προστατευμένα από πνευματικά δικαιώματα — έχουν γίνει ένα μεγάλο θέμα διαφωνίας για οργανισμούς, για παράδειγμα. Οι προσωρινοί κανόνες, ωστόσο, δεν δημιουργούν νέους νόμους γύρω από τη συλλογή δεδομένων. Ενώ η ΕΕ ήταν πρωτοπόρος στους νόμους προστασίας δεδομένων μέσω του GDPR, οι κανόνες της για την τεχνητή νοημοσύνη δεν απαγορεύουν στις εταιρείες τη συλλογή πληροφοριών, εκτός από το να απαιτούν την συμμόρφωση με τις οδηγίες του GDPR.

“Σύμφωνα με τους κανόνες, οι εταιρείες μπορεί να υποχρεωθούν να παρέχουν ένα περίληψη διαφάνειας ή ετικέτες διατροφής δεδομένων,” λέει η Susan Ariel Aaronson, διευθύντρια του Κέντρου Ψηφιακού Εμπορίου και Διακυβέρνησης Δεδομένων και καθηγήτρια έρευνας στις Διεθνείς Σχέσεις στο Πανεπιστήμιο George Washington. “Αλλά δεν θα αλλάξει πραγματικά τη συμπεριφορά των εταιρειών γύρω από τα δεδομένα.”

Η Aaronson επισημαίνει ότι ο Κανονισμός για την Τεχνητή Νοημοσύνη δεν έχει ακόμα διευκρινίσει πώς πρέπει να μεταχειρίζονται οι εταιρείες τα πνευματικά δικαιώματα που αποτελούν μέρος των δεδομένων εκπαίδευσης του μοντέλου, πέρα από το να δηλώνει ότι οι developers πρέπει να ακολουθούν τους υπάρχοντες νόμους πνευματικών δικαιωμάτων (οι οποίοι αφήνουν πολλά γκρίζα σημεία γύρω από την τεχνητή νοημοσύνη). Έτσι, δεν προσφέρει κίνητρο στους developers μοντέλων AI να αποφεύγουν τη χρήση προστατευμένων δεδομένων.

Ο Κανονισμός για την Τεχνητή Νοημοσύνη δεν θα εφαρμοστεί ούτε στους ανοικτού κώδικα developers, ερευνητές και μικρότερες εταιρείες που εργάζονται σε χαμηλότερα στάδια της αλυσίδας αξίας — μια απόφαση που έχει ληφθεί με επικροτήσεις από ανοικτό κώδικα developers στον τομέα. Η Shelley McKinley, επικεφαλής νομικής υπηρεσίας της GitHub, δήλωσε ότι αυτό είναι “ένα θετικό βήμα για την ανοικτή καινοτομία και τους developers που εργάζονται για να βοηθήσουν στην επίλυση μερικών από τα πιο επείγοντα προβλήματα της κοινωνίας.” (Η GitHub, μια δημοφιλής πλατφόρμα ανοικτού κώδικα ανάπτυξης, είναι θυγατρική της Microsoft.)

Παρατηρητές θεωρούν ότι η πιο συγκεκριμένη επίδραση θα μπορούσε να είναι η πίεση προς άλλους πολιτικούς φορείς, ιδιαίτερα τους Αμερικανούς πολιτικούς, να κινηθούν πιο γρήγορα. Δεν είναι η πρώτη μεγάλη ρυθμιστική δομή για την τεχνητή νοημοσύνη — τον Ιούλιο, η Κίνα ενέκρινε κατευθυντήριες γραμμές για επιχειρήσεις που θέλουν να πουλήσουν υπηρεσίες Τεχνητής Νοημοσύνης στο κοινό. Αλλά η σχετικά διαφανής και βαριά συζητημένη διαδικασία ανάπτυξης της ΕΕ έδωσε στη βιομηχανία της τεχνητής νοημοσύνης μια εικόνα του τι να αναμένει. Ενώ ο Κανονισμός για την Τεχνητή Νοημοσύνη ενδέχεται να αλλάξει ακόμη, η Aaronson είπε ότι τουλάχιστον δείχνει ότι η ΕΕ άκουσε και ανταποκρίθηκε στις δημόσιες ανησυχίες γύρω από την τεχνολογία.

Ο Lothar Determann, εταίρος στο δίκαιο προστασίας δεδομένων και πληροφορικής στη δικηγορική εταιρεία Baker McKenzie, λέει ότι το γεγονός ότι βασίζεται σε υπάρχοντες κανόνες δεδομένων θα μπορούσε επίσης να προτρέψει τις κυβερνήσεις να εξετάσουν τις ρυθμίσεις που έχουν θέσει σε εφαρμογή. Και ο Blake Brannon, αρχιστράτηγος στην πλατφόρμα προστασίας δεδομένων OneTrust, είπε ότι πιο ώριμες εταιρείες Τεχνητής Νοημοσύνης δημιουργούν οδηγίες προστασίας απορρήτου σύμφωνα με τους νόμους όπως το GDPR και με την προοπτική πιο αυστηρών πολιτικών. Είπε ότι, ανάλογα με την εταιρεία, ο Κανονισμός για την Τεχνητή Νοημοσύνη είναι “ένα επιπλέον παράγοντας” στις ήδη υπάρχουσες στρατηγικές.

Αντίθετα, οι ΗΠΑ δεν έχουν καταφέρει σημαντική πρόοδο στον τομέα της ρύθμισης της τεχνητής νοημοσύνης — παρά το γεγονός ότι στην επικράτειά τους υπάρχουν μεγάλοι παίκτες όπως η Meta, η Amazon, η Adobe, η Google, η Nvidia και η OpenAI. Η μεγαλύτερη κίνηση μέχρι στιγμής ήταν μια εκτελεστική διάταξη της διοίκησης Biden που καθοδήγησε τις κυβερνητικές υπηρεσίες να αναπτύξουν πρότυπα ασφαλείας και να στηριχθούν σε εθελοντικές, μη δεσμευτικές συμφωνίες που υπογράφονται από μεγάλους παίκτες της τεχνητής νοημοσύνης. Οι λίγες προτάσεις που έχουν παρουσιαστεί στο Σώμα των Αντιπροσώπων έχουν επικεντρωθεί κυρίως γύρω από τα deepfakes και την ενσωμάτωση υδατογραφημάτων, και οι κλειστές διαβουλεύσεις για την τεχνητή νοημοσύνη που πραγματοποίησε ο Σενατέρ Chuck Schumer (Δημοκρατικός, Νέα Υόρκη) δεν πρόσφεραν πολύ σαφήνεια στην κατεύθυνση της κυβέρνησης στον τομέα της ρύθμισης της τεχνολογίας.

Αυτό δεν σημαίνει ότι οι Ηνωμένες Πολιτείες θα ακολουθήσουν την ίδια προσέγγιση βάσει κινδύνου, αλλά μπορεί να εξετάσουν τη διεύρυνση των κανόνων διαφάνειας των δεδομένων ή να επιτρέψουν στα μοντέλα GPAI λίγο περισσότερη ελαστικότητα.

Η Navrina Singh, ιδρύτρια της Credo AI και μέλος εθνικής επιτροπής για την τεχνητή νοημοσύνη, πιστεύει ότι ενώ ο Κανονισμός για την Τεχνητή Νοημοσύνη αποτελεί σημαντική στιγμή για τη διακυβέρνηση της τεχνητής νοημοσύνης, τα πράγματα δεν θα αλλάξουν γρήγορα και υπάρχει ακόμη πολλή δουλειά μπροστά.

“Το ενδιαφέρον για τους ρυθμιστές και στις δύο πλευρές του Ατλαντικού θα πρέπει να είναι να βοηθήσουν τον σχεδιασμό, την ανάπτυξη και την εφαρμογή της τεχνητής νοημοσύνης σε οργανισμούς όλων των μεγεθών, οι οποίοι είναι ταυτόχρονα διαφανείς και υπόλογοι,” δηλώνει η Singh στο The Verge. Προσθέτει ότι υπάρχει ακόμη έλλειψη προτύπων και διαδικασιών αξιολόγησης, ιδίως γύρω από τη διαφάνεια.

Ενώ ο Κανονισμός για την Τεχνητή Νοημοσύνη δεν έχει ολοκληρωθεί, ένα μεγάλο μέρος των κρατών μελών της ΕΕ αναγνώρισε ότι αυτή είναι η κατεύθυνση που επιθυμούν να ακολουθήσουν. Ο κανονισμός δεν ρυθμίζει υποχρεωτικά υπάρχοντα μοντέλα ή εφαρμογές, αλλά οι μελλοντικές εκδόσεις του GPT της OpenAI, του Llama της Meta ή του Gemini της Google θα πρέπει να λάβουν υπόψη τις απαιτήσεις διαφάνειας που έχουν θέσει οι ευρωπαϊκοί κανονισμοί. Ενδέχεται να μην προκαλέσει δραστικές αλλαγές εντός της νύχτας, αλλά δείχνει πού βρίσκεται η ΕΕ σχετικά με την τεχνητή νοημοσύνη.

 

 

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Η Apple παράγει μια σειρά με τίτλο “Murderbot”, με πρωταγωνιστή τον Alexander Skarsgård.

Το Mailchimp ακυρώνει podcast μετά από αρνητική στάση στη συνεργασία με παραγωγούς που ανήκουν σε συνδικάτο