Η Meta αναφέρεται πως διέλυσε την ομάδα της για την Υπεύθυνη Τεχνητή Νοημοσύνη (Responsible AI – RAI) καθώς εστιάζει περισσότερο τους πόρους της στη γεννητική τεχνητή νοημοσύνη. Τα νέα αποκάλυψε το The Information σήμερα, αναφέροντας ένα εσωτερικό μήνυμα που είχε δει.
Σύμφωνα με την αναφορά, οι περισσότεροι μέλη της ομάδας RAI θα μετακινηθούν στην ομάδα προϊόντος γεννητικής τεχνητής νοημοσύνης της εταιρείας, ενώ άλλοι θα εργαστούν στην υποδομή της τεχνητής νοημοσύνης της Meta. Η εταιρεία εκφράζει τακτικά την πρόθεσή της να αναπτύξει την τεχνητή νοημοσύνη με ευθύνη και διαθέτει ακόμα μια σελίδα αφιερωμένη στην υπόσχεσή της, όπου αναφέρει τους “πυλώνες της υπεύθυνης τεχνητής νοημοσύνης”, συμπεριλαμβανομένης της ευθύνης, της διαφάνειας, της ασφάλειας, της ιδιωτικότητας και άλλων.
Η αναφορά του The Information παραθέτει τον Jon Carvill, εκπρόσωπο της Meta, ο οποίος δηλώνει ότι η εταιρεία θα “συνεχίσει να δίνει προτεραιότητα και να επενδύει στην ασφαλή και υπεύθυνη ανάπτυξη της τεχνητής νοημοσύνης.” Πρόσθεσε ότι αν και η εταιρεία διαμορφώνει την ομάδα, τα μέλη αυτά θα “συνεχίσουν να υποστηρίζουν σχετικές προσπάθειες διασυνδεδεμένες με την υπεύθυνη ανάπτυξη και χρήση της τεχνητής νοημοσύνης σε όλη τη Meta.”
Η Meta δεν ανταποκρίθηκε σε αίτημα για σχόλιο μέχρι τη στιγμή της δημοσίευσης.
Η ομάδα είχε ήδη δει μια αναδιάρθρωση νωρίτερα φέτος, και σύμφωνα με δημοσίευμα του Business Insider περιλάμβανε απολύσεις που άφησαν την RAI “ένα κενό από ομάδα”. Το δημοσίευμα συνέχιζε λέγοντας πως η ομάδα RAI, η οποία υπήρχε από το 2019, είχε ελάχιστη αυτονομία και οι πρωτοβουλίες της έπρεπε να περνούν από μακροχρόνιες διαπραγματεύσεις με ενδιαφερόμενα μέρη πριν εφαρμοστούν.
Η RAI δημιουργήθηκε για να εντοπίζει προβλήματα στις προσεγγίσεις εκπαίδευσης της τεχνητής νοημοσύνης της Meta, συμπεριλαμβανομένου του ερωτήματος εάν τα μοντέλα της εταιρείας εκπαιδεύονται με επαρκώς ποικίλες πληροφορίες, με σκοπό την πρόληψη προβλημάτων όπως οι ζητήματα περί μετριοπάθειας στις πλατφόρμες της. Αυτοματοποιημένα συστήματα στις κοινωνικές πλατφόρμες της Meta έχουν οδηγήσει σε προβλήματα, όπως μια περίπτωση λάθος μετάφρασης στο Facebook που προκάλεσε ψευδή σύλληψη, η δημιουργία biased εικόνων από το AI του WhatsApp στην παραγωγή αυτοκόλλητων όταν δίνονται συγκεκριμένες οδηγίες, και οι αλγόριθμοι του Instagram που βοηθούν χρήστες να εντοπίζουν υλικό με παιδική σεξουαλική κακοποίηση.
Αποφάσεις όπως αυτή της Meta και μια παρόμοια της Microsoft στις αρχές του έτους έρχονται καθώς οι κυβερνήσεις παγκοσμίως ξεκινούν αγώνα για τη δημιουργία κανονιστικών πλαισίων για την ανάπτυξη της τεχνητής νοημοσύνης. Η κυβέρνηση των Ηνωμένων Πολιτειών έχει συνάψει συμφωνίες με εταιρείες τεχνητής νοημοσύνης και ο Πρόεδρος Biden αργότερα έκανε εντολή στις κυβερνητικές υπηρεσίες να δημιουργήσουν κανόνες ασφάλειας για την τεχνητή νοημοσύνη. Παράλληλα, η Ευρωπαϊκή Ένωση έχει δημοσιεύσει τις αρχές της για την τεχνητή νοημοσύνη και προσπαθεί ακόμα να εγκρίνει τον νόμο της για την τεχνητή νοημοσύνη.