in

Το MIT Αποκαλύπτει τον μύθο των επίσημων προδιαγραφών της Τεχνητής Νοημοσύνης

Ορισμένοι ερευνητές θεωρούν τις επίσημες προδιαγραφές ως έναν τρόπο για αυτόνομα συστήματα να “εξηγούν τον εαυτό τους” στους ανθρώπους. Ωστόσο, μια νέα μελέτη καταλήγει στο συμπέρασμα ότι δεν κατανοούμε.

Καθώς τα αυτόνομα συστήματα και η τεχνητή νοημοσύνη γίνονται όλο και πιο συνηθισμένα στην καθημερινή ζωή, εμφανίζονται νέες μεθόδοι για να βοηθήσουν τους ανθρώπους να ελέγξουν αν αυτά τα συστήματα συμπεριφέρονται όπως αναμένεται. Μια μέθοδος, που ονομάζεται επίσημες προδιαγραφές, χρησιμοποιεί μαθηματικούς τύπους που μπορούν να μεταφραστούν σε φυσική γλώσσα. Ορισμένοι ερευνητές υποστηρίζουν ότι αυτή η μέθοδος μπορεί να χρησιμοποιηθεί για να εξηγήσει τις αποφάσεις που θα λάβει ένα ΤΝ σε έναν τρόπο που είναι ερμηνεύσιμος για τους ανθρώπους.

Ευρήματα έρευνας για την Ερμηνευσιμότητα

Οι ερευνητές του Εργαστηρίου Λίνκολν του MIT επιθυμούσαν να ελέγξουν τέτοιες διακηρύξεις ερμηνευσιμότητας. Τα ευρήματά τους δείχνουν το αντίθετο: Οι επίσημες προδιαγραφές δεν φαίνεται να είναι ερμηνεύσιμες από τους ανθρώπους. Στη μελέτη της ομάδας, ζητήθηκε από τους συμμετέχοντες να ελέγξουν εάν ένα σχέδιο ενός ΤΝ θα επιτύχει σε ένα εικονικό παιχνίδι. Παρουσιάζοντας τις επίσημες προδιαγραφές του σχεδίου, οι συμμετέχοντες είχαν σωστές απαντήσεις λιγότερο από το ήμισυ του χρόνου.

“Τα αποτελέσματα είναι κακά νέα για τους ερευνητές που υποστήριζαν ότι οι επίσημες μέθοδοι παρείχαν ερμηνευσιμότητα στα συστήματα. Ενδέχεται να ισχύει με κάποιον περιορισμένο και αφηρημένο τρόπο, αλλά όχι για κάτι κοντά στην πρακτική επικύρωση των συστημάτων,” δηλώνει ο Hosea Siu, ερευνητής στο AI Technology Group του εργαστηρίου. Το άρθρο της ομάδας έγινε δεκτό στο Διεθνές Συνέδριο για Έξυπνα Ρομπότ και Συστήματα που πραγματοποιήθηκε νωρίτερα αυτό το μήνα.

Η Σημασία της Ερμηνευσιμότητας

Η ερμηνευσιμότητα είναι σημαντική επειδή επιτρέπει στους ανθρώπους να εμπιστευτούν ένα μηχάνημα όταν χρησιμοποιείται στον πραγματικό κόσμο. Αν ένα ρομπότ ή ΤΝ μπορεί να εξηγήσει τις ενέργειές του, τότε οι άνθρωποι μπορούν να αποφασίσουν εάν χρειάζεται προσαρμογές ή αν μπορεί να εμπιστευτείται να λαμβάνει δίκαιες αποφάσεις. Ένα ερμηνεύσιμο σύστημα επιτρέπει επίσης στους χρήστες της τεχνολογίας – όχι μόνο στους προγραμματιστές – να κατανοήσουν και να εμπιστευτούν τις ικανότητές του. Ωστόσο, η ερμηνευσιμότητα αποτελεί πρόκληση εδώ και καιρό στον τομέα της τεχνητής νοημοσύνης και της αυτονομίας. Ο διαδικασία της μηχανικής μάθησης συμβαίνει σε ένα “μαύρο κουτί”, έτσι οι προγραμματιστές του μοντέλου συχνά δεν μπορούν να εξηγήσουν γιατί ή πώς ένα σύστημα κατέληξε σε μια συγκεκριμένη απόφαση.

“Όταν οι ερευνητές λένε ‘το σύστημα μας μηχανικής μάθησης είναι ακριβές’, ρωτάμε ‘πόσο ακριβές;’ και ‘χρησιμοποιώντας ποια δεδομένα;’ και αν αυτές οι πληροφορίες δεν παρέχονται, απορρίπτουμε την αξίωση. Δεν το έχουμε κάνει τόσο πολύ όταν οι ερευνητές λένε ‘το σύστημα μας μηχανικής μάθησης είναι ερμηνεύσιμο’, και πρέπει να αρχίσουμε να εκτίθεμε αυτές τις αξιώσεις σε περισσότερη εξέταση,” δηλώνει ο Hosea Siu, ερευνητής στο AI Technology Group του εργαστηρίου.

Η Πρόκληση της Μετάφρασης των Προδιαγραφών

Για το πείραμά τους, οι ερευνητές ήθελαν να καθορίσουν εάν οι επίσημες προδιαγραφές έκαναν τη συμπεριφορά ενός συστήματος περισσότερο ερμηνεύσιμη. Επικεντρώθηκαν στη δυνατότητα των ανθρώπων να χρησιμοποιήσουν τέτοιες προδιαγραφές για την επικύρωση ενός συστήματος – δηλαδή, να κατανοήσουν εάν το σύστημα πάντα πραγματοποιεί τους στόχους του χρήστη.

Η εφαρμογή των επίσημων προδιαγραφών για αυτόν τον σκοπό είναι ουσιαστικά ένα παρενέργεια της αρχικής τους χρήσης. Οι επίσημες προδιαγραφές αποτελούν μέρος ενός ευρύτερου συνόλου των επίσημων μεθόδων που χρησιμοποιούν λογικές εκφράσεις ως μαθηματικό πλαίσιο για την περιγραφή της συμπεριφοράς ενός μοντέλου. Επειδή το μοντέλο βασίζεται σε μια λογική ροή, οι μηχανικοί μπορούν να χρησιμοποιήσουν “ελεγκτές μοντέλου” για να αποδείξουν μαθηματικά γεγονότα σχετικά με το σύστημα, συμπεριλαμβανομένου πότε είναι ή δεν είναι δυνατό για το σύστημα να ολοκληρώσει μια εργασία. Τώρα, οι ερευνητές προσπαθούν να χρησιμοποιήσουν αυτό το ίδιο πλαίσιο ως εργαλείο μετάφρασης για τους ανθρώπους.

“Οι ερευνητές συγχέουν το γεγονός ότι οι επίσημες προδιαγραφές έχουν ακριβή σημασιολογία με το να είναι ερμηνεύσιμες από τους ανθρώπους. Αυτά δεν είναι το ίδιο πράγμα,” λέει ο Siu. “Συνειδητοποιήσαμε ότι σχεδόν κανείς δεν ελέγχει για να δει αν οι άνθρωποι πραγματικά κατανοούν τα αποτελέσματα.”

Στο πείραμα της ομάδας, οι συμμετέχοντες κλήθηκαν να επικυρώσουν έναν αρκετά απλό σύνολο συμπεριφορών με ένα ρομπότ που παίζει ένα παιχνίδι capture the flag, ουσιαστικά απαντώντας στην ερώτηση “Εάν το ρομπότ ακολουθεί ακριβώς αυτούς τους κανόνες, κερδίζει πάντα;”

Οι συμμετέχοντες περιλάμβαναν τόσο ειδικούς όσο και μη ειδικούς στις επίσημες μεθόδους. Λάμβαναν τις επίσημες προδιαγραφές με τρεις τρόπους – μια “ακατέργαστη” λογική φόρμουλα, η φόρμουλα μεταφρασμένη σε λέξεις πιο κοντά στη φυσική γλώσσα και μια μορφή δέντρου απόφασης. Τα δέντρα αποφάσεων, ειδικά, θεωρούνται συχνά στον κόσμο της τεχνητής νοημοσύνης ως ένας ανθρώπινα ερμηνεύσιμος τρόπος να δείξει η τεχνητή νοημοσύνη ή ο ρομπότ τη λήψη αποφάσεων.

Τα αποτελέσματα: “Η επίδοση στην επικύρωση ήταν πολύ άσχημη, με περίπου 45% ακρίβεια, ανεξάρτητα από τον τύπο παρουσίασης,” λέει ο Siu.

Υπερεκτίμηση και Λανθασμένη Ερμηνεία Οι προηγουμένως εκπαιδευμένοι στις επίσημες προδιαγραφές επιτέλουν ελαφρώς καλύτερα από τους νέους. Ωστόσο, οι ειδικοί ανέφεραν πολύ περισσότερη βεβαιότητα στις απαντήσεις τους, ανεξάρτητα από το εάν ήταν σωστές ή όχι. Γενικά, οι άνθρωποι είχαν την τάση να εμπιστεύονται υπερβολικά τη σωστότητα των προδιαγραφών που τους παρουσιάστηκαν, πράγμα που σημαίνει ότι αγνοούσαν τους κανόνες που επιτρέπουν τις απώλειες στο παιχνίδι. Αυτή η βεβαιότητα επιβεβαίωσης είναι ιδιαίτερα ανησυχητική για την επικύρωση συστημάτων, δηλώνουν οι ερευνητές, επειδή οι άνθρωποι έχουν περισσότερες πιθανότητες να παραβλέπουν τους τρόπους αποτυχίας.

“Δεν νομίζουμε ότι αυτό το αποτέλεσμα σημαίνει ότι πρέπει να εγκαταλείψουμε τις επίσημες προδιαγραφές ως έναν τρόπο να εξηγούμε τη συμπεριφορά των συστημάτων στους ανθρώπους. Αλλά πιστεύουμε ότι πρέπει να γίνει πολύ περισσότερη δουλειά στον σχεδιασμό του πώς παρουσιάζονται στους ανθρώπους και στη ροή εργασίας στην οποία τις χρησιμοποιούν,” προσθέτει ο Siu.

Όταν εξετάζει τον λόγο πίσω από τα τόσο άσχημα αποτελέσματα, ο Siu αναγνωρίζει ότι ακόμα και οι άνθρωποι που εργάζονται σε επίσημες μέθοδους δεν είναι εντελώς εκπαιδευμένοι να ελέγχουν τις προδιαγραφές όπως το πείραμα τους τους ζήτησε. Και η σκέψη όλων των πιθανών αποτελεσμάτων ενός συνόλου κανόνων είναι δύσκολη. Ακόμα και έτσι, οι κανόνες που παρουσιάστηκαν στους συμμετέχοντες ήταν σύντομοι, ισοδύναμοι με μια παράγραφο κειμένου, “πολύ πιο σύντομοι από οτιδήποτε θα συναντούσατε σε οποιοδήποτε πραγματικό σύστημα,” λέει ο Siu.

Η ομάδα δεν προσπαθεί να συνδέσει τα αποτελέσματά της απευθείας με την απόδοση των ανθρώπων στον πραγματικό κόσμο της επικύρωσης ρομπότ. Αντιθέτως, στοχεύουν να χρησιμοποιήσουν τα αποτελέσματα ως σημείο εκκίνησης για να εξετάσουν τι μπορεί να λείπει από την κοινότητα της επίσημης λογικής όταν υποστηρίζει την ερμηνευσιμότητα και πώς τέτοιες δηλώσεις μπορεί να επιδρούν στον πραγματικό κόσμο.

Μελλοντικές Επιπτώσεις και Έρευνα Αυτή η έρευνα πραγματοποιήθηκε ως μέρος μιας μεγαλύτερης έρευνας στην οποία ο Siu και οι συνεργάτες του εργάζονται για τη βελτίωση της σχέσης μεταξύ των ρομπότ και των ανθρωπίνων χειριστών, ιδιαίτερα εκείνων στον τομέα του στρατού. Η διαδικασία προγραμματισμού ρομποτικής μπορεί συχνά να αφήνει τους χειριστές έξω από τον κύκλο. Με έναν παρόμοιο στόχο βελτίωσης της ερμηνευσιμότητας και της εμπιστοσύνης, το έργο προσπαθεί να επιτρέψει στους χειριστές να διδάσκουν απευθείας εργασίες στα ρομπότ, με τρόπους που είναι παρόμοιοι με τον τρόπο εκπαίδευσης ανθρώπων. Ένα τέτοιος διαδικασία μπορεί να βελτιώσει τόσο την εμπιστοσύνη του χειριστή στο ρομπότ όσο και την προσαρμοστικότητα του ρομπότ.

Τελικά, ελπίζουν ότι τα αποτελέσματα αυτής της μελέτης και της συνεχιζόμενης έρευνας τους μπορούν να βελτιώσουν την εφαρμογή της αυτονομίας, καθώς αυτή ενσωματώνεται όλο και περισσότερο στην ανθρώπινη ζωή και τη λήψη αποφάσεων.

“Τα αποτελέσματά μας υποστηρίζουν την ανάγκη για ανθρώπινες αξιολογήσεις ορισμένων συστημάτων και έννοιών αυτονομίας και Τεχνητής Νοημοσύνης πριν γίνουν πολλά αξιώματα για τη χρησιμότητά τους με τους ανθρώπους,” προσθέτει ο Siu.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Παγετός σε κρίση: Οι παγετώνες της Γροιλανδίας Λλώνουν 5 Φορές γρηγορότερα από ό,τι πριν 20 χρόνια

Γυρίστε πίσω το βιολογικό σας ρολόι: Τα οχτώ βασικά στοιχεία της ζωής μπορεί να σας κάνουν 6 Χρόνια νεότερους