Ορισμένοι ερευνητές θεωρούν τις επίσημες προδιαγραφές ως έναν τρόπο για αυτόνομα συστήματα να “εξηγούν τον εαυτό τους” στους ανθρώπους. Ωστόσο, μια νέα μελέτη καταλήγει στο συμπέρασμα ότι δεν κατανοούμε.
Καθώς τα αυτόνομα συστήματα και η τεχνητή νοημοσύνη γίνονται όλο και πιο συνηθισμένα στην καθημερινή ζωή, εμφανίζονται νέες μεθόδοι για να βοηθήσουν τους ανθρώπους να ελέγξουν αν αυτά τα συστήματα συμπεριφέρονται όπως αναμένεται. Μια μέθοδος, που ονομάζεται επίσημες προδιαγραφές, χρησιμοποιεί μαθηματικούς τύπους που μπορούν να μεταφραστούν σε φυσική γλώσσα. Ορισμένοι ερευνητές υποστηρίζουν ότι αυτή η μέθοδος μπορεί να χρησιμοποιηθεί για να εξηγήσει τις αποφάσεις που θα λάβει ένα ΤΝ σε έναν τρόπο που είναι ερμηνεύσιμος για τους ανθρώπους.
Ευρήματα έρευνας για την Ερμηνευσιμότητα
Οι ερευνητές του Εργαστηρίου Λίνκολν του MIT επιθυμούσαν να ελέγξουν τέτοιες διακηρύξεις ερμηνευσιμότητας. Τα ευρήματά τους δείχνουν το αντίθετο: Οι επίσημες προδιαγραφές δεν φαίνεται να είναι ερμηνεύσιμες από τους ανθρώπους. Στη μελέτη της ομάδας, ζητήθηκε από τους συμμετέχοντες να ελέγξουν εάν ένα σχέδιο ενός ΤΝ θα επιτύχει σε ένα εικονικό παιχνίδι. Παρουσιάζοντας τις επίσημες προδιαγραφές του σχεδίου, οι συμμετέχοντες είχαν σωστές απαντήσεις λιγότερο από το ήμισυ του χρόνου.
“Τα αποτελέσματα είναι κακά νέα για τους ερευνητές που υποστήριζαν ότι οι επίσημες μέθοδοι παρείχαν ερμηνευσιμότητα στα συστήματα. Ενδέχεται να ισχύει με κάποιον περιορισμένο και αφηρημένο τρόπο, αλλά όχι για κάτι κοντά στην πρακτική επικύρωση των συστημάτων,” δηλώνει ο Hosea Siu, ερευνητής στο AI Technology Group του εργαστηρίου. Το άρθρο της ομάδας έγινε δεκτό στο Διεθνές Συνέδριο για Έξυπνα Ρομπότ και Συστήματα που πραγματοποιήθηκε νωρίτερα αυτό το μήνα.
Η Σημασία της Ερμηνευσιμότητας
Η ερμηνευσιμότητα είναι σημαντική επειδή επιτρέπει στους ανθρώπους να εμπιστευτούν ένα μηχάνημα όταν χρησιμοποιείται στον πραγματικό κόσμο. Αν ένα ρομπότ ή ΤΝ μπορεί να εξηγήσει τις ενέργειές του, τότε οι άνθρωποι μπορούν να αποφασίσουν εάν χρειάζεται προσαρμογές ή αν μπορεί να εμπιστευτείται να λαμβάνει δίκαιες αποφάσεις. Ένα ερμηνεύσιμο σύστημα επιτρέπει επίσης στους χρήστες της τεχνολογίας – όχι μόνο στους προγραμματιστές – να κατανοήσουν και να εμπιστευτούν τις ικανότητές του. Ωστόσο, η ερμηνευσιμότητα αποτελεί πρόκληση εδώ και καιρό στον τομέα της τεχνητής νοημοσύνης και της αυτονομίας. Ο διαδικασία της μηχανικής μάθησης συμβαίνει σε ένα “μαύρο κουτί”, έτσι οι προγραμματιστές του μοντέλου συχνά δεν μπορούν να εξηγήσουν γιατί ή πώς ένα σύστημα κατέληξε σε μια συγκεκριμένη απόφαση.
“Όταν οι ερευνητές λένε ‘το σύστημα μας μηχανικής μάθησης είναι ακριβές’, ρωτάμε ‘πόσο ακριβές;’ και ‘χρησιμοποιώντας ποια δεδομένα;’ και αν αυτές οι πληροφορίες δεν παρέχονται, απορρίπτουμε την αξίωση. Δεν το έχουμε κάνει τόσο πολύ όταν οι ερευνητές λένε ‘το σύστημα μας μηχανικής μάθησης είναι ερμηνεύσιμο’, και πρέπει να αρχίσουμε να εκτίθεμε αυτές τις αξιώσεις σε περισσότερη εξέταση,” δηλώνει ο Hosea Siu, ερευνητής στο AI Technology Group του εργαστηρίου.
Η Πρόκληση της Μετάφρασης των Προδιαγραφών
Για το πείραμά τους, οι ερευνητές ήθελαν να καθορίσουν εάν οι επίσημες προδιαγραφές έκαναν τη συμπεριφορά ενός συστήματος περισσότερο ερμηνεύσιμη. Επικεντρώθηκαν στη δυνατότητα των ανθρώπων να χρησιμοποιήσουν τέτοιες προδιαγραφές για την επικύρωση ενός συστήματος – δηλαδή, να κατανοήσουν εάν το σύστημα πάντα πραγματοποιεί τους στόχους του χρήστη.
Η εφαρμογή των επίσημων προδιαγραφών για αυτόν τον σκοπό είναι ουσιαστικά ένα παρενέργεια της αρχικής τους χρήσης. Οι επίσημες προδιαγραφές αποτελούν μέρος ενός ευρύτερου συνόλου των επίσημων μεθόδων που χρησιμοποιούν λογικές εκφράσεις ως μαθηματικό πλαίσιο για την περιγραφή της συμπεριφοράς ενός μοντέλου. Επειδή το μοντέλο βασίζεται σε μια λογική ροή, οι μηχανικοί μπορούν να χρησιμοποιήσουν “ελεγκτές μοντέλου” για να αποδείξουν μαθηματικά γεγονότα σχετικά με το σύστημα, συμπεριλαμβανομένου πότε είναι ή δεν είναι δυνατό για το σύστημα να ολοκληρώσει μια εργασία. Τώρα, οι ερευνητές προσπαθούν να χρησιμοποιήσουν αυτό το ίδιο πλαίσιο ως εργαλείο μετάφρασης για τους ανθρώπους.
“Οι ερευνητές συγχέουν το γεγονός ότι οι επίσημες προδιαγραφές έχουν ακριβή σημασιολογία με το να είναι ερμηνεύσιμες από τους ανθρώπους. Αυτά δεν είναι το ίδιο πράγμα,” λέει ο Siu. “Συνειδητοποιήσαμε ότι σχεδόν κανείς δεν ελέγχει για να δει αν οι άνθρωποι πραγματικά κατανοούν τα αποτελέσματα.”
Στο πείραμα της ομάδας, οι συμμετέχοντες κλήθηκαν να επικυρώσουν έναν αρκετά απλό σύνολο συμπεριφορών με ένα ρομπότ που παίζει ένα παιχνίδι capture the flag, ουσιαστικά απαντώντας στην ερώτηση “Εάν το ρομπότ ακολουθεί ακριβώς αυτούς τους κανόνες, κερδίζει πάντα;”
Οι συμμετέχοντες περιλάμβαναν τόσο ειδικούς όσο και μη ειδικούς στις επίσημες μεθόδους. Λάμβαναν τις επίσημες προδιαγραφές με τρεις τρόπους – μια “ακατέργαστη” λογική φόρμουλα, η φόρμουλα μεταφρασμένη σε λέξεις πιο κοντά στη φυσική γλώσσα και μια μορφή δέντρου απόφασης. Τα δέντρα αποφάσεων, ειδικά, θεωρούνται συχνά στον κόσμο της τεχνητής νοημοσύνης ως ένας ανθρώπινα ερμηνεύσιμος τρόπος να δείξει η τεχνητή νοημοσύνη ή ο ρομπότ τη λήψη αποφάσεων.
Τα αποτελέσματα: “Η επίδοση στην επικύρωση ήταν πολύ άσχημη, με περίπου 45% ακρίβεια, ανεξάρτητα από τον τύπο παρουσίασης,” λέει ο Siu.