Ερευνητές του MIT ανέπτυξαν μέθοδο που επιτρέπει στα μοντέλα computer vision να εξηγούν τις αποφάσεις τους χρησιμοποιώντας έννοιες που τα ίδια έχουν μάθει — όχι αυτές που ορίζουν εκ των προτέρων οι άνθρωποι. Το αποτέλεσμα είναι μεγαλύτερη ακρίβεια και πιο κατανοητές εξηγήσεις, ιδιαίτερα σε κρίσιμα πεδία όπως η ιατρική διάγνωση.
Όταν ένα σύστημα AI εξετάζει μια ιατρική εικόνα και καταλήγει σε διάγνωση, το ερώτημα που ακολουθεί είναι αναπόφευκτο: γιατί; Σε περιβάλλοντα υψηλού ρίσκου, η απάντηση δεν είναι απλώς χρήσιμη — είναι απαραίτητη. Ερευνητές του MIT ανέπτυξαν μια νέα προσέγγιση που κάνει ακριβώς αυτό: αναγκάζει τα μοντέλα να εξηγούν τη σκέψη τους με όρους που μπορεί να καταλάβει ένας άνθρωπος.
Η βάση της δουλειάς τους είναι τα λεγόμενα concept bottleneck models — μοντέλα που παρεμβάλλουν ένα ενδιάμεσο βήμα στη διαδικασία πρόβλεψης. Αντί να πηδούν κατευθείαν από την εικόνα στο συμπέρασμα, αναγκάζονται πρώτα να αναγνωρίσουν συγκεκριμένες έννοιες — για παράδειγμα, “κίτρινα πόδια” και “μπλε φτερά” πριν αναγνωρίσουν ένα είδος πουλιού. Αυτό το “μπουκάλι” στη ροή πληροφορίας κάνει τη λογική του μοντέλου ορατή.
Το πρόβλημα με τις υπάρχουσες μεθόδους είναι ότι οι έννοιες αυτές ορίζονται συνήθως από ανθρώπους ή από μεγάλα γλωσσικά μοντέλα εκ των προτέρων — και συχνά δεν ταιριάζουν με αυτό που το μοντέλο έχει πραγματικά μάθει. Το αποτέλεσμα: μειωμένη ακρίβεια και εξηγήσεις που δεν αντικατοπτρίζουν αληθινά τη λογική του συστήματος. Υπάρχει μάλιστα και το φαινόμενο της “διαρροής πληροφορίας” — το μοντέλο χρησιμοποιεί κρυφά έννοιες που δεν έχουν δηλωθεί, υπονομεύοντας την ερμηνευσιμότητα.
Η νέα μέθοδος αντιστρέφει αυτή τη λογική. Αντί να λέει στο μοντέλο τι να χρησιμοποιήσει, οι ερευνητές εξάγουν τις έννοιες που το ίδιο το μοντέλο έχει ήδη αναπτύξει κατά την εκπαίδευσή του. Ένα εξειδικευμένο deep-learning μοντέλο, γνωστό ως sparse autoencoder, εντοπίζει τα πιο σχετικά χαρακτηριστικά που έχει μάθει το σύστημα και τα συμπυκνώνει σε μια χούφτα εννοιών. Στη συνέχεια, ένα multimodal γλωσσικό μοντέλο μεταφράζει αυτές τις έννοιες σε απλή γλώσσα και σχολιάζει εικόνες του dataset αναγνωρίζοντας ποιες έννοιες είναι παρούσες σε κάθε μία. Για να αποφευχθεί η διαρροή πληροφορίας, το μοντέλο περιορίζεται να χρησιμοποιεί μόνο πέντε έννοιες για κάθε πρόβλεψη — αρκετές για να είναι χρήσιμες, λίγες για να παραμένουν κατανοητές.
Σε συγκριτικές δοκιμές — αναγνώριση ειδών πουλιών και ανίχνευση δερματικών βλαβών σε ιατρικές εικόνες — η μέθοδος του MIT ξεπέρασε σε ακρίβεια τα υπάρχοντα concept bottleneck models, παράγοντας παράλληλα πιο σαφείς και σχετικές εξηγήσεις. Υπάρχει βέβαια ένα ειλικρινές caveat: τα πλήρως αδιαφανή “μαύρα κουτιά” εξακολουθούν να υπερτερούν σε καθαρή απόδοση. Η ερμηνευσιμότητα έχει ακόμα κόστος — αλλά αυτό το κόστος μικραίνει.
Η σημασία αυτής της έρευνας ξεπερνά τα τεχνικά της χαρακτηριστικά. Καθώς τα συστήματα AI ενσωματώνονται σε αποφάσεις που αφορούν υγεία, δικαιοσύνη και ασφάλεια, η δυνατότητα να εξηγούν τη λογική τους δεν είναι πολυτέλεια — είναι προϋπόθεση εμπιστοσύνης. Το επόμενο βήμα για την ομάδα είναι να κλιμακώσει τη μέθοδο με μεγαλύτερα μοντέλα και datasets, και να αντιμετωπίσει πιο αποτελεσματικά το πρόβλημα της διαρροής πληροφορίας. Το ερώτημα που παραμένει ανοιχτό: μπορούμε ποτέ να φτάσουμε σε AI που είναι ταυτόχρονα τέλεια ακριβές και πλήρως διαφανές — ή η ερμηνευσιμότητα θα είναι πάντα μια συμβιβαστική επιλογή;