Ο ερευνητής ρομποτικής και Τεχνητής Νοημοσύνης, Ρόντεϊ Μπρουκς, υποστηρίζει ότι ο κόσμος υπερεκτιμά τις δυνατότητες του ChatGPT. Σε μια καταπληκτική συνέντευξη στο IEEE Spectrum, ο Brooks υποστηρίζει ότι αυτά τα εργαλεία είναι πολύ πιο ανόητα από ό,τι νομίζουμε, για να μην αναφέρουμε ότι απέχουν πολύ από το να μπορούν να ανταγωνιστούν τον άνθρωπο σε οποιαδήποτε εργασία σε πνευματικό επίπεδο. Συνολικά, λέει, είμαστε ένοχοι για πολλές αμαρτίες κακής πρόβλεψης του μέλλοντος της τεχνητής νοημοσύνης.
Εν ολίγοις, είναι η τεχνητή νοημοσύνη έτοιμη να γίνει το είδος της τεχνητής γενικής νοημοσύνης (AGI) που θα μπορούσε να λειτουργήσει σε παρόμοιο διανοητικό επίπεδο με τους ανθρώπους;
“Όχι, επειδή δεν έχει κανένα υποκείμενο μοντέλο του κόσμου”, δήλωσε ο Brooks στο δημοσίευμα. “Δεν έχει καμία σύνδεση με τον κόσμο. Είναι συσχετισμός μεταξύ της γλώσσας”.
Τα σχόλια του Brooks χρησιμεύουν ως μια πολύτιμη υπενθύμιση των σημερινών περιορισμών που μαστίζουν την τεχνολογία τεχνητής νοημοσύνης και του πόσο εύκολο είναι να προσδώσουμε νόημα στα αποτελέσματά τους, παρόλο που κατασκευάστηκαν για να ακούγονται απλώς – και όχι για να σκέφτονται – όπως οι άνθρωποι.
“Βλέπουμε έναν άνθρωπο να κάνει κάτι και ξέρουμε τι άλλο μπορεί να κάνει και μπορούμε να κάνουμε μια κρίση γρήγορα”, δήλωσε στο IEEE Spectrum. “Αλλά τα μοντέλα μας για τη γενίκευση από μια επίδοση σε μια ικανότητα δεν ισχύουν για τα συστήματα τεχνητής νοημοσύνης”.
Με άλλα λόγια, τα τρέχοντα γλωσσικά μοντέλα δεν είναι σε θέση να συμπεράνουν λογικά το νόημα, παρόλο που το κάνουν να ακούγεται σαν να μπορούν – γεγονός που μπορεί εύκολα να παραπλανήσει τον χρήστη.
“Αυτό στο οποίο είναι καλά τα μεγάλα γλωσσικά μοντέλα είναι να λένε πώς πρέπει να ακούγεται μια απάντηση, το οποίο είναι διαφορετικό από το πώς πρέπει να είναι μια απάντηση”, δήλωσε ο Brooks.
Ο ερευνητής δήλωσε ότι πειραματιζόταν με μεγάλα γλωσσικά μοντέλα για να τον βοηθήσει με την “απόκρυφη κωδικοποίηση” – αλλά αντιμετώπισε σοβαρά προβλήματα.
“Δίνει μια απάντηση με απόλυτη σιγουριά και κατά κάποιο τρόπο την πιστεύω”, δήλωσε ο Brooks στο IEEE Spectrum. “Και τις μισές φορές, είναι εντελώς λάθος. Και ξοδεύω δύο ή τρεις ώρες χρησιμοποιώντας αυτή την υπόδειξη, και μετά λέω, “Αυτό δεν λειτούργησε”, και απλά κάνει αυτό το άλλο πράγμα”.
“Τώρα, αυτό δεν είναι το ίδιο με την ευφυΐα”, πρόσθεσε. “Δεν είναι το ίδιο με την αλληλεπίδραση. Είναι σαν να το ψάχνεις”.
Εν ολίγοις, ο Brooks πιστεύει ότι οι μελλοντικές επαναλήψεις της τεχνολογίας θα μπορούσαν να καταλήξουν σε κάποια ενδιαφέροντα μέρη – “αλλά όχι στην AGI”.
Και δεδομένων των κινδύνων που ελλοχεύουν όταν ένα σύστημα τεχνητής νοημοσύνης υπερισχύει της νοημοσύνης ενός ανθρώπου, είναι μάλλον καλύτερα έτσι.