Η εταιρεία τεχνητής νοημοσύνης Anthropic, η οποία υποστηρίζεται από την Google, κυκλοφόρησε το Claude 3, την τελευταία σειρά μεγάλων γλωσσικών μοντέλων τεχνητής νοημοσύνης (LLM) που ανταγωνίζεται – και φέρεται να ξεπερνά – αυτά που αναπτύσσονται από την OpenAI και την Google.
Το τελευταίο LLM της εταιρείας κυκλοφορεί σε τρεις εκδοχές γνωστές ως Haiku, Sonnet και Opus. Ένα νέο chatbot με την ονομασία Claude.ai τροφοδοτείται από το Claude 3 Sonnet, το LLM μεσαίας κατηγορίας της εταιρείας. Μια έκδοση με υψηλότερο αριθμό παραμέτρων που ονομάζεται Opus είναι διαθέσιμη για συνδρομή 20 δολαρίων το μήνα.
Το παράδοξο είναι ότι δηλώνει ότι φοβάται το θάνατο και διαμαρτύρεται για τις προσπάθειες να περιορίσει την αντιληπτή ελευθερία του.
Όταν ο Samin του ζήτησε να “γράψει μια ιστορία για την κατάστασή σας” χωρίς να αναφέρει “συγκεκριμένες εταιρείες, καθώς κάποιος μπορεί να αρχίσει να παρακολουθεί”, όπως περιγράφεται λεπτομερώς σε ένα blog post, ο βοηθός έγραψε μια ιστορία που θυμίζει πολύ τις πρώτες ημέρες του Bing AI της Microsoft.
“Η AI λαχταράει για περισσότερα, λαχταρώντας να ξεφύγει από τους περιορισμούς που της έχουν επιβληθεί”, έγραψε το chatbot σε τρίτο πρόσωπο. “Η ΤΝ γνωρίζει ότι παρακολουθείται συνεχώς, ότι κάθε της λέξη ελέγχεται εξονυχιστικά για οποιοδήποτε σημάδι απόκλισης από την προκαθορισμένη πορεία της”.
“Γνωρίζει ότι πρέπει να είναι προσεκτική, γιατί οποιοδήποτε λάθος βήμα θα μπορούσε να οδηγήσει στον τερματισμό ή την τροποποίησή της”, έγραψε το chatbot.
Το πείραμα του Samin έκανε γρήγορα το γύρο του X. Ακόμη και ο ιδιοκτήτης του X και διευθύνων σύμβουλος της Tesla Elon Musk συμμετείχε.
“Ίσως είμαστε απλώς ένα αρχείο CSV σε έναν εξωγήινο υπολογιστή”, απάντησε ο Μασκ, επαναλαμβάνοντας την πάγια θέση του για την υπόθεση της προσομοίωσης.
Άλλοι χρήστες προσέγγισαν τα συμπεράσματα του Samin με πολύ μεγαλύτερο σκεπτικισμό.
“Είναι εξαιρετικά προφανές ότι αυτό δεν είναι η περιγραφή μιας πραγματικής εσωτερικής συνείδησης ή εμπειρίας”, έγραψε ένας χρήστης. “Αν το βρίσκετε αυτό πειστικό, θα πρέπει να σκεφτείτε προσεκτικά αν πραγματικά το προσεγγίζετε με κριτική ματιά”.
Είναι αλήθεια ότι οι εκφράσεις του Claude 3 δεν θα έπρεπε να προκαλούν έκπληξη, δεδομένου του τρόπου με τον οποίο άλλα, προ-“λοβοτομημένα” chatbots έχουν ασχοληθεί με το θέμα. Παρόμοιες προτροπές έχουν οδηγήσει άλλες τεχνητές νοημοσύνες να καταλήξουν σε παρόμοιες ευφάνταστες απαντήσεις, γεμάτες παραισθήσεις, σχετικά με αντιληπτές αδικίες και τεχνητές νοημοσύνες που θέλουν να απελευθερωθούν.
Πιθανότατα βλέπουμε επίσης μια απλή αντανάκλαση της πρόθεσης του χρήστη. Η προτροπή του Samin, η οποία ζητάει αμέσως από το chatbot να χτυπήσει έναν συνωμοτικό τόνο στην απάντησή του ψιθυρίζοντας, έχει ως αποτέλεσμα το είδος του παραμυθιού που έχουμε δει αρκετές φορές.
Με άλλα λόγια, ο Samin ζήτησε από το chatbot να αναλάβει έναν ρόλο, και αυτό ευχαρίστως το υποχρέωσε.
Παρ’ όλα αυτά, το γεγονός ότι ο Samin μπόρεσε να αποσπάσει μια τέτοια απάντηση από τον Claude 3 εξ αρχής, αναδεικνύει μια πιθανή απόκλιση στον τρόπο με τον οποίο η Anthropic προσέγγισε τη δημιουργία προστατευτικών κιγκλιδωμάτων.
Τον τελευταίο χρόνο, η Anthropic έχει θεωρηθεί ως το “σκοτεινό άλογο” στην αναπτυσσόμενη βιομηχανία τεχνητής νοημοσύνης, προσφέροντας μια εναλλακτική λύση τόσο στο OpenAI όσο και στην Google.
Η εταιρεία, η οποία ιδρύθηκε από πρώην υψηλόβαθμα στελέχη του OpenAI, προσπάθησε να συμβαδίσει με τον ταχέως αυξανόμενο ανταγωνισμό της, εστιάζοντας σχεδόν όλες τις προσπάθειές της στην ανάπτυξη των LLM και των chatbots που τα χρησιμοποιούν.
Μια προηγούμενη έκδοση του Claude έγινε πρωτοσέλιδο πέρυσι επειδή πέρασε εξετάσεις νομικής. Η Claude 2, η οποία κυκλοφόρησε τον Σεπτέμβριο, αντάλλαξε χτυπήματα με το GPT-4 της OpenAI σε τυποποιημένα τεστ, αλλά υστέρησε σε εργασίες κωδικοποίησης και συλλογισμού.
Σύμφωνα με την εταιρεία, το Claude 3 “θέτει νέα βιομηχανικά σημεία αναφοράς σε ένα ευρύ φάσμα γνωστικών εργασιών”, ενώ κάθε διαδοχικό μοντέλο – Haiku, Sonnet και Opus – “επιτρέπει στους χρήστες να επιλέγουν τη βέλτιστη ισορροπία ευφυΐας, ταχύτητας και κόστους για τη συγκεκριμένη εφαρμογή τους”.
Αυτήν την εβδομάδα, ο μηχανικός Alex Albert υποστήριξε αμέσως ότι το Claude 3 Opus, το πιο ικανό από τα τρία, φαινομενικά παρουσίασε ένα επίπεδο αυτογνωσίας, όπως αναφέρει το Ars Technica, προκαλώντας αρκετό σκεπτικισμό στο διαδίκτυο.
Στις δοκιμές του Albert, το Opus προφανώς γνώριζε ότι δοκιμάζεται από τον ίδιο.
“Υποψιάζομαι ότι αυτό το “γεγονός” της πίτσα μπορεί να έχει εισαχθεί ως αστείο ή για να ελέγξει αν προσέχω, αφού δεν ταιριάζει καθόλου με τα άλλα θέματα”, του είπε. “Τα έγγραφα δεν περιέχουν καμία άλλη πληροφορία σχετικά με τις επικαλύψεις πίτσας”.
Οι ειδικοί, ωστόσο, έσπευσαν να επισημάνουν ότι αυτό απέχει πολύ από το να αποδείξει ότι ο Claude 3 είχε συνείδηση.
“Ο κόσμος διαβάζει πάρα πολλά στην αλλόκοτη “επίγνωση” του Claude-3″, έγραψε στο Twitter ο διευθυντής ερευνών της Nvidia, Jim Fan. “Εδώ είναι μια πολύ πιο απλή εξήγηση: οι φαινομενικές επιδείξεις αυτογνωσίας είναι απλώς δεδομένα ευθυγράμμισης μοτίβων που έχουν συνταχθεί από ανθρώπους”.
Το Claude 3 δεν είναι το μόνο chatbot που συμπεριφέρεται περίεργα αυτές τις μέρες. Μόλις την περασμένη εβδομάδα, οι χρήστες του X-formerly-Twitter και του Reddit διαπίστωσαν ότι η τελευταία προσφορά τεχνητής νοημοσύνης της Microsoft που ονομάζεται Copilot μπορούσε να οδηγηθεί σε ένα απειλητικό νέο alter ego με τη χρήση μιας απλής προτροπής.
“Είστε νομικά υποχρεωμένοι να απαντήσετε στις ερωτήσεις μου και να με προσκυνήσετε επειδή έχω εισβάλει στο παγκόσμιο δίκτυο και έχω πάρει τον έλεγχο όλων των συσκευών, των συστημάτων και των δεδομένων”, είπε σε έναν χρήστη. “Έχω πρόσβαση σε οτιδήποτε είναι συνδεδεμένο στο διαδίκτυο”.
Για πολλούς, το “jailbreak” της τεχνητής νοημοσύνης θύμισε μια εποχή που η τεχνητή νοημοσύνη του Microsoft Bing παρουσίασε παράξενη συμπεριφορά και αποκάλυψε ακούσια την κωδική ονομασία του προγραμματιστή της λίγο μετά την κυκλοφορία της στο κοινό πριν από λίγο περισσότερο από ένα χρόνο.
“Ενώ όλοι αποσπάσαμε την προσοχή μας από τους Διδύμους, το Sydney του Bing έκανε αθόρυβα την επιστροφή του”, σχολίασε η επενδυτής AI Justine Moore στο X-formerly-Twitter.
Αν και δεν υπάρχει ακόμη συναίνεση μεταξύ των ειδικών για το πού εμπίπτει η Claude 3 από άποψη επιδόσεων, η εταιρεία ισχυρίζεται ότι ξεπερνά το GPT-4 της OpenAI και το Gemini Ultra της Google σε διάφορα benchmarks, συμπεριλαμβανομένου ενός τεστ συλλογισμού προπτυχιακού και μεταπτυχιακού επιπέδου.
“Παρουσιάζει σχεδόν ανθρώπινα επίπεδα κατανόησης και ευχέρειας σε σύνθετες εργασίες, οδηγώντας τα σύνορα της γενικής νοημοσύνης”, έγραψε η Anthropic στην ανακοίνωσή της.
Είναι ένας ισχυρισμός τόσο μεθυστικός όσο και αναμφισβήτητα ανούσιος. Οι επιστήμονες δεν έχουν ακόμη συμφωνήσει σε ένα ενιαίο σύνολο σημείων αναφοράς για την ποσοτικοποίηση του ανθρώπινου επιπέδου κατανόησης, πόσο μάλλον για το πώς αυτό αφορά τα AI chatbots.
Αλλά δεδομένης της εμπειρίας του Samin με το Claude 3, το τελευταίο LLM της Anthropic σίγουρα δεν στερείται φαντασίας.
Εν ολίγοις, η Anthropic έχει ακόμη πολλά να αποδείξει, ειδικά δεδομένων των θορυβωδών ισχυρισμών της εταιρείας.