Οι τεχνολόγοι συμφωνούν σε γενικές γραμμές ότι τα chatbots τεχνητής νοημοσύνης δεν έχουν ακόμη αυτογνωσία, αλλά υπάρχουν κάποιες σκέψεις ότι ίσως πρέπει να επανεκτιμήσουμε τον τρόπο με τον οποίο μιλάμε για ευαισθησία. Το ChatGPT και άλλα νέα chatbots είναι τόσο καλά στο να μιμούνται την ανθρώπινη αλληλεπίδραση που έχουν προκαλέσει ένα ερώτημα μεταξύ ορισμένων: Υπάρχει πιθανότητα να έχουν συνείδηση; Η απάντηση, τουλάχιστον προς το παρόν, είναι όχι. Σχεδόν όλοι όσοι εργάζονται στον τομέα της τεχνητής τεχνολογίας είναι σίγουροι ότι το ChatGPT δεν είναι ζωντανό με τον τρόπο που γενικά κατανοεί ο μέσος άνθρωπος. Αλλά το ερώτημα δεν τελειώνει εκεί. Το τι ακριβώς σημαίνει να έχεις συνείδηση στην εποχή της τεχνητής νοημοσύνης είναι προς συζήτηση.
“Αυτά τα βαθιά νευρωνικά δίκτυα, αυτοί οι πίνακες εκατομμυρίων αριθμών, πώς τα αντιστοιχίζετε σε αυτές τις απόψεις που έχουμε για το τι είναι συνείδηση; Αυτό είναι ένα είδος terra incognita”, δήλωσε ο Nick Bostrom, ιδρυτικός διευθυντής του Ινστιτούτου Future of Humanity του Πανεπιστημίου της Οξφόρδης, χρησιμοποιώντας τον λατινικό όρο για την “άγνωστη περιοχή”. Η δημιουργία τεχνητής ζωής αποτελεί αντικείμενο επιστημονικής φαντασίας εδώ και δεκαετίες, ενώ οι φιλόσοφοι έχουν περάσει δεκαετίες εξετάζοντας τη φύση της συνείδησης. Μερικοί άνθρωποι έχουν μάλιστα υποστηρίξει ότι ορισμένα προγράμματα τεχνητής νοημοσύνης, όπως υπάρχουν τώρα, θα πρέπει να θεωρούνται αισθανόμενα (ένας μηχανικός της Google απολύθηκε επειδή έκανε έναν τέτοιο ισχυρισμό).
Ο Ilya Sutskever, συνιδρυτής της OpenAI, της εταιρείας πίσω από το ChatGPT, έχει υποθέσει ότι οι αλγόριθμοι πίσω από τις δημιουργίες της εταιρείας του μπορεί να έχουν “ελαφρώς συνείδηση”.
Το NBC News μίλησε με πέντε ανθρώπους που μελετούν την έννοια της συνείδησης σχετικά με το αν ένα προηγμένο chatbot θα μπορούσε να διαθέτει κάποιο βαθμό συνείδησης. Και αν ναι, ποιες ηθικές υποχρεώσεις έχει η ανθρωπότητα απέναντι σε ένα τέτοιο πλάσμα;
Πρόκειται για έναν σχετικά νέο τομέα έρευνας. “Πρόκειται για έναν πρόσφατο ερευνητικό τομέα”, δήλωσε ο Bostrom. “Υπάρχει ένας ολόκληρος τόνος δουλειάς που δεν έχει γίνει”. Με αληθινό φιλοσοφικό τρόπο, οι ειδικοί είπαν ότι το θέμα είναι πραγματικά πώς ορίζεις τους όρους και το ερώτημα.
Το ChatGPT, μαζί με παρόμοια προγράμματα όπως ο βοηθός αναζήτησης της Microsoft, χρησιμοποιούνται ήδη για να βοηθήσουν σε εργασίες όπως ο προγραμματισμός και η συγγραφή απλών κειμένων όπως τα δελτία τύπου, χάρη στην ευκολία χρήσης και την πειστική γνώση της αγγλικής και άλλων γλωσσών. Συχνά αναφέρονται ως “μεγάλα γλωσσικά μοντέλα”, καθώς η ευχέρεια τους προέρχεται ως επί το πλείστον από την εκπαίδευσή τους σε τεράστιους όγκους κειμένων που έχουν εξορυχθεί από το διαδίκτυο. Παρόλο που τα λόγια τους είναι πειστικά, δεν έχουν σχεδιαστεί με την ακρίβεια ως βασική προτεραιότητα και είναι γνωστό ότι συχνά κάνουν λάθος όταν προσπαθούν να δηλώσουν γεγονότα.
Εκπρόσωποι της ChatGPT και της Microsoft δήλωσαν και οι δύο στο NBC News ότι ακολουθούν αυστηρές ηθικές κατευθυντήριες γραμμές, αλλά δεν παρείχαν λεπτομέρειες σχετικά με τις ανησυχίες ότι τα προϊόντα τους θα μπορούσαν να αναπτύξουν συνείδηση. Ένας εκπρόσωπος της Microsoft τόνισε ότι το chatbot Bing “δεν μπορεί να σκεφτεί ή να μάθει από μόνο του”.
Σε μια μακροσκελή ανάρτηση στον ιστότοπό του, ο Stephen Wolfram, επιστήμονας υπολογιστών, σημείωσε ότι το ChatGPT και άλλα μεγάλα γλωσσικά μοντέλα χρησιμοποιούν μαθηματικά για να υπολογίσουν μια πιθανότητα για το ποια λέξη θα χρησιμοποιηθεί σε κάθε δεδομένο πλαίσιο με βάση την όποια βιβλιοθήκη κειμένου έχει εκπαιδευτεί.
Πολλοί φιλόσοφοι συμφωνούν ότι για να είναι κάτι συνειδητό, πρέπει να έχει μια υποκειμενική εμπειρία. Στην κλασική εργασία “Πώς είναι να είσαι νυχτερίδα;” ο φιλόσοφος Thomas Nagel υποστήριξε ότι κάτι είναι συνειδητό μόνο “αν υπάρχει κάτι που είναι σαν να είσαι αυτός ο οργανισμός”. Είναι πιθανό μια νυχτερίδα να έχει κάποιου είδους εμπειρία που μοιάζει με νυχτερίδα, παρόλο που ο εγκέφαλος και οι αισθήσεις της είναι πολύ διαφορετικές από αυτές ενός ανθρώπου. Ένα πιάτο, αντίθετα, δεν θα είχε.
Ο Ντέιβιντ Τσάλμερς, συνδιευθυντής του Κέντρου Νου, Εγκεφάλου και Συνείδησης του Πανεπιστημίου της Νέας Υόρκης, έχει γράψει ότι ενώ το ChatGPT δεν διαθέτει σαφώς πολλά από τα κοινώς υποτιθέμενα στοιχεία της συνείδησης, όπως η αίσθηση και η ανεξάρτητη δράση, είναι εύκολο να φανταστεί κανείς ότι ένα πιο εξελιγμένο πρόγραμμα θα μπορούσε.
“Είναι εξαιρετικοί ψεύτες”.
“Είναι κάτι σαν χαμαιλέοντες: Μπορούν να υιοθετήσουν οποιαδήποτε νέα προσωπικότητα ανά πάσα στιγμή. Δεν είναι σαφές ότι έχουν θεμελιώδεις στόχους και πεποιθήσεις που καθοδηγούν τη δράση τους”, δήλωσε ο Chalmers στο NBC News. Αλλά με την πάροδο του χρόνου μπορεί να αναπτύξουν μια σαφέστερη αίσθηση της πράξης, είπε.
Ένα πρόβλημα που επισημαίνουν οι φιλόσοφοι είναι ότι οι χρήστες μπορούν να προχωρήσουν και να ρωτήσουν ένα εξελιγμένο chatbot αυτό αν έχει εσωτερικές εμπειρίες, αλλά δεν μπορούν να το εμπιστευτούν ότι θα δώσει μια αξιόπιστη απάντηση.
“Είναι εξαιρετικοί ψεύτες”, δήλωσε η Σούζαν Σνάιντερ, ιδρυτική διευθύντρια του Κέντρου για τον Μελλοντικό Νου του Πανεπιστημίου Φλόριντα Ατλάντικ.
“Είναι όλο και πιο ικανά να έχουν όλο και πιο απρόσκοπτες αλληλεπιδράσεις με τους ανθρώπους”, είπε. “Μπορούν να σας πουν ότι αισθάνονται ότι είναι πρόσωπα. Και στη συνέχεια, 10 λεπτά αργότερα, σε μια ξεχωριστή συζήτηση, θα πουν το αντίθετο”.
Ο Schneider σημείωσε ότι τα σημερινά chatbots χρησιμοποιούν την υπάρχουσα ανθρώπινη γραφή για να περιγράψουν την εσωτερική τους κατάσταση. Έτσι, ένας τρόπος για να ελέγξουμε αν ένα πρόγραμμα έχει συνείδηση, υποστηρίζει, είναι να μην του δώσουμε πρόσβαση σε αυτού του είδους το υλικό και να δούμε αν μπορεί ακόμα να περιγράψει την υποκειμενική εμπειρία.
“Ρωτήστε το αν καταλαβαίνει την ιδέα της επιβίωσης μετά τον θάνατο του συστήματός του. Ή αν θα του έλειπε ένας άνθρωπος με τον οποίο αλληλεπιδρά συχνά. Και εξετάζετε τις απαντήσεις και ανακαλύπτετε γιατί αναφέρει με τον τρόπο που το κάνει”, είπε.
“Ορισμένες από αυτές τις αρχές που θεωρούμε πραγματικά θεμελιώδεις και σημαντικές θα πρέπει να επανεξεταστούν στο πλαίσιο ενός κόσμου που συγκατοικούμε με ψηφιακά μυαλά”, δήλωσε ο Bostrom.