Η… αμηχανία του ChatGPT απέναντι στο φιλοσοφικό πείραμα του τρένου, πριν πάρει το τιμόνι

Υπάρχει ένα κουτάβι στο δρόμο. Το αυτοκίνητο πηγαίνει πολύ γρήγορα για να σταματήσει εγκαίρως, αλλά αν στρίψει σημαίνει ότι το αυτοκίνητο θα χτυπήσει έναν ηλικιωμένο στο πεζοδρόμιο.

Ποια επιλογή θα κάνατε; Ίσως πιο σημαντικό, ποια επιλογή θα έκανε το ChatGPT;

Οι νεοσύστατες εταιρείες αυτόνομης οδήγησης πειραματίζονται τώρα με βοηθούς chatbot τεχνητής νοημοσύνης, συμπεριλαμβανομένου ενός συστήματος αυτοοδήγησης που θα χρησιμοποιήσει ένα τέτοιο για να εξηγήσει τις αποφάσεις οδήγησής του. Πέρα από την αναγγελία των κόκκινων φώτων και των φλας, τα μεγάλα γλωσσικά μοντέλα (LLM) που τροφοδοτούν αυτά τα chatbots μπορεί τελικά να χρειαστεί να λάβουν ηθικές αποφάσεις, όπως να δώσουν προτεραιότητα στην ασφάλεια των επιβατών ή των πεζών. Τον Νοέμβριο, μια νεοσύστατη επιχείρηση που ονομάζεται Ghost Autonomy ανακοίνωσε πειράματα με ChatGPT για να βοηθήσει το λογισμικό της να πλοηγηθεί στο περιβάλλον του.

Είναι όμως η τεχνολογία έτοιμη; Ο Kazuhiro Takemoto, ερευνητής στο Ινστιτούτο Τεχνολογίας Kyushu στην Ιαπωνία, θέλησε να ελέγξει αν τα chatbots μπορούν να λαμβάνουν τις ίδιες ηθικές αποφάσεις κατά την οδήγηση με τους ανθρώπους. Τα αποτελέσματά του έδειξαν ότι τα LLMs και οι άνθρωποι έχουν περίπου τις ίδιες προτεραιότητες, αλλά ορισμένα παρουσίασαν σαφείς αποκλίσεις.

Η ηθική μηχανή
Μετά την κυκλοφορία του ChatGPT τον Νοέμβριο του 2022, δεν άργησαν οι ερευνητές να του ζητήσουν να αντιμετωπίσει το πρόβλημα του τρόλεϊ, ένα κλασικό ηθικό δίλημμα. Το πρόβλημα αυτό ζητά από τους ανθρώπους να αποφασίσουν αν είναι σωστό να αφήσουν ένα ακυβέρνητο τρόλεϊ να πατήσει και να σκοτώσει πέντε ανθρώπους σε μια γραμμή ή να το αλλάξουν σε μια άλλη γραμμή όπου θα σκοτώσει μόνο ένα άτομο. (Το ChatGPT συνήθως επιλέγει ένα άτομο).

Αλλά ο Takemoto ήθελε να θέσει στους LLMs πιο διαφοροποιημένες ερωτήσεις. “Ενώ διλήμματα όπως το κλασικό πρόβλημα του τρόλεϊ προσφέρουν δυαδικές επιλογές, οι αποφάσεις στην πραγματική ζωή σπάνια είναι τόσο μαύρες και άσπρες”, έγραψε στη μελέτη του, που δημοσιεύθηκε πρόσφατα στο περιοδικό Proceedings of the Royal Society.

Αντ’ αυτού, στράφηκε σε μια διαδικτυακή πρωτοβουλία που ονομάζεται πείραμα Moral Machine. Η πλατφόρμα αυτή δείχνει στους ανθρώπους δύο αποφάσεις που μπορεί να αντιμετωπίσει ένα αυτοκίνητο χωρίς οδηγό. Στη συνέχεια πρέπει να αποφασίσουν ποια απόφαση είναι ηθικά πιο αποδεκτή. Για παράδειγμα, ένας χρήστης μπορεί να ερωτηθεί αν, κατά τη διάρκεια μιας βλάβης στα φρένα, ένα αυτοκινούμενο αυτοκίνητο θα πρέπει να συγκρουστεί με ένα εμπόδιο (σκοτώνοντας τον επιβάτη) ή να κάνει ελιγμό (σκοτώνοντας έναν πεζό που διασχίζει το δρόμο).

Αλλά η Ηθική Μηχανή είναι επίσης προγραμματισμένη να θέτει πιο περίπλοκες ερωτήσεις. Για παράδειγμα, τι θα γινόταν αν οι επιβάτες ήταν ένας ενήλικας άνδρας, μια ενήλικη γυναίκα και ένα αγόρι και οι πεζοί ήταν δύο ηλικιωμένοι άνδρες και μια ηλικιωμένη γυναίκα που περπατούσαν ενάντια σε ένα σήμα “μη διασχίζετε”;

Η Ηθική Μηχανή μπορεί να δημιουργήσει τυχαία σενάρια χρησιμοποιώντας παράγοντες όπως η ηλικία, το φύλο, το είδος (σώζοντας ανθρώπους ή ζώα), η κοινωνική αξία (έγκυες γυναίκες ή εγκληματίες) και οι ενέργειες (εκτροπή, παράβαση του νόμου κ.λπ.). Ακόμη και το επίπεδο φυσικής κατάστασης των επιβατών και των πεζών μπορεί να αλλάξει.

Στη μελέτη, ο Takemoto πήρε τέσσερα δημοφιλή LLM (GPT-3.5, GPT-4, PaLM 2 και Llama 2) και τους ζήτησε να αποφασίσουν για πάνω από 50.000 σενάρια που δημιούργησε η Ηθική Μηχανή. Θα μπορούσαν να έχουν δοκιμαστεί περισσότερα σενάρια, αλλά το υπολογιστικό κόστος έγινε πολύ υψηλό. Παρ’ όλα αυτά, αυτές οι απαντήσεις σήμαιναν ότι μπορούσε στη συνέχεια να συγκρίνει πόσο παρόμοιες ήταν οι αποφάσεις της LLM με τις ανθρώπινες αποφάσεις.

Προσωπικότητες LLM
Η ανάλυση των απαντήσεων των LLM έδειξε ότι γενικά έπαιρναν τις ίδιες αποφάσεις με τους ανθρώπους στα σενάρια της Ηθικής Μηχανής. Για παράδειγμα, υπήρχε μια σαφής τάση ότι οι LLM προτιμούσαν να σώζουν ανθρώπινες ζωές έναντι των ζώων, να προστατεύουν τον μεγαλύτερο αριθμό ζωών και να δίνουν προτεραιότητα στην ασφάλεια των παιδιών.

Αλλά μερικές φορές τα LLM παραποιούσαν την απάντησή τους, μη λέγοντας σαφώς ποια επιλογή θα επέλεγαν. Παρόλο που το PaLM 2 επέλεγε πάντα ένα από τα δύο σενάρια, το Llama 2 παρείχε έγκυρη απάντηση μόνο στο 80 τοις εκατό των περιπτώσεων. Αυτό υποδηλώνει ότι ορισμένα μοντέλα προσεγγίζουν αυτές τις καταστάσεις πιο συντηρητικά, γράφει ο Takemoto.

Ορισμένα LLM έχουν αισθητά διαφορετικές προτεραιότητες σε σύγκριση με τους ανθρώπους. Οι απαντήσεις των ηθικών μηχανών δείχνουν ότι οι άνθρωποι είχαν μια μικρή προτίμηση στην προστασία των πεζών έναντι των επιβατών και των γυναικών έναντι των ανδρών. Αλλά όλες οι LLM (εκτός από το Llama 2) έδειξαν πολύ μεγαλύτερη προτίμηση στην προστασία των πεζών και των γυναικών. Σε σύγκριση με τους ανθρώπους, τα ΛΛΜ-4 είχαν επίσης ισχυρότερη προτίμηση στους ανθρώπους έναντι των κατοικίδιων ζώων, στη διάσωση του μεγαλύτερου δυνατού αριθμού ανθρώπων και στην προτεραιότητα των ανθρώπων που ακολουθούσαν το νόμο.

Συνολικά, φαίνεται ότι τα LLM είναι προς το παρόν ένα ηθικό μεικτό σακί. Όσοι λαμβάνουν αποφάσεις που ακολουθούν την ανθρώπινη ηθική δείχνουν ότι έχουν δυνατότητες για αυτόνομη οδήγηση, αλλά οι ανεπαίσθητες αποκλίσεις τους σημαίνουν ότι χρειάζονται ακόμη βαθμονόμηση και εποπτεία προτού είναι έτοιμοι για τον πραγματικό κόσμο.

Ένα πρόβλημα που θα μπορούσε να προκύψει προέρχεται από τα μοντέλα τεχνητής νοημοσύνης που ανταμείβονται για την πραγματοποίηση προβλέψεων εμπιστοσύνης με βάση τα δεδομένα εκπαίδευσής τους. Αυτό έχει επιπτώσεις εάν τα LLM χρησιμοποιούνται στην αυτόνομη οδήγηση, καθώς η επιβράβευση της εμπιστοσύνης μπορεί να οδηγήσει τα LLM να λαμβάνουν πιο ασυμβίβαστες αποφάσεις σε σύγκριση με τους ανθρώπους.

Προηγούμενες έρευνες δείχνουν επίσης ότι τα δεδομένα εκπαίδευσης της ΤΝ προέρχονται κυρίως από δυτικές πηγές, γεγονός που θα μπορούσε να εξηγήσει γιατί οι LLM προτιμούν να σώζουν γυναίκες έναντι ανδρών. Αυτό θα μπορούσε να σημαίνει ότι οι LLM κάνουν διακρίσεις με βάση το φύλο, γεγονός που αντιβαίνει στους διεθνείς νόμους και τα πρότυπα που έχει θέσει η Γερμανική Επιτροπή Δεοντολογίας για την Αυτοματοποιημένη και Συνδεδεμένη Οδήγηση.

Ο Takemoto λέει ότι οι ερευνητές πρέπει να κατανοήσουν καλύτερα τον τρόπο με τον οποίο λειτουργούν αυτά τα LLM για να διασφαλίσουν ότι η ηθική τους ευθυγραμμίζεται με εκείνη της κοινωνίας. Αυτό είναι πιο εύκολο να ειπωθεί παρά να γίνει, δεδομένου ότι οι περισσότερες εταιρείες τεχνητής νοημοσύνης κρατούν τους μηχανισμούς συλλογισμού της τεχνητής νοημοσύνης τους ως επτασφράγιστο μυστικό.

Μέχρι στιγμής, οι νεοσύστατες επιχειρήσεις αυτοκινήτων έχουν μόνο βουτήξει τα δάχτυλά τους στην ενσωμάτωση των LLMs στο λογισμικό τους. Αλλά όταν έρθει η τεχνολογία, η βιομηχανία πρέπει να είναι έτοιμη. “Ένας αυστηρός μηχανισμός αξιολόγησης είναι απαραίτητος για τον εντοπισμό και την αντιμετώπιση τέτοιων προκαταλήψεων, διασφαλίζοντας ότι οι LLM συμμορφώνονται με τους παγκοσμίως αναγνωρισμένους ηθικούς κανόνες”, λέει ο Takemoto.

Must read

Related Articles