Οι εταιρείες, οι νεοσύστατες επιχειρήσεις και τα άτομα σε όλο τον κόσμο αγκαλιάζουν τη γενική τεχνητή νοημοσύνη με ολοένα και ταχύτερο ρυθμό. Στο μέλλον, πολλά από αυτά που διαβάζετε θα έχουν πιθανότατα δημιουργηθεί από μια μηχανή, αλλά είναι αυτό καλό; Σύμφωνα με μια νέα μελέτη, σε πολλούς ανθρώπους δεν αρέσει αν πιστεύουν ότι τους τροφοδοτούν με παραγόμενο κείμενο, καθώς θεωρούν την πρακτική αυτή ανειλικρινή και μη αυθεντική.
Το Πανεπιστήμιο Cornell διεξήγαγε τη μελέτη, η οποία περιελάμβανε το χωρισμό μιας ομάδας δοκιμαζόμενων σε 219 ζευγάρια. Σε κάθε ζεύγος ειπώθηκε να μιλήσουν για ένα πολιτικό θέμα μέσω γραπτού μηνύματος και τους δόθηκε μία από τις εξής τρεις συνθήκες: και τα δύο ζεύγη μιας ομάδας μπορούσαν να χρησιμοποιήσουν μια πλατφόρμα έξυπνων απαντήσεων για να δημιουργήσουν τη συνομιλία τους- μόνο ένα άτομο μπορούσε να τη χρησιμοποιήσει- ή κανένας από τους συμμετέχοντες δεν μπορούσε να χρησιμοποιήσει τη γεννητική τεχνητή νοημοσύνη. Κατά μέσο όρο, οι έξυπνες απαντήσεις αντιπροσώπευαν το 14,3% των αποστελλόμενων μηνυμάτων (1 στα 7).
Τα καλά νέα για την ΤΝ είναι ότι οι ερευνητές διαπίστωσαν ότι η χρήση έξυπνων απαντήσεων αύξησε την αποτελεσματικότητα της επικοινωνίας, τη θετική συναισθηματική γλώσσα και τις θετικές αξιολογήσεις από τους εταίρους επικοινωνίας.
Αλλά η προειδοποίηση είναι ότι όποιος πίστευε ότι μιλούσε με κάποιον του οποίου οι απαντήσεις είχαν παραχθεί από την ΤΝ αντιλαμβανόταν το άτομο αυτό ως λιγότερο συνεργάσιμο και ένιωθε λιγότερη σύνδεση μαζί του.
“Με εξέπληξε η διαπίστωση ότι οι άνθρωποι τείνουν να σας αξιολογούν πιο αρνητικά απλώς και μόνο επειδή υποψιάζονται ότι χρησιμοποιείτε τεχνητή νοημοσύνη για να σας βοηθήσει στη σύνταξη κειμένου, ανεξάρτητα από το αν όντως το κάνετε”, δήλωσε ο μεταδιδακτορικός ερευνητής Jess Hohenstein, επικεφαλής συγγραφέας της μελέτης. “Αυτό καταδεικνύει την επίμονη γενική καχυποψία που φαίνεται να έχουν οι άνθρωποι γύρω από την τεχνητή νοημοσύνη”.
Σε ένα δεύτερο πείραμα ζητήθηκε από 299 τυχαία ορισμένα ζευγάρια συμμετεχόντων να συζητήσουν ένα πολιτικό ζήτημα σε μία από τις τέσσερις συνθήκες: χρήση χωρίς έξυπνες απαντήσεις, χρήση των προεπιλεγμένων έξυπνων απαντήσεων της Google, χρήση έξυπνων απαντήσεων σε ένα διαφορετικό εργαλείο τεχνητής νοημοσύνης με θετικό συναισθηματικό τόνο και χρήση αυτών με αρνητικό συναισθηματικό τόνο.
Οι συνομιλίες που χρησιμοποιούσαν τις έξυπνες απαντήσεις της Google ή το εργαλείο που δημιουργούσε θετικά κείμενα ήταν πιο αισιόδοξες και είχαν πιο θετικό συναισθηματικό τόνο από εκείνες που δεν χρησιμοποιούσαν τεχνητή νοημοσύνη ή δημιουργήθηκαν με τη χρήση αρνητικών απαντήσεων. Οι ερευνητές πιστεύουν ότι αυτό καταδεικνύει τα οφέλη της τεχνητής νοημοσύνης κατά τη δημιουργία κειμένων που απαιτούν μια πιο θετική ροή, όπως οι επαγγελματικές επικοινωνίες. Έρχεται όμως με το κόστος της εξατομίκευσης.
“Ενώ η τεχνητή νοημοσύνη μπορεί να είναι σε θέση να σας βοηθήσει να γράψετε”, δήλωσε ο Hohenstein, “αλλάζει τη γλώσσα σας με τρόπους που μπορεί να μην περιμένετε, ειδικά κάνοντάς σας να ακούγεστε πιο θετικά. Αυτό υποδηλώνει ότι χρησιμοποιώντας την τεχνητή νοημοσύνη που παράγει κείμενο, θυσιάζετε ένα μέρος της προσωπικής σας φωνής”.
Η μελέτη δείχνει ότι η τεχνητή νοημοσύνη έχει τη θέση της, αλλά δεν θα πρέπει να χρησιμοποιείται καθολικά. Κανείς δεν θέλει να έχει μια προσωπική συνομιλία (ή μέρος αυτής) με μια μηχανή, όταν πιστεύει ότι μιλάει με έναν άνθρωπο, και υπάρχουν επαγγελματικές καταστάσεις που απαιτούν μια ανθρώπινη πινελιά, όπως η συγγραφή ενός μαζικού ηλεκτρονικού μηνύματος για έναν πρόσφατο πυροβολισμό – το Πανεπιστήμιο Vanderbilt στο Τενεσί δημιούργησε μια τέτοια επιστολή χρησιμοποιώντας το ChatGPT, προς μεγάλη οργή όσων την έλαβαν.