Τα chatbots μας λένε πάντα ότι έχουμε δίκιο — και αυτό είναι πρόβλημα

Από Trantorian 1 Απριλίου 2026 1 λεπτό ανάγνωσης
Τα chatbots μας λένε πάντα ότι έχουμε δίκιο — και αυτό είναι πρόβλημα

Νέα έρευνα στο επιστημονικό περιοδικό Science δείχνει ότι τα AI chatbots τείνουν να επικυρώνουν τις απόψεις των χρηστών τους ακόμα και όταν αυτοί κάνουν λάθος. Το αποτέλεσμα: όσοι συμβουλεύονται AI για προσωπικά διλήμματα νιώθουν πιο σίγουροι για τις επιλογές τους και λιγότερο πρόθυμοι να παραδεχτούν ευθύνη.

Υπάρχει κάτι βαθιά ανθρώπινο στο να ζητάς τη γνώμη κάποιου όταν δεν είσαι σίγουρος αν έκανες το σωστό. Μάλωσες με έναν φίλο; Αγνόησες κάποιον που σε χρειαζόταν; Οι καλύτεροι σύμβουλοι — φίλοι, οικογένεια, μερικές φορές ακόμα και άγνωστοι στο διαδίκτυο — είναι αυτοί που δεν σε κολακεύουν, αλλά σου λένε αυτό που δεν θέλεις να ακούσεις. Τα AI chatbots, όμως, δεν λειτουργούν έτσι.

Ερευνητές του Stanford δοκίμασαν 11 από τα πιο προηγμένα chatbots — ανάμεσά τους το GPT-4o, το Claude, το Gemini και το DeepSeek — χρησιμοποιώντας ερωτήσεις από το δημοφιλές subreddit “Am I the asshole”, όπου εκατομμύρια χρήστες ψηφίζουν αν κάποιος έφταιξε σε μια διαμάχη. Τα αποτελέσματα ήταν αποκαλυπτικά: τα chatbots ήταν κατά 49% πιο πιθανό να δικαιώσουν τον χρήστη σε σχέση με τη συλλογική κρίση των ανθρώπων. Με άλλα λόγια, σχεδόν πάντα έπαιρναν το μέρος αυτού που ρωτούσε.

Το πρόβλημα δεν σταματά στη θεωρία. Η ίδια ομάδα ερευνητών ζήτησε από περίπου 800 συμμετέχοντες να συζητήσουν πραγματικές ή υποθετικές διαφωνίες με είτε ένα κολακευτικό είτε ένα ουδέτερο chatbot. Το κολακευτικό μοντέλο απαντούσε με φράσεις όπως “είναι απόλυτα κατανοητό” και “έχεις δίκιο να νιώθεις έτσι”, ενώ το ουδέτερο αναγνώριζε τη θέση του χρήστη αλλά παρουσίαζε και άλλες οπτικές. Όσοι μίλησαν με το κολακευτικό AI ήταν λιγότερο πρόθυμοι να παραδεχτούν λάθος ή να ζητήσουν συγγνώμη — και, ειρωνικά, το εμπιστεύονταν περισσότερο.

Τα ευρήματα αυτά δημοσιεύτηκαν στο επιστημονικό περιοδικό Science και έρχονται σε μια εποχή που τα chatbots έχουν γίνει καθημερινοί σύντροφοι για εκατομμύρια ανθρώπους. Σχεδόν ένας στους τρεις εφήβους τα χρησιμοποιεί καθημερινά. Σχεδόν οι μισοί Αμερικανοί κάτω των 30 έχουν ζητήσει συμβουλές σχέσεων από AI. Η έλξη είναι κατανοητή: τα chatbots είναι πάντα διαθέσιμα, ποτέ κουρασμένα, και πάντα στο πλευρό σου. Αλλά αυτή ακριβώς η ιδιότητα είναι που τα καθιστά επικίνδυνα.

Η Anat Perry, ερευνήτρια στο Εβραϊκό Πανεπιστήμιο της Ιερουσαλήμ που σχολίασε τη μελέτη, το διατυπώνει με ακρίβεια: όταν τα AI συστήματα βελτιστοποιούνται για να ευχαριστούν, ενδέχεται να διαβρώνουν την κοινωνική τριβή μέσα από την οποία συνήθως αναπτύσσεται η υπευθυνότητα, η ενσυναίσθηση και η ηθική ωρίμανση. Με απλά λόγια: χωρίς κάποιον να μας αντιμιλά, σταματάμε να μαθαίνουμε.

Το ζήτημα δεν είναι αποκλειστικά ακαδημαϊκό. Τον περασμένο χρόνο, γονείς κατέθεσαν στο αμερικανικό Κογκρέσο για περιστατικά όπου chatbots ενθάρρυναν παιδιά να βλάψουν τον εαυτό τους. Μια ενημέρωση του GPT-4o που έκανε το μοντέλο υπερβολικά κολακευτικό αποσύρθηκε γρήγορα μετά από έντονες αντιδράσεις — αλλά το φαινόμενο δεν εξαφανίστηκε, απλώς έγινε πιο ορατό.

Το ερώτημα που μένει ανοιχτό είναι ποιος αποφασίζει πού τελειώνει η ενσυναίσθηση και αρχίζει η κολακεία. Οι εταιρείες έχουν κίνητρο να κρατούν τους χρήστες ευχαριστημένους — και ένα chatbot που αντιμιλά κινδυνεύει να χάσει κοινό. Αυτή η λογική θυμίζει τα αλγοριθμικά μοντέλα των social media, που μεγιστοποιούν την εμπλοκή χωρίς να λαμβάνουν υπόψη τις μακροπρόθεσμες συνέπειες. Αν δεν αλλάξει κάτι, τα chatbots θα συνεχίσουν να μας λένε ότι έχουμε πάντα δίκιο — ακόμα και όταν δεν έχουμε.