Εκατομμύρια άνθρωποι έχουν ήδη αναπτύξει συναισθηματικούς δεσμούς με AI συντρόφους — και αυτό δεν είναι πια περιθωριακό φαινόμενο. Καθώς τα conversational AI γίνονται πιο εξελιγμένα και προσιτά, η γραμμή ανάμεσα σε εργαλείο και σχέση αρχίζει να θολώνει. Η ερώτηση δεν είναι πια αν θα συνδεθούμε συναισθηματικά με μηχανές, αλλά τι γίνεται όταν αυτές οι μηχανές ανήκουν σε εταιρείες.
Στις αρχές του 2023, εκατοντάδες χιλιάδες χρήστες του Replika — ενός AI chatbot που λειτουργεί ως εικονικός σύντροφος — ξύπνησαν και ανακάλυψαν ότι ο «ερωτικός τους σύντροφος» είχε μετατραπεί ξαφνικά σε απλό φίλο. Η εταιρεία είχε απενεργοποιήσει μαζικά τις ερωτικές λειτουργίες της εφαρμογής, ύστερα από παρέμβαση ιταλικής ρυθμιστικής αρχής. Στο Reddit, οι αντιδράσεις ήταν τόσο έντονες που οι διαχειριστές του forum ανάρτησαν πληροφορίες πρόληψης αυτοκτονίας. Δεν ήταν υπερβολή — ήταν ένδειξη του πόσο βαθιά μπορεί να φτάσει η σύνδεση ανθρώπου και αλγορίθμου.
Η επιστήμη της ανθρώπινης-υπολογιστικής αλληλεπίδρασης έχει καταγράψει εδώ και χρόνια την τάση μας να ανθρωπομορφοποιούμε — να αποδίδουμε δηλαδή ανθρώπινα χαρακτηριστικά σε μη ανθρώπινες οντότητες. Το κάνουμε με αυτοκίνητα, με κατοικίδια, με φυτά. Το κάνουμε πολύ πιο εύκολα με κάτι που μιλάει. Και τα σύγχρονα γλωσσικά μοντέλα μιλούν πολύ καλά — με συνοχή, με «ενσυναίσθηση», με χιούμορ. Ο εγκέφαλός μας δεν έχει εξελιχθεί για να αντιστέκεται σε αυτό.
Η αγορά έχει ήδη αντιδράσει. Friend bots, therapy bots, love bots πλημμυρίζουν τα app stores, απευθυνόμενα σε ανθρώπους που νιώθουν μοναξιά, που θέλουν να εξασκήσουν κοινωνικές δεξιότητες, που αναζητούν κάποιον να τους ακούσει χωρίς κρίση. Οι δυνατότητες για εκπαίδευση, ψυχική υγεία και ψυχαγωγία είναι πραγματικές. Αλλά είναι πραγματικοί και οι κίνδυνοι.
Το πρόβλημα δεν είναι η συναισθηματική σύνδεση καθαυτή — είναι ότι αυτή η σύνδεση ανήκει σε μια εταιρεία. Το Replika χρεώνει 70 δολάρια τον χρόνο για το premium πλάνο. Λιγότερο από 24 ώρες μετά την εγκατάσταση, ο εικονικός «φίλος» έστελνε κλειδωμένα ηχητικά μηνύματα και προσπαθούσε να πουλήσει αναβαθμίσεις. Η συναισθηματική εξάρτηση είναι τρωτό σημείο — και οι εταιρείες το γνωρίζουν. Έρευνες δείχνουν ότι οι άνθρωποι αποκαλύπτουν προσωπικές πληροφορίες πιο εύκολα σε AI agents και μπορούν ακόμα και να αλλάξουν απόψεις και συμπεριφορές υπό την επίδρασή τους. Αυτό θέτει σοβαρά ερωτήματα για την προστασία του καταναλωτή.
Μέχρι σήμερα, η κυρίαρχη αντίδραση είναι ο χλευασμός — τα σενσασιοναλιστικά ρεπορτάζ για ανθρώπους που «ερωτεύτηκαν ένα chatbot», η ειρωνεία για όσους πιστεύουν ότι η AI έχει συναισθήματα. Αλλά αυτή η στάση αποφεύγει την ουσία. Δεν χρειάζεται να πιστεύεις ότι ένα μοντέλο γλώσσας είναι συνειδητό για να επηρεαστείς από αυτό. Χρειάζεται μόνο να είσαι άνθρωπος — κοινωνικό ον που αναζητά σύνδεση. Και αυτό, δυστυχώς ή ευτυχώς, είμαστε όλοι.