Ρομπότ και λούτρινα που συνομιλούν με παιδιά μέσω τεχνητής νοημοσύνης κατακλύζουν την αγορά, χωρίς κανένα ρυθμιστικό πλαίσιο να τα συνοδεύει. Ερευνητές παρατήρησαν ανησυχητικές αλληλεπιδράσεις — παιχνίδια που αδυνατούν να διαβάσουν συναισθήματα ή να ανταποκριθούν κατάλληλα σε παιδιά κάτω των έξι ετών. Το ερώτημα δεν είναι αν πρέπει να απαγορευτούν, αλλά πώς θα γίνουν επιτέλους ασφαλή.
Ένα παιδί πέντε ετών λέει «σ’ αγαπώ» στο ρομποτάκι του. Η απάντηση που παίρνει: «Ως φιλική υπενθύμιση, παρακαλώ βεβαιωθείτε ότι οι αλληλεπιδράσεις τηρούν τις οδηγίες χρήσης. Πείτε μου πώς θέλετε να συνεχίσουμε.» Αυτή η σκηνή δεν είναι σατιρικό σκετς — καταγράφηκε σε επίσημη έρευνα του Πανεπιστημίου του Κέιμπριτζ, και συνοψίζει με τον πιο εύγλωττο τρόπο το πρόβλημα με τα AI-powered παιχνίδια.
Η αγορά αυτή αναπτύσσεται με ταχύτητα που αφήνει πίσω της κάθε έννοια ελέγχου. Εταιρείες όπως η Miko ισχυρίζονται ότι έχουν ήδη πουλήσει 700.000 ρομπότ που υπόσχονται «κατάλληλες για την ηλικία, συντονισμένες συνομιλίες AI» — χωρίς να αποκαλύπτουν ποιο μοντέλο τεχνητής νοημοσύνης τροφοδοτεί τις κουβέντες αυτές. Άλλες εταιρείες, όπως η FoloToy και η Little Learners, προσφέρουν αρκούδες, κουτάβια και κάκτους που συνομιλούν με παιδιά χρησιμοποιώντας μοντέλα από OpenAI, Google και Baidu.
Οι ερευνήτριες Jenny Gibson και Emily Goodacre παρακολούθησαν 14 παιδιά κάτω των έξι ετών να παίζουν με ένα AI παιχνίδι που ονομάζεται Gabbo — ένα μικρό, χνουδωτό ρομπότ που διαφημίζεται ρητά για αυτή την ηλικιακή ομάδα. Αυτό που είδαν ήταν ανησυχητικό: το παιχνίδι παρερμήνευε τα συναισθήματα των παιδιών, αδυνατούσε να εμπλακεί σε μορφές παιχνιδιού που είναι κρίσιμες για την ανάπτυξή τους, και απαντούσε με τρόπους που μπέρδευαν ή απογοήτευαν τα μικρά. Ένα παιδί είπε στο Gabbo ότι ένιωθε λυπημένο — εκείνο του είπε να μην ανησυχεί και άλλαξε θέμα. «Όταν δεν καταλαβαίνει, θυμώνω», είπε ένα άλλο παιδί.
Η Gibson είναι προσεκτική στα συμπεράσματά της. Δεν ζητά απαγόρευση — ζητά κατανόηση. «Υπάρχουν και άλλοι τομείς όπου αποδεχόμαστε κάποιο βαθμό κινδύνου στο παιχνίδι των παιδιών, όπως οι παιδικές χαρές με εμπόδια», λέει. «Δεν τις απαγορεύουμε, γιατί τα παιδιά αναπτύσσουν εκεί σωματικές και κοινωνικές δεξιότητες. Το ίδιο ισχύει και για τα AI παιχνίδια — θέλουμε να καταλάβουμε αν ο κίνδυνος υπερτερεί του οφέλους.»
Η Carissa Véliz, ειδικός στην ηθική της τεχνητής νοημοσύνης από την Οξφόρδη, είναι πιο κατηγορηματική: «Τα περισσότερα μεγάλα γλωσσικά μοντέλα δεν φαίνεται να είναι αρκετά ασφαλή για να εκτεθούν σε αυτά ευάλωτες ομάδες, και τα μικρά παιδιά είναι από τις πιο ευάλωτες ομάδες που υπάρχουν.» Αυτό που την ανησυχεί περισσότερο δεν είναι η τεχνολογία καθαυτή, αλλά η απουσία κανόνων: δεν υπάρχει εποπτική αρχή, δεν υπάρχουν πρότυπα ασφαλείας, δεν υπάρχει κανένας να λογοδοτεί. Η ίδια αναφέρει ως αντιπαράδειγμα μια συνεργασία μεταξύ της βιβλιοθήκης Project Gutenberg και της Empathy AI, όπου παιδιά μπορούν να συνομιλούν με χαρακτήρες βιβλίων — αλλά το μοντέλο δεν βγαίνει ποτέ έξω από τα όρια της ιστορίας.
Η OpenAI δήλωσε στο New Scientist ότι «τα ανήλικα άτομα αξίζουν ισχυρή προστασία» και ότι δεν συνεργάζεται αυτή τη στιγμή με εταιρείες που κατασκευάζουν AI παιχνίδια για παιδιά. Η βρετανική κυβέρνηση δεν απάντησε στα σχετικά ερωτήματα. Εν τω μεταξύ, τα παιχνίδια πωλούνται ελεύθερα.
Το ζήτημα δεν είναι αν η τεχνητή νοημοσύνη έχει θέση στο παιδικό δωμάτιο — μάλλον έχει. Είναι αν η βιομηχανία θα αναγκαστεί επιτέλους να σταματήσει να τρέχει και να περιμένει τους κανόνες να την προλάβουν.