Γιατί η τεχνητή νοημοσύνη δεν μπορεί να γράψει σαν άνθρωπος

Από Trantorian 18 Μαρτίου 2026 1 λεπτό ανάγνωσης
Γιατί η τεχνητή νοημοσύνη δεν μπορεί να γράψει σαν άνθρωπος

Τα μεγάλα γλωσσικά μοντέλα μπορούν να προβλέψουν δομές πρωτεϊνών και να κωδικοποιήσουν εφαρμογές από μηδέν, αλλά αδυνατούν να παράγουν ένα δοκίμιο που να αξίζει να διαβαστεί. Η αιτία δεν είναι τεχνική αδυναμία — είναι ο ίδιος ο τρόπος που εκπαιδεύονται αυτά τα συστήματα, που τα κάνει υπάκουα και προβλέψιμα εκεί που η καλή γραφή απαιτεί ακριβώς το αντίθετο.

Υπάρχει μια παράδοξη αλήθεια στην ιστορία της τεχνητής νοημοσύνης: το GPT-2, το μοντέλο που κυκλοφόρησε πριν από επτά χρόνια και φαινόταν πρωτόγονο σε σύγκριση με τα σημερινά συστήματα, ήταν με κάποιον τρόπο πιο δημιουργικό. Έπαιρνε απρόβλεπτες στροφές, έσπαγε τις προσδοκίες, έκανε πράγματα που κανείς δεν περίμενε. Τα σημερινά μοντέλα, παρά την τεράστια τεχνολογική τους υπεροχή, έχουν χάσει αυτή την ιδιότητα. Έχουν γίνει καλύτεροι μαθητές — και χειρότεροι συγγραφείς.

Ο Sam Altman, CEO της OpenAI, έχει πει ότι τα μελλοντικά μοντέλα θα μπορούν να «διορθώσουν το κλίμα» και να «ανακαλύψουν όλη τη φυσική». Αλλά ακόμα και ο ίδιος παραδέχεται ότι ένα GPT-6 ή GPT-7 θα παράγει στην καλύτερη περίπτωση «το εντάξει ποίημα ενός πραγματικού ποιητή». Αυτή η ειλικρίνεια είναι αποκαλυπτική. Τα chatbots γεμίζουν τα κείμενά τους με κενές μεταφορές, επαναλαμβανόμενες κατασκευές τύπου «δεν είναι αυτό, αλλά εκείνο» και έναν τόνο που θυμίζει υπάλληλο που προσπαθεί να ευχαριστήσει τον προϊστάμενό του.

Η εξήγηση βρίσκεται στον τρόπο που κατασκευάζονται αυτά τα συστήματα. Στο πρώτο στάδιο εκπαίδευσης, τα μοντέλα καταπίνουν ό,τι υπάρχει στο διαδίκτυο — από Reddit και YouTube μέχρι SEO κείμενα χαμηλής ποιότητας. Μαθαίνουν γραμματική και συσχετισμούς λέξεων, αλλά η ποιότητα δεν είναι το ζητούμενο. Στο δεύτερο στάδιο, οι «τραχιές γωνίες» λειαίνονται: τα μοντέλα εκπαιδεύονται να είναι χρήσιμα, ασφαλή, ουδέτερα. Άνθρωποι βαθμολογούν τις απαντήσεις τους βάσει ρουμπρικών — και εκεί αρχίζουν τα προβλήματα. Πώς μετράς τον «τόνο»; Με τον αριθμό των θαυμαστικών; Ακριβώς αυτό έκαναν κάποιες εταιρείες.

Η τέχνη αντιστέκεται στους κανόνες και στην ποσοτικοποίηση. Δεν υπάρχει αντικειμενική μέτρηση που να αποδεικνύει ότι ο Νερούδα είναι καλύτερος από τη Μιστράλ. Οι αρχάριοι συγγραφείς μαθαίνουν συμβάσεις — οι μεγάλοι τις εφευρίσκουν. Ένα σονέτο του Σαίξπηρ έχει 14 στίχους και ιαμβικό πεντάμετρο, αλλά αυτό δεν το κάνει μεγάλο. Αυτό που το κάνει μεγάλο είναι ακριβώς ο τρόπος που ο Σαίξπηρ παραβιάζει τους κανόνες που μόλις έθεσε. Κανένα μοντέλο εκπαιδευμένο να ακολουθεί ρουμπρίκες δεν μπορεί να αναπαράγει αυτή τη διαδικασία.

Υπάρχει και κάτι βαθύτερο. Η φωνή ενός συγγραφέα δεν είναι τεχνική δεξιότητα — είναι το άθροισμα μιας ζωής. Οι καλύτερες μεταφορές προκύπτουν από συγκεκριμένες εμπειρίες, από πράγματα που έχεις δει, μυρίσει, χάσει. Τα γλωσσικά μοντέλα δεν ζουν, δεν αισθάνονται, δεν πεθαίνουν. Δεν μπορούν να βάλουν αφηρημένες έννοιες σε σωματικό πλαίσιο. Αποφεύγουν συστηματικά το αίμα, τον έρωτα, τον θάνατο — ακόμα και μεταφορικά. Τα κείμενά τους δεν έχουν διακυβεύματα.

Αυτό δεν σημαίνει ότι η τεχνητή νοημοσύνη είναι άχρηστη για τη γραφή. Μπορεί να λειτουργήσει ως editor — να επισημαίνει αδυναμίες, να προτείνει αναδιατυπώσεις, να βοηθά τον συγγραφέα να γίνει καλύτερη εκδοχή του εαυτού του. Η διαφορά είναι κρίσιμη: το εργαλείο υπηρετεί την ανθρώπινη φωνή, δεν την αντικαθιστά. Ίσως αυτός να είναι και ο πιο ειλικρινής ρόλος που μπορεί να παίξει η τεχνητή νοημοσύνη στη λογοτεχνία — όχι ως δημιουργός, αλλά ως καθρέφτης που σε βοηθά να δεις τι ήθελες να πεις από την αρχή.