Μηχανές που φτιάχνουν μηχανές: το Silicon Valley στροβιλίζεται γύρω από ένα όνειρο — ή εφιάλτη

Από Trantorian 4 Απριλίου 2026 1 λεπτό ανάγνωσης
Μηχανές που φτιάχνουν μηχανές: το Silicon Valley στροβιλίζεται γύρω από ένα όνειρο — ή εφιάλτη

Οι μεγαλύτερες εταιρείες τεχνητής νοημοσύνης ανακοινώνουν ανοιχτά ότι χρησιμοποιούν AI για να αναπτύξουν ακόμα πιο ισχυρό AI. Το ερώτημα δεν είναι πλέον αν αυτό είναι εφικτό, αλλά πόσο γρήγορα θα συμβεί — και αν κάποιος θα μπορεί να το ελέγξει.

Στα τέλη του περασμένου μήνα, ένα πλήθος διαδηλωτών κατέκλυσε το κέντρο του Σαν Φρανσίσκο με πανό που έγραφαν “Stop the AI Race” και “Don’t Build Skynet”. Σταμάτησαν έξω από τα γραφεία της Anthropic, της OpenAI και της xAI με ένα κεντρικό αίτημα: να σταματήσει η ανάπτυξη AI που μπορεί να δημιουργεί νέο, ακόμα ισχυρότερο AI. Αυτό που φοβούνται δεν είναι ένα chatbot που γράφει κακά ποιήματα — είναι μηχανές που βελτιώνουν τον εαυτό τους χωρίς ανθρώπινη εποπτεία.

Η ιδέα της αυτο-βελτιούμενης τεχνητής νοημοσύνης δεν είναι καινούρια. Ο στατιστικολόγος I. J. Good την είχε διατυπώσει ήδη από τη δεκαετία του 1960, αποκαλώντας την “την τελευταία εφεύρεση που θα χρειαστεί ποτέ η ανθρωπότητα”. Για δεκαετίες παρέμενε θεωρητική. Μέχρι πρόσφατα, όταν τα μεγάλα γλωσσικά μοντέλα δυσκολεύονταν ακόμα και με απλές αριθμητικές πράξεις, η ιδέα ότι θα μπορούσαν να κάνουν αυτόνομη επιστημονική έρευνα φαινόταν γελοία. Τώρα, η συζήτηση έχει αλλάξει τόνο.

Η OpenAI ανακοίνωσε πρόσφατα ένα νέο μοντέλο που περιέγραψε ως “καθοριστικό στη δημιουργία του εαυτού του”. Στόχος της εταιρείας είναι να παρουσιάσει εντός έξι μηνών έναν “AI βοηθό έρευνας σε επίπεδο ασκούμενου”. Η Anthropic, από την πλευρά της, ισχυρίζεται ότι το 90% του κώδικά της γράφεται πλέον από το Claude. Η Google DeepMind ανέπτυξε έναν AI agent, τον AlphaEvolve, που κατάφερε να βελτιώσει την ενεργειακή απόδοση των data centers της εταιρείας κατά 0,7% και να μειώσει τον χρόνο εκπαίδευσης του Gemini κατά 1%. Είναι μικρά νούμερα, αλλά σε κλίμακα παγκόσμιας υποδομής, δεν είναι αμελητέα.

Το πρόβλημα είναι ότι αυτά που γνωρίζουμε είναι ελάχιστα. Οι εταιρείες μοιράζονται επιλεκτικά πληροφορίες για το πόσο έχουν αυτοματοποιήσει την εσωτερική τους έρευνα. Όταν η Anthropic λέει ότι το Claude γράφει σχεδόν όλο τον κώδικά της, δεν ξέρουμε πόση ανθρώπινη εποπτεία απαιτείται. Η διαφορά ανάμεσα σε “AI που βοηθά ανθρώπους να γράφουν κώδικα” και “AI που αναπτύσσει αυτόνομα νέο AI” είναι τεράστια — και αυτή τη στιγμή βρισκόμαστε κάπου στη μέση.

Ο Sam Altman έχει δηλώσει ότι μέχρι το 2028 η OpenAI σχεδιάζει να έχει αναπτύξει έναν πλήρως αυτοματοποιημένο AI ερευνητή. Ερευνητές όπως ο Eli Lifland του AI Futures Project εκτιμούν ότι η πλήρης αυτοματοποίηση της AI έρευνας θα μπορούσε να συμβεί μέχρι το 2032. Υπάρχουν, βέβαια, λόγοι σκεπτικισμού: η διαθεσιμότητα chips, ενέργειας και χρηματοδότησης μπορεί να φρενάρει την πρόοδο ανά πάσα στιγμή. Και η ανάπτυξη AI με πραγματική ερευνητική κρίση — αυτό που οι insiders αποκαλούν “research taste” — ίσως απαιτεί κάποια ριζική τεχνολογική ανακάλυψη που δεν έχει γίνει ακόμα. “Ένα bot μπορεί να βελτιστοποιεί πράγματα, αλλά δεν έχει κάτι για να βελτιστοποιεί”, είπε ο Pushmeet Kohli της DeepMind. “Εκεί μπαίνει ο άνθρωπος.”

Αυτό που είναι σχεδόν βέβαιο είναι ότι ακόμα και οι μερικές βελτιώσεις στην αυτοματοποίηση της έρευνας θα επιταχύνουν τον ρυθμό ανάπτυξης του AI. Κυβερνήσεις και θεσμοί ήδη υστερούν — η αμερικανική εφορία εξακολουθεί να επεξεργάζεται φορολογικές δηλώσεις με COBOL, γλώσσα προγραμματισμού του 1960. Αν το AI αρχίσει να αναπτύσσεται ακόμα πιο γρήγορα, η δημόσια πολιτική και η ρύθμιση της ασφάλειας έχουν ακόμα λιγότερες πιθανότητες να κρατήσουν τον ρυθμό. Ο Nick Bostrom, ο φιλόσοφος που μελετά τους κινδύνους του AI, το έθεσε με αφοπλιστική ειλικρίνεια: κάποτε αυτοαποκαλούνταν “ανήσυχος αισιόδοξος”. Τώρα λέει ότι είναι “μετριοπαθής φαταλιστής”.