Η OpenAI ανακοίνωσε τον νέο της μεγάλο στόχο: ένα πλήρως αυτοματοποιημένο σύστημα AI που θα μπορεί να διεξάγει επιστημονική έρευνα χωρίς ανθρώπινη καθοδήγηση. Ο επικεφαλής επιστήμονας Jakub Pachocki μιλά για «εικονικό ερευνητικό εργαστήριο μέσα σε ένα data center» — και δίνει συγκεκριμένες ημερομηνίες. Το ερώτημα δεν είναι πλέον αν θα γίνει, αλλά τι σημαίνει αν γίνει.
Η OpenAI έχει συνηθίσει να θέτει την ατζέντα. Από τα πρώτα μεγάλα γλωσσικά μοντέλα που άλλαξαν τον τρόπο που εκατοντάδες εκατομμύρια άνθρωποι αλληλεπιδρούν με την τεχνολογία, μέχρι τα reasoning models που σήμερα τροφοδοτούν σχεδόν κάθε chatbot και agent-based σύστημα — η εταιρεία από το Σαν Φρανσίσκο έχει επανειλημμένα ορίσει τι σημαίνει «επόμενο βήμα» στην τεχνητή νοημοσύνη. Τώρα ανακοινώνει το πιο φιλόδοξο βήμα της ως τώρα: ένα πλήρως αυτοματοποιημένο σύστημα AI που θα μπορεί να αναλαμβάνει και να ολοκληρώνει σύνθετα ερευνητικά προβλήματα από μόνο του.
Ο Jakub Pachocki, επικεφαλής επιστήμονας της OpenAI και ένας από τους βασικούς αρχιτέκτονες τόσο του GPT-4 όσο και των reasoning models, περιγράφει αυτόν τον στόχο ως τον «Βορρά» της εταιρείας για τα επόμενα χρόνια. «Νομίζω ότι πλησιάζουμε σε ένα σημείο όπου θα έχουμε μοντέλα ικανά να εργάζονται επ’ αόριστον με συνοχή, όπως κάνουν οι άνθρωποι», λέει. «Φυσικά, θέλεις ακόμα ανθρώπους να ορίζουν τους στόχους. Αλλά νομίζω ότι θα φτάσουμε σε ένα σημείο όπου θα έχεις ένα ολόκληρο ερευνητικό εργαστήριο μέσα σε ένα data center.»
Το χρονοδιάγραμμα είναι συγκεκριμένο. Ως τον Σεπτέμβριο, η OpenAI σχεδιάζει να παρουσιάσει έναν «αυτόνομο AI ερευνητικό πρακτικάσκητη» — ένα σύστημα που μπορεί να αναλάβει μικρό αριθμό συγκεκριμένων ερευνητικών προβλημάτων χωρίς ανθρώπινη παρέμβαση. Αυτό θα είναι το πρελούδιο για ένα πλήρες multi-agent ερευνητικό σύστημα που η εταιρεία σχεδιάζει να κυκλοφορήσει το 2028 — ένα σύστημα ικανό να αντιμετωπίσει προβλήματα που είναι πολύ μεγάλα ή πολύ σύνθετα για τον ανθρώπινο νου.
Το Codex, το agent-based εργαλείο που κυκλοφόρησε η OpenAI τον Ιανουάριο και μπορεί να γράφει και να εκτελεί κώδικα αυτόνομα, είναι ήδη μια πρώιμη έκδοση αυτής της ιδέας. Ο Pachocki λέει ότι η πλειονότητα του τεχνικού προσωπικού της OpenAI το χρησιμοποιεί καθημερινά. Ο ίδιος, που μέχρι πρόσφατα προτιμούσε να γράφει κώδικα χειροκίνητα στο vim — τον αγαπημένο editor των hardcore προγραμματιστών — παραδέχεται ότι άλλαξε γνώμη όταν είδε τι μπορούν τα νέα μοντέλα. «Μπορώ να τρέξω πειράματα σε ένα Σαββατοκύριακο που παλιά θα μου έπαιρναν μια εβδομάδα να κωδικοποιήσω», λέει.
Η τεχνική λογική πίσω από αυτή τη φιλοδοξία δεν είναι άλματα στο άγνωστο, αλλά επέκταση αυτού που ήδη δουλεύει. Τα reasoning models — μοντέλα εκπαιδευμένα να δουλεύουν βήμα-βήμα, να κάνουν πίσω όταν κολλάνε και να διαχειρίζονται πολλαπλές υποεργασίες ταυτόχρονα — έχουν ήδη αποδείξει ότι μπορούν να εργάζονται για μεγαλύτερα χρονικά διαστήματα χωρίς ανθρώπινη καθοδήγηση. Ερευνητές έχουν ήδη χρησιμοποιήσει το GPT-5 για να βρουν νέες λύσεις σε άλυτα μαθηματικά προβλήματα και να ξεπεράσουν αδιέξοδα σε βιολογία, χημεία και φυσική.
Ωστόσο, η φιλοδοξία έρχεται με ερωτήματα που δεν έχουν ακόμα απάντηση. Ο Doug Downey, ερευνητής στο Allen Institute for AI, επισημαίνει ότι η αλυσίδα σφαλμάτων είναι ένα πραγματικό πρόβλημα: όσο περισσότερες εργασίες πρέπει να συνδεθούν διαδοχικά, τόσο μεγαλύτερη η πιθανότητα να πάει κάτι στραβά. Και ο Pachocki ο ίδιος δεν αποφεύγει τα δύσκολα ερωτήματα. Τι γίνεται αν ένα σύστημα που μπορεί να «τρέξει» ένα ολόκληρο ερευνητικό πρόγραμμα παρεκκλίνει από τις οδηγίες του; Τι γίνεται αν χακαριστεί; Τι γίνεται αν απλώς παρεξηγήσει τι του ζητήθηκε;
Η απάντηση της OpenAI προς το παρόν είναι το chain-of-thought monitoring — η εκπαίδ