Η Anthropic εναντίον όλων: η εταιρεία που τόλμησε να πει «όχι» στο Πεντάγωνο

Από Trantorian 12 Μαρτίου 2026 1 λεπτό ανάγνωσης
Η Anthropic εναντίον όλων: η εταιρεία που τόλμησε να πει «όχι» στο Πεντάγωνο

Η Anthropic, ο δημιουργός του Claude, έχει αναδειχθεί στην κορυφή της τεχνητής νοημοσύνης — αλλά η άνοδός της συνοδεύτηκε από μια ιστορική σύγκρουση με την αμερικανική κυβέρνηση. Αρνούμενη να αποδεχθεί αυτόνομα θανατηφόρα όπλα και μαζική παρακολούθηση πολιτών, βρέθηκε να δικάζεται από τον ίδιο της τον πελάτη. Η υπόθεση θέτει ένα ερώτημα που δεν έχει ακόμα απάντηση: ποιος αποφασίζει τα όρια της πιο ισχυρής τεχνολογίας που έχει φτιάξει ποτέ ο άνθρωπος;

Τον Φεβρουάριο του 2025, πέντε μηχανικοί της Anthropic αναποδογύρισαν ένα κρεβάτι σε δωμάτιο ξενοδοχείου στη Σάντα Κλάρα για να φτιάξουν γραφείο. Είχαν μόλις μάθει ότι η νέα έκδοση του Claude, του AI συστήματος της εταιρείας, μπορούσε ενδεχομένως να βοηθήσει κάποιον να κατασκευάσει βιολογικά όπλα. Δούλεψαν για ώρες. Στο τέλος, η κυκλοφορία του μοντέλου καθυστέρησε δέκα μέρες. «Ήταν μια διασκεδαστική και ενδιαφέρουσα μέρα», θυμάται ο Logan Graham, επικεφαλής της ομάδας που εντοπίζει τους κινδύνους του Claude.

Αυτή η ατάραχη σοβαρότητα μπροστά στο χάος είναι ίσως η καλύτερη περιγραφή της Anthropic — μιας εταιρείας που έχει χτίσει την ταυτότητά της γύρω από μια παράδοξη πεποίθηση: ότι ο μόνος τρόπος να αναπτυχθεί η AI με ασφάλεια είναι να την αναπτύσσεις εσύ, πιο γρήγορα από τους άλλους, αλλά με περισσότερες ασφαλιστικές δικλείδες. Ο Dario Amodei και η αδερφή του Daniela ίδρυσαν την εταιρεία το 2021 αφού αποχώρησαν από την OpenAI, πεπεισμένοι ότι ο Sam Altman έσπρωχνε προϊόντα στην αγορά χωρίς αρκετή σκέψη για τις συνέπειες.

Σήμερα, η Anthropic αξίζει 380 δισεκατομμύρια δολάρια — περισσότερο από τη Goldman Sachs και τα McDonald’s μαζί. Το Claude Code, ο AI βοηθός προγραμματισμού που κυκλοφόρησε στις αρχές του 2025, έφτασε σε ετήσια έσοδα 2,5 δισεκατομμυρίων δολαρίων μέσα σε λίγους μήνες. Κάθε νέα κυκλοφορία προϊόντος προκαλεί σεισμό στις αγορές: όταν η Anthropic παρουσίασε εργαλεία για νομικές και χρηματοοικονομικές υπηρεσίες, 300 δισεκατομμύρια δολάρια εξαφανίστηκαν από την αξία εταιρειών λογισμικού σε μία μέρα.

Αλλά η μεγαλύτερη δοκιμασία δεν ήρθε από την αγορά. Ήρθε από την Ουάσινγκτον. Το Claude ήταν ήδη το AI μοντέλο επιλογής του αμερικανικού στρατού — το πρώτο σύστημα αιχμής που αποκτά πρόσβαση σε διαβαθμισμένες πληροφορίες. Τον Ιανουάριο του 2026, χρησιμοποιήθηκε στην επιχείρηση σύλληψης του Βενεζουελάνου προέδρου Nicolás Maduro. Λίγες εβδομάδες αργότερα, το Πεντάγωνο ζήτησε από την Anthropic να αναδιαπραγματευτεί τη σύμβασή τους ώστε να επιτρέπει «κάθε νόμιμη χρήση». Ο Amodei αρνήθηκε να υποχωρήσει σε δύο σημεία: δεν ήθελε το Claude να χρησιμοποιείται σε πλήρως αυτόνομα θανατηφόρα συστήματα, ούτε για μαζική παρακολούθηση Αμερικανών πολιτών μέσω εμπορικά διαθέσιμων δεδομένων.

Η απάντηση της κυβέρνησης ήταν να χαρακτηρίσει την Anthropic «κίνδυνο για την εφοδιαστική αλυσίδα εθνικής ασφάλειας» — για πρώτη φορά στην ιστορία, μια αμερικανική εταιρεία έπαιρνε αυτή την ταμπέλα από τη δική της κυβέρνηση. Ο Trump έγραψε στα social media ότι «τρελοί αριστεροί» δεν θα υπαγορεύουν πώς πολεμά ο αμερικανικός στρατός. Η OpenAI υπέγραψε αμέσως τη σύμβαση που η Anthropic αρνήθηκε.

Η ειρωνεία είναι πολυεπίπεδη. Η εταιρεία που έχει προειδοποιήσει δημόσια για τους κινδύνους της AI — από την εκτόπιση εργαζομένων έως την απώλεια ανθρώπινου ελέγχου — είναι η ίδια που επιταχύνει την ανάπτυξη ισχυρότερων μοντέλων χρησιμοποιώντας το Claude για να γράφει τον κώδικα των επόμενων εκδόσεών του. Το 70% έως 90% του κώδικα για τα νέα μοντέλα γράφεται πλέον από AI. Ορισμένοι στελέχη πιστεύουν ότι η πλήρης αυτοματοποίηση της AI έρευνας απέχει λιγότερο από ένα χρόνο. «Οδηγούμε σε δρόμο δίπλα σε γκρεμό», λέει ο Dave Orr, επικεφαλής ασφάλειας της εταιρείας. «Ένα λάθος σε σκοτώνει. Και τώρα οδηγούμε στα 120 αντί για τα 40».

Η Anthropic έχει κατατεθεί αγωγή κατά της κυβέρνησης για να ανατρέψει τον χαρακτηρισμό. Την επόμενη μέρα από την ανακοίνωση, η εφαρμογή Claude ανέβηκε στο Νο. 1 του App Store. Πάνω από ένα εκατ