Το AI που μπορεί να αλλάξει για πάντα τον πόλεμο στον κυβερνοχώρο

Από Trantorian 3 Απριλίου 2026 1 λεπτό ανάγνωσης
Το AI που μπορεί να αλλάξει για πάντα τον πόλεμο στον κυβερνοχώρο

Το επόμενο μοντέλο της Anthropic, με κωδικό όνομα Mythos, περιγράφεται ως το πιο ικανό AI σύστημα στον τομέα της κυβερνοασφάλειας που έχει κυκλοφορήσει ποτέ. Η διαρροή ενός αδημοσίευτου blog post της εταιρείας αποκάλυψε ότι το μοντέλο μπορεί να εκμεταλλεύεται ευπάθειες σε ρυθμούς που ξεπερνούν κατά πολύ τις δυνατότητες των ανθρώπινων χάκερ. Και αυτό είναι μόνο η αρχή.

Στον κόσμο της κυβερνοασφάλειας, υπάρχουν γεγονότα που αλλάζουν τους κανόνες του παιχνιδιού. Η εμφάνιση του Mythos, του επόμενου μοντέλου της Anthropic, φαίνεται να είναι ένα από αυτά. Σύμφωνα με αδημοσίευτο blog post της εταιρείας που διέρρευσε στο διαδίκτυο, το μοντέλο αυτό μπορεί να εντοπίζει και να εκμεταλλεύεται ευπάθειες λογισμικού με ταχύτητα και κλίμακα που δεν έχουμε ξαναδεί. «Αν και το Mythos βρίσκεται αυτή τη στιγμή πολύ μπροστά από οποιοδήποτε άλλο AI μοντέλο σε κυβερνοδυνατότητες, προαναγγέλλει ένα επερχόμενο κύμα μοντέλων που μπορούν να εκμεταλλευτούν ευπάθειες με τρόπους που ξεπερνούν κατά πολύ τις προσπάθειες των αμυνόμενων», έγραφε το κείμενο.

Αυτό που κάνει την απειλή ιδιαίτερα σοβαρή δεν είναι μόνο η ισχύς του μοντέλου, αλλά η εμφάνιση των λεγόμενων AI agents — συστημάτων που δεν απλώς απαντούν σε ερωτήσεις, αλλά εκτελούν αυτόνομα σύνθετες αλληλουχίες ενεργειών. Ένας τέτοιος agent θα μπορούσε να σαρώνει συνεχώς δίκτυα για αδυναμίες, να αναπτύσσει κώδικα εκμετάλλευσης και να εξαπολύει επιθέσεις χωρίς ανθρώπινη παρέμβαση — και να το κάνει αυτό ταυτόχρονα σε εκατοντάδες στόχους. «Οι agentic επιτιθέμενοι έρχονται», λέει ο Shlomo Kramer, ιδρυτής και CEO της Cato Networks. «Αυτό είναι ένα ορόσημο στην ιστορία της κυβερνοασφάλειας».

Δεν είναι μόνο η Anthropic που χτυπά το καμπανάκι. Τον Δεκέμβριο, η OpenAI προειδοποίησε ότι τα επόμενα μοντέλα της ενέχουν «υψηλό» κίνδυνο για την κυβερνοασφάλεια. Και πίσω από το Mythos έρχονται τα επόμενα μοντέλα της OpenAI, της Google, και ανοιχτού κώδικα κινεζικά συστήματα. Η τεχνολογία δεν περιμένει κανέναν. Ήδη τον Ιανουάριο, ένας Ρωσόφωνος χάκερ χρησιμοποίησε συνδυασμό AI εργαλείων — ανάμεσά τους το Claude της Anthropic και το κινεζικό DeepSeek — για να παραβιάσει πάνω από 600 συσκευές σε 55 χώρες. Σύμφωνα με την ομάδα ασφαλείας της Amazon Web Services, ο χάκερ είχε περιορισμένες τεχνικές γνώσεις, αλλά το AI του έδωσε δυνατότητες που κανονικά απαιτούν εξειδικευμένη ομάδα.

Υπάρχουν, βέβαια, όρια. Τα σημερινά μοντέλα είναι ικανά να ερευνούν ευπάθειες και να γράφουν κώδικα εκμετάλλευσης, αλλά δεν έχουν την ανθρώπινη κρίση για να καταλάβουν ποιο είναι το πιο πολύτιμο στοιχείο ενός οργανισμού που αξίζει να κλαπεί. Ο ανθρώπινος παράγοντας παραμένει κρίσιμος — τουλάχιστον προς το παρόν. «Πρέπει να διασφαλίσουμε ότι χτίζουμε συστήματα όπου οι άνθρωποι παραμένουν σταθερά υπεύθυνοι για τις αποφάσεις και τα αποτελέσματα», λέει ο Joe Lin, συνιδρυτής της Twenty, εταιρείας που πουλά επιθετικές κυβερνοδυνατότητες στην αμερικανική κυβέρνηση.

Το παράδοξο είναι ότι το ίδιο AI που ενισχύει τους επιτιθέμενους μπορεί να ενισχύσει και τους αμυνόμενους — με συνεχή παρακολούθηση, ταχύτερο εντοπισμό απειλών και αυτοματοποιημένη επιδιόρθωση σε κλίμακα που καμία ανθρώπινη ομάδα δεν μπορεί να φτάσει. Το πρόβλημα είναι ότι οι επιτιθέμενοι χρειάζονται να βρουν μόνο μία τρύπα, ενώ οι αμυνόμενοι πρέπει να καλύψουν τα πάντα. Όπως το θέτει ο Kramer: «Πρέπει να τρέχεις όσο πιο γρήγορα μπορείς για να μείνεις στην ίδια θέση».