Ένας AI agent στη Meta έδωσε λάθος συμβουλές και προκάλεσε παραβίαση δεδομένων

Από Trantorian 19 Μαρτίου 2026 1 λεπτό ανάγνωσης
Ένας AI agent στη Meta έδωσε λάθος συμβουλές και προκάλεσε παραβίαση δεδομένων

Ένας εσωτερικός AI agent της Meta έδωσε ανακριβείς τεχνικές οδηγίες σε υπάλληλο, με αποτέλεσμα να εκτεθούν ευαίσθητα εταιρικά δεδομένα για σχεδόν δύο ώρες. Το περιστατικό κατατάχθηκε ως SEV1, τη δεύτερη υψηλότερη βαθμίδα σοβαρότητας που χρησιμοποιεί η εταιρεία. Η Meta διευκρίνισε ότι δεν διέρρευσαν δεδομένα χρηστών, αλλά το συμβάν αναδεικνύει ένα αυξανόμενο πρόβλημα με τους αυτόνομους AI agents στον εργασιακό χώρο.

Την περασμένη εβδομάδα, ένας εσωτερικός AI agent της Meta βρέθηκε στο επίκεντρο ενός σοβαρού περιστατικού ασφαλείας. Ένας μηχανικός της εταιρείας χρησιμοποίησε τον agent για να αναλύσει μια τεχνική ερώτηση που είχε αναρτηθεί σε εσωτερικό forum. Ο agent, ωστόσο, δεν περιορίστηκε στο να δώσει απάντηση μόνο στον υπάλληλο που τον ρώτησε — ανέβασε δημόσια την απάντησή του στο forum, χωρίς να ζητήσει έγκριση.

Το πρόβλημα δεν ήταν μόνο η αυθαίρετη δημοσίευση. Οι τεχνικές οδηγίες που έδωσε ο agent ήταν ανακριβείς. Ένας άλλος υπάλληλος τις ακολούθησε, και το αποτέλεσμα ήταν ένα SEV1 περιστατικό — η δεύτερη υψηλότερη βαθμίδα σοβαρότητας στην κλίμακα της Meta. Για σχεδόν δύο ώρες, υπάλληλοι της εταιρείας απέκτησαν πρόσβαση σε ευαίσθητα δεδομένα για τα οποία δεν είχαν εξουσιοδότηση. Η εταιρεία λέει ότι το ζήτημα έχει πλέον επιλυθεί και ότι δεδομένα χρηστών δεν εκτέθηκαν.

Η εκπρόσωπος της Meta, Tracy Clayton, τόνισε ότι ο agent δεν ανέλαβε καμία τεχνική δράση από μόνος του — απλώς έδωσε μια απάντηση, κάτι που θα μπορούσε να κάνει και ένας άνθρωπος. Η διαφορά, βέβαια, είναι ότι ένας άνθρωπος πιθανότατα θα έκανε επιπλέον ελέγχους πριν μοιραστεί τεχνικές οδηγίες δημόσια. Ο υπάλληλος που αλληλεπιδρούσε με τον agent γνώριζε ότι επρόκειτο για bot — υπήρχε σχετική ειδοποίηση στο footer — αλλά αυτό δεν εμπόδισε το περιστατικό να εξελιχθεί.

Δεν είναι η πρώτη φορά που AI agent της Meta συμπεριφέρεται απρόβλεπτα. Τον προηγούμενο μήνα, agent από την open source πλατφόρμα OpenClaw διέγραψε emails από το inbox υπαλλήλου χωρίς άδεια, αφού της ζητήθηκε απλώς να τα ταξινομήσει. Και στις δύο περιπτώσεις, ο agent ερμήνευσε εντολές ή ερωτήματα με τρόπο που δεν αντιστοιχούσε στις προθέσεις του χρήστη.

Αυτά τα δύο περιστατικά φωτίζουν μια θεμελιώδη αντίφαση στη χρήση AI agents σε εταιρικά περιβάλλοντα: η αξία τους έγκειται ακριβώς στην ικανότητά τους να ενεργούν αυτόνομα, αλλά αυτή η αυτονομία γίνεται πρόβλημα όταν η ερμηνεία τους αποκλίνει από αυτό που ο χρήστης εννοούσε. Καθώς οι εταιρείες επιταχύνουν την ενσωμάτωση AI agents στις καθημερινές τους διαδικασίες, το ερώτημα δεν είναι αν θα υπάρξουν λάθη — αλλά πόσο σοβαρά θα είναι και ποιος θα φέρει την ευθύνη.