Deepfakes εκτός ελέγχου: Όταν η εικόνα σου ανήκει σε άλλους

Από Trantorian 1 Απριλίου 2026 1 λεπτό ανάγνωσης
Deepfakes εκτός ελέγχου: Όταν η εικόνα σου ανήκει σε άλλους

Τρία περιστατικά σε Νότια Κορέα, Ινδία και Αυστραλία αποκαλύπτουν πόσο εύκολα η τεχνολογία deepfake μπορεί να χρησιμοποιηθεί εναντίον δημόσιων προσώπων χωρίς τη συγκατάθεσή τους. Από ηθοποιούς έως βουλευτές και πρωθυπουργούς, κανείς δεν φαίνεται να είναι ασφαλής από την ψηφιακή παραποίηση της ταυτότητάς του.

Η τεχνολογία deepfake δεν είναι πια πρόβλημα του μέλλοντος. Είναι πρόβλημα αυτής της εβδομάδας, σε τρεις διαφορετικές χώρες, με τρία διαφορετικά θύματα που δεν είχαν ιδέα ότι η εικόνα τους κυκλοφορούσε στο διαδίκτυο χωρίς την άδειά τους.

Στη Νότια Κορέα, το πρακτορείο της ηθοποιού Yeom Hye-ran επιβεβαίωσε στα τέλη Μαρτίου ότι ένα βίντεο που δημιουργήθηκε με τεχνητή νοημοσύνη χρησιμοποίησε την εικόνα της χωρίς καμία προηγούμενη επικοινωνία ή συγκατάθεση. Το βίντεο, με τίτλο “Geomchimwon”, αναρτήθηκε στο YouTube και αποσύρθηκε μόνο αφού η εταιρεία αντέδρασε δημόσια. Η υπόθεση αναδεικνύει ένα νομικό κενό που αντιμετωπίζουν πολλές χώρες: η δημιουργία ρεαλιστικού AI περιεχομένου με πρόσωπο κάποιου δεν είναι πάντα ξεκάθαρα παράνομη, και η αφαίρεσή του εξαρτάται συχνά από την πίεση που ασκεί το θύμα.

Στην Ινδία, το ζήτημα πήρε πολιτικές διαστάσεις. Ο βουλευτής Shashi Tharoor κατήγγειλε deepfake βίντεο που τον παρουσίαζε να επαινεί την ομάδα κρίκετ του Πακιστάν — μια δήλωση που ποτέ δεν έκανε. Το παραποιημένο υλικό διαδόθηκε γρήγορα μέσα από ιστοσελίδες που ο ίδιος χαρακτήρισε «πακιστανικές πηγές παραπληροφόρησης», και η ασυμφωνία στην κίνηση των χειλιών ήταν ο μόνος ορατός δείκτης πλαστογραφίας. «Αν δεν το έχω αναρτήσει εγώ, μην το πιστεύετε», έγραψε στα μέσα κοινωνικής δικτύωσης — μια πρόταση που δείχνει πόσο πολύ έχει αλλάξει η σχέση μας με το ψηφιακό περιεχόμενο.

Στην Αυστραλία, ψεύτικα βίντεο της πρωθυπουργού της Βικτώριας Jacinta Allan κυκλοφόρησαν στα μέσα κοινωνικής δικτύωσης λίγους μήνες πριν από τις εκλογές του Νοεμβρίου. Αυτό που τα έκανε ιδιαίτερα επικίνδυνα δεν ήταν μόνο η ποιότητά τους — έμοιαζαν με αυθεντικές συνεντεύξεις Τύπου — αλλά και κάτι που οι ειδικοί γνωρίζουν εδώ και καιρό: ακόμη κι αν ένα deepfake αποδειχθεί ψεύτικο, η εντύπωση που αφήνει στον θεατή δεν σβήνεται εύκολα. Ο εγκέφαλος θυμάται εικόνες, όχι διορθώσεις.

Αυτά τα τρία περιστατικά δεν είναι απλώς μεμονωμένα συμβάντα. Είναι σύμπτωμα μιας τεχνολογίας που εξελίσσεται πολύ πιο γρήγορα από τους νόμους, τις πλατφόρμες και την κριτική ικανότητα του μέσου χρήστη. Τα εργαλεία δημιουργίας deepfake είναι πλέον προσβάσιμα σε οποιονδήποτε, το κόστος παραγωγής έχει μηδενιστεί, και η ανίχνευσή τους παραμένει ανεπαρκής. Οι πλατφόρμες αντιδρούν κυρίως μετά την καταγγελία, όχι πριν.

Το ερώτημα που μένει ανοιχτό δεν είναι αν τα deepfakes θα επηρεάσουν εκλογές ή θα καταστρέψουν φήμες — ήδη το κάνουν. Το ερώτημα είναι αν οι κοινωνίες θα αναπτύξουν αρκετά γρήγορα τα αντανακλαστικά — νομικά, τεχνολογικά και εκπαιδευτικά — για να περιορίσουν τη ζημιά.