Τα γλωσσικά μοντέλα τεχνητής νοημοσύνης μπορούν πλέον να παράγουν χιλιάδες πειστικές ψεύτικες ειδήσεις σε λίγα λεπτά, με ελάχιστη ανθρώπινη παρέμβαση. Έρευνες δείχνουν ότι οι περισσότεροι άνθρωποι αδυνατούν να ξεχωρίσουν το AI-generated περιεχόμενο από το αληθινό. Το 2024 αναμένεται να είναι η πρώτη εκλογική χρονιά όπου η παραπληροφόρηση από AI θα παίξει κεντρικό ρόλο σε πολιτικές εκστρατείες.
Πριν ακόμα κυκλοφορήσει το ChatGPT, ερευνητές του Πανεπιστημίου του Cambridge είχαν ήδη αρχίσει να αναρωτιούνται: μπορεί ένα νευρωνικό δίκτυο να παράγει παραπληροφόρηση; Εκπαίδευσαν τον GPT-2, τον προκάτοχο του ChatGPT, σε δημοφιλείς θεωρίες συνωμοσίας και του ζήτησαν να γράψει ψεύτικες ειδήσεις. Το αποτέλεσμα ήταν χιλιάδες παραπλανητικές αλλά απολύτως πειστικές ιστορίες — από ισχυρισμούς για επικίνδυνες χημικές ουσίες σε εμβόλια μέχρι κατηγορίες για χειραγώγηση χρηματιστηρίου από κυβερνητικούς αξιωματούχους.
Για να μετρήσουν πόσο ευάλωτοι είναι οι άνθρωποι σε αυτό το είδος περιεχομένου, οι ερευνητές ανέπτυξαν ένα ψυχομετρικό εργαλείο που ονόμασαν Misinformation Susceptibility Test. Σε συνεργασία με τη YouGov, το εφάρμοσαν σε δείγμα Αμερικανών πολιτών. Τα αποτελέσματα ήταν ανησυχητικά: το 41% πίστεψε τον ισχυρισμό για τα εμβόλια, ενώ το 46% θεώρησε αληθινή την ιστορία για τη χειραγώγηση του χρηματιστηρίου. Μια άλλη μελέτη, δημοσιευμένη στο επιστημονικό περιοδικό Science, έδειξε ότι ο GPT-3 παράγει πιο πειστική παραπληροφόρηση από τους ανθρώπους — και ότι οι περισσότεροι αδυνατούν να κάνουν τη διάκριση.
Αυτό που κάποτε απαιτούσε ολόκληρα «εργοστάσια τρολ» και σημαντικούς πόρους, σήμερα είναι προσβάσιμο σε οποιονδήποτε έχει πρόσβαση σε ένα chatbot. Η AI έχει ουσιαστικά εκδημοκρατίσει τη δημιουργία παραπληροφόρησης. Κάποιος μπορεί να «τροφοδοτήσει» ένα μοντέλο με ένα θέμα — μετανάστευση, κλιματική αλλαγή, LGBTQ+ ζητήματα — και σε λίγα λεπτά να έχει δεκάδες πειστικές ψεύτικες ειδήσεις έτοιμες για διανομή. Ήδη εκατοντάδες ιστότοποι με AI-generated περιεχόμενο έχουν εμφανιστεί, διαδίδοντας ψευδείς ιστορίες και βίντεο.
Τα παραδείγματα από την πολιτική σκηνή είναι ήδη εδώ. Τον Μάιο του 2023, μια ψεύτικη είδηση για έκρηξη κοντά στο Πεντάγωνο — συνοδευόμενη από AI-generated εικόνα — προκάλεσε πανικό και προσωρινή πτώση στο χρηματιστήριο. Ο Ρεπουμπλικανός υποψήφιος Ρον ΝτεΣάντις χρησιμοποίησε ψεύτικες φωτογραφίες που απεικόνιζαν τον Ντόναλντ Τραμπ να αγκαλιάζει τον Άντονι Φάουτσι. Ερευνητές από το Πανεπιστήμιο του Άμστερνταμ δημιούργησαν deepfake βίντεο πολιτικού που προσέβαλε τη θρησκευτική του ψηφοφόρο βάση — και διαπίστωσαν ότι όσοι το είδαν ανέπτυξαν πιο αρνητική στάση απέναντί του σε σχέση με την ομάδα ελέγχου.
Το ερώτημα δεν είναι πλέον αν η AI θα χρησιμοποιηθεί για να επηρεάσει εκλογές, αλλά σε ποια έκταση. Deepfakes, κλωνοποίηση φωνής, χειραγώγηση ταυτότητας και μαζική παραγωγή ψεύτικων ειδήσεων αποτελούν πλέον εργαλεία που βρίσκονται στα χέρια οποιουδήποτε θέλει να τα χρησιμοποιήσει. Αν οι κυβερνήσεις δεν θεσπίσουν σαφείς κανόνες — ή και απαγορεύσεις — για τη χρήση AI σε πολιτικές εκστρατείες, η δημοκρατία θα βρεθεί αντιμέτωπη με έναν αντίπαλο που δεν κουράζεται, δεν κοστίζει και δεν αφήνει ίχνη.