Το AI δεν είναι ουδέτερο — και ένα ντοκιμαντέρ εξηγεί γιατί

Από Trantorian 22 Μαρτίου 2026 1 λεπτό ανάγνωσης
Το AI δεν είναι ουδέτερο — και ένα ντοκιμαντέρ εξηγεί γιατί

Η σκηνοθέτης Valerie Veatch ξεκίνησε να πειραματίζεται με το Sora της OpenAI και κατέληξε να γυρίζει ένα ντοκιμαντέρ για τις ευγονικές ρίζες της τεχνητής νοημοσύνης. Το Ghost in the Machine ιχνηλατεί μια ευθεία γραμμή από τη βικτοριανή ψευδοεπιστήμη του Francis Galton μέχρι τα σύγχρονα γενετικά μοντέλα AI — και εξηγεί γιατί αυτά τα συστήματα αναπαράγουν ρατσισμό και σεξισμό χωρίς να χρειαστεί κανείς να τα ζητήσει.

Όταν η Valerie Veatch άρχισε να παίζει με το Sora, το text-to-video εργαλείο της OpenAI, δεν περίμενε να βρεθεί να ερευνά τη σχέση μεταξύ τεχνητής νοημοσύνης και ευγονικής. Η σκηνοθέτης είχε ενταχθεί σε μια online κοινότητα καλλιτεχνών που πειραματίζονταν με το νέο εργαλείο, ελπίζοντας να συνδεθεί με ανθρώπους που μοιράζονταν την ίδια περιέργεια. Αυτό που βρήκε ήταν κάτι πολύ διαφορετικό: εικόνες φορτωμένες με ρατσισμό και σεξισμό, που εμφανίζονταν χωρίς κανείς να τις ζητήσει ρητά — και μια κοινότητα που αδιαφορούσε παντελώς.

Η στιγμή που την έκανε να καταλάβει ότι κάτι βαθύτερο συνέβαινε ήταν όταν μια γυναίκα χρώματος στο ίδιο Slack group παρατήρησε ότι το Sora τη λεύκαινε κάθε φορά που ζητούσε να τη δει σε μια γκαλερί τέχνης. Το μοντέλο κρατούσε τα πλεξούδες της και τα ρούχα της, αλλά αντιλαμβανόταν τον χώρο της τέχνης ως «λευκό χώρο» και ανάλογα προσάρμοζε το πρόσωπό της. Η Veatch προσπάθησε να θέσει το ζήτημα στην ομάδα. Κανείς δεν απάντησε — σε ένα Slack που συνήθως πλημμύριζε από emoji σε κάθε ανάρτηση.

Αυτή η εμπειρία οδήγησε στο Ghost in the Machine, ένα ντοκιμαντέρ που δεν ασχολείται με το τι υπόσχεται το AI για το μέλλον, αλλά με το πού ακριβώς γεννήθηκε. Η Veatch ιχνηλατεί μια γραμμή που ξεκινά από τον Francis Galton — ξάδερφο του Δαρβίνου και ιδρυτή της ευγονικής — και φτάνει μέχρι τα σύγχρονα γενετικά μοντέλα. Ο Galton δεν έφτιαξε υπολογιστές, αλλά η δουλειά του με πολυδιάστατα στατιστικά μοντέλα — που χρησιμοποιούσε για να «μετρήσει» την ελκυστικότητα γυναικών διαφορετικών φυλών — επηρέασε βαθιά τον μαθητή του Karl Pearson. Ο Pearson ανέπτυξε εργαλεία όπως η λογιστική παλινδρόμηση, που αποτελεί έναν από τους θεμελιώδεις πυλώνες της σύγχρονης μηχανικής μάθησης.

«Δεν χρειάζεται να ψάξεις πολύ», λέει η Veatch, «πριν χτυπήσεις κατευθείαν στην επιστήμη των φυλών, γιατί είναι ενσωματωμένη σε αυτή την τεχνολογία». Το επιχείρημα του ντοκιμαντέρ δεν είναι ότι οι μηχανικοί της OpenAI είναι ρατσιστές. Είναι κάτι πιο ανησυχητικό: ότι τα εργαλεία που χρησιμοποιούν κληρονόμησαν μια κοσμοθεωρία που θεωρούσε τις ανθρώπινες διαφορές μετρήσιμες, ποσοτικοποιήσιμες και ιεραρχημένες. Και ότι αυτή η κληρονομιά εξηγεί γιατί οι εταιρείες φαίνονται τόσο απρόθυμες να αντιμετωπίσουν τα προβλήματα που δημιουργούν τα συστήματά τους.

Όταν η Veatch επικοινώνησε με την OpenAI για να αναφέρει τα ρατσιστικά και σεξιστικά outputs που έβλεπε, η απάντηση που πήρε ήταν ουσιαστικά: «Δεν μπορούμε να κάνουμε τίποτα». Αυτή η αδιαφορία, υποστηρίζει το ντοκιμαντέρ, δεν είναι τυχαία — είναι δομική. Το Ghost in the Machine δεν είναι ένα φιλμ για το τι μπορεί να πάει στραβά με το AI. Είναι ένα φιλμ για το τι ήδη πάει στραβά, και γιατί αυτό δεν αντιμετωπίζεται ως πρόβλημα από εκείνους που έχουν τη δύναμη να το αλλάξουν.