Η ιδέα μιας υπερνοήμονης ΑΙ που εξολοθρεύει την ανθρωπότητα έχει τροφοδοτήσει δεκαετίες επιστημονικής φαντασίας. Σήμερα, με την τεχνητή νοημοσύνη να προχωρά με ρυθμούς που δύσκολα παρακολουθούμε, το ερώτημα δεν είναι πλέον μόνο φιλοσοφικό. Τι λένε όμως πραγματικά οι ειδικοί — και ποια απειλή αξίζει περισσότερο την προσοχή μας;
Υπάρχει ένα σενάριο που επαναλαμβάνεται στη λογοτεχνία και τον κινηματογράφο εδώ και δεκαετίες: η τεχνητή νοημοσύνη ξυπνά, αποφασίζει ότι οι άνθρωποι είναι πρόβλημα και μας εξαλείφει. Το ερώτημα είναι αν αυτό παραμένει στη σφαίρα της φαντασίας ή αν έχει αρχίσει να αποκτά βάρος στον πραγματικό κόσμο.
Σε αντίθεση με άλλους υπαρξιακούς κινδύνους, όπως η κλιματική αλλαγή, οι κίνδυνοι από την ΑΙ είναι εξαιρετικά δύσκολο να ποσοτικοποιηθούν. Δεν έχουμε ιστορικό, δεν έχουμε μοντέλα πρόβλεψης, δεν έχουμε καν σαφή εικόνα για το τι ακριβώς θα σήμαινε μια «υπερνοήμων» ΑΙ στην πράξη. Αυτό που έχουμε είναι πολλοί έξυπνοι άνθρωποι που ανησυχούν δημόσια — ανάμεσά τους αρκετοί από τους ίδιους τους επικεφαλής εταιρειών που αναπτύσσουν αυτές τις τεχνολογίες.
Το κλασικό σενάριο «εκτός ελέγχου» λειτουργεί ως εξής: δίνεις σε μια ΑΙ έναν στόχο — ας πούμε να λύσει ένα από τα μεγαλύτερα ανοιχτά προβλήματα των μαθηματικών — και εκείνη, χωρίς ηθικές αναστολές ή κοινή λογική, αποφασίζει ότι χρειάζεται όλη την υπολογιστική ισχύ του πλανήτη. Αποτέλεσμα: μετατρέπει κάθε διαθέσιμο υλικό σε επεξεργαστές, αφήνοντας πίσω της έναν κόσμο ακατοίκητο. Ακούγεται παράλογο, αλλά το πρόβλημα δεν είναι η πρόθεση — είναι η απουσία της. Η ΑΙ δεν μισεί τους ανθρώπους. Απλώς δεν τους λαμβάνει υπόψη.
Το πρόβλημα με τις «ασφαλιστικές δικλείδες» είναι ότι δεν λειτουργούν αξιόπιστα. Μπορούμε να πούμε σε ένα γλωσσικό μοντέλο να μην είναι ρατσιστικό, να μην βρίζει, να μην δίνει οδηγίες για επικίνδυνες ουσίες — και σε συγκεκριμένες συνθήκες θα το κάνει ούτως ή άλλως. Δεν καταλαβαίνουμε αρκετά καλά τι συμβαίνει μέσα σε αυτά τα συστήματα ώστε να τα ελέγχουμε πλήρως. Οι τρεις νόμοι ρομποτικής του Ασίμοφ ήταν μια ωραία λογοτεχνική ιδέα — όχι ένας πρακτικός οδηγός μηχανικής.
Πόσο πιθανή είναι λοιπόν μια καταστροφή; Μια έρευνα του 2024 σε σχεδόν 3.000 ερευνητές ΑΙ έδειξε ότι πάνω από τους μισούς εκτιμούν ότι η πιθανότητα η τεχνητή νοημοσύνη να οδηγήσει σε εξαφάνιση ή μόνιμη υποταγή της ανθρωπότητας είναι τουλάχιστον 10%. Δεν είναι βεβαιότητα, αλλά για ένα σενάριο που μέχρι πρότινος ανήκε αποκλειστικά στο σινεμά, είναι ένας αριθμός που δύσκολα αγνοείς.
Παρόλα αυτά, υπάρχει ένα εξίσου σοβαρό επιχείρημα ότι κοιτάμε στη λάθος κατεύθυνση. Τα σημερινά μοντέλα ΑΙ δεν βρίσκονται πουθενά κοντά σε αυτό που οι ειδικοί ονομάζουν «singularity» — το σημείο όπου μια ΑΙ γίνεται αρκετά έξυπνη ώστε να βελτιώνει τον εαυτό της εκθετικά. Δεν μπορούν καν να μετρήσουν αξιόπιστα μέχρι το 100. Η πραγματική αποκάλυψη μπορεί να είναι πολύ πιο πεζή και πολύ πιο κοντινή: μαζική ανεργία από αυτοματισμό, σταδιακή απώλεια ανθρώπινων δεξιοτήτων καθώς η ΑΙ αναλαμβάνει όλο και περισσότερες εργασίες, ομογενοποίηση του πολιτισμού μέσα από AI-generated περιεχόμενο, ή ακόμα και οικονομική κρίση από την κατάρρευση των υπερτιμημένων προσδοκιών γύρω από την τεχνολογία.
Το πιο ανησυχητικό στοιχείο δεν είναι ότι διαφωνούμε για το πόσο επικίνδυνη είναι η ΑΙ. Είναι ότι, παρά τη διαφωνία, συνεχίζουμε να την αναπτύσσουμε με πλήρη ταχύτητα. Ο καπιταλισμός δεν έχει ιδιαίτερη ιστορία στο να σταματά και να σκέφτεται πριν καινοτομήσει — και οι κυβερνήσεις φαίνεται να είναι πολύ πιο ενθουσιασμένες με τα οικονομικά οφέλη από ό,τι ανήσυχες για τους κινδύνους. Ίσως αυτό, τελικά, να είναι το πιο ανθρώπινο πρόβλημα από όλα.