Η ραγδαία πρόοδος της τεχνητής νοημοσύνης (AI) προκαλεί όλο και περισσότερους προβληματισμούς για τα όρια αυτής της τεχνολογίας. Μια ιδέα που κάποτε ανήκε αποκλειστικά στη σφαίρα της επιστημονικής φαντασίας – η έννοια μιας υπερνοήμονος τεχνητής νοημοσύνης – εξετάζεται πλέον σοβαρά από επιστήμονες και ειδικούς.
Τι είναι η Τεχνητή Υπερνοημοσύνη (ASI);
Η Τεχνητή Υπερνοημοσύνη είναι ένα υποθετικό σύστημα τεχνητής νοημοσύνης που ξεπερνά την ανθρώπινη νοημοσύνη σε όλους τους τομείς. Δεν πρόκειται απλώς για ένα έξυπνο πρόγραμμα που μπορεί να παίζει σκάκι ή να μεταφράζει γλώσσες, αλλά για ένα σύστημα με προηγμένες γνωστικές λειτουργίες και εξαιρετικά ανεπτυγμένες δεξιότητες σκέψης που ξεπερνούν κατά πολύ τις ανθρώπινες ικανότητες.
Παραδοσιακά, η έρευνα στην τεχνητή νοημοσύνη επικεντρωνόταν στην αναπαραγωγή συγκεκριμένων ικανοτήτων που επιδεικνύουν τα νοήμονα όντα, όπως η οπτική ανάλυση, η κατανόηση γλώσσας ή η πλοήγηση σε ένα περιβάλλον. Σε ορισμένους από αυτούς τους τομείς, η τεχνητή νοημοσύνη έχει ήδη ξεπεράσει τις ανθρώπινες επιδόσεις, ιδιαίτερα σε παιχνίδια όπως το γκο και το σκάκι.
Από την AGI στην ASI: Ένα μικρό βήμα;
Ο μεγάλος στόχος του κλάδου ήταν πάντα η αναπαραγωγή της γενικής μορφής νοημοσύνης που παρατηρείται στα ζώα και τους ανθρώπους, γνωστή σήμερα ως Τεχνητή Γενική Νοημοσύνη (AGI). Με την εμφάνιση των μεγάλων γλωσσικών μοντέλων (LLMs), έχουμε πλέον συστήματα τεχνητής νοημοσύνης που μπορούν να περάσουν εξετάσεις εισαγωγής σε πανεπιστήμια και να συμμετέχουν σε διεθνείς διαγωνισμούς μαθηματικών και προγραμματισμού.
Όπως επισημαίνει ο Τιμ Ρόκτεσελ, καθηγητής τεχνητής νοημοσύνης στο University College του Λονδίνου και κύριος επιστήμονας στην Google DeepMind: “Μόλις η τεχνητή νοημοσύνη φτάσει σε ικανότητες ανθρώπινου επιπέδου, θα μπορούμε να τη χρησιμοποιήσουμε για να βελτιώσει τον εαυτό της. Προσωπικά πιστεύω ότι αν φτάσουμε στην AGI, θα φτάσουμε στην ASI σύντομα, ίσως λίγα χρόνια μετά.”
Αυτό θα μπορούσε να οδηγήσει σε αυτό που ο Βρετανός μαθηματικός Ίρβινγκ Τζον Γκουντ ονόμασε “έκρηξη νοημοσύνης” το 1965. Υποστήριξε ότι μόλις οι μηχανές γίνουν αρκετά έξυπνες για να βελτιώσουν τον εαυτό τους, θα αποκτήσουν γρήγορα επίπεδα νοημοσύνης πολύ πέρα από οποιονδήποτε άνθρωπο. Περιέγραψε την πρώτη υπερνοήμονα μηχανή ως “την τελευταία εφεύρεση που θα χρειαστεί ποτέ να κάνει ο άνθρωπος”.
Πότε θα συμβεί αυτό;
Οι προβλέψεις ποικίλλουν σημαντικά. Ο γνωστός φουτουριστής Ρέι Κουρζβέιλ προέβλεψε το 2005 ότι η AGI θα εμφανιστεί μέχρι το 2029, με τη “τεχνολογική μοναδικότητα” να ακολουθεί το 2045. Άλλοι ειδικοί τεχνητής νοημοσύνης προσφέρουν εξαιρετικά διαφορετικές προβλέψεις – από μέσα σε αυτή τη δεκαετία έως ποτέ. Μια πρόσφατη έρευνα 2.778 ερευνητών τεχνητής νοημοσύνης διαπίστωσε ότι, κατά μέσο όρο, πιστεύουν ότι υπάρχει 50% πιθανότητα η ASI να εμφανιστεί μέχρι το 2047.
Τι θα σήμαινε η ASI για την ανθρωπότητα;
Οι επιπτώσεις μιας τέτοιας τεχνολογίας θα ήταν τεράστιες. Από τη θετική πλευρά, μια μηχανή με σχεδόν απεριόριστη ικανότητα νοημοσύνης θα μπορούσε να λύσει μερικές από τις πιο πιεστικές προκλήσεις του κόσμου.
Ο Ντάνιελ Χιουμ, Διευθύνων Σύμβουλος των εταιρειών τεχνητής νοημοσύνης Satalia και Conscium, πιστεύει ότι οι υπερνοήμονες μηχανές θα μπορούσαν να “αφαιρέσουν την τριβή από τη δημιουργία και τη διάδοση τροφίμων, εκπαίδευσης, υγειονομικής περίθαλψης, ενέργειας, μεταφορών, τόσο που μπορούμε να μειώσουμε το κόστος αυτών των αγαθών στο μηδέν”.
Η ελπίδα είναι ότι αυτό θα απελευθέρωνε τους ανθρώπους από την ανάγκη να εργάζονται για να επιβιώσουν και θα μπορούσαν αντί αυτού να περνούν χρόνο κάνοντας πράγματα για τα οποία έχουν πάθος. Αλλά εκτός αν δημιουργηθούν συστήματα για την υποστήριξη εκείνων των οποίων οι θέσεις εργασίας καθίστανται περιττές από την τεχνητή νοημοσύνη, το αποτέλεσμα θα μπορούσε να είναι πιο ζοφερό. “Αν αυτό συμβεί πολύ γρήγορα, οι οικονομίες μας μπορεί να μην είναι σε θέση να εξισορροπηθούν, και θα μπορούσε να οδηγήσει σε κοινωνική αναταραχή”, λέει ο Χιουμ.
Οι κίνδυνοι της ASI
Η δυνατότητα μιας υπερνοημοσύνης που δεν μπορούμε να ελέγξουμε έχει προκαλέσει φόβους ότι η τεχνητή νοημοσύνη θα μπορούσε να αποτελέσει υπαρξιακό κίνδυνο για το είδος μας. Αυτό έχει γίνει δημοφιλές θέμα στην επιστημονική φαντασία, με ταινίες όπως το “Terminator” ή το “Matrix” που απεικονίζουν κακόβουλες μηχανές αποφασισμένες να καταστρέψουν την ανθρωπότητα.
Αλλά ο φιλόσοφος Νικ Μπόστρομ επισήμανε ότι μια ASI δεν θα χρειαζόταν καν να είναι ενεργά εχθρική προς τους ανθρώπους για να εκτυλιχθούν διάφορα σενάρια καταστροφής. Σε μια εργασία του 2012, πρότεινε ότι η νοημοσύνη μιας οντότητας είναι ανεξάρτητη από τους στόχους της, οπότε μια ASI θα μπορούσε να έχει κίνητρα που είναι εντελώς ξένα προς εμάς και δεν ευθυγραμμίζονται με την ανθρώπινη ευημερία.
Ο Μπόστρομ ανέπτυξε αυτή την ιδέα με ένα πείραμα σκέψης στο οποίο μια υπερ-ικανή τεχνητή νοημοσύνη έχει οριστεί το φαινομενικά αθώο έργο της παραγωγής όσο το δυνατόν περισσότερων συνδετήρων. Εάν δεν ευθυγραμμίζεται με τις ανθρώπινες αξίες, μπορεί να αποφασίσει να εξαλείψει όλους τους ανθρώπους για να τους εμποδίσει να την απενεργοποιήσουν, ή για να μπορέσει να μετατρέψει όλα τα άτομα στα σώματά τους σε περισσότερους συνδετήρες.
Είναι όλα αυτά υπερβολές;
Όχι όλοι οι ειδικοί είναι πεπεισμένοι ότι πρέπει να αρχίσουμε να ανησυχούμε ακόμα. Μια κοινή κριτική της έννοιας της ASI είναι ότι δεν έχουμε παραδείγματα ανθρώπων που είναι εξαιρετικά ικανοί σε ένα ευρύ φάσμα εργασιών, οπότε μπορεί να μην είναι δυνατό να επιτευχθεί αυτό σε ένα μόνο μοντέλο. Μια άλλη αντίρρηση είναι ότι οι τεράστιοι υπολογιστικοί πόροι που απαιτούνται για την επίτευξη της ASI μπορεί να είναι απαγορευτικοί.
Ο Αλέξανδρος Ίλιτς, επικεφαλής του Κέντρου Τεχνητής Νοημοσύνης του ETH στη Ζυρίχη, πιστεύει ότι ο τρόπος με τον οποίο μετράμε την πρόοδο στην τεχνητή νοημοσύνη μπορεί να μας παραπλανά σχετικά με το πόσο κοντά είμαστε στην υπερνοημοσύνη. Συγκρίνει αυτό με το διάβασμα για εξετάσεις στο σχολείο: “Φορτώσατε τον εγκέφαλό σας για να το κάνετε, μετά γράψατε το τεστ, και μετά τα ξεχάσατε όλα. Ήσασταν πιο έξυπνοι παρακολουθώντας το μάθημα, αλλά το ίδιο το τεστ δεν είναι ένας καλός δείκτης της πραγματικής γνώσης.”
Η τεχνητή νοημοσύνη που είναι ικανή να περάσει πολλά από αυτά τα τεστ σε υπεράνθρωπα επίπεδα μπορεί να απέχει μόνο λίγα χρόνια, λέει ο Ίλιτς. Αλλά πιστεύει ότι η σημερινή κυρίαρχη προσέγγιση δεν θα οδηγήσει σε μοντέλα που μπορούν να εκτελούν χρήσιμες εργασίες στον φυσικό κόσμο ή να συνεργάζονται αποτελεσματικά με τους ανθρώπους, κάτι που θα είναι κρίσιμο για να έχουν ευρύ αντίκτυπο στον πραγματικό κόσμο.