Μια ομάδα κορυφαίων ερευνητών, μηχανικών και διευθύνοντων συμβούλων της Τεχνητής Νοημοσύνης εξέδωσαν μια νέα προειδοποίηση σχετικά με την υπαρξιακή απειλή που πιστεύουν ότι η Τεχνητή Νοημοσύνη αποτελεί για την ανθρωπότητα.
Η δήλωση των 22 λέξεων, η οποία έχει συντομευτεί για να γίνει όσο το δυνατόν ευρύτερα αποδεκτή, έχει ως εξής “Ο μετριασμός του κινδύνου εξαφάνισης από την Τεχνητή Νοημοσύνη θα πρέπει να αποτελέσει παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους κοινωνικής κλίμακας, όπως οι πανδημίες και ο πυρηνικός πόλεμος“.
Η δήλωση αυτή, που δημοσιεύθηκε από μια μη κερδοσκοπική οργάνωση με έδρα το Σαν Φρανσίσκο, το Κέντρο για την Ασφάλεια της Τεχνητής Νοημοσύνης, συνυπογράφεται από προσωπικότητες όπως ο διευθύνων σύμβουλος της Google DeepMind Ντέμης Χασάμπης και ο διευθύνων σύμβουλος της OpenAI Σαμ Άλτμαν, καθώς και οι Τζέφρι Χίντον και Γιουσούα Μπέντζιο – δύο από τους τρεις ερευνητές της Τεχνητής Νοημοσύνης που κέρδισαν το βραβείο Turing 2018 (που μερικές φορές αναφέρεται ως το “Νόμπελ Πληροφορικής”) για το έργο τους στην Τεχνητή Νοημοσύνη. Τη στιγμή που γράφονταν αυτές οι γραμμές, ο τρίτος νικητής της χρονιάς, ο Yann LeCun, σήμερα επικεφαλής επιστήμονας Τεχνητής Νοημοσύνης στη μητρική εταιρεία Meta του Facebook, δεν είχε υπογράψει.
Η δήλωση είναι η τελευταία σημαντική παρέμβαση στην περίπλοκη και αμφιλεγόμενη συζήτηση σχετικά με την ασφάλεια της τεχνητής νοημοσύνης. Νωρίτερα φέτος, μια ανοιχτή επιστολή που υπογράφηκε από πολλά από τα ίδια άτομα που υποστήριζαν την προειδοποίηση των 22 λέξεων ζήτησε να υπάρξει εξάμηνη “παύση” στην ανάπτυξη της τεχνητής νοημοσύνης. Η επιστολή επικρίθηκε σε πολλαπλά επίπεδα. Ορισμένοι εμπειρογνώμονες θεώρησαν ότι υπερεκτιμούσε τον κίνδυνο που ενέχει η ΤΝ, ενώ άλλοι συμφώνησαν με τον κίνδυνο αλλά όχι με την προτεινόμενη στην επιστολή θεραπεία.
Ο Dan Hendrycks, εκτελεστικός διευθυντής του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης, δήλωσε στους New York Times ότι η συντομία της σημερινής δήλωσης – η οποία δεν προτείνει πιθανούς τρόπους για τον μετριασμό της απειλής που συνιστά η Τεχνητή Νοημοσύνη – είχε ως στόχο να αποφευχθούν τέτοιες διαφωνίες. “Δεν θέλαμε να πιέσουμε για ένα πολύ μεγάλο μενού πιθανών παρεμβάσεων”, δήλωσε ο Hendrycks. “Όταν συμβαίνει αυτό, αποδυναμώνεται το μήνυμα”.
Ο Hendrycks περιέγραψε το μήνυμα ως “coming-out” για τα στελέχη του κλάδου που ανησυχούν για τον κίνδυνο της ΤΝ. “Υπάρχει μια πολύ συνηθισμένη παρανόηση, ακόμη και στην κοινότητα της τεχνητής νοημοσύνης, ότι υπάρχουν μόνο μια χούφτα καταστροφολόγοι”, δήλωσε ο Hendrycks στους Times. “Όμως, στην πραγματικότητα, πολλοί άνθρωποι ιδιωτικά θα εξέφραζαν ανησυχίες για αυτά τα πράγματα”.
Τα γενικά περιγράμματα αυτής της συζήτησης είναι γνωστά, αλλά οι λεπτομέρειες συχνά ατελείωτες, βασισμένες σε υποθετικά σενάρια στα οποία τα συστήματα τεχνητής νοημοσύνης αυξάνουν ραγδαία τις δυνατότητές τους και δεν λειτουργούν πλέον με ασφάλεια. Πολλοί ειδικοί επισημαίνουν τις ταχείες βελτιώσεις σε συστήματα όπως τα μεγάλα γλωσσικά μοντέλα ως απόδειξη των μελλοντικών προβλεπόμενων αυξήσεων της νοημοσύνης. Λένε ότι όταν τα συστήματα ΤΝ φτάσουν σε ένα ορισμένο επίπεδο πολυπλοκότητας, μπορεί να καταστεί αδύνατος ο έλεγχος των ενεργειών τους.
Άλλοι αμφισβητούν αυτές τις προβλέψεις. Επισημαίνουν την αδυναμία των συστημάτων ΤΝ να χειριστούν ακόμη και σχετικά καθημερινές εργασίες όπως, για παράδειγμα, η οδήγηση ενός αυτοκινήτου. Παρά τις πολυετείς προσπάθειες και τις επενδύσεις δισεκατομμυρίων σε αυτόν τον ερευνητικό τομέα, τα πλήρως αυτοκινούμενα αυτοκίνητα απέχουν ακόμη πολύ από την πραγματικότητα. Αν η τεχνητή νοημοσύνη δεν μπορεί να χειριστεί ούτε αυτή τη μία πρόκληση, λένε οι σκεπτικιστές, τι πιθανότητες έχει η τεχνολογία να φτάσει κάθε άλλο ανθρώπινο επίτευγμα τα επόμενα χρόνια;