Καθώς οι γεννήτριες αυτοματοποιημένου κειμένου έχουν εξελιχθεί γρήγορα από την καινοτόμα πρόταση σε πραγματικό εργαλείο, αρχίζουν να φτάνουν τα ερωτήματα στην αναπόφευκτη επόμενη φάση: αν μπορεί να αποτελέσει όπλο. Το Πεντάγωνο και οι μυστικές υπηρεσίες σχεδιάζουν ανοιχτά να χρησιμοποιήσουν εργαλεία όπως το ChatGPT για να προωθήσουν την αποστολή τους – αλλά η εταιρεία πίσω από το chatbot σιωπά.
Η OpenAI, η εταιρεία που βρίσκεται πίσω από το ChatGPT, παρέχει έναν δημόσιο κατάλογο των ηθικών γραμμών που δεν θα υπερβεί, των επιχειρήσεων που δεν θα επιδιώξει, όσο επικερδείς και αν είναι, με την αιτιολογία ότι θα μπορούσαν να βλάψουν την ανθρωπότητα. Μεταξύ πολλών απαγορευμένων περιπτώσεων χρήσης, η OpenAI λέει ότι έχει αποκλείσει προληπτικά στρατιωτικές και άλλες κυβερνητικές εφαρμογές “υψηλού κινδύνου”. Όπως και οι ανταγωνιστές της, η Google και η Microsoft, η OpenAI είναι πρόθυμη να διακηρύξει τις υψηλές αξίες της, αλλά απρόθυμη να συζητήσει με σοβαρότητα τι σημαίνουν αυτές οι υποτιθέμενες αξίες στην πράξη, ή πώς – ή ακόμη και αν – θα επιβληθούν.
Οι ειδικοί σε θέματα πολιτικής για την τεχνητή νοημοσύνη που μίλησαν στο The Intercept λένε ότι η σιωπή της εταιρείας αποκαλύπτει την εγγενή αδυναμία της αυτορρύθμισης, επιτρέποντας σε εταιρείες όπως η OpenAI να εμφανίζονται με αρχές σε ένα κοινό που είναι νευρικό με την τεχνητή νοημοσύνη, καθώς αναπτύσσουν μια ισχυρή τεχνολογία, το μέγεθος της οποίας είναι ακόμη ασαφές. “Αν υπάρχει ένα πράγμα που πρέπει να πάρουμε από αυτό που βλέπουμε εδώ, είναι η αδυναμία του να αφήνουμε στις εταιρείες να αυτοεπιτηρούνται”, δήλωσε η Sarah Myers West, διευθύνουσα σύμβουλος του AI Now Institute και πρώην σύμβουλος AI της Ομοσπονδιακής Επιτροπής Εμπορίου.
Το ερώτημα αν το OpenAI θα επιτρέψει τη στρατιωτικοποίηση της τεχνολογίας του δεν είναι ακαδημαϊκό. Στις 8 Μαρτίου, η Intelligence and National Security Alliance συγκεντρώθηκε στη βόρεια Βιρτζίνια για το ετήσιο συνέδριό της σχετικά με τις αναδυόμενες τεχνολογίες. Συγκέντρωσε συμμετέχοντες τόσο από τον ιδιωτικό τομέα όσο και από την κυβέρνηση – συγκεκριμένα το Πεντάγωνο και τις γειτονικές υπηρεσίες κατασκοπείας – που ανυπομονούσαν να ακούσουν πώς ο μηχανισμός ασφαλείας των ΗΠΑ θα μπορούσε να ενταχθεί στις εταιρείες σε όλο τον κόσμο και να υιοθετήσει γρήγορα τεχνικές μηχανικής μάθησης. Κατά τη διάρκεια μιας συνεδρίας ερωτήσεων και απαντήσεων, ο Phillip Chudoba, αναπληρωτής διευθυντής δυνατοτήτων της Εθνικής Υπηρεσίας Γεωχωρικής Πληροφοριών, ρωτήθηκε πώς η υπηρεσία του θα μπορούσε να αξιοποιήσει την ΤΝ. Απάντησε ότι θα μπορούσε να υπάρξει «κάποιου είδους ChatGPT που θα είναι πραγματικά σε θέση να προβλέψει πράγματα που ένας ανθρώπινος αναλυτής, ξέρετε, ίσως δεν έχει σκεφτεί, ίσως λόγω εμπειρίας ή έκθεσης».
Απογυμνώνοντας την ορολογία, το όραμα του Chudoba είναι σαφές: η χρήση των δυνατοτήτων πρόβλεψης κειμένου του ChatGPT (ή κάτι παρόμοιο) για να βοηθήσει τους ανθρώπινους αναλυτές να ερμηνεύσουν τον κόσμο. Η National Geospatial-Intelligence Agency, ή NGA, μια σχετικά άγνωστη οργάνωση σε σύγκριση με τα αδέρφια της με τα τρία γράμματα, είναι ο κύριος χειριστής γεωχωρικών πληροφοριών του έθνους, που συχνά αναφέρονται ως GEOINT. Η πρακτική αυτή περιλαμβάνει την επεξεργασία ενός μεγάλου πλήθους γεωγραφικών πληροφοριών – χάρτες, δορυφορικές φωτογραφίες, μετεωρολογικά δεδομένα και άλλα παρόμοια – για να δώσουν στις στρατιωτικές και κατασκοπευτικές υπηρεσίες μια ακριβή εικόνα για το τι συμβαίνει στη Γη. “Οποιοσδήποτε πλέει σε αμερικανικό πλοίο, πετάει με αμερικανικό αεροσκάφος, λαμβάνει αποφάσεις εθνικής πολιτικής, διεξάγει πολέμους, εντοπίζει στόχους, ανταποκρίνεται σε φυσικές καταστροφές ή ακόμη και πλοηγείται με ένα κινητό τηλέφωνο βασίζεται στην NGA”, καυχιέται η υπηρεσία στον ιστότοπό της. Στις 14 Απριλίου, η Washington Post ανέφερε τα ευρήματα των εγγράφων της NGA που περιγράφουν λεπτομερώς τις δυνατότητες παρακολούθησης των κινεζικών αερόστατων μεγάλου ύψους, τα οποία είχαν προκαλέσει ένα διεθνές επεισόδιο νωρίτερα φέτος.
Απαγορευμένες χρήσεις
Όμως οι φιλοδοξίες του Chudoba για την ενίσχυση του GEOINT με τεχνητή νοημοσύνη περιπλέκονται από το γεγονός ότι ο δημιουργός της εν λόγω τεχνολογίας φαίνεται ότι έχει ήδη απαγορεύσει ακριβώς αυτή την εφαρμογή: Τόσο οι εφαρμογές “Στρατιωτικές και πολεμικές επιχειρήσεις” όσο και οι εφαρμογές “λήψης κυβερνητικών αποφάσεων υψηλού κινδύνου” απαγορεύονται ρητά, σύμφωνα με τη σελίδα “Πολιτικές χρήσης” του OpenAI. “Εάν ανακαλύψουμε ότι το προϊόν ή η χρήση σας δεν ακολουθεί αυτές τις πολιτικές, ενδέχεται να σας ζητήσουμε να κάνετε τις απαραίτητες αλλαγές”, αναφέρει η πολιτική. “Επαναλαμβανόμενες ή σοβαρές παραβιάσεις μπορεί να οδηγήσουν σε περαιτέρω ενέργειες, συμπεριλαμβανομένης της αναστολής ή του τερματισμού του λογαριασμού σας”.
Σύμφωνα με τα πρότυπα της βιομηχανίας, πρόκειται για ένα εξαιρετικά ισχυρό, σαφές έγγραφο, ένα έγγραφο που φαίνεται να ορκίζεται στο απύθμενο πηγάδι των αμυντικών χρημάτων που είναι διαθέσιμα σε λιγότερο ευσυνείδητους εργολάβους, και φαίνεται να είναι μια αρκετά κομμένη και ραμμένη απαγόρευση ενάντια σε αυτό ακριβώς που φαντάζεται ο Chudoba για την κοινότητα πληροφοριών. Είναι δύσκολο να φανταστεί κανείς πώς μια υπηρεσία που παρακολουθεί τις δυνατότητες των βορειοκορεατικών πυραύλων και υπηρέτησε ως “σιωπηλός εταίρος” στην εισβολή στο Ιράκ, σύμφωνα με το υπουργείο Άμυνας, δεν αποτελεί τον ορισμό των στρατιωτικών αποφάσεων υψηλού κινδύνου.