Η αμερικανική εταιρεία τεχνητής νοημοσύνης Anthropic αναζητά ειδικό με εμπειρία σε χημικά όπλα και εκρηκτικά, φοβούμενη ότι τα εργαλεία της θα μπορούσαν να χρησιμοποιηθούν για την κατασκευή όπλων μαζικής καταστροφής. Η κίνηση αυτή έρχεται σε μια περίοδο που η εταιρεία βρίσκεται ήδη σε νομική διαμάχη με το αμερικανικό Υπουργείο Άμυνας.
Η Anthropic, η εταιρεία πίσω από τον AI βοηθό Claude, δημοσίευσε αγγελία στο LinkedIn αναζητώντας ειδικό με τουλάχιστον πέντε χρόνια εμπειρία στην «άμυνα έναντι χημικών όπλων και εκρηκτικών», καθώς και γνώσεις για «ραδιολογικές διασκορπιστικές συσκευές» — αυτό που γνωρίζουμε ως βρώμικες βόμβες. Ο στόχος είναι να διασφαλιστεί ότι τα συστήματα της εταιρείας δεν μπορούν να χρησιμοποιηθούν για την παραγωγή οδηγιών κατασκευής όπλων μαζικής καταστροφής.
Η Anthropic δεν είναι η μόνη που κινείται προς αυτή την κατεύθυνση. Η OpenAI, η εταιρεία πίσω από το ChatGPT, έχει ήδη ανοίξει αντίστοιχη θέση για ερευνητή «βιολογικών και χημικών κινδύνων», με αμοιβή που φτάνει τα 455.000 δολάρια — σχεδόν διπλάσια από αυτή που προσφέρει η Anthropic. Η λογική και στις δύο περιπτώσεις είναι η ίδια: για να χτίσεις αποτελεσματικές ασφαλιστικές δικλείδες, χρειάζεσαι ανθρώπους που γνωρίζουν σε βάθος τι ακριβώς προσπαθείς να αποτρέψεις.
Ωστόσο, η προσέγγιση αυτή δεν είναι αδιαμφισβήτητη. Ορισμένοι ειδικοί εκφράζουν ανησυχία για το γεγονός ότι, για να εκπαιδευτεί ένα σύστημα AI να αρνείται να δώσει επικίνδυνες πληροφορίες, πρέπει πρώτα να εκτεθεί σε αυτές. «Είναι ποτέ ασφαλές να χρησιμοποιούμε συστήματα AI για να διαχειριστούμε ευαίσθητες πληροφορίες για χημικά και εκρηκτικά;» αναρωτιέται η ερευνήτρια τεχνολογίας Stephanie Hare. «Δεν υπάρχει κανένα διεθνές πλαίσιο ρύθμισης για αυτό το είδος εργασίας. Όλα αυτά συμβαίνουν μακριά από τα φώτα της δημοσιότητας.»
Η κατάσταση γίνεται ακόμα πιο περίπλοκη από το πολιτικό πλαίσιο στο οποίο κινείται η Anthropic. Η εταιρεία έχει προσφύγει στη δικαιοσύνη εναντίον του αμερικανικού Υπουργείου Άμυνας, το οποίο την χαρακτήρισε κίνδυνο για την εφοδιαστική αλυσίδα αφού εκείνη αρνήθηκε να επιτρέψει τη χρήση των συστημάτων της σε πλήρως αυτόνομα όπλα ή σε μαζική παρακολούθηση Αμερικανών πολιτών. Ο συνιδρυτής της Dario Amodei είχε δηλώσει τον Φεβρουάριο ότι η τεχνολογία δεν είναι ακόμα αρκετά ώριμη για τέτοιες χρήσεις — θέση που ο Λευκός Οίκος απέρριψε, τονίζοντας ότι ο στρατός δεν θα διέπεται από τεχνολογικές εταιρείες.
Παρά τη νομική διαμάχη, το Claude εξακολουθεί να χρησιμοποιείται μέσω συστημάτων της Palantir στο πλαίσιο αμερικανικών στρατιωτικών επιχειρήσεων. Αυτή η αντίφαση — μια εταιρεία που μηνύει την κυβέρνηση αλλά συνεχίζει να τροφοδοτεί τις επιχειρήσεις της — αποτυπώνει με ακρίβεια τη σχιζοφρένεια του κλάδου: η βιομηχανία AI προειδοποιεί συνεχώς για τους υπαρξιακούς κινδύνους της τεχνολογίας της, αλλά δεν έχει κάνει κανένα βήμα για να επιβραδύνει την πορεία της. Το ερώτημα που μένει ανοιχτό είναι αν η πρόσληψη ειδικών σε όπλα αποτελεί πραγματική ασφαλιστική δικλείδα ή απλώς μια καλοπροαίρετη χειρονομία σε έναν κόσμο που κινείται πολύ πιο γρήγορα από κάθε ρυθμιστικό πλαίσιο.