Τεχνητή νοημοσύνη: Ιαπωνική μελέτη προκαλεί σάλο – «Δεν μπορούμε να αποκωδικοποιήσουμε τη φαντασία»

Ο Yu Takagi δεν πίστευε στα μάτια του. Καθισμένος μόνος στο γραφείο του ένα απόγευμα Σαββάτου του Σεπτεμβρίου, παρακολουθούσε με δέος την τεχνητή νοημοσύνη να αποκωδικοποιεί την εγκεφαλική δραστηριότητα ενός υποκειμένου για να δημιουργήσει εικόνες από αυτά που έβλεπε στην οθόνη.

“Ακόμα θυμάμαι όταν είδα τις πρώτες εικόνες [που δημιούργησε η τεχνητή νοημοσύνη]”, δήλωσε στο Al Jazeera ο Takagi, ένας 34χρονος νευροεπιστήμονας και επίκουρος καθηγητής στο Πανεπιστήμιο της Οσάκα.

“Πήγα στο μπάνιο και κοίταξα τον εαυτό μου στον καθρέφτη και είδα το πρόσωπό μου και σκέφτηκα: “Εντάξει, αυτό είναι φυσιολογικό. Ίσως δεν τρελαίνομαι'”.

Ο Τακάγκι και η ομάδα του χρησιμοποίησαν το Stable Diffusion (SD), ένα μοντέλο βαθιάς μάθησης AI που αναπτύχθηκε στη Γερμανία το 2022, για να αναλύσει τις εγκεφαλικές σαρώσεις των υποκειμένων που έδειξαν έως και 10.000 εικόνες ενώ βρίσκονταν μέσα σε ένα μηχάνημα μαγνητικής τομογραφίας.

Αφού ο Takagi και ο ερευνητικός συνεργάτης του Shinji Nishimoto δημιούργησαν ένα απλό μοντέλο για να “μεταφράσουν” την εγκεφαλική δραστηριότητα σε αναγνώσιμη μορφή, το Stable Diffusion μπόρεσε να δημιουργήσει εικόνες υψηλής πιστότητας που είχαν εκπληκτική ομοιότητα με τα πρωτότυπα.

Η Τεχνητή Νοημοσύνη μπορούσε να το κάνει αυτό παρά το γεγονός ότι δεν της είχαν παρουσιαστεί εκ των προτέρων οι εικόνες ούτε είχε εκπαιδευτεί με οποιονδήποτε τρόπο για την κατασκευή των αποτελεσμάτων.

“Πραγματικά δεν περιμέναμε αυτού του είδους το αποτέλεσμα”, δήλωσε ο Takagi.

Ο Takagi τόνισε ότι το επίτευγμα δεν αντιπροσωπεύει, προς το παρόν, ανάγνωση του μυαλού – η AI μπορεί μόνο να παράγει εικόνες που έχει δει ένα άτομο.

“Αυτό δεν είναι ανάγνωση του μυαλού”, δήλωσε ο Takagi. “Δυστυχώς υπάρχουν πολλές παρεξηγήσεις με την έρευνά μας”.

“Δεν μπορούμε να αποκωδικοποιήσουμε τη φαντασία ή τα όνειρα- πιστεύουμε ότι αυτό είναι πολύ αισιόδοξο. Αλλά, φυσικά, υπάρχουν δυνατότητες στο μέλλον”.

Ωστόσο, η εξέλιξη αυτή προκάλεσε ανησυχίες για το πώς θα μπορούσε να χρησιμοποιηθεί στο μέλλον μια τέτοια τεχνολογία, εν μέσω μιας ευρύτερης συζήτησης για τους κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη γενικά.

Σε ανοιχτή επιστολή τον περασμένο μήνα, ηγέτες της τεχνολογίας, μεταξύ των οποίων ο ιδρυτής της Tesla Elon Musk και ο συνιδρυτής της Apple Steve Wozniak, ζήτησαν να σταματήσει η ανάπτυξη της τεχνητής νοημοσύνης λόγω “βαθιών κινδύνων για την κοινωνία και την ανθρωπότητα”.

Παρά τον ενθουσιασμό του, ο Takagi αναγνωρίζει ότι οι φόβοι γύρω από την τεχνολογία ανάγνωσης του νου δεν είναι αβάσιμοι, δεδομένης της πιθανότητας κακής χρήσης από άτομα με κακόβουλη πρόθεση ή χωρίς συγκατάθεση.

“Για εμάς, τα ζητήματα προστασίας της ιδιωτικής ζωής είναι το πιο σημαντικό πράγμα. Αν μια κυβέρνηση ή ένα ίδρυμα μπορεί να διαβάσει το μυαλό των ανθρώπων, είναι ένα πολύ ευαίσθητο θέμα”, δήλωσε ο Takagi. “Πρέπει να υπάρξουν συζητήσεις υψηλού επιπέδου για να διασφαλιστεί ότι αυτό δεν μπορεί να συμβεί”.

Η έρευνα των Takagi και Nishimoto προκάλεσε μεγάλο θόρυβο στην τεχνολογική κοινότητα, η οποία έχει ηλεκτριστεί από τις ραγδαίες εξελίξεις στην τεχνητή νοημοσύνη, συμπεριλαμβανομένης της κυκλοφορίας του ChatGPT, το οποίο παράγει ομιλία που μοιάζει με ανθρώπινη ομιλία σε απάντηση στις προτροπές ενός χρήστη.

Η εργασία τους που περιγράφει λεπτομερώς τα ευρήματα κατατάσσεται στο κορυφαίο 1 τοις εκατό όσον αφορά τη δέσμευση μεταξύ των περισσότερων από 23 εκατομμυρίων ερευνητικών αποτελεσμάτων που έχουν παρακολουθηθεί μέχρι σήμερα, σύμφωνα με την Altmetric, μια εταιρεία δεδομένων.

Η μελέτη έχει επίσης γίνει δεκτή στο Συνέδριο για την Όραση Υπολογιστών και την Αναγνώριση Προτύπων (CVPR), που έχει οριστεί για τον Ιούνιο του 2023, μια συνήθης οδός για τη νομιμοποίηση σημαντικών ανακαλύψεων στις νευροεπιστήμες.

Ακόμα κι έτσι, οι Takagi και Nishimoto είναι επιφυλακτικοί σχετικά με το να παρασυρθούν από τα ευρήματά τους.

Ο Takagi υποστηρίζει ότι υπάρχουν δύο βασικά εμπόδια για την πραγματική ανάγνωση του νου: η τεχνολογία σάρωσης του εγκεφάλου και η ίδια η τεχνητή νοημοσύνη.

Παρά τις προόδους στις νευρικές διεπαφές – συμπεριλαμβανομένων των υπολογιστών εγκεφάλου ηλεκτροεγκεφαλογραφίας (EEG), οι οποίοι ανιχνεύουν τα εγκεφαλικά κύματα μέσω ηλεκτροδίων που συνδέονται στο κεφάλι ενός υποκειμένου, και της μαγνητικής τομογραφίας (fMRI), η οποία μετρά την εγκεφαλική δραστηριότητα ανιχνεύοντας αλλαγές που σχετίζονται με τη ροή του αίματος – οι επιστήμονες πιστεύουν ότι θα μπορούσαμε να απέχουμε δεκαετίες από το να είμαστε σε θέση να αποκωδικοποιούμε με ακρίβεια και αξιοπιστία τις φανταστικές οπτικές εμπειρίες.

Στην έρευνα των Takagi και Nishimoto, τα υποκείμενα έπρεπε να κάθονται σε έναν σαρωτή fMRI για έως και 40 ώρες, κάτι που ήταν δαπανηρό καθώς και χρονοβόρο.

Σε ένα έγγραφο του 2021, ερευνητές του Korea Advanced Institute of Science and Technology σημείωσαν ότι οι συμβατικές νευρικές διεπαφές “στερούνται σταθερότητας χρόνιας καταγραφής” λόγω της μαλακής και πολύπλοκης φύσης του νευρικού ιστού, ο οποίος αντιδρά με ασυνήθιστους τρόπους όταν έρχεται σε επαφή με συνθετικές διεπαφές.

Επιπλέον, οι ερευνητές έγραψαν: “Οι τρέχουσες τεχνικές καταγραφής βασίζονται γενικά σε ηλεκτρικές οδούς για τη μεταφορά του σήματος, οι οποίες είναι ευαίσθητες σε ηλεκτρικούς θορύβους από το περιβάλλον. Επειδή οι ηλεκτρικοί θόρυβοι διαταράσσουν σημαντικά την ευαισθησία, η επίτευξη λεπτών σημάτων από την περιοχή-στόχο με υψηλή ευαισθησία δεν είναι ακόμη εύκολο κατόρθωμα”.

Οι σημερινοί περιορισμοί της τεχνητής νοημοσύνης αποτελούν ένα δεύτερο εμπόδιο, αν και ο Takagi αναγνωρίζει ότι οι δυνατότητες αυτές εξελίσσονται μέρα με τη μέρα.

“Είμαι αισιόδοξος για την τεχνητή νοημοσύνη, αλλά δεν είμαι αισιόδοξος για την τεχνολογία του εγκεφάλου”, δήλωσε ο Takagi. “Νομίζω ότι αυτή είναι η συναίνεση μεταξύ των νευροεπιστημόνων”.

Το πλαίσιο των Takagi και Nishimoto θα μπορούσε να χρησιμοποιηθεί με συσκευές σάρωσης του εγκεφάλου εκτός της μαγνητικής τομογραφίας, όπως το ηλεκτροεγκεφαλογράφημα ή υπερ-επεμβατικές τεχνολογίες όπως τα εμφυτεύματα εγκεφάλου-υπολογιστή που αναπτύσσει η Neuralink του Elon Musk.

Ακόμα κι έτσι, ο Takagi πιστεύει ότι επί του παρόντος υπάρχει μικρή πρακτική εφαρμογή για τα πιράματα τεχνητής νοημοσύνης του.

Must read

Related Articles