Η εκπαίδευση της τεχνητής νοημοσύνης από την ίδια την τεχνητή νοημοσύνη είναι η αρχή του τέλους

Η τεχνητή νοημοσύνη έχει αλλάξει τα δεδομένα σε πολλούς τομείς, από την υγειονομική περίθαλψη έως το λιανικό εμπόριο, την ψυχαγωγία και την τέχνη. Ωστόσο, νέες έρευνες δείχνουν ότι ίσως έχουμε φτάσει σε ένα σημείο καμπής: Η τεχνητή νοημοσύνη μαθαίνει από το περιεχόμενο που παράγει η τεχνητή νοημοσύνη.

Αυτός ο φαύλος κύκλος της τεχνητής νοημοσύνης, θα μπορούσε να καταλήξει πολύ άσχημα. Μια ερευνητική ομάδα από διάφορα πανεπιστήμια του Ηνωμένου Βασιλείου εξέδωσε προειδοποίηση για αυτό που ονόμασε “κατάρρευση μοντέλου“, μια εκφυλιστική διαδικασία που θα μπορούσε να διαχωρίσει εντελώς την ΤΝ από την πραγματικότητα.

Σε ένα έγγραφο με τίτλο “Η κατάρα της αναδρομής: Training on Generated Data Makes Models Forget“, ερευνητές από τα πανεπιστήμια του Κέιμπριτζ και της Οξφόρδης, το Πανεπιστήμιο του Τορόντο και το Imperial College του Λονδίνου εξηγούν ότι η κατάρρευση του μοντέλου συμβαίνει όταν “τα παραγόμενα δεδομένα καταλήγουν να μολύνουν το σύνολο εκπαίδευσης της επόμενης γενιάς μοντέλων”.

“Καθώς εκπαιδεύονται με μολυσμένα δεδομένα, στη συνέχεια αντιλαμβάνονται λανθασμένα την πραγματικότητα”, έγραψαν.

Με άλλα λόγια, το ευρέως διαδεδομένο περιεχόμενο που παράγεται από την τεχνητή νοημοσύνη και δημοσιεύεται στο διαδίκτυο θα μπορούσε να απορροφηθεί πίσω στα συστήματα τεχνητής νοημοσύνης, οδηγώντας σε στρεβλώσεις και ανακρίβειες.

Το πρόβλημα αυτό έχει εντοπιστεί σε μια σειρά από γεννητικά μοντέλα και εργαλεία, όπως τα Μεγάλα Γλωσσικά Μοντέλα (LLM), οι Μεταβλητοί Αυτοκωδικοποιητές και τα Μοντέλα Μείγματος Γκαουσιανού. Με την πάροδο του χρόνου, τα μοντέλα αρχίζουν να “ξεχνούν την πραγματική υποκείμενη κατανομή των δεδομένων”, οδηγώντας σε ανακριβείς αναπαραστάσεις της πραγματικότητας, επειδή οι αρχικές πληροφορίες παραμορφώνονται τόσο πολύ που παύουν να μοιάζουν με τα δεδομένα του πραγματικού κόσμου.

Υπάρχουν ήδη περιπτώσεις όπου τα μοντέλα μηχανικής μάθησης εκπαιδεύονται σε δεδομένα που παράγονται από την τεχνητή νοημοσύνη. Για παράδειγμα, τα Μοντέλα Γλωσσικής Μάθησης (LLM) εκπαιδεύονται σκόπιμα σε δεδομένα που προέρχονται από το GPT-4. Ομοίως, το DeviantArt, η διαδικτυακή πλατφόρμα για καλλιτέχνες, επιτρέπει τη δημοσίευση έργων τέχνης που έχουν δημιουργηθεί από ΤΝ και χρησιμοποιούνται ως δεδομένα εκπαίδευσης για νεότερα μοντέλα τεχνητής νοημοσύνης.

Όπως και η προσπάθεια απεριόριστης αντιγραφής ή κλωνοποίησης κάποιου πράγματος, αυτές οι πρακτικές, σύμφωνα με τους ερευνητές, θα μπορούσαν να οδηγήσουν σε περισσότερες περιπτώσεις κατάρρευσης του μοντέλου.

Δεδομένων των σοβαρών επιπτώσεων της κατάρρευσης του μοντέλου, η πρόσβαση στην αρχική διανομή δεδομένων είναι κρίσιμη. Τα μοντέλα τεχνητής νοημοσύνης χρειάζονται πραγματικά, ανθρώπινα παραγόμενα δεδομένα για την ακριβή κατανόηση και προσομοίωση του κόσμου μας.

Σύμφωνα με το ερευνητικό έγγραφο, υπάρχουν δύο κύριες αιτίες για την κατάρρευση του μοντέλου. Η πρώτη είναι το “στατιστικό σφάλμα προσέγγισης”, το οποίο συνδέεται με τον πεπερασμένο αριθμό δειγμάτων δεδομένων. Η δευτερεύουσα είναι το “λειτουργικό σφάλμα προσέγγισης”, το οποίο προέρχεται από τη μη σωστή διαμόρφωση του περιθωρίου σφάλματος που χρησιμοποιείται κατά την εκπαίδευση της ΤΝ. Αυτά τα σφάλματα μπορούν να επιδεινωθούν με την πάροδο γενεών, προκαλώντας ένα αλυσιδωτό αποτέλεσμα επιδεινούμενων ανακριβειών.

Το έγγραφο διατυπώνει ένα “πλεονέκτημα πρωτοπόρου” για την εκπαίδευση μοντέλων ΤΝ. Εάν μπορούμε να διατηρήσουμε την πρόσβαση στην αρχική πηγή δεδομένων που δημιουργήθηκε από τον άνθρωπο, μπορεί να αποτρέψουμε μια επιζήμια μετατόπιση της κατανομής και, κατά συνέπεια, την κατάρρευση του μοντέλου.

Ωστόσο, η διάκριση του περιεχομένου που παράγεται από τεχνητή νοημοσύνη σε κλίμακα είναι μια τρομακτική πρόκληση, η οποία μπορεί να απαιτεί συντονισμό σε επίπεδο κοινότητας.

Τελικά, η σημασία της ακεραιότητας των δεδομένων και η επιρροή των ανθρώπινων πληροφοριών στην ΤΝ είναι τόσο καλή όσο και τα δεδομένα από τα οποία προέρχεται, και η έκρηξη του περιεχομένου που παράγεται από την ΤΝ μπορεί να καταλήξει να είναι ένα δίκοπο μαχαίρι για τον κλάδο. Είναι “σκουπίδια μέσα, σκουπίδια έξω” – το AI που βασίζεται σε περιεχόμενο AI θα οδηγήσει σε πολλές πολύ έξυπνες, αλλά “παραπλανητικές” μηχανές.

Πώς σας φαίνεται αυτό για μια ειρωνική ανατροπή της πλοκής; Οι απόγονοι των μηχανών μας, που μαθαίνουν περισσότερο ο ένας από τον άλλον παρά από εμάς, γίνονται “παραληρηματικοί”. Στη συνέχεια θα πρέπει να αντιμετωπίσουμε έναν παραληρηματικό, έφηβο ChatGPT.

Must read

Related Articles