OpenAI: Μας έκαναν χάκινγκ οι New York Times στην αγωγή για τα πνευματικά δικαιώματα

Η OpenAI, δημιουργός του ChatGPT, κατέθεσε αίτηση απόρριψης αρκετών ισχυρισμών στην αγωγή των New York Times για πνευματικά δικαιώματα, υποστηρίζοντας ότι η καταγγελία της εφημερίδας δεν ανταποκρίνεται στα δικά της “διάσημα αυστηρά δημοσιογραφικά πρότυπα”.

Η εταιρεία τεχνητής νοημοσύνης ισχυρίζεται ότι οι New York Times “πλήρωσαν κάποιον για να χακάρει τα προϊόντα της OpenAI” προκειμένου να δημιουργήσει “εξαιρετικά ανώμαλα αποτελέσματα” που χρησιμοποιήθηκαν ως αποδεικτικά στοιχεία στην υπόθεση πνευματικών δικαιωμάτων της AI.

“Κατάφεραν να το κάνουν αυτό μόνο με τη στόχευση και την εκμετάλλευση ενός σφάλματος (το οποίο η OpenAI έχει δεσμευτεί να αντιμετωπίσει) χρησιμοποιώντας παραπλανητικές προτροπές που παραβιάζουν κατάφωρα τους όρους χρήσης της OpenAI”, αναφέρεται στην πρόταση.

“Και ακόμη και τότε, έπρεπε να τροφοδοτήσουν το εργαλείο με τμήματα των ίδιων των άρθρων που επεδίωκαν να αποσπάσουν αυτολεξεί αποσπάσματα, τα οποία σχεδόν όλα εμφανίζονται ήδη σε πολλούς δημόσιους ιστότοπους. Οι φυσιολογικοί άνθρωποι δεν χρησιμοποιούν τα προϊόντα της OpenAI με αυτόν τον τρόπο”. Η εταιρεία ισχυρίζεται ότι οι “επινοημένες επιθέσεις” της εφημερίδας πραγματοποιήθηκαν από ένα “πληρωμένο όπλο” και αρνείται ότι η τεχνολογία τεχνητής νοημοσύνης απειλεί τη δημοσιογραφία.

Σε μια νομική μάχη που ξεκίνησε στα τέλη του 2023, το μέσο ενημέρωσης ισχυρίστηκε ότι μοντέλα AI όπως το ChatGPT έχουν αντιγράψει και χρησιμοποιήσει εκατομμύρια άρθρα ειδήσεων που προστατεύονται από πνευματικά δικαιώματα, εμπεριστατωμένες έρευνες και άλλες δημοσιογραφικές εργασίες.

“Οι εναγόμενοι επιδιώκουν να εκμεταλλευτούν την τεράστια επένδυση των Times στη δημοσιογραφία τους, χρησιμοποιώντας την για την κατασκευή υποκατάστατων προϊόντων χωρίς άδεια ή πληρωμή”, δήλωσαν οι New York Times. Τον Ιανουάριο, η OpenAI δήλωσε ότι ήταν “έκπληκτη και απογοητευμένη” από την αγωγή και πρόσθεσε ότι η εφημερίδα “δεν λέει όλη την ιστορία”.

Εκτός από τον ισχυρισμό ότι τότε ο ειδησεογραφικός οργανισμός χάκαρε το προϊόν του για να αποκτήσει τα στοιχεία του, η πρόταση της OpenAI να απορρίψει την αγωγή, που κατατέθηκε αυτή την εβδομάδα (26 Φεβρουαρίου), δήλωσε ότι η υπόθεση του μέσου ενημέρωσης επικεντρώνεται σε αυτό που ο δημιουργός του ChatGPT ισχυρίζεται ότι είναι “δύο ασυνήθιστα και ακούσια φαινόμενα” στο μοντέλο AI: η αναμάσηση και η ψευδαίσθηση.

“Η παλινδρόμηση δεδομένων εκπαίδευσης – που μερικές φορές αναφέρεται ως ακούσια “απομνημόνευση” ή “υπερπροσαρμογή” – είναι ένα πρόβλημα που οι ερευνητές στο OpenAI και αλλού εργάζονται σκληρά για να αντιμετωπίσουν, μεταξύ άλλων διασφαλίζοντας ότι τα σύνολα δεδομένων τους είναι επαρκώς ποικίλα”, αναφέρεται στην πρόταση.

“Το δεύτερο φαινόμενο – η ψευδαίσθηση – εμφανίζεται όταν ένα μοντέλο παράγει “φαινομενικά ρεαλιστικές” απαντήσεις που αποδεικνύονται λανθασμένες … Μια συνεχής πρόκληση της ανάπτυξης της τεχνητής νοημοσύνης είναι η ελαχιστοποίηση και (τελικά) η εξάλειψη της ψευδαίσθησης, μεταξύ άλλων με τη χρήση πληρέστερων συνόλων δεδομένων εκπαίδευσης για τη βελτίωση της ακρίβειας των προβλέψεων των μοντέλων”.

Η OpenAI ζητά επίσης από το δικαστήριο να απορρίψει μέρος της αγωγής του μέσου ενημέρωσης λόγω ορισμένων συμπεριφορών που συνέβησαν πριν από περισσότερα από τρία χρόνια, οι οποίες δεν εμπίπτουν σε περίοδο παραγραφής.

Σε δήλωση που απέστειλε στο SiliconRepublic.com, ο Ian Crosby, εταίρος της Susman Godfrey και επικεφαλής δικηγόρος των New York Times, σημείωσε ότι η OpenAI δεν αμφισβήτησε ότι αντέγραψε εκατομμύρια άρθρα από το μέσο ενημέρωσης για να κατασκευάσει τα προϊόντα της. “Αυτό που η OpenAI παραδόξως χαρακτηρίζει ως “χάκινγκ” είναι απλώς η χρήση των προϊόντων της OpenAI για την αναζήτηση αποδείξεων ότι έκλεψε και αναπαρήγαγε τα έργα των Times που προστατεύονται από πνευματικά δικαιώματα”, δήλωσε. “Και αυτό ακριβώς βρήκαμε”.

Ο Crosby δήλωσε επίσης ότι η κατασκευή νέων προϊόντων δεν αποτελεί δικαιολογία για την παραβίαση της νομοθεσίας περί πνευματικών δικαιωμάτων. “Η απάντηση της OpenAI δείχνει επίσης ότι παρακολουθεί τα ερωτήματα και τα αποτελέσματα των χρηστών, κάτι που προκαλεί ιδιαίτερη έκπληξη, δεδομένου ότι ισχυρίστηκε ότι δεν το κάνει. Ανυπομονούμε να διερευνήσουμε αυτό το ζήτημα στο πλαίσιο της ανακάλυψης”.

Ο Alon Yamin, διευθύνων σύμβουλος της εταιρείας ανίχνευσης λογοκλοπής με τεχνητή νοημοσύνη Copyleaks, δήλωσε ότι μπορούμε να περιμένουμε περισσότερες αγωγές παρόμοιες με αυτή. “Η διαφωνία σχετικά με το πώς εκπαιδεύονται αυτά τα μοντέλα και ποιο περιεχόμενο χρησιμοποιήθηκε θα συνεχιστεί για αρκετό καιρό, διότι, καθώς αυτή η τεχνολογία επεκτείνεται και αξιοποιείται ευρέως σε όλο και περισσότερους κλάδους, το ίδιο θα συμβαίνει και με την ανησυχία σχετικά με την ηθική που περιβάλλει την τεχνητή νοημοσύνη και την ανάπτυξή της”, δήλωσε.

Must read

Related Articles