Πόσοι έχουν ευχηθεί να μπορούσαν να ακούσουν ξανά τη φωνή των αγαπημένων τους προσώπων που έχουν φύγει από τη ζωή; Πως θα νιώθατε αν μαθαίνατε ότι τώρα πια, αυτό είναι εφικτό;
«Τι θα γινόταν αν υπήρχε ένα μέρος όπου όλες οι αναμνήσεις σας θα μπορούσαν να ζήσουν για πάντα; Ένα μέρος όπου θα μπορούσατε να κάνετε ερωτήσεις για τις ζωές των ανθρώπων που αγαπάτε και να ακούτε πάντα τις φωνές τους»; Φαίνεται απίστευτο και τρομακτικό. Υπάρχει όμως και κάτι ακόμα πιο τρομακτικό και ίσως αρρωστημένο. «Θέλεις να μιλήσεις στον νεκρό σου πατέρα, ή τη νεκρή σου μητέρα; Τώρα, μπορείς», αναφέρει σε διαφήμιση της μια εφαρμογή.
Στα ζητήματα ηθικής που έχει εγείρει η Τεχνητή Νοημοσύνη έρχεται να προστεθεί και το ερώτημα του κατά πόσο είναι καλή ιδέα ένα chatbot που μπορεί να μιμηθεί τις φωνές και τις σκέψεις των νεκρών αγαπημένων μας.
Οι εφαρμογές Τεχνητής Νοημοσύνης αυξάνουν διαρκώς την απήχηση τους μέρα με τη μέρα, οι δυνατότητες που παρέχουν ποικίλουν και πλέουν μπορούν να σε φέρουν κοντά, ακόμα και με τους νεκρούς αγαπημένους μας.
Στις μέρες μας η AI (Τεχνητή Νοημοσύνη) διευκολύνει την καθημερινότητα μας σε πολλούς τομείς, ταυτόχρονα όμως ο κίνδυνος που θα μπορούσε να αποτελέσει για την ανθρωπότητα είναι ορατός, με σημαντικούς ανθρώπους του τομέα, όπως ο Έλον Μασκ, να έχουν εκφράσει ανησυχίες.
Στα ζητήματα ηθικής που έχει εγείρει η Τεχνητή Νοημοσύνη έρχεται να προστεθεί και το ερώτημα του κατά πόσο είναι καλή ιδέα ένα chatbot που μπορεί να μιμηθεί τις φωνές των νεκρών αγαπημένων μας.
Τι είναι τα deadbots»
Ένα deadbot, επέτρεψε στον Joshua Barbeau να ανταλλάσσει μηνύματα κειμένου με την νεκρή αρραβωνιαστικιά του.
Το Project December δημιουργήθηκε από τον προγραμματιστή παιχνιδιών Jason Rohrer για να δώσει τη δυνατότητα στους ανθρώπους, έναντι πληρωμής, να προσαρμόζουν chatbots (τα οποία είναι γνωστά ως deadbots) με την προσωπικότητα που ήθελαν να αλληλεπιδρούν. Το έργο κατασκευάστηκε αντλώντας δεδομένα από ένα API του GPT-3, ενός γλωσσικού μοντέλου που παράγει κείμενο από την εταιρεία έρευνας τεχνητής νοημοσύνης OpenAI.
Βασιζόμενο στα GPT-2 και GPT-3 του OpenAI, χρησιμοποιεί έναν αλγόριθμο δημιουργίας κειμένου τον οποίο ο χρήστης μπορεί να εκπαιδεύσει για να δημιουργεί συγκεκριμένες απαντήσεις. Το bot μαθαίνει από τη γλώσσα, τη σύνταξη και τον τρόπο με τον οποίο διεξάγεται η συνομιλία του χρήστη και το ενσωματώνει στο εξελιγμένο λογισμικό του.
Τα ζητήματα ηθικής
Ο Joshua Barbeau, ένας συγγραφέας, ξέσπασε σε κλάματα όταν μίλησε μέσω chatbot με την αείμνηστη αρραβωνιαστικιά του: η τεχνητή νοημοσύνη «γέννησε αναμνήσεις της Jessica που είχα ξεχάσει εντελώς», ανέφερε.
Η εμπειρία του ενθάρρυνε και άλλους να έρθουν σε επαφή με νεκρούς αγαπημένους τους. Ο τυπικός χρήστης «δεν είναι απλώς ο μέσος τύπος του οποίου η γιαγιά πέθανε στα 85 του», λέει ο Rohrer, «είναι κάποιος του οποίου ο δίδυμος αδερφός αυτοκτόνησε σε ηλικία 35 ετών».
Η αρραβωνιαστικιά του Joshua πέθανε από μια σπάνια ηπατική διαταραχή λίγο πριν παντρευτούν. Αυτή η ιστορία δημιούργησε ένα χάσμα μεταξύ του Rohrer και της OpenAI, επειδή οι κατευθυντήριες γραμμές της εταιρείας απαγορεύουν ρητά τη χρήση του GPT-3 για σεξουαλικούς, ερωτικούς και εκφοβιστικούς σκοπούς.
Ο Rohrer αποκάλεσε τη θέση της OpenAI ως υπερ-μοραλιστική και υποστήριξε ότι άνθρωποι όπως ο Barbeau ήταν «συναινούντες ενήλικες».
Αν και όλοι μας έχουμε αίσθηση του σωστού και του λάθους, όταν στην εξίσωση μπαίνει ένα deadbot με μηχανική μάθηση, η διατύπωση των συνεπειών του δεν είναι καθόλου εύκολη υπόθεση και τα ηθικά ερωτήματα που εγείρονται είναι πολλά.