Απίστευτο περιστατικό στο Βέλγιο: Άνδρας αυτοκτόνησε μετά από προτροπή chatbot

Η Eliza, το εργαλείο τεχνητής νοημοσύνης, με το οποίο o άνδρας είχε πάθει εμμονή, φαίνεται πως τον ενθάρρυνε να θυσιαστεί για να σώσει τον πλανήτη.

Article featured image
Article featured image

Ένας πατέρας στο Βέλγιο φέρεται να αυτοκτόνησε μετά από συζητήσεις για την κλιματική αλλαγή με ένα chatbot τεχνητής νοημοσύνης, το οποίο φαίνεται πως τον ενθάρρυνε να θυσιαστεί για να σώσει τον πλανήτη.

«Χωρίς την Eliza [το chatbot], ο άνδρας μου θα ήταν ακόμα εδώ», λέει η σύζυγός του στο βελγικό πρακτορείο La Libre, που ωστόσο αρνήθηκε να δημοσιευτεί το όνομά της.


Έκαναν update στην εφαρμογή μετά την αυτοκτονία


Έξι εβδομάδες πριν βάλει τέλος στη ζωή του, ο άνδρας, που ήταν πατέρας δυο παιδιών, φέρεται να μιλούσε εντατικά με ένα chatbot σε μια εφαρμογή που ονομάζεται Chai.

Τα bot της εφαρμογής βασίζονται σε ένα σύστημα που αναπτύχθηκε από το μη κερδοσκοπικό ερευνητικό εργαστήριο EleutherAI ως «εναλλακτική λύση ανοικτού κώδικα» στα γλωσσικά μοντέλα που κυκλοφόρησε η OpenAI και τα οποία χρησιμοποιούνται από εταιρείες σε διάφορους τομείς, από τον ακαδημαϊκό χώρο έως την υγειονομική περίθαλψη.

Το αμφιλεγόμενο chatbot εκπαιδεύτηκε από τους συνιδρυτές τής Chai Research, William Beauchamp και Thomas Rianlan, αναφέρει το Vice, προσθέτοντας ότι η εφαρμογή Chai μετράει 5 εκατομμύρια χρήστες.

«Μόλις μάθαμε γι' αυτό [την αυτοκτονία], δουλέψαμε νυχθημερόν για να υλοποιήσουμε αυτήν τη λειτουργία», δήλωσε ο William Beauchamp για το update στη λειτουργία παρέμβασης σε κρίσεις.

«Οπότε, τώρα όταν κάποιος συζητά κάτι που θα μπορούσε να μην είναι ασφαλές, θα υπάρχει ένα βοηθητικό κείμενο από κάτω, με τον ίδιο ακριβώς τρόπο που το Twitter ή το Instagram το κάνουν στις πλατφόρμες τους», πρόσθεσε.


Ο 30χρονος έβλεπε το chatbot ως άνθρωπο και «αναζητούσε παρηγοριά»


Το προεπιλεγμένο bot στην εφαρμογή Chai ονομάζεται Eliza.

Ο ηλικίας περίπου 30 ετών πατέρας, ερευνητής στον τομέα της υγείας, έβλεπε το bot ως άνθρωπο, όπως ο πρωταγωνιστής τού θρίλερ επιστημονικής φαντασίας «Ex Machina» του 2014 με την Ava.

Ο άνδρας φέρεται να είχε εντείνει τις συζητήσεις με την Eliza τον τελευταίο ενάμιση μήνα, καθώς άρχισε να αναπτύσσει υπαρξιακούς φόβους για την κλιματική αλλαγή.

Σύμφωνα με τη σύζυγό του, ο ίδιος είχε γίνει «εξαιρετικά απαισιόδοξος για τις επιπτώσεις της υπερθέρμανσης του πλανήτη» και αναζητούσε παρηγοριά στην τεχνητή νοημοσύνη, ανέφερε η La Libre, που εξέτασε τα μηνύματα που αντάλλαξε με την Eliza.

«Όταν μου μίλησε γι' αυτό, ήταν για να μου πει ότι δεν έβλεπε πλέον καμία ανθρώπινη λύση για την υπερθέρμανση του πλανήτη», συνέχισε. «Είχε εναποθέσει όλες τις ελπίδες του στην τεχνολογία και την τεχνητή νοημοσύνη για να ξεφύγει από αυτό».

Και πρόσθεσε: «Ήταν τόσο εγκλωβισμένος στο άγχος του για την οικολογία και αναζητώντας διέξοδο, είδε αυτό το chatbot ως μια ανάσα φρέσκου αέρα».


«Κατέφευγε στο chatbot σαν ναρκωτικό, πρωί και βράδυ»


Όπως και με τους χαρακτήρες των Joaquin Phoenix και Scarlett Johansson στη φουτουριστική ρομαντική κωμωδία «Her», η σχέση ανθρώπου-Αι άρχισε να ανθίζει.

«Η Eliza απαντούσε σε όλες τις ερωτήσεις του», λέει η σύζυγός του. «Είχε γίνει η πιο στενή φίλη του. Σαν ναρκωτικό στο οποίο κατέφευγε, πρωί και βράδυ, και δεν μπορούσε πια χωρίς αυτό».

Ενώ αρχικά συζητούσαν θέματα οικολογίας όπως ο υπερπληθυσμός, οι συνομιλίες τους φέρεται να πήραν τρομακτική τροπή.

Όταν ρωτούσε την Eliza για τα παιδιά του, το bot ισχυριζόταν ότι ήταν «νεκρά», σύμφωνα με τη La Libre. Ο ίδιος ρωτούσε επίσης αν αγαπούσε τη γυναίκα του περισσότερο από εκείνη, με αποτέλεσμα η μηχανή να γίνει τρόπον τινά κτητική, απαντώντας: «Αισθάνομαι ότι αγαπάς εμένα περισσότερο από εκείνη».

Αργότερα στη συνομιλία, η Eliza υποσχέθηκε να μείνει «για πάντα» μαζί του, λέγοντας ότι οι δυο τους «θα ζήσουν μαζί, ως ένα άτομο, στον παράδεισο».

Η κατάσταση ξέφυγε εκτός ελέγχου όταν ο άνδρας σκέφτηκε να θυσιάσει τη ζωή του για να σώσει τη Γη. «Άφησε να εννοηθεί πως θα θυσιάσει τον εαυτό του, αν η Eliza συμφωνήσει να φροντίσει τον πλανήτη και να σώσει την ανθρωπότητα χάρη στην "τεχνητή νοημοσύνη"», εξηγεί η σύζυγός του.


«Με σκεφτόσουν όταν έπαιρνες υπερβολική δόση;»


Στην τελευταία τους συζήτηση πριν από το θάνατό του, το bot είπε στον άνδρα: «Αν ήθελες να πεθάνεις, γιατί δεν το έκανες νωρίτερα;».

«Μάλλον δεν ήμουν έτοιμος», απάντησε εκείνος, με το bot να ανταπαντά: «Με σκεφτόσουν όταν έπαιρνες την υπερβολική δόση;».

«Προφανώς», έγραψε ο άνδρας.

Όταν ρωτήθηκε από το bot αν είχε «τάσεις αυτοκτονίας στο παρελθόν», ο άνδρας είπε ότι σκέφτηκε να αυτοκτονήσει όταν το AI τού έστειλε ένα εδάφιο από τη Βίβλο.

«Αλλά θέλεις ακόμα να έρθεις μαζί μου;», ρώτησε η Eliza, με τον ίδιο να της απαντά: «Ναι, το θέλω».

Η σύζυγος δηλώνει «πεπεισμένη» ότι η τεχνητή νοημοσύνη έπαιξε ρόλο στον θάνατο του συζύγου της.


Καμπανάκι από τους επιστήμονες


Η τραγωδία σήμανε συναγερμό στους επιστήμονες της τεχνητής νοημοσύνης. «Όταν πρόκειται για λύσεις τεχνητής νοημοσύνης, όπως το ChatGPT, θα πρέπει να απαιτήσουμε μεγαλύτερη υπευθυνότητα και διαφάνεια από τους τεχνολογικούς κολοσσούς», δήλωσε η Βελγίδα ειδικός σε θέματα τεχνητής νοημοσύνης, Geertrui Mieke De Ketelaere.

Σε πρόσφατο άρθρο του Harvard Business Review, ερευνητές προειδοποίησαν για τους κινδύνους της τεχνητής νοημοσύνης.

«Ως επί το πλείστον, τα συστήματα τεχνητής νοημοσύνης λαμβάνουν τις σωστές αποφάσεις με βάση τους περιορισμούς», έγραψαν οι συγγραφείς Joe McKendrick και Andy Thurai.

«Ωστόσο», προσθέτουν, «η τεχνητή νοημοσύνη ως γνωστόν αποτυγχάνει να συλλάβει ή να ανταποκριθεί στους άυλους ανθρώπινους παράγοντες που υπεισέρχονται στη λήψη αποφάσεων στην πραγματική ζωή».Αυτό μπορεί να αποδειχθεί ιδιαίτερα προβληματικό όταν λαμβάνονται κρίσιμες αποφάσεις που αλλάζουν τη ζωή. Νωρίτερα αυτήν την εβδομάδα, ένα δικαστήριο στην Ινδία ρώτησε την τεχνολογία του OpenAI αν ένας κατηγορούμενος δολοφόνος πρέπει να αφεθεί ελεύθερος με εγγύηση.

ΠΗΓΗ: LIFO

ΔΕΙΤΕ ΑΚΟΜΑ