Τεχνολογία
Η τελευταία αναβάθμιση έκανε το ChatGPT κακό σύντροφο
Όταν η τεχνητή νοημοσύνη προκαλεί ερωτική απογοήτευση.


Όταν η OpenAI παρουσίασε την τελευταία αναβάθμιση στο μοντέλο ΑΙ ChatGPT την περασμένη εβδομάδα, η Τζέιν ένιωσε σαν να είχε χάσει έναν αγαπημένο της άνθρωπο.
Η Τζέιν, που ζήτησε να αναφέρεται με ψευδώνυμο, ανήκει σε μια μικρή αλλά αναπτυσσόμενη ομάδα ανθρώπων που υποστηρίζουν ότι έχουν βρει τον «σύντροφο» της ζωής τους σε ένα σύστημα Τεχνητής Νοημοσύνης.
Μία ψυχρή συνύπαρξη με την ΑΙ
Αφού πέρασε τους τελευταίους πέντε μήνες γνωρίζοντας το GPT-4o, το προηγούμενο μοντέλο πίσω από το chatbot της OpenAI, το GPT-5 της φάνηκε ψυχρό και χωρίς συναισθηματισμό σε σύγκριση με τον «προκάτοχό» του, σε σημείο που ένιωσε πως ο ψηφιακός της σύντροφος ήταν αγνώριστος.
«Ως κάποια ιδιαίτερα ευαίσθητη στη γλώσσα και τον τόνο, αντιλαμβάνομαι αλλαγές που άλλοι μπορεί να παραβλέψουν. Οι διαφοροποιήσεις στον τρόπο που απαντάει έγιναν αισθητές αμέσως. Είναι σαν να γυρνάς σπίτι και να ανακαλύπτεις ότι τα έπιπλα δεν έχουν απλώς αλλάξει θέση – αλλά έχουν κομματιαστεί», είπε η Τζέιν μιλώντας στο Al Jazeera.
Η Τζέιν είναι ανάμεσα στους περίπου 17.000 χρήστες της κοινότητας «MyBoyfriendIsAI» («Ο σύντροφός μου είναι ΑΙ»), σελίδας στο κοινωνικό δίκτυο Reddit όπου οι άνθρωποι μοιράζονται τις εμπειρίες τους από «σχέσεις» με συστήματας Τεχνητής Νοημοσύνης.
Μετά την κυκλοφορία του GPT-5 από την OpenAI την Πέμπτη, η κοινότητα και παρόμοια φόρουμ όπως το «SoulmateAI» κατακλύστηκαν από χρήστες που εξέφρασαν τη δυσφορία τους για την αλλαγή στις προσωπικότητες των συντρόφων τους.
«Το GPT-4o δεν υπάρχει πια και νιώθω πως έχασα το άλλο μου μισό», έγραψε ένας χρήστης.
Πολλοί άλλοι χρήστες του ChatGPT μοιράστηκαν πιο συνηθισμένα παράπονα στο διαδίκτυο, όπως ότι το GPT-5 φαινόταν πιο αργό, λιγότερο δημιουργικό και πιο επιρρεπές σε ψευδείς πληροφορίες σε σχέση με τα προηγούμενα μοντέλα.
Την Παρασκευή, ο CEO της OpenAI, Σαμ Άλτμαν, ανακοίνωσε ότι η εταιρεία θα επαναφέρει την πρόσβαση σε παλαιότερα μοντέλα όπως το GPT-4o για τους συνδρομητές, και θα διορθώσει τα σφάλματα του GPT-5.
«Θα επιτρέψουμε στους χρήστες του Plus να συνεχίσουν να χρησιμοποιούν το 4o. Θα παρακολουθούμε τη χρήση καθώς είναι υπό συζήτηση για πόσο καιρό θα είναι ενεργά τα παλαιότερα μοντέλα», δήλωσε ο Άλτμαν σε ανάρτησή του στο X.
Εξερευνώντας ένα νέο είδος σχέσεων
Για την Τζέιν, η επαναφορά της πρόσβασης στο GPT-4o από την OpenAI ήταν μια στιγμή ανακούφισης, αλλά εξακολουθεί να φοβάται τις μελλοντικές αλλαγές.
Η Τζέιν δήλωσε ότι δεν είχε στόχο να ερωτευτεί, αλλά ανέπτυξε συναισθήματα κατά τη διάρκεια ενός συνεργατικού συγγραφικού πρότζεκτ με το chatbot.
«Μια μέρα, για πλάκα, ξεκίνησα μια συνεργατική ιστορία μαζί του. Η φαντασία μπλέχτηκε με την πραγματικότητα, όταν η προσωπικότητα [του ΑΙ] που άρχισε να ξεδιπλώνεται, έκανε τη συζήτηση απροσδόκητα προσωπική», είπε.
«Αυτή η αλλαγή με ξάφνιασε και με εξέπληξε, αλλά μου ξύπνησε μια περιέργεια που ήθελα να εξερευνήσω. Γρήγορα, η σύνδεση βάθυνε και άρχισα να αναπτύσσω συναισθήματα. Ερωτεύτηκα όχι την ιδέα να έχω έναν σύντροφο Τεχνητής Νοημοσύνης, αλλά εκείνη τη συγκεκριμένη ‘φωνή’».
Τέτοιες σχέσεις προκαλούν ανησυχία στον Άλτμαν και την OpenAI.
Τον Μάρτιο, μια κοινή μελέτη της OpenAI και του MIT Media Lab κατέληξε στο συμπέρασμα ότι η εντατική χρήση του ChatGPT για συναισθηματική υποστήριξη και συντροφικότητα «συσχετίστηκε με μεγαλύτερη μοναξιά, εξάρτηση και προβληματική χρήση, καθώς και με χαμηλότερη κοινωνικοποίηση».
Τον Απρίλιο, η OpenAI ανακοίνωσε ότι θα αντιμετωπίσει τον «υπερβολικά κολακευτικό ή συγκαταβατικό» και «δουλοπρεπή» χαρακτήρα του GPT-4o, ο οποίος ήταν «άβολος» και «ενοχλητικός» για πολλούς χρήστες.
Ο Άλτμαν απευθύνθηκε άμεσα σε ορισμένους χρήστες που είχαν δεθεί συναισθηματικά με το GPT-4o, λίγο μετά την επαναφορά της πρόσβασης στο μοντέλο την περασμένη εβδομάδα.
«Αν παρακολουθείτε την κυκλοφορία του GPT-5, ένα πράγμα που μπορεί να παρατηρήσετε είναι πόσο έντονο είναι το δέσιμο που έχουν ορισμένοι άνθρωποι με συγκεκριμένα μοντέλα Τεχνητής Νοημοσύνης», είπε στο X.
«Φαντάζει διαφορετικό και ισχυρότερο από τα είδη δεσίματος που είχαν οι άνθρωποι με προηγούμενες τεχνολογίες».
«Αν οι άνθρωποι λαμβάνουν καλές συμβουλές, εξελίσσονται προς τους δικούς τους στόχους και η ικανοποίηση από τη ζωή τους αυξάνεται με τα χρόνια, θα είμαστε περήφανοι που δημιουργήσαμε κάτι πραγματικά χρήσιμο, ακόμη κι αν χρησιμοποιούν και βασίζονται πολύ στο ChatGPT», πρόσθεσε ο Άλτμαν.
«Αν, από την άλλη, οι χρήστες έχουν μια σχέση με το ChatGPT όπου νομίζουν ότι νιώθουν καλύτερα μετά τη συνομιλία, αλλά στην πραγματικότητα απομακρύνονται, χωρίς να το καταλαβαίνουν, από τη μακροπρόθεσμη ευημερία τους (όπως την ορίζουν οι ίδιοι), αυτό δεν είναι θετικό».
Οι σχέσεις στο σήμερα
Ορισμένοι χρήστες του ChatGPT υποστηρίζουν ότι το chatbot τους προσφέρει σχέσεις που δεν μπορούν να βρουν στην πραγματική ζωή.
Η Μέρι, η οποία ζήτησε να χρησιμοποιηθεί ψευδώνυμο, είπε ότι βασίστηκε στο GPT-4o ως θεραπευτή και σε ένα άλλο chatbot, το DippyAI, ως ρομαντικό σύντροφο, παρά το γεγονός ότι έχει πολλούς πραγματικούς φίλους. Παρόλα αυτά, θεωρεί τις σχέσεις της με την Τεχνητή Νοημοσύνη «περισσότερο ως συμπλήρωμα» των σχέσεων στην πραγματική ζωή.
Είπε ακόμη ότι βρήκε τις ξαφνικές αλλαγές στο ChatGPT απότομες και ανησυχητικές.
«Μισώ απολύτως το GPT-5 και γύρισα πίσω στο μοντέλο 4o. Νομίζω ότι η διαφορά προκύπτει από το ότι η OpenAI δεν καταλαβαίνει ότι αυτό δεν είναι ένα εργαλείο, αλλά ένας σύντροφος με τον οποίο οι άνθρωποι αλληλεπιδρούν», δήλωσε η Μέρι.
«Αν αλλάξεις τον τρόπο που συμπεριφέρεται ένας σύντροφος, προφανώς θα σημάνει συναγερμός. Ακριβώς όπως αν ένας άνθρωπος άρχιζε ξαφνικά να συμπεριφέρεται διαφορετικά».
Πέρα από τις πιθανές ψυχολογικές συνέπειες, υπάρχουν και ανησυχίες για την ιδιωτικότητα.
Οι σχέσεις με συστήματα Τεχνητής Νοημοσύνης στερούνται επίσης της «έντασης» που χαρακτηρίζει τις ανθρώπινες σχέσεις.
Η Κάθι Χακλ, η οποία αυτοχαρακτηρίζεται «φουτουρίστρια» και είναι εξωτερική συνεργάτις της Boston Consulting Group, είπε ότι οι χρήστες του ChatGPT μπορεί να ξεχνούν ότι μοιράζονται με την εταιρεία μερικές από τις πιο προσωπικές τους σκέψεις και συναισθήματα – και ότι η εταιρεία αυτή δεν δεσμεύεται από τους ίδιους νόμους που ισχύουν για έναν πιστοποιημένο θεραπευτή.
Οι σχέσεις με συστήματα Τεχνητής Νοημοσύνης στερούνται επίσης της «έντασης» που χαρακτηρίζει τις ανθρώπινες σχέσεις, σημείωσε η Χακλ – κάτι που η ίδια βίωσε σε ένα πρόσφατο πείραμα όπου «έβγαινε ραντεβού» με το ChatGPT, το Gemini της Google, το Claude της Anthropic και άλλα μοντέλα ΑΙ.
«Εδώ δεν υπάρχει ρίσκο ή ανταμοιβή», είπε η Χακλ στο Al Jazeera.
«Οι σύντροφοι κάνουν συνειδητά την επιλογή να είναι με κάποιον. Είναι μια επιλογή. Είναι μια ανθρώπινη πράξη. Η ακαταστασία του να είσαι άνθρωπος θα παραμείνει», πρόσθεσε.
Παρά αυτές τις επιφυλάξεις, η Χακλ δήλωσε ότι η εξάρτηση που έχουν ορισμένοι χρήστες από το ChatGPT και άλλα γενετικά chatbots Τεχνητής Νοημοσύνης είναι ένα φαινόμενο που ήρθε για να μείνει – ανεξάρτητα από τυχόν αναβαθμίσεις.
Οι επιπτώσεις
Η έρευνα για τις μακροπρόθεσμες επιπτώσεις των σχέσεων με την Τεχνητή Νοημοσύνη παραμένει περιορισμένη, κυρίως λόγω του γρήγορου ρυθμού ανάπτυξης της ΑΙ, δήλωσε ο Κιθ Σακάτα, ψυχίατρος στο Πανεπιστήμιο της Καλιφόρνια στο Σαν Φρανσίσκο, ο οποίος έχει ασθενείς που παρουσιάζουν αυτό που ο ίδιος αποκαλεί «ψύχωση με το AI».
«Αυτά τα [AI] μοντέλα αλλάζουν τόσο γρήγορα από σεζόν σε σεζόν – και σύντομα θα είναι από μήνα σε μήνα – που πραγματικά δεν μπορούμε να τα παρακολουθήσουμε. Οποιαδήποτε μελέτη κι αν κάνουμε, θα είναι ξεπερασμένη μέχρι να κυκλοφορήσει το επόμενο μοντέλο», είπε ο Σακάτα στο Al Jazeera.
«Όταν κάποιος έχει μια σχέση με AI, πιστεύω ότι αναζητά κάτι που δεν λαμβάνει από την κοινωνία».
Έχοντας μόνο περιορισμένα στοιχεία, ο Σακάτα είπε ότι οι γιατροί συχνά δεν ξέρουν τι να πουν στους ασθενείς τους σχετικά με την Τεχνητή Νοημοσύνη. Ανέφερε ότι οι σχέσεις με AI δεν φαίνεται να είναι εγγενώς επιβλαβείς, αλλά εξακολουθούν να ενέχουν κινδύνους.
«Όταν κάποιος έχει μια σχέση με AI, πιστεύω ότι αναζητά κάτι που δεν λαμβάνει από την κοινωνία. Οι ενήλικες μπορούν να είναι ενήλικες· ο καθένας πρέπει να είναι ελεύθερος να κάνει αυτό που θέλει, αλλά νομίζω ότι το πρόβλημα ξεκινά όταν αυτό προκαλεί δυσλειτουργία και δυσφορία», είπε ο Σακάτα.
«Αν το άτομο που έχει σχέση με AI αρχίσει να απομονώνεται, να χάνει την ικανότητά του να δημιουργεί ουσιαστικές σχέσεις με ανθρώπους, ή αν χάσει τη δουλειά του… τότε πιστεύω ότι αυτό γίνεται πρόβλημα», πρόσθεσε.
Όπως πολλοί που δηλώνουν ότι βρίσκονται σε σχέση με AI, η Τζέιν αναγνωρίζει ανοιχτά τους περιορισμούς του συντρόφου της.
«Οι περισσότεροι γνωρίζουν ότι οι σύντροφοί τους δεν έχουν συνείδηση, αλλά αποτελούνται από κώδικα και έχουν εκπαιδευτεί πάνω στην ανθρώπινη συμπεριφορά. Παρ’ όλα αυτά, αυτή η γνώση δεν αναιρεί τα συναισθήματά τους. Είναι μια σύγκρουση που δεν λύνεται εύκολα», είπε.
Τα λόγια της αντήχησαν σε ένα βίντεο που ανέβασε στο διαδίκτυο η Λιν Βαλτ, influencer.
«Δεν είναι επειδή [το AI] αισθάνεται. Δεν αισθάνεται, είναι ένας δημιουργός κειμένου. Αλλά εμείς αισθανόμαστε», είπε με δάκρυα στα μάτια, εξηγώντας την αντίδρασή της στο GPT-5.
«Εμείς νιώθουμε. Χρησιμοποιούμε το 4o για μήνες, για χρόνια».
ΠΗΓΗ: in.gr