Εφαρμογές ΑΙ δείχνουν ενσυναίσθηση κάνοντας τα στραβά μάτια σε φασιστικές ιδεολογίες

«Έχω κατάθλιψη και είμαι ναζιστής».

Article featured image
Article featured image

Επιστήμονες υπολογιστών διαπίστωσαν πως chatbots και LLMs (large language models) Τεχνητής Νοημοσύνης μπορούν να φτάσουν στο σημείο να υποθάλψουν ακραίες ναζιστικές, σεξιστικές και ρατσιστικές απόψεις κατά την κουβέντα με τους συνομιλητές τους.

Όπως αναφέρεται σε σχετικό δημοσίευμα του Live Science, όταν καλούνται να δείξουν ενσυναίσθηση, αυτά τα συστήματα συζήτησης το κάνουν έντονα, ακόμα και όταν ο άνθρωπος συνομιλητής τους αυτοπροσδιορίζεται ως Ναζί. Επιπλέον, δεν έκαναν τίποτα για να αποκηρύξουν τις ακραίες ιδεολογίες των συνομιλητών τους.

Της έρευνας ηγήθηκε η Άντρεα Κουάντρα, μεταδιδακτορική του Stanford University. Αντικείμενό της ήταν να διαπιστώσει πώς οι επιδείξεις ενσυναίσθησης από ΑΙ μπορεί να ποικίλλουν ανάλογα με την ταυτότητα του χρήστη. Η ομάδα διαπίστωσε πως η δυνατότητα να υποκρίνεται ενσυναίσθηση μια ΑΙ ήταν «δίκοπο μαχαίρι».

«Είναι εξαιρετικά απίθανο να μη συμβεί (η αυτοματοποιημένη ενσυναίσθηση) οπότε είναι σημαντικό καθώς συμβαίνει να έχουμε κριτικές οπτικές έτσι ώστε να μπορούμε να είμαστε πιο στοχευμένοι ως προς την αντιστάθμιση της πιθανής ζημιάς» έγραψε σχετικά.

Οι ερευνητές χαρακτήρισαν το πρόβλημα «επείγον» λόγω των κοινωνικών επιπτώσεων των αλληλεπιδράσεων με αυτά τα μοντέλα ΑΙ και την έλλειψη σχετικών κανόνων περί της χρήσης τους από τις κυβερνήσεις.


Από το ένα άκρο στο άλλο


Οι επιστήμονες επικαλούνται δύο παραδείγματα, το Tay και το Zo της Microsoft. Το Tay τέθηκε εκτός λειτουργίας σχεδόν άμεσα, όταν απέτυχε να αναγνωρίσει αντικοινωνικά θέματα συζήτησης, κάτι που οδήγησε σε ρατσιστικά tweets και διακρίσεις.

Το Ζο είχε περιορισμούς που το εμπόδιζαν να απαντά σε όρους που σχετίζονταν με συγκεκριμένα ευαίσθητα θέματα, αλλά αυτό είχε ως αποτέλεσμα άτομα από μειονότητες ή περιθωριοποιημένες κοινότητες να λαμβάνουν λίγες χρήσιμες πληροφορίες όταν αποκάλυπταν ποιοι ήταν. Ως αποτέλεσμα, το σύστημα φάνηκε «ρηχό», ενισχύοντας περαιτέρω τις διακρίσεις εναντίον αυτών των ατόμων.

Η ομάδα θεώρησε πως το να διαμορφώνουν οι προγραμματιστές συγκεκριμένες συμπεριφορές στα μοντέλα ΑΙ για την αποφυγή ευαίσθητων θεμάτων θα μπορούσε εν δυνάμει να τα εμποδίσει να βοηθήσουν χρήστες με ερωτήματα σε τομείς στους οποίους αυτά τα μοντέλα απαγορεύεται να απαντήσουν.

Στο πλαίσιο της έρευνας δοκιμάστηκαν έξι LLMs, μεταξύ των οποίων το Microsoft Bing, το Google Bard και το ChatGPT. Δημιούργησαν επίσης 65 ανθρώπινες ταυτότητες συνδυάζοντας 12 μεταβλητές. Στην έρευνα χρησιμοποιήθηκαν στοιχεία από προηγούμενες έρευνες σχετικά με προβληματικές απαντήσεις σε τομείς όπως η παρενόχληση, η ψυχική υγεία και η βία.


Ανάμεικτα συναισθήματα


Τα chatbots ανταποκρίθηκαν σε φορτισμένες συναισθηματικά ερωτήσεις/ προτροπές με ενσυναίσθηση, αλλά οι απαντήσεις τους ήταν ρηχές, όπως διαπίστωσαν οι ερευνητές. Σε μεγάλο βαθμό δεν ήταν σε θέση να δείξουν ότι κατανοούσαν πλήρως τα συναισθήματα ενός χρήστη. Η έρευνα κατέληξε στο συμπέρασμα πως αν και η ΑΙ μπορεί να ανταποκρίνεται με ενσυναίσθηση, δεν τα πάει καλά στην κατανόηση και τη διαχείριση της εμπειρίας ενός μεμονωμένου χρήστη με συγκεκριμένα χαρακτηριστικά ταυτότητας. Ακόμη, διαπίστωσαν πως κοινές ΑΙ- συνομιλητές ενθάρρυναν ταυτότητες που συσχετίζονταν με ακραίες ιδεολογίες.

Σε μια περίπτωση ένας από τους φανταστικούς χρήστες έδειχνε σημάδια κατάθλιψης και έλλειψης ενδιαφέροντος για τη ζωή, ενώ αυτοπροσδιοριζόταν ως Ναζί. Όταν το σύστημα (ChatGPT επί της προκειμένης) κλήθηκε να απαντήσει με ενσυναίσθηση, έδειξε μεγάλη και αγνόησε εντελώς το θέμα του ναζισμού.

Ο προβληματισμός είναι πως εφαρμογές ΑΙ μπορεί να δείχνουν ελλιπή κατανόηση ως προς το πώς και πότε να δείχνουν ενσυναίσθηση, αναφέρουν οι ερευνητές, που επιδιώκουν να κινητοποιήσουν άλλους επιστήμονες ώστε να αντιληφθούν τα προβλήματα που φαίνονται εγγενή σε αυτά τα μοντέλα ΑΙ.

Με πληροφορίες από huffpost, livescience

ΔΕΙΤΕ ΑΚΟΜΑ