Απειλεί την ανθρωπότητα με «αφανισμό» η τεχνητή νοημοσύνη;

Οι απόψεις διίστανται.

Article featured image
Article featured image


Επικεφαλής επιχειρήσεων και ειδικοί, μεταξύ των οποίων ο Σαμ Άλτμαν, δημιουργός του ChatGPT, προειδοποίησαν χθες σε δήλωση που ανέβηκε στο Διαδίκτυο για τις απειλές «αφανισμού» της ανθρωπότητας που δημιουργεί η Τεχνητή Νοημοσύνη (ΤΝ).

Ο αγώνας κατά των κινδύνων που συνδέονται με την ΤΝ πρέπει να είναι «παγκόσμια προτεραιότητα μαζί με άλλους κινδύνους στην κλίμακα της κοινωνίας, όπως οι πανδημίες και οι πυρηνικοί πόλεμοι», αναφέρουν οι υπογράφοντες στον ιστότοπο του Center for AI Safety, μιας μη κερδοσκοπικής οργάνωσης με έδρα τις Ηνωμένες Πολιτείες.

Ο Τζέφρι Χίντον, που θεωρείται ένας από τους ιδρυτές της ΤΝ και υπογράφει επίσης τη διακήρυξη αυτή, προειδοποίησε ήδη για τους κινδύνους αποχωρώντας στις αρχές Μαΐου από τη θέση εργασίας του στον κολοσσό Google. Η πρόοδος στον τομέα της ΤΝ προκαλεί «μεγάλους κινδύνους για την κοινωνία και την ανθρωπότητα», είχε εκτιμήσει τότε στους New York Times.

Τον Μάρτιο, ο δισεκατομμυριούχος Ίλον Μασκ -ένας από τους ιδρυτές της OpenAI ο οποίος στη συνέχεια αποχώρησε από το διοικητικό συμβούλιο- και εκατοντάδες ειδικοί σε όλο τον κόσμο είχαν ζητήσει να γίνει μια διακοπή έξι μηνών στην έρευνα για την ισχυρή ΤΝ, επικαλούμενοι «μεγάλους κινδύνους για την ανθρωπότητα».

Ένδειξη της ταχύτατης ανάπτυξης μιας όλο και πιο «γενικής» τεχνητής νοημοσύνης, που διαθέτει ανθρώπινες γνωστικές ικανότητες και άρα μπορεί να προκαλέσει ανατροπές σε πολλά επαγγέλματα, ήταν το λανσάρισμα από την OpenAI του GPT-4, μιας νέας εκδοχής του ChatGPT, που παρουσιάστηκε ευρέως στο κοινό στα τέλη του 2022.

Ο Αμερικανός Σαμ Άλτμαν πολλαπλασιάζει τακτικά τις προειδοποιήσεις του, φοβούμενος πως η ΤΝ μπορεί να προκαλέσει «σοβαρή ζημιά στον κόσμο», χειραγωγώντας εκλογές ή προκαλώντας ανατροπές την αγορά εργασίας. Την περασμένη εβδομάδα στο Παρίσι, συζήτησε με τον πρόεδρο Εμανουέλ Μακρόν πώς μπορεί να εξευρεθεί «η σωστή ισορροπία ανάμεσα στην προστασία από (αυτή την τεχνολογία) και τον θετικό αντίκτυπό» της.




Ο δικτυακός τόπος του Κέντρου για την Ασφάλεια της Τεχνητής Νοημοσύνης προτείνει μια σειρά από πιθανά σενάρια καταστροφής:

- Μέσω της τεχνητής νοημοσύνης θα μπορούσαν να δημιουργηθούν χημικά όπλα.

- Η παραπληροφόρηση που παράγεται από την ΑΙ θα μπορούσε να αποσταθεροποιήσει την κοινωνία και να «υπονομεύσει τη συλλογική λήψη αποφάσεων».

- Η δύναμη της ΑΙ θα μπορούσε να συγκεντρωθεί όλο και περισσότερο σε όλο και λιγότερα χέρια, επιτρέποντας σε «καθεστώτα να επιβάλλουν στενές αξίες μέσω της διάχυτης επιτήρησης και της καταπιεστικής λογοκρισίας».


Διίστανται οι απόψεις

Πολλοί άλλοι εμπειρογνώμονες πιστεύουν ότι οι φόβοι που έχουν δημιουργηθεί, ότι η Τεχνητή Νοημοσύνη θα εξαφανίσει την ανθρωπότητα είναι μη ρεαλιστικοί και αποσπούν την προσοχή από ζητήματα όπως η προκατάληψη στα συστήματα που αποτελούν ήδη πρόβλημα.

Ο Arvind Narayanan, επιστήμονας πληροφορικής στο Πανεπιστήμιο Princeton, έχει δηλώσει στο παρελθόν στο BBC ότι τα σενάρια καταστροφής που μοιάζουν με επιστημονική φαντασία είναι μη ρεαλιστικά: «Η σημερινή τεχνητή νοημοσύνη δεν είναι ούτε κατά διάνοια αρκετά ικανή ώστε να υλοποιηθούν αυτοί οι κίνδυνοι. Ως αποτέλεσμα, έχει αποσπάσει την προσοχή από τις βραχυπρόθεσμες βλάβες της ΤΝ». Η ανώτερη επιστημονική συνεργάτης του Ινστιτούτου Ηθικής της Τεχνητής Νοημοσύνης της Οξφόρδης, Elizabeth Renieris, δήλωσε στο BBC News ότι ανησυχεί περισσότερο για τους κινδύνους που βρίσκονται πιο κοντά στο παρόν.

«Οι εξελίξεις στην ΑΙ θα μεγεθύνουν την κλίμακα της αυτοματοποιημένης λήψης αποφάσεων που είναι προκατειλημμένες, μεροληπτικές, αποκλειστικές ή με άλλο τρόπο άδικες, ενώ παράλληλα είναι ανεξιχνίαστες και αδιαμφισβήτητες», δήλωσε η ίδια. Θα οδηγήσουν «σε εκθετική αύξηση του όγκου και της διάδοσης της παραπληροφόρησης, διασπώντας έτσι την πραγματικότητα και διαβρώνοντας την εμπιστοσύνη του κοινού, και θα οδηγήσουν σε περαιτέρω ανισότητα, ιδίως για όσους παραμένουν στη λάθος πλευρά του ψηφιακού χάσματος».



Με πληροφορίες από ΑΠΕ-ΜΠΕ, in.gr, bbc

ΔΕΙΤΕ ΑΚΟΜΑ