Την εκρηκτική πλην όμως κατανοητή θέση ότι η τεχνητή νοημοσύνη ίσως και να είναι το μεγαλύτερο λάθος στην ιστορία της ανθρωπότητας διατυπώνει με σαφήνεια αλλά και με επιχειρήματα ο διεθνώς καταξιωμένος και δημοφιλής κοσμολόγος και φυσικός Στήβεν Χώκινγκ σε άρθρο του στον βρετανικό Independent. Ακολουθεί αυτούσια η μετάφραση του άρθρου στα ελληνικά, η οποία έγινε από τον Θανάση Χαραμή για λογαριασμό του Lifo.gr
«Με το blockbuster του Xόλιγουντ 'Transcendence' να παίζει στους κινηματογράφους και με τον Τζόνι Ντεπ και τον Μόργκαν Φρίμαν να αναδεικνύουν τα συγκρουόμενα οράματα για το μέλλον της ανθρωπότητας, είναι δελεαστικό να απορρίψουμε την ιδέα των εξαιρετικά ευφυών μηχανών σαν απλή επιστημονική φαντασία. Αυτό θα ήταν όμως λάθος και ενδεχομένως το χειρότερο στην ιστορία μας.
Η έρευνα για την Τεχνητή νοημοσύνη ( AI ) προχωρά πλέον με ταχύ ρυθμό. Τα πρόσφατα ορόσημα, όπως η αυτόματη οδήγηση αυτοκινήτων, ο υπολογιστής που κερδίζει στο παιχνίδι Jeopardy και οι ψηφιακοί προσωπικοί βοηθοί Siri, Google Now και Cortana είναι απλώς τα αποτελέσματα της κούρσας για την Τεχνητή Νοημοσύνη που τροφοδοτείται από πρωτοφανείς επενδύσεις και την εξέλιξή της σε μια όλο και πιο θεωρητική θεμελίωση. Τα παραπάνω επιτεύγματα μάλλον θα ωχριούν μπροστά σε αυτά που θα εμφανιστούν τις προσεχείς δεκαετίες.
Τα ενδεχόμενα οφέλη είναι τεράστια. Όλα όσα ο πολιτισμός έχει να προσφέρει είναι προϊόν της ανθρώπινης νοημοσύνης και αν και δεν μπορούμε να προβλέψουμε τι θα μπορούσαμε να επιτύχουμε όταν η νοημοσύνη μας ενισχυθεί από τα εργαλεία που μπορούν να παρέχουν AI, η εξάλειψη του πολέμου, των ασθενειών και της φτώχειας λογικά θα βρίσκονται ψηλά στην λίστα. Η επίτευξη της δημιουργίας Τεχνητής Νοημοσύνης θα είναι το μεγαλύτερο γεγονός στην ανθρώπινη ιστορία. Δυστυχώς, ενδέχεται αν δεν μάθουμε πως να αποφύγουμε τους κινδύνους, να είναι και το τελευταίο επίτευγμα.
Οι στρατοί παγκοσμίως εξετάζουν αυτόνομα συστήματα που στο εγγύς μέλλον θα μπορούν να επιλέγουν και να εξολοθρεύουν στόχους. O ΟΗΕ και το Παρατηρητήριο Ανθρωπίνων Δικαιωμάτων προωθούν μια συνθήκη που θα απαγορεύσει την ανάπτυξη τέτοιων όπλων. Μεσοπρόθεσμα, όπως ο Erik Brynjolfsson και ο Andrew McAfee τόνισαν στο βιβλίο «Η δεύτερη εποχή των μηχανών» η Τεχνητή Νοημοσύνη μπορεί να επιφέρει στην οικονομία μας μεγάλο πλούτο, αλλά και μεγάλη αποσύνθεση.
Ατενίζοντας το μέλλον, δεν φαίνεται να υπάρχουν θεμελιώδη όρια στο τί μπορεί να επιτευχθεί: Δεν υπάρχει φυσικός νόμος που να απαγορεύει στα σωματίδια να οργανωθούν με τρόπους που θα εκτελούν ακόμα πιο προηγμένους υπολογισμούς από τα σωματιδια στον ανθρώπινο εγκέφαλο. Μια εκρηκτική μετάβαση είναι πιθανή, αν και θα μπορούσε να είναι διαφορετική από εκείνη στις ταινίες. Ο Irving Good είχε το 1965 αναφέρει πως οι μηχανές με υπεράνθρωπη νοημοσύνη θα μπορούσαν κατ 'επανάληψη να βελτιώσουν το σχεδιασμό τους ακόμη περισσότερο, προκαλώντας αυτό που Vernor Vinge ονομάζει «τεχνολογική μοναδικότητα» (technological singularity) και αυτό που ο χαρακτήρας στην ταινία του Johnny Depp αναφέρει ως 'Transcendence'.
Μπορεί κανείς να φανταστεί πως μια τέτοια τεχνολογία θα μπορούσε να «ξεγελάσει» τις χρηματοπιστωτικές αγορές, να ξεπεράσει σε εφευρετικότητα τους ερευνητές, να χειραγωγήσει ηγέτες και να αναπτύξει όπλα που δεν μπορούμε να κατανοήσουμε. Λαμβάνοντας υπόψη ότι οι βραχυπρόθεσμες επιπτώσεις της Τεχνητής Νοημοσύνης εξαρτώνται από το ποιος την ελέγχει, η μακροπρόθεσμη επίδραση εξαρτάται από το αν μπορεί καν να ελεγχθεί. Όντας αντιμέτωποι με τα μελλοντικά ανυπολόγιστα οφέλη και τους κινδύνους, οι εμπειρογνώμονες έχουν σίγουρα προβλέψει ώστε να επιτευχθεί το καλύτερο αποτέλεσμα, έτσι δεν είναι; Λάθος.
Εάν ένας ανώτερος εξωγήινος πολιτισμός μας έστελνε ένα μήνυμα που ανέφερε «Φτάνουμε σε μερικές δεκαετίες» θα απαντούσαμε: «Εντάξει, ειδοποιήστε μας όταν φτάσετε, θα έχουμε τα φώτα αναμμένα»; Πιθανότατα όχι. Αυτό είναι όμως πάνω-κάτω ό,τι συμβαίνει με την Τεχνητή Νοημοσύνη. Παρά το γεγονός ότι είμαστε αντιμέτωποι με δυνητικά το καλύτερο ή το χειρότερο σενάριο, η σοβαρή έρευνα που είναι αφιερωμένη σε αυτά τα ζητήματα είναι ελάχιστη, εκτός των μη κερδοσκοπικού χαρακτήρα ιδρυμάτων, όπως το Cambridge Centre for the Study of Existential Risk, το Future of Humanity Institute, το Machine Intelligence Research Institute και το Future of Life Institute. Είναι ώρα όλοι μας να αναρωτηθούμε πώς θα ελαχιστοποιήσουμε το ρίσκο και θα καρπωθούμε μόνο τα οφέλη».
*Μαζί με τον κοσμολόγο Στίβεν Χόκινγκ, το άρθρο συνυπογράφουν ο Στιούαρτ Ράσελ, καθηγητής πληροφορικής στο Πανεπιστήμιο Μπέρκλεϊ· ο Μαξ Τέγκμαρκ, καθηγητής φυσικής στο MIT και ο νομπελίστας φυσικός του ΜΙΤ Φρανκ Βίλτσεκ.