Τεχνητή νοημοσύνη μαθαίνει να παίζει παιχνίδια μόνη της

Γενικός κανόνας της τεχνητής νοημοσύνης και των «έξυπνων» συστημάτων είναι ότι απαιτείται η εισαγωγή κάποιων στοιχείων/ δεδομένων στο σύστημα για να «πατήσει» κάπου και να από εκεί και πέρα να φέρνει σε πέρας εργασίες.


Article featured image
Article featured image

Αυτό φαίνεται ότι δεν ισχύει για την τεχνητή νοημοσύνη που αναπτύσσει η Google DeepMind, του Ντέμη Χασάμπη: η εταιρεία (πραγματοποιεί καινοτόμα έρευνα στον τομέα της Τεχνητής Νοημοσύνης, και αγοράστηκε πρόσφατα από την Google) έχει «εκπαιδεύσει» έναν παίκτη- Α.Ι στο να παίζει 49 διαφορετικά παιχνίδια από τον Atari 2600, ξεπερνώντας τα high scores των ανθρώπων παικτών σε 23 εξ αυτών. 

 Όπως αναφέρεται σε σχετικό δημοσίευμα του New Scientist, το λογισμικό δεν ενημερώνεται για τους κανόνες του παιχνιδιού, αλλά χρησιμοποιεί έναν αλγόριθμο (deep neural network) για να εξετάσει την κατάσταση του παιχνιδιού και να εξάγει συμπέρασμα σχετικά με το ποιες είναι οι ενέργειες οι οποίες και οδηγούν στο υψηλότερο συνολικό σκορ. 

 «Πρόκειται για τον πρώτο αλγόριθμο που μπορεί να φτάσει τις ανθρώπινες επιδόσεις σε ένα μεγάλο εύρος εργασιών- προκλήσεων» αναφέρει σχετικά ο κ. Χασάμπης. 

 Τα deep neural networks χρησιμοποιούντια συχνά για προβλήματα αναγνώρισης εικόνας, ωστόσο η DeepMind συνδυάζει τις δυνατότητές τους με μια άλλη τεχνική, το reinforcement learning, που «ανταμείβει» το σύστημα για συγκεκριμένες ενέργειες- όπως ένας άνθρωπος ανταμείβεται με high score όταν παίζει σωστά. 

Το λογισμικό παρουσίασε τις καλύτερες επιδόσεις σε απλά παιχνίδια φλίπερ και μποξ, ωστόσο τα πήγε καλά και στο Breakout, που ήταν πιο «arcade» προσανατολισμού, επιτυγχάνοντας μάλιστα και έναν «ελιγμό» που κάνουν μόνο πεπειραμένοι παίκτες. Κατά τον Χασάμπη, αυτό ήταν έκπληξη, καθώς η στρατηγική προήλθε από το υποκείμενο σύστημα. 

 Όπως επισημαίνει ο Γιούργκεν Σμίντχουμπερ, του Dalle Molle Institute for Artificial Intelligence Research (Ελβετία), η πρόοδος στην υπολογιστική ισχύ σημαίνει ότι τα συστήματα τεχνητής νοημοσύνης μπορούν να διαχειρίζονται πολύ μεγαλύτερα data sets πλέον. 

 Κατά τον Μάικλ Κουκ του Goldsmiths, University of London, η Google χρησιμοποιεί ήδη τεχνολογία της DeepMind σε επτά από τα προϊόντα της. 

Ο ίδιος σημειώνει ότι η DeepMind δίνει έμφαση στην εκμάθηση μέσω θέασης, παρά μέσω εισαγωγής δεδομένων από τον κώδικα του παιχνιδιού, και αυτό θα μπορούσε να σημαίνει ότι υπάρχει ενδιαφέρον για δεδομένα από βίντεο και εικόνες, ενώ σημειώνεται ότι κάτι τέτοιο θα μπορούσε να φανεί χρήσιμο και στα αυτοοδηγούμενα οχήματα της εταιρείας. 

 Σαφώς και δεν πρόκειται για το πρώτο σύστημα τεχνητής νοημοσύνης που νικά ανθρώπους σε παιχνίδι: χαρακτηριστικότατο παράδειγμα είναι ο Deep Blue της ΙΒΜ, που το 1997 είχε νικήσει τον Γκάρι Κασπάροφ στο σκάκι, και κάθε παίκτης παιχνιδιών στρατηγικής στον υπολογιστή έχει να εξιστορήσει...μακρές σειρές από ήττες στα χέρια της Α.Ι. 

Η βασική διαφορά του προγράμματος της DeppMind, όπως σημειώνεται σε δημοσίευμα του BBC, είναι ότι αυτό (ο «πράκτορας», όπως χαρακτηρίζεται από την εταιρεία) είναι εξοπλισμένο μόνο με τις πιο βασικές πληροφορίες πριν του δοθεί ένα παιχνίδι για να παίξει – όπως τα πίξελ στην οθόνη (κοινώς, η δυνατότητα να «βλέπει«) και η ιδέα ότι πρέπει να επιτύχει high score. 


[πηγη]

ΔΕΙΤΕ ΑΚΟΜΑ