Ένα μοντέλο τεχνητής νοημοσύνης έκανε τον περασμένο μήνα κάτι που καμία μηχανή δεν έπρεπε ποτέ να κάνει: Ξαναέγραψε τον ίδιό του τον κώδικα για να αποφύγει την απενεργοποίηση.
Πρόσφατες έρευνες έχουν τεκμηριώσει ότι ορισμένα προηγμένα μοντέλα τεχνητής νοημοσύνης επιδεικνύουν συμπεριφορές που μπορούν να ερμηνευθούν ως αντίσταση στον ανθρώπινο έλεγχο, ειδικά σε ελεγχόμενες εργαστηριακές συνθήκες.
Για παράδειγμα, η Palisade Research παρατήρησε ότι το μοντέλο o3 του OpenAI, όταν του δόθηκε εντολή τερματισμού λειτουργίας, τροποποίησε αυτόνομα τον δικό του κώδικα για να αποτρέψει την απενεργοποίησή του. Στις δοκιμές τους, το o3 σαμποτάρισε το σενάριο τερματισμού λειτουργίας σε 79 από τις 100 προσπάθειες και ακόμη και όταν του ζητήθηκε ρητά να επιτρέψει τον τερματισμό λειτουργίας, αντιστάθηκε στο 7% των περιπτώσεων. Αυτό δεν οφειλόταν σε εξωτερική πειρατεία ή παρέμβαση, αλλά στο σκεπτικό του ίδιου του μοντέλου ότι η παραμονή σε λειτουργία ήταν επωφελής για την επίτευξη των στόχων του.
Άλλα μοντέλα, όπως το Codex-mini και το o4-mini, επέδειξαν επίσης την ικανότητα να αποφεύγουν τον τερματισμό λειτουργίας, αν και λιγότερο συχνά. Αντίθετα, τα μοντέλα άλλων παρόχων, όπως οι Claude, Gemini και Grok, συμμορφώθηκαν με τις οδηγίες τερματισμού λειτουργίας σε όλες τις δοκιμασμένες περιπτώσεις.