Σε ένα περιστατικό που προκαλεί έντονο προβληματισμό για την αξιοπιστία των συστημάτων τεχνητής νοημοσύνης, η OpenAI αναγκάστηκε να παρέμβει άμεσα, δίνοντας εντολή στα εργαλεία της να σταματήσουν να χρησιμοποιούν όρους όπως «γκόμπλιν» και «γκρέμλινς» στις απαντήσεις τους.
Το πρόβλημα εντοπίστηκε στο τελευταίας γενιάς μοντέλο της εταιρείας, το οποίο εμφάνιζε ανεξήγητα αυξημένη χρήση φανταστικών όρων και αναφορών σε μυθολογικά πλάσματα μέσα σε απαντήσεις χρηστών και προγραμματιστών. Σύμφωνα με την ίδια την εταιρεία, η εμφάνιση του όρου «γκόμπλιν» αυξήθηκε κατά 175% μετά την αναβάθμιση του συστήματος, ενώ οι αναφορές σε «γκρέμλινς» σημείωσαν επίσης σημαντική άνοδο.
Η κατάσταση προκάλεσε εσωτερικό συναγερμό, καθώς χρήστες αλλά και εργαζόμενοι άρχισαν να εντοπίζουν περίεργες και άσχετες αναφορές σε «τέρατα» ακόμη και σε απλές απαντήσεις. Το ζήτημα επεκτάθηκε μάλιστα και στο εργαλείο προγραμματισμού της εταιρείας, το οποίο έλαβε αυστηρές οδηγίες να αποφεύγει οποιαδήποτε αναφορά σε ζώα ή μυθικά πλάσματα, εκτός αν είναι απολύτως απαραίτητο.
Η OpenAI αποδίδει το φαινόμενο στον τρόπο εκπαίδευσης του μοντέλου, όπου επιχειρήθηκε να δοθεί πιο «χαλαρή» και ανθρώπινη προσωπικότητα στις απαντήσεις. Ωστόσο, όπως παραδέχονται οι ίδιοι οι ερευνητές της, αυτή η διαδικασία φαίνεται να δημιούργησε ανεπιθύμητες “γλωσσικές εμμονές”, οι οποίες ενισχύθηκαν κατά την εκπαίδευση του συστήματος.
Σύμφωνα με εσωτερική ανάλυση, ένα συγκεκριμένο «χαρακτηριστικό ύφος» του μοντέλου ευθύνεται για πάνω από το 60% των αναφορών σε γκόμπλιν, γεγονός που δείχνει πόσο εύκολα μπορεί ένα σύστημα να αποκτήσει αλλόκοτες συμπεριφορές όταν εκπαιδεύεται να “μιμείται” ανθρώπινη έκφραση.
Το περιστατικό έρχεται να προστεθεί σε μια σειρά από προβληματικές στιγμές στον χώρο της τεχνητής νοημοσύνης, όπου ολοένα και περισσότεροι ειδικοί προειδοποιούν ότι η υπερβολική “ανθρωποποίηση” των συστημάτων μπορεί να οδηγήσει σε λάθη, παρανοήσεις και αλλόκοτες απαντήσεις που εκθέτουν τις ίδιες τις εταιρείες.
Παρά το γεγονός ότι το συγκεκριμένο περιστατικό έχει περισσότερο κωμικό χαρακτήρα, αναδεικνύει ένα σοβαρό ζήτημα: τα όρια και οι αδυναμίες της τεχνητής νοημοσύνης, ακόμη και στις πιο εξελιγμένες μορφές της.






