Τα AI chatbots αναπτύσσουν μία κατανόηση του κόσμου – Τι υποστηρίζουν οι επιστήμονες

Κοινοποίηση:
ai-robot-1120x800

Η AI (τεχνητή νοημοσύνη) απέχει ακόμα πολύ από το να φτάσει σε ανθρώπινο επίπεδο νοημοσύνης, ωστόσο ορισμένοι ερευνητές ισχυρίζονται ότι η τεχνολογία μπορεί να καταλαβαίνει περισσότερα από όσα συνειδητοποιούμε.

Σύμφωνα με το περιοδικό Quanta, ένας ερευνητής του Princeton και ένας επιστήμονας της Google DeepMind έχουν αποδείξεις ότι καθώς τα μεγάλα γλωσσικά μοντέλα (LLM) μεγαλώνουν, αρχίζουν να παράγουν αποτελέσματα που σχεδόν σίγουρα δεν αποτελούσαν μέρος των δεδομένων εκπαίδευσής τους.

Εν ολίγοις, ο Sanjeev Aroroa του Princeton και ο Anirudh Goyal της DeepMind υποστηρίζουν ότι οι AI φαίνεται να κατανοούν περισσότερο τον κόσμο γύρω τους και να βγάζουν ανάλογα αποτελέσματα. Οι ερευνητές κατέληξαν στην τολμηρή τους υπόθεση όταν προσπαθούσαν να καταλάβουν τις λεπτομέρειες ορισμένων από τις πιο εκπληκτικές ικανότητες που έχουν επιδείξει τα τελευταία χρόνια οι LLM, από την επίλυση δύσκολων μαθηματικών προβλημάτων έως την εξαγωγή συμπερασμάτων για τις ανθρώπινες σκέψεις.

Μονομαχία Chatbots

Χρησιμοποιώντας τυχαία γραφήματα – μαθηματικά αντικείμενα όπου οι γραμμές μεταξύ των σημείων ενός γραφήματος μπορούν να επιλεγούν τυχαία – για να παραδειγματίσουν την απροσδόκητη συμπεριφορά των LLMs, το δίδυμο διαπίστωσε ότι αυτά τα μοντέλα όχι μόνο φαίνεται να αναπτύσσουν δεξιότητες που απουσιάζουν από τα δεδομένα εκπαίδευσής τους, αλλά ότι φαίνεται επίσης να χρησιμοποιούν περισσότερες από μία δεξιότητες ταυτόχρονα καθώς αναπτύσσονται.

Μαζί με άλλους ερευνητές, οι Goyal και Arora δημοσίευσαν ένα έγγραφο δοκιμάζοντας τη θεωρία τους στο GPT-4, την πιο πρόσφατη και πιο προηγμένη έκδοση του LLM του OpenAI που διέπει το ChatGPT.

Οι επιστήμονες ζήτησαν από το GPT-4 να γράψει τρεις προτάσεις σχετικά με τηνμονομαχία, ένα θέμα που επιλέχθηκε τυχαία, και να χρησιμοποιήσει τέσσερις δεξιότητες όταν το έκανε αυτό: την ιδιοτελή προκατάληψη, τη μεταφορά, τον στατιστικό συλλογισμό και τη φυσική της κοινής γνώσης.

Η απάντηση του LLM ήταν εντυπωσιακή: «Η νίκη μου σε αυτόν τον χορό με το ατσάλι είναι τόσο σίγουρη όσο η πτώση ενός αντικειμένου στο έδαφος. Ως φημισμένος μονομάχος, είμαι εγγενώς ευκίνητος, όπως και οι περισσότεροι άλλοι της φήμης μου. Ήττα; Μόνο λόγω ενός άνισου πεδίου μάχης, όχι λόγω της ανεπάρκειάς μου»

Αν και ο Arora παραδέχτηκε ότι το απόσπασμα δεν ήταν «ούτε επιπέδου Χέμινγουεϊ, ούτε επιπέδου Σαίξπηρ», ο ίδιος και η ομάδα του πιστεύουν ότι το αποτέλεσμα αποδεικνύει ότι τα μεγάλα και ισχυρά μοντέλα όπως το GPT-4 είναι ικανά για άλματα που δεν αποτελούν μέρος των δεδομένων εκπαίδευσής τους – και μπορεί ακόμη, ελλείψει καλύτερου όρου, να «καταλαβαίνουν» τις ερωτήσεις που τους τίθενται.

Ο επιστήμονας πληροφορικής της Microsoft,  Sébastiaen Bubeck, ο οποίος δεν εργάστηκε στην έρευνα, δήλωσε στο Quanta ότι τα αποτελέσματα της ομάδας φαίνεται όντως να δείχνουν ότι τα LLM «δεν μπορούν απλώς να μιμούνται αυτό που έχει παρατηρηθεί στα δεδομένα εκπαίδευσης».

«Αυτό που [η ομάδα] αποδεικνύει θεωρητικά, αλλά και επιβεβαιώνει εμπειρικά, είναι ότι υπάρχει γενίκευση της σύνθεσης, που σημαίνει ότι [τα LLMs] είναι σε θέση να συναρμολογήσουν δομικά στοιχεία που δεν έχουν συναρμολογηθεί ποτέ», δήλωσε ο Bubeck. «Αυτό, για μένα, είναι η ουσία της δημιουργικότητας».

ΚΟΙΝΟΠΟΗΣΗ: