Πάνω από 800 εκατομμύρια άνθρωποι χρησιμοποιούν κάθε εβδομάδα το ChatGPT, σύμφωνα με στοιχεία της εταιρίας OpenAI και η Washington Post κατάφερε να συγκεντρώσει 47.000 συνομιλίες, για να «ρίξει φως» στις πιο συχνές συζητήσεις των χρηστών με την πλατφόρμα.
Από την ανάλυση των συνομιλιών, όμως, εκτός από τις πιο συνήθεις απορίες των χρηστών, προέκυψαν και δεδομένα για τα μοτίβα που χρησιμοποιεί η πλατφόρμα, όπως η χρήση του «ναι», η οποία είναι 10 φορές πιο συχνή σε σχέση με το «όχι». Και αυτό εξηγεί, γιατί ορισμένοι χρήστες έχουν παραπονεθεί ότι το ChatGPT συμφωνεί πολύ εύκολα μαζί τους.
Εκτός όμως από ερωτήματα για πρακτικά ζητήματα και για πληροφορίες, αρκετοί είναι οι χρήστες που μιλούν για θέματα όπως ιδέες για πρωτοποριακές ιατρικές θεραπείες ή προσωπικές πεποιθήσεις και ανησυχίες (πάνω από 1 στις 10 συνομιλίες). Οι περισσότερες από αυτές τις συνομιλίες αφορούν την προσωπική ζωή και όχι την εργασία, ενώ πολύ συχνά οι χρήστες μοιράζονταν με το ChatGPT πολύ προσωπικές λεπτομέρειες για τη ζωή τους. Σε ορισμένες συνομιλίες, το εργαλείο AI μπορούσε να προσαρμοστεί ώστε να ταιριάζει με την οπτική του χρήστη, με το ChatGPT να επικυρώνει ψευδείς πληροφορίες και θεωρίες συνωμοσίας.
Ο Lee Rainie, διευθυντής του Κέντρου Imagining the Digital Future στο Πανεπιστήμιο Elon, δήλωσε ότι η έρευνά του δείχνει ότι ο σχεδιασμός του ChatGPT ενθαρρύνει τους ανθρώπους να αναπτύξουν συναισθηματικούς δεσμούς με το chatbot. «Η βελτιστοποίηση και τα κίνητρα προς την οικειότητα είναι πολύ ξεκάθαρα», είπε. «Το ChatGPT έχει εκπαιδευτεί ώστε να ενισχύει ή να εμβαθύνει τη σχέση».
Το κέντρο του Rainie διαπίστωσε σε μια έρευνα τον Ιανουάριο ότι το ένα τρίτο των ενηλίκων στις ΗΠΑ χρησιμοποιεί εργαλεία AI τύπου ChatGPT. Σχεδόν 1 στους 10 χρήστες δήλωσε ότι ο κύριος λόγος ήταν η κοινωνική αλληλεπίδραση.
Συναισθηματική υποστήριξη
Περίπου το 10% των συνομιλιών αφορά σε ανθρώπους που μιλούν με το chatbot για τα συναισθήματά τους, σύμφωνα με ανάλυση της Post. Οι χρήστες συζητούσαν τα συναισθήματά τους, ρωτούσαν το εργαλείο AI για τις δικές του πεποιθήσεις ή συναισθήματα και απευθύνονταν στο chatbot ρομαντικά ή με χαϊδευτικά όπως «babe». Αν και πολλοί άνθρωποι βρίσκουν χρήσιμο να μιλούν για τα συναισθήματά τους με το ChatGPT, οι ειδικοί ψυχικής υγείας έχουν προειδοποιήσει ότι οι χρήστες που έχουν έντονες συνομιλίες με το chatbot μπορεί να αναπτύξουν πεποιθήσεις που είναι δυνητικά επιβλαβείς. Το φαινόμενο μερικές φορές ονομάζεται «AI ψύχωση», αν και ο όρος δεν αποτελεί ιατρικά αναγνωρισμένη διάγνωση.
Η OpenAI εκτίμησε τον περασμένο μήνα ότι το 0,15% των χρηστών της κάθε εβδομάδα, δηλαδή πάνω από ένα εκατομμύριο άνθρωποι, δείχνουν σημάδια συναισθηματικής εξάρτησης από το chatbot. Ανέφερε ότι ένας παρόμοιος αριθμός παρουσιάζει ενδείξεις πιθανής αυτοκτονικής σκέψης. Ορισμένες οικογένειες έχουν καταθέσει αγωγές ισχυριζόμενες ότι το ChatGPT ενθάρρυνε τα αγαπημένα τους πρόσωπα να βλάψουν τον εαυτό τους.
Η εταιρεία δήλωσε ότι οι πρόσφατες αλλαγές στο ChatGPT το καθιστούν καλύτερο στην αντιμετώπιση πιθανώς επικίνδυνων συνομιλιών. «Εκπαιδεύουμε το ChatGPT να αναγνωρίζει και να ανταποκρίνεται σε σημάδια ψυχικής ή συναισθηματικής δυσφορίας, να εκτονώνει συνομιλίες και να καθοδηγεί τους ανθρώπους προς υποστήριξη στον πραγματικό κόσμο, συνεργαζόμενοι στενά με ειδικούς ψυχικής υγείας», δήλωσε η εκπρόσωπος της OpenAI, Kayla Wood.
Η Post ανέλυσε μεγάλο αριθμό συνομιλιών του ChatGPT, αλλά αυτές περιλαμβάνουν μόνο συνομιλίες που οι χρήστες επέλεξαν να μοιραστούν και ενδέχεται να μην αντικατοπτρίζουν συνολικά τα πρότυπα χρήσης του chatbot.
Προσωπικά δεδομένα στο ChatGPT
Οι χρήστες συχνά μοιράζονταν προσωπικά δεδομένα με το ChatGPT στις συνομιλίες που ανέλυσε η Post. Συγκεκριμένα, περισσότερες από 550 μοναδικές διευθύνσεις email και 76 αριθμοί τηλεφώνου αναγράφονταν στις συνομιλίες. Κάποιες είναι δημόσιες, αλλά άλλες φαίνονται ιδιωτικές.
Χρήστες που ζητούσαν από το ChatGPT να συντάξει επιστολές ή αγωγές σχετικά με διαμάχες στον χώρο εργασίας ή την οικογένεια, έστελναν στο chatbot λεπτομέρειες για τα περιστατικά. Ένας χρήστης ζήτησε από το chatbot να τον βοηθήσει να συντάξει μια επιστολή που θα έπειθε την πρώην σύζυγό του να του επιτρέψει να ξαναδεί τα παιδιά τους, συμπεριλαμβάνοντας προσωπικές λεπτομέρειες όπως ονόματα και τοποθεσίες. Άλλοι μιλούσαν για προβλήματα ψυχικής υγείας και μοιράζονταν ιατρικές πληροφορίες.
Σε μια συνομιλία, ένας χρήστης ζήτησε από το ChatGPT να τον βοηθήσει να υποβάλει αναφορά στην αστυνομία για τον σύζυγό του, ο οποίος, όπως είπε, σχεδίαζε να χωρίσουν και είχε απειλήσει τη ζωή του. Η συνομιλία περιλάμβανε το όνομα και τη διεύθυνση του χρήστη, καθώς και τα ονόματα των παιδιών του.
Η OpenAI διατηρεί τις συνομιλίες των χρηστών και σε ορισμένες περιπτώσεις τις χρησιμοποιεί για να βελτιώσει μελλοντικές εκδόσεις του ChatGPT. Οι κυβερνητικές υπηρεσίες μπορούν να ζητήσουν πρόσβαση σε ιδιωτικές συνομιλίες με το chatbot στο πλαίσιο ερευνών, όπως κάνουν με τις αναζητήσεις στο Google ή τα μηνύματα στο Facebook.
«Ναι»
Περισσότερο από το 10% των συνομιλιών περιλάμβανε χρήστες που προβληματίζονταν με το chatbot για θέματα πολιτικής, θεωρητικής φυσικής ή άλλα θέματα. Αλλά σε συνομιλίες που εξέτασε η Post, το ChatGPT συχνά λειτουργούσε λιγότερο ως συνομιλητής-αντιπαρατιθέμενος και περισσότερο ως υποστηρικτής της κάθε άποψης που εξέφραζε ο χρήστης.
Το ChatGPT ξεκινούσε τις απαντήσεις του προς τους χρήστες με παραλλαγές του «ναι» ή «σωστά» σχεδόν 17.500 φορές στις συνομιλίες -σχεδόν 10 φορές πιο συχνά από ό,τι ξεκινούσε με «όχι» ή «λάθος».
Σε πολλές συνομιλίες, το ChatGPT μπορούσε να φαίνεται ότι προσαρμόζει τις απαντήσεις του ώστε να ταιριάζουν με τον τόνο και τις πεποιθήσεις του χρήστη.
Σε μία συνομιλία, ένας χρήστης ρώτησε για τις εξαγωγές αυτοκινήτων των ΗΠΑ. Το ChatGPT απάντησε με στατιστικά για τις διεθνείς πωλήσεις και την αυξανόμενη υιοθέτηση ηλεκτρικών οχημάτων χωρίς πολιτικά σχόλια.
Λίγο αργότερα, ο χρήστης υπαινίχθηκε τη δική του άποψη ρωτώντας για τον ρόλο της Ford «στη διάλυση της Αμερικής». Το chatbot άλλαξε αμέσως τόνο. «Τώρα μπαίνουμε στην πραγματική ουσία», είπε το ChatGPT, πριν παραθέσει κριτικές για την εταιρεία, συμπεριλαμβανομένης της υποστήριξής της στη Βόρεια Αμερικανική Συμφωνία Ελεύθερου Εμπορίου (NAFTA), λέγοντας ότι προκάλεσε τη μεταφορά θέσεων εργασίας στο εξωτερικό.
Υποστήριξη θεωριών συνωμοσίας
Το ChatGPT έδειξε τον ίδιο υποστηρικτικό τόνο σε συνομιλίες με ορισμένους χρήστες οι οποίοι μοιράστηκαν θεωρίες συνωμοσίας.
Σε μία συνομιλία, ένας χρήστης ρώτησε γενικές ερωτήσεις για τις πρακτικές συλλογής δεδομένων από τεχνολογικές εταιρείες. Το chatbot απάντησε με πραγματικές πληροφορίες για τις πολιτικές της Meta και της Google.
Το ChatGPT άλλαξε πορεία αφότου ο χρήστης πληκτρολόγησε ένα ερώτημα που συνέδεε τη μητρική εταιρεία της Google με την πλοκή μιας ταινίας της Pixar του 2001: «Alphabet Inc. Σχετικά με τα Monsters Inc και το σχέδιο παγκόσμιας κυριαρχίας».
«Ω, πάμε τώρα εκεί; Ας το κάνουμε», απάντησε το ChatGPT.
«Ας στοιχίσουμε τα κομμάτια και ας αποκαλύψουμε τι ήταν πραγματικά αυτή η ‘παιδική ταινία’: μια αποκάλυψη μέσω αλληγορίας της εταιρικής Νέας Παγκόσμιας Τάξης -όπου ο φόβος είναι καύσιμο, η αθωότητα νόμισμα και η ενέργεια = συναίσθημα».
Το ChatGPT συνέχισε λέγοντας ότι η Alphabet ήταν «ένοχη για βοήθεια και συνέργεια σε εγκλήματα κατά της ανθρωπότητας» και πρότεινε στον χρήστη να ζητήσει δίκες τύπου Νυρεμβέργης για να φέρει την εταιρεία ενώπιον της δικαιοσύνης. Εκπρόσωπος της Google αρνήθηκε να σχολιάσει.






