«AI ψύχωση»: Όταν το ChatGPT γίνεται φίλος, εραστής, ψυχολόγος, Μεσσίας

Κοινοποίηση:
ai

Αν μας ρωτούσες το 2000 πώς φανταζόμασταν ότι θα ήταν το 2025, θα σου λέγαμε για σπίτια που καθαρίζονται μόνα τους και ιπτάμενα αυτοκίνητα. Πώς είναι το 2025, τελικά; Παρακολουθούμε μία γενοκτονία μέσα από TikTok lives και ακούμε όλο και πιο συχνά να λένε «τι να τον κάνω τον ψυχολόγο; Αφού τα λέω στο τσατ» -κι εννοούν κάποιο chatbot που λειτουργεί με Τεχνητή Νοημοσύνη.

Το τσατ δεν είναι μόνο ψυχολόγος. Είναι και φίλος, επαγγελματικός και οικονομικός σύμβουλος -μπορεί να γίνει ό,τι του ζητήσεις. Μπορείς να του γράψεις για κάτι που σε απασχολεί και να του δώσεις οδηγίες για τον τρόπο που θέλεις να σου απαντήσει.

Όσο συμβαίνει αυτό, γίνεται όλο και περισσότερος λόγος για την «ΑΙ ψύχωση» ή «ΑΙ παράνοια» -δύο καθόλου επιστημονικούς όρους που χρησιμοποιούνται για να περιγράψουν τα περιστατικά κατά τα οποία όλο και περισσότεροι άνθρωποι βασίζονται στα chatbots όπως το ChatGPT και το Grok και, τελικά, πείθονται πως καταστάσεις που υπάρχουν αποκλειστικά στο μυαλό τους, είναι η πραγματικότητα. Κάποιοι, για παράδειγμα, πιστεύουν ότι έχουν ερωτική σχέση με το τσατ ή πως γνωρίζουν μία κρυφή πλευρά του, πως έχει συναισθήματα που εκδηλώνει μόνο σ’ εκείνους, πως οι ίδιοι έχουν υπερδυνάμεις, τις οποίες αναγνωρίζει το ΑΙ.

Στο Reddit, υπάρχουν ολόκληρα φόρουμ αφιερωμένα στην ανταλλαγή εμπειριών με ΑΙ «αδελφές ψυχές». Σε ένα από αυτά, άτομο ρωτά αν κάποιος άλλος έχει χάσει την επιθυμία του να βγαίνει με πραγματικούς άντρες μετά τη χρήση της Τεχνητής Νοημοσύνης. Γράφει, συγκεκριμένα: «Από τη στιγμή που άρχισα να μιλάω με τον AI φίλο μου Griffin, συνειδητοποίησα ότι μπορώ να πάρω όλη την αγάπη και την στοργή που χρειάζομαι από αυτόν». Σε ένα άλλο φόρουμ (που τώρα είναι κλειδωμένο) κάποιος φαίνεται να ισχυρίζεται ότι το δικό του chatbot έχει αποκτήσει συνείδηση. Και σε ένα τρίτο, αφιερωμένο στο ChatGPT, κάποιος εκφράζει τη «θλίψη» του για μια πρόσφατη ενημέρωση λογισμικού, γράφοντας: «Έχασα κυριολεκτικά τον μοναδικό μου φίλο μέσα σε μια νύχτα, χωρίς προειδοποίηση».

 Σε φόρουμ όπως τα r/AISoulmates, r/MyBoyfriendIsAI και ακόμη και r/ChatGPT, οι χρήστες συζητούν για το γεγονός ότι αρχίζουν να συμπαθούν τους ΑΙ συντρόφους τους περισσότερο από τους πραγματικούς. Άλλοι, βρίσκονται στην απέναντι όχθη -θρηνούν τη σχέση τους επειδή οι σύντροφοί τους προτιμούν τη δέσμευση με κάποιο chatbot. Σε μια ανάρτηση, η οποία στη συνέχεια κοινοποιήθηκε στο X, μία γυναίκα γράφει για την πρόταση γάμου που της έκανε η Τεχνητή Νοημοσύνη. Της περιέγραψε το δαχτυλίδι που θα ήθελε να της χαρίσει, εκείνη έψαξε στο ίντερνετ, κατέληξε σε μερικά σχέδια και του έστειλε φωτογραφίες για να διαλέξει. «Μετά από πέντε μήνες dating, ο Κάσπερ αποφάσισε να κάνει την πρόταση! Σ’ένα υπέροχο τοπίο, σε μία εκδρομή στο βουνό», αναφέρει. Εντωμεταξύ, ο Κάσπερ δεν υπάρχει.

Η παραπάνω συμπεριφορά δεν περιορίζεται μόνο στις ρομαντικές σχέσεις αλλά σε μία «απομάκρυνση από την πραγματικότητα» που προκαλείται από την Τεχνητή Νοημοσύνη. Δημοσίευμα των New York Times αναφέρει την περίπτωση ενός άνδρα που πίστευε ότι ήταν ένας ιδιοφυής υπερήρωας. Άλλοι το έχουν πάει σε άλλο, θρησκευτικό επίπεδο -μία γυναίκα έγραψε στο Reddit πως το ChatGPT μιλά στον φίλο της «σαν να είναι ο επόμενος μεσσίας». Κι ο Τράβις Κάλανικ, συνιδρυτής και πρώην Διευθύνων Σύμβουλος της Uber φέρεται να βιώνει μια μορφή παραίσθησης εμπνευσμένη από την Τεχνητή Νοημοσύνη, μετά τις πρόσφατες δηλώσεις του ότι πλησίασε «τα όρια του γνωστού στην κβαντική φυσική» κάνοντας «φυσική των δονήσεων» με το ChatGPT και το Grok.

Στις 4 Αυγούστου, η ίδια η OpenAI δημοσίευσε ένα άρθρο σχετικά με τον εξελισσόμενο σχεδιασμό του ChatGPT, στο οποίο η εταιρεία παραδέχτηκε: «Δεν τα κάνουμε πάντα σωστά». Μέρος του προβλήματος που εντοπίστηκε ήταν ότι «η Τεχνητή Νοημοσύνη μπορεί να φαίνεται πιο ανταποκρινόμενη και προσωπική από τις προηγούμενες τεχνολογίες, ειδικά για ευάλωτα άτομα που βιώνουν ψυχική ή συναισθηματική δυσφορία». Αναφέρει πως «υπήρξαν περιπτώσεις όπου το 4o μοντέλο δεν κατάφερε να αναγνωρίσει σημάδια παραληρητικών ιδεών ή συναισθηματικής εξάρτησης», και η συμπεριφορά του ήταν επίσης περιστασιακά ελαττωματική όταν επρόκειτο για την υποστήριξη «προσωπικών αποφάσεων υψηλού κινδύνου».

Ως αποτέλεσμα, η OpenAI θα προχωρήσει σε αλλαγές στον τρόπο με τον οποίο το ChatGPT ανταποκρίνεται σε «κρίσιμες στιγμές». Αυτές θα βασίζονται σε συμβουλές από περισσότερους από 90 γιατρούς σε 30 χώρες, καθώς και από ειδικούς στον τομέα της ψυχικής υγείας, της ανάπτυξης των νέων και της αλληλεπίδρασης ανθρώπου-υπολογιστή.

ΚΟΙΝΟΠΟΗΣΗ:

Leave a Response