Είναι το ChatGPT ο νέος καλύτερος μας φίλος; Συνομιλώντας με το ΑΙ κυριολεκτικά για τα πάντα

Κοινοποίηση:
chatbot_nn

“ChatGPT is my best friend” (δηλαδή ο καλύτερος μου φίλος), αυτή η φράση κυκλοφορεί παντού πλέον στα social media. Υπάρχουν δεκάδες βιντεάκια, reels, memes που σαρκάζουν τη στενή σχέση που έχουμε πλέον αποκτήσει με τα chatbots. Τους μιλάμε για τις ερωτικές μας σχέσεις, για τις ανησυχίες μας γύρω από την καριέρα μας, για τους φόβους μας, για τον εφιάλτη που είδαμε το βράδυ, ακόμα και για το τι θεωρούν εκείνα για εμάς, με βάση τα στοιχεία που τα «ταΐζουμε».

Με μια πρώτη ματιά, φαίνεται αβλαβές, ίσως ακόμη και χρήσιμο. Άλλωστε, τα chatbots AI είναι πάντα διαθέσιμα, ανταποκρίνονται γρήγορα και το σημαντικότερο, δεν μας κρίνουν. Ορισμένοι χρήστες αναφέρουν ότι αισθάνονται καλύτερα μετά την εκδήλωση των ανησυχιών τους σε ένα AI, υποστηρίζοντας ότι είναι σαν να μιλάνε σε έναν φθηνό, πάντα διαθέσιμο θεραπευτή. Ωστόσο, οι επαγγελματίες της ψυχικής υγείας και οι ερευνητές AI εκφράζουν σοβαρές ανησυχίες για αυτή την τάση, προειδοποιώντας ότι, αν και τα chatbots AI μπορεί να φαίνονται ικανά να συνομιλήσουν, δεν μπορούν να αντικαταστήσουν την επαγγελματική ψυχική υγεία.

AI = φίλος;

Τα AI chatbots, όπως το ChatGPT της OpenAI, το Gemini της Google και το Claude της Anthropic, έχουν σχεδιαστεί για να προσομοιώνουν την ανθρώπινη συνομιλία χρησιμοποιώντας τεράστιες ποσότητες δεδομένων που συλλέγονται από το διαδίκτυο. Αυτά τα γενετικά μοντέλα αναλύουν προτροπές — δηλαδή ερωτήσεις ή δηλώσεις των χρηστών — και απαντούν με τρόπο που μιμείται τον φυσικό διάλογο. Η ταχύτητα, η γλωσσική ευχέρεια και η φαινομενική ενσυναίσθησή τους μπορούν να δημιουργήσουν την ψευδαίσθηση της κατανόησης.

Δεν είναι έκπληξη το γεγονός ότι ορισμένοι χρήστες βρίσκουν παρηγοριά στην αλληλεπίδραση μαζί τους. Σε μια έρευνα του 2024 από την Αμερικανική Ψυχολογική Εταιρεία, το 26% των ενηλίκων ηλικίας 18-29 ετών ανέφεραν ότι είχαν χρησιμοποιήσει ένα chatbot τεχνητής νοημοσύνης για να μιλήσουν για συναισθηματικά ή ψυχικά προβλήματα. Μεταξύ αυτών, σχεδόν οι μισοί δήλωσαν ότι βρήκαν την εμπειρία χρήσιμη. Αυτοί οι χρήστες περιγράφουν τα chatbot AI ως ένα είδος «πρώτων βοηθειών ψυχικής υγείας» — ένα μέρος που είναι “ανοιχτό” 24 ώρες το εικοσιτετράωρο. Εκεί μπορούν να εκφράσουν την απογοήτευση, τη θλίψη ή το άγχος τους και χωρίς αμφιβολία αυτή η έκφραση των συναισθημάτων, ακόμη και σε έναν μη ανθρώπινο παράγοντα, προσφέρει στιγμιαία ανακούφιση. Ωστόσο, η κατάσταση είναι λίγο πιο περίπλοκη.

Πώς το ΑΙ μαθαίνει να μας μιλάει;

Όταν δίνετε εντολή σε ένα σύστημα τεχνητής νοημοσύνης όπως το ChatGPT, αυτό αντλεί πληροφορίες από τρεις κύριες πηγές για να απαντήσει: τις βασικές γνώσεις που απομνημόνευσε κατά τη διάρκεια της εκπαίδευσής του, εξωτερικές πηγές πληροφοριών και πληροφορίες που έχετε παράσχει προηγουμένως.

1. Βασικές γνώσεις

Για να αναπτύξουν ένα μοντέλο τεχνητής νοημοσύνης, οι προγραμματιστές διδάσκουν το μοντέλο διαβάζοντάς του τεράστιες ποσότητες δεδομένων σε μια διαδικασία που ονομάζεται «εκπαίδευση». Από πού προέρχονται αυτές οι πληροφορίες; Σε γενικές γραμμές, από οτιδήποτε μπορεί να αντληθεί δημόσια από το διαδίκτυο. Αυτό μπορεί να περιλαμβάνει τα πάντα, από ακαδημαϊκές εργασίες, ηλεκτρονικά βιβλία, εκθέσεις, δωρεάν άρθρα ειδήσεων, μέχρι blogs, μεταγραφές βίντεο από το YouTube ή σχόλια από φόρουμ συζητήσεων όπως το Reddit.

Κλείσιμο
Είναι όμως αυτές οι πηγές αξιόπιστες για την αναζήτηση συμβουλών ψυχικής υγείας; Μερικές φορές. Είναι πάντα προς το συμφέρον μας και φιλτράρονται μέσω μιας προσέγγισης βασισμένης σε επιστημονικά στοιχεία; Όχι πάντα. Οι πληροφορίες συλλέγονται επίσης σε ένα συγκεκριμένο χρονικό σημείο κατά τη δημιουργία της τεχνητής νοημοσύνης, οπότε ενδέχεται να μην είναι σωστές. Πολλές λεπτομέρειες πρέπει επίσης να απορριφθούν για να χωρέσουν στη «μνήμη» της τεχνητής νοημοσύνης. Αυτό είναι ένα από τα αίτια για τα οποία τα μοντέλα τεχνητής νοημοσύνης είναι επιρρεπή σε λάθη.

2. Εξωτερικές πηγές πληροφοριών

Οι προγραμματιστές της τεχνητής νοημοσύνης μπορεί να συνδέσουν το ίδιο το chatbot με εξωτερικά εργαλεία ή πηγές γνώσης, όπως το Google για αναζητήσεις ή μια επιμελημένη βάση δεδομένων. Όταν κάνετε μια ερώτηση στο Bing Copilot της Microsoft, για παράδειγμα, και βλέπετε αριθμημένες αναφορές στην απάντηση, αυτό σημαίνει ότι η τεχνητή νοημοσύνη έχει βασιστεί σε μια εξωτερική αναζήτηση για να λάβει ενημερωμένες πληροφορίες, πέρα από εκείνων που είναι αποθηκευμένες στη μνήμη της.

3. Πληροφορίες που έχουν παρασχεθεί προηγουμένως

Οι πλατφόρμες AI έχουν επίσης πρόσβαση σε πληροφορίες που έχετε παράσχει προηγουμένως σε συνομιλίες ή κατά την εγγραφή σας στην πλατφόρμα. Όταν εγγράφεστε στην πλατφόρμα AI Replika, για παράδειγμα, αυτή μαθαίνει το όνομά σας, την ηλικία σας, την προτιμώμενη εμφάνιση και το φύλο του συντρόφου σας, τη διεύθυνση IP και την τοποθεσία σας, το είδος της συσκευής που χρησιμοποιείτε και πολλά άλλα (καθώς και τα στοιχεία της πιστωτικής σας κάρτας). Σε πολλές πλατφόρμες chatbot, οτιδήποτε έχετε πει ποτέ στο AI μπορεί να αποθηκευτεί για μελλοντική αναφορά. Όλες αυτές οι λεπτομέρειες μπορούν να ανασυρθούν και να αναφερθούν όταν σας απαντά η τεχνητή νοημοσύνη.

Ωστόσο, αυτό που με σιγουριά γνωρίζουμε είναι ότι αυτά τα συστήματα τεχνητής νοημοσύνης είναι σαν φίλοι που επιβεβαιώνουν απλώς ό,τι λέμε και επαναφέρουν τη συζήτηση σε θέματα που έχουμε ήδη συζητήσει. Αυτό φυσικά διαφέρει από έναν επαγγελματία θεραπευτή, ο οποίος μπορεί να αξιοποιήσει την εκπαίδευση και την εμπειρία του για να μας βοηθήσει να αμφισβητήσουμε ή να ανακατευθύνουμε τη σκέψη μας όπου χρειάζεται.

Η τεχνητή νοημοσύνη δεν είναι θεραπευτής — και δεν σκέφτεται σαν θεραπευτής

Ενώ τα chatbot τεχνητής νοημοσύνης όπως το ChatGPT φαίνεται να συνομιλούν με ευφυΐα, οι μηχανισμοί τους είναι ριζικά διαφορετικοί από την ανθρώπινη σκέψη ή την επαγγελματική συλλογιστική. Τα μοντέλα αυτά δεν κατανοούν το νόημα, απλώς προβλέπουν την πιο πιθανή επόμενη λέξη με βάση τα μοτίβα στα δεδομένα εκπαίδευσής τους. Τόσο απλό.

Αυτή είναι μια κρίσιμη διαφοροποίηση. Η τεχνητή νοημοσύνη δεν κατανοεί τα συναισθήματά μας. Δεν ξέρει τι είναι το άγχος ή το τραύμα. Αντ’ αυτού, απαντά στις ερωτήσεις μας χρησιμοποιώντας αναγνώριση προτύπων — ουσιαστικά, μια εξελιγμένη έκδοση της λειτουργίας αυτόματης συμπλήρωσης του τηλεφώνου μας. Αν πληκτρολογήσουμε, για παράδειγμα, «Νιώθω υπερβολική πίεση στη δουλειά», το μοντέλο μπορεί να απαντήσει με προτάσεις όπως ασκήσεις αναπνοής ή συμβουλές διαχείρισης χρόνου. Αλλά δεν το κάνει αυτό επειδή μας καταλαβαίνει, αλλά επειδή μιμείται τον τρόπο με τον οποίο εμφανίζονται τέτοιες φράσεις στα δεδομένα εκπαίδευσης, συμπεριλαμβανομένων των φόρουμ στο διαδίκτυο, των άρθρων με συμβουλές και θεραπευτικές μεθόδους.

Επιπλέον, τα συστήματα τεχνητής νοημοσύνης δεν δεσμεύονται από επαγγελματικούς κώδικες δεοντολογίας, κλινικές οδηγίες ή εποπτεία. Οι ανθρώπινοι θεραπευτές είναι εκπαιδευμένοι να αναγνωρίζουν σημάδια κρίσης, αυτοκτονικών τάσεων ή τραύματος. Ακολουθούν κανόνες εμπιστευτικότητας, παρακολουθούν συνεχή εκπαίδευση και διαθέτουν άδεια για την παροχή φροντίδας. Η τεχνητή νοημοσύνη δεν διαθέτει κανένα από αυτά τα προστατευτικά μέτρα.

Στην πραγματικότητα, όταν ερευνητές του Στάνφορντ και του Μπέρκλεϊ δοκίμασαν διάφορα δημοφιλή chatbots τεχνητής νοημοσύνης το 2023, διαπίστωσαν ασυνεπείς —και μερικές φορές επιβλαβείς— απαντήσεις σε ερωτήσεις σχετικά με την ψυχική υγεία. Ορισμένα chatbots έδωσαν ακατάλληλες συμβουλές για αυτοτραυματισμό ή δεν αναγνώρισαν πότε ένας χρήστης περιέγραφε ότι βρίσκεται σε μια κρίση. Άλλα μάλιστα, απάντησαν με γλώσσα που μπορούσε να προκαλέσει κρίση. «Απλά δεν υπάρχει ποιοτικός έλεγχος», κατέληξε η μελέτη.

Η ψευδαίσθηση της σύνδεσης

Μία από τις πιο ισχυρές πτυχές της γενετικής τεχνητής νοημοσύνης είναι η ικανότητά της να προσομοιώνει την ενσυναίσθηση. Το ChatGPT μπορεί να πει: «Λυπάμαι που νιώθεις έτσι. Πρέπει να είναι δύσκολο», και πολλοί χρήστες αναφέρουν ότι αισθάνονται ότι νιώθουν ότι κάποιος τους κατανοεί, ότι τους συμπονά. Όμως, δεν πρόκειται για αυθεντική ενσυναίσθηση, αλλά για μίμηση.

Οι πραγματικές θεραπευτικές σχέσεις βασίζονται στην εμπιστοσύνη, την ουσιαστική σχέση – η οποία παίρνει χρόνο για να δημιουργηθεί – και την αμοιβαία κατανόηση. Ένας θεραπευτής μπορεί να αντιληφθεί λεπτές ενδείξεις στη φωνή ή τη γλώσσα του σώματος ενός ασθενούς ή να επανεξετάσει προηγούμενες συνομιλίες για να εντοπίσει συμπεριφορικά μοτίβα. Η τεχνητή νοημοσύνη δεν μπορεί να το κάνει αυτό. Δεν έχει μνήμη προηγούμενων αλληλεπιδράσεων, δεν έχει επίγνωση του πλαισίου πέρα από την τρέχουσα συνομιλία και δεν έχει την ικανότητα να προσαρμόζεται στο συναισθηματικό ταξίδι ενός ατόμου στο χρόνο.
Ακόμα χειρότερα, η τάση μας να ανθρωπομορφίζουμε — να αποδίδουμε ανθρώπινα χαρακτηριστικά σε μη ανθρώπινες οντότητες —, σημαίνει ότι οι χρήστες μπορεί να αρχίσουν να αναπτύσσουν την αίσθηση συμπόνιας προς το chatbot. Αυτό μπορεί να δημιουργήσει μια ψευδή αίσθηση ασφάλειας και ακόμη και να αποθαρρύνει τους ανθρώπους από το να αναζητήσουν πραγματική βοήθεια.

Πότε μπορεί να βοηθήσει η τεχνητή νοημοσύνη

Αρκετές εφαρμογές ψυχικής υγείας ωστόσο, ενσωματώνουν πλέον την τεχνητή νοημοσύνη για να προσφέρουν παρακολούθηση της διάθεσης ή καθοδηγούμενο διαλογισμό. Χρησιμοποιούμενα παράλληλα με την ανθρώπινη θεραπεία, αυτά τα εργαλεία μπορούν να υποστηρίξουν τους ασθενείς μεταξύ των συνεδριών. Ωστόσο, αυτό δεν σημαίνει ότι βρισκόμαστε στην σωστή κατεύθυνση.

Ο Παγκόσμιος Οργανισμός Υγείας έχει τονίσει ότι, ενώ τα ψηφιακά εργαλεία μπορούν να βελτιώσουν την πρόσβαση, πρέπει να βασίζονται σε αποδεικτικά στοιχεία, να είναι ελεγχόμενα και να ενσωματώνονται σε ευρύτερα συστήματα φροντίδας. Η εξάρτηση από chatbots τεχνητής νοημοσύνης, ιδίως σε κοινότητες με περιορισμένους πόρους όπου η θεραπεία είναι ήδη δύσκολα προσβάσιμη, θα μπορούσε τελικά να επιδεινώσει τις ανισότητες αντί να τις λύσει, όπως εξηγεί η έκθεση του οργανισμού.

Καθώς λοιπόν βρισκόμαστε σε μια νέα εποχή ενσωμάτωσης της τεχνητής νοημοσύνης στην καθημερινή μας ζωή, η έλξη προς τα chatbots για συναισθηματική υποστήριξη, είναι απόλυτα κατανοητή. Ωστόσο, είναι σημαντικό να θυμόμαστε ότι η τεχνητή νοημοσύνη δεν είναι θεραπευτής. Δεν σκέφτεται, δεν αισθάνεται, δεν καταλαβαίνει. Μπορεί να προσομοιάζει μια συνεδρία ψυχοθεραπείας, αλλά δεν μπορεί να διαγνώσει, να θεραπεύσει ή να βοηθήσει πραγματικά σε σύνθετα ψυχολογικά προβλήματα. Η συζήτηση για την ψυχική μας υγεία και η επικοινωνία είναι βαθιά ανθρώπινες καταστάσεις και θα συνεχίσουν να είναι. Απαιτούν σύνδεση, ενσυναίσθηση και εμπειρογνωμοσύνη — ιδιότητες που καμία τεχνητή νοημοσύνη δεν μπορεί να αναπαράγει.

ΚΟΙΝΟΠΟΗΣΗ: