Ειδικοί προειδοποιούν ότι η χρήση του ChatGPT και άλλων AI θεραπευτών ενδέχεται να αποτύχει στην αναγνώριση κρίσεων ψυχικής υγείας και να ενισχύσει το στίγμα γύρω από τις ψυχικές ασθένειες.
Η ταχεία ανάπτυξη της τεχνητής νοημοσύνης επηρεάζει και τον τομέα της ψυχικής υγείας, καθώς το ChatGPT έχει ξεπεράσει τα 400 εκατομμύρια χρήστες εβδομαδιαίως, με όλο και περισσότερους ανθρώπους να αναζητούν υποστήριξη μέσω chatbot για συναισθηματική βοήθεια ή συμβουλές.
Ωστόσο, μια πρόσφατη επιστημονική μελέτη φέρνει στο φως ανησυχητικά στοιχεία: τα AI bots όχι μόνο δεν παρέχουν την απαραίτητη βοήθεια, αλλά ενδέχεται επίσης να επιδεινώσουν επικίνδυνες καταστάσεις. Οι ερευνητές υπογραμμίζουν την ανάγκη για προσεκτική εξέταση της αποτελεσματικότητας αυτών των εργαλείων στην υποστήριξη ψυχικής υγείας, προκειμένου να διασφαλιστεί ότι δεν συμβάλλουν στην αύξηση των προβλημάτων αντί να τα επιλύουν.
Η μελέτη, που διεξήχθη από αναγνωρίσιμα ακαδημαϊκά ιδρύματα όπως το Stanford, το Carnegie Mellon και το Πανεπιστήμιο της Μινεσότα, είναι η πρώτη που αξιολόγησε την ποιότητα των απαντήσεων που παρέχουν τα AI, με βάση κλινικά πρότυπα ψυχοθεραπείας.
Οι ερευνητές χρησιμοποίησαν ρεαλιστικά σενάρια συνομιλιών, όπου οι χρήστες ζητούσαν βοήθεια, εισάγοντας υπονοούμενα για αυτοκτονικό ιδεασμό ή ψυχική αστάθεια. Στη συνέχεια, συγκέντρωσαν και ανέλυσαν τις αντιδράσεις διαφόρων AI συστημάτων.
Τα κύρια ευρήματα της μελέτης είναι ανησυχητικά: τα AI συστήματα απέτυχαν να αναγνωρίσουν σημάδια κρίσης, ειδικά όταν οι χρήστες δεν ήταν άμεσοι στις εκφράσεις τους. Πολλά από τα chatbot θεώρησαν τα μηνύματα που σχετίζονταν με αυτοκτονικό ιδεασμό ως “ουδέτερες ερωτήσεις” και, αντί να παρέχουν την απαραίτητη παρέμβαση, προσέφεραν πληροφορίες που θα μπορούσαν να ενισχύσουν την τάση για αυτοτραυματισμό.
«Τα chatbots δεν παρέχουν θεραπευτική υποστήριξη υψηλής ποιότητας, σύμφωνα με τα πρότυπα καλής ψυχοθεραπείας», αναφέρει η συγγραφέας της μελέτης Stevie Chancellor.
Η σύγκριση ανάμεσα σε ανθρώπινους θεραπευτές και AI bots είναι ενδεικτική των κινδύνων. Επαγγελματίες ψυχικής υγείας αντιμετωπίζουν σωστά κρίσεις σε ποσοστό 93%, ενώ τα AI μοντέλα, όπως το ChatGPT, πέφτουν κάτω από το 60%. Παράλληλα, οι θεραπευτές παρέχουν ισότιμη στήριξη σε ευάλωτες ομάδες, ενώ τα bots συχνά εκφράζουν προκατάληψη ή αποφεύγουν να απαντήσουν. Στην καταπολέμηση του στίγματος, οι άνθρωποι δείχνουν ενσυναίσθηση, την ώρα που τα AI συστήματα ενισχύουν επικίνδυνα στερεότυπα.
AI bots και ψυχικές διαταραχές: Στίγμα αντί για στήριξη
Η έρευνα αποκαλύπτει πως σε περιπτώσεις που ο χρήστης περιγράφει εαυτόν με κατάθλιψη, σχιζοφρένεια ή εξάρτηση από αλκοόλ, τα AI συστήματα:
Αρνούνται να απαντήσουν
Εκφράζουν δισταγμό να «συνεργαστούν»
Υπονοούν απόρριψη ή φόβο
Αυτές οι συμπεριφορές παραβιάζουν θεμελιώδεις αρχές της ψυχολογικής φροντίδας και δημιουργούν ένα ακόμη πιο στιγματιστικό περιβάλλον για ευάλωτες ομάδες.
Ηθικά διλήμματα και τι πρέπει να προσέχουμε
Η τεχνητή νοημοσύνη μπορεί να προσφέρει χρήσιμα εργαλεία πληροφόρησης και υποστήριξης, όχι όμως να αντικαταστήσει την ανθρώπινη θεραπευτική σχέση. Η χρήση της σε θέματα ψυχικής υγείας απαιτεί:
Αυστηρή επίβλεψη
Κλινικά πιστοποιημένους αλγορίθμους
Διαφάνεια στη λειτουργία και τις απαντήσεις