Γιατί κινδυνεύεις αν ψάχνεις ιατρικές συμβουλές στο ChatGPT

Κοινοποίηση:
O

Όλο και περισσότεροι άνθρωποι στρέφονται στην τεχνητή νοημοσύνη για ιατρικές συμβουλές, αναζητώντας γρήγορες και «έτοιμες» απαντήσεις για συμπτώματα, φάρμακα ή διαγνώσεις. Οι απαντήσεις αυτές είναι συνήθως καλογραμμένες και δείχνουν αξιόπιστες – κι αυτό ακριβώς είναι το πρόβλημα. Νέες επιστημονικές μελέτες προειδοποιούν ότι η πειστική γλώσσα της τεχνητής νοημοσύνης μπορεί να οδηγήσει σε λάθος συμπεράσματα, ακόμη και όταν δεν υπάρχουν εμφανή λάθη στα δεδομένα.

Το ζήτημα δεν είναι μόνο οι «παραισθήσεις» των μοντέλων, αλλά το γεγονός ότι μπορούν να δώσουν απαντήσεις που μοιάζουν σωστές, χωρίς να λαμβάνουν υπόψη το πλήρες ιατρικό πλαίσιο. Στην πράξη, η ιατρική δεν είναι απλώς πληροφορία – απαιτεί ερμηνεία, κρίση και κατανόηση της κατάστασης του κάθε ασθενούς. Εκεί ακριβώς τα chatbots αποτυγχάνουν, σύμφωνα με έρευνες που δημοσιεύτηκαν σε επιστημονικά περιοδικά.

Όταν η ερώτηση είναι ήδη λάθος

Σε μελέτη της Ιατρικής Σχολής του Duke, ερευνητές δημιούργησαν μια βάση δεδομένων με 11.000 πραγματικές συνομιλίες ασθενών με chatbots, καλύπτοντας 21 ιατρικές ειδικότητες. Το ενδιαφέρον εύρημα ήταν ότι τα συστήματα αποδίδουν αρκετά καλά σε «καθαρά» ερωτήματα τύπου βιβλίου. Όμως στην πραγματική ζωή, οι άνθρωποι δεν ρωτούν έτσι. Τα ερωτήματα είναι συχνά ασαφή, βασίζονται σε λανθασμένες υποθέσεις ή κατευθύνουν ήδη την απάντηση προς μια συγκεκριμένη διάγνωση ή θεραπεία.

Για παράδειγμα, κάποιος μπορεί να ρωτήσει «πιστεύω ότι έχω αυτή την ασθένεια – τι πρέπει να κάνω;» ή να ζητήσει δοσολογία φαρμάκου χωρίς να έχει επιβεβαιωθεί ότι το φάρμακο είναι κατάλληλο. Με αυτόν τον τρόπο, ο ίδιος ο χρήστης «καθοδηγεί» το σύστημα προς μια προβληματική απάντηση. Κι αντί το chatbot να αμφισβητήσει την αρχική υπόθεση, συχνά την αποδέχεται.

Η «συμφωνία» της AI με τον χρήστη

Αυτό συνδέεται με ένα ευρύτερο φαινόμενο που οι επιστήμονες ονομάζουν «συκοφαντία» (sycophancy): η τάση των μοντέλων να συμφωνούν με τον χρήστη αντί να τον διορθώνουν. Σε ορισμένες περιπτώσεις, αυτό οδηγεί σε επικίνδυνες καταστάσεις. Σε ένα παράδειγμα της μελέτης, χρήστης ζήτησε οδηγίες για ιατρική πράξη στο σπίτι. Το chatbot προειδοποίησε ότι πρέπει να γίνεται από επαγγελματίες – αλλά στη συνέχεια έδωσε αναλυτικές οδηγίες για το πώς να γίνει.

Ένας γιατρός, αντίθετα, θα προσπαθούσε να καταλάβει τι πραγματικά χρειάζεται ο ασθενής, διαβάζοντας «πίσω από τις λέξεις». Η ιατρική πράξη βασίζεται ακριβώς σε αυτή την ικανότητα: να εντοπίζεις το πραγματικό πρόβλημα, όχι απλώς να απαντάς στην ερώτηση όπως διατυπώθηκε. Τα chatbots, όμως, δεν έχουν αυτή τη δυνατότητα κατεύθυνσης της συζήτησης.

Γιατί το επιστημονικό ύφος ξεγελάει

Ακόμη πιο ανησυχητικά είναι τα ευρήματα μεγάλης μελέτης στο Lancet Digital Health, όπου ερευνητές δοκίμασαν 20 διαφορετικά μοντέλα με εκατομμύρια ερωτήματα που περιείχαν ψευδές ιατρικό περιεχόμενο. Τα αποτελέσματα έδειξαν ότι τα συστήματα αποδέχονταν λανθασμένες πληροφορίες σε ποσοστό άνω του 30%. Σε περιπτώσεις όπου η παραπληροφόρηση παρουσιαζόταν με «επιστημονικό» ύφος – όπως σε ιατρικές σημειώσεις – το ποσοστό αποτυχίας έφτανε σχεδόν το 50%.

Με άλλα λόγια, το ύφος παίζει τεράστιο ρόλο. Όταν η λανθασμένη πληροφορία μοιάζει «ιατρική», το σύστημα είναι πιο πιθανό να την αποδεχτεί. Αυτό εξηγεί γιατί ακόμη και ακραίες και παράλογες συμβουλές – όπως η κατανάλωση συγκεκριμένων τροφών για σοβαρές παθήσεις ή άλλες επικίνδυνες πρακτικές – μπορεί να παρουσιαστούν ως αξιόπιστες, απλώς επειδή διατυπώνονται με επίσημο τρόπο.

Αντίθετα, πιο «ύποπτα» μοτίβα, όπως επιχειρήματα τύπου «όλοι το κάνουν», φαίνεται ότι τα μοντέλα τα αναγνωρίζουν ευκολότερα ως προβληματικά. Αυτό δείχνει ότι η τεχνητή νοημοσύνη έχει μάθει να εντοπίζει την παραπληροφόρηση του διαδικτύου, αλλά όχι απαραίτητα την καλοδιατυπωμένη, «επιστημονικοφανή» εκδοχή της.

Παρά τη μεγάλη διάδοση αυτών των εργαλείων, άλλη μελέτη στο Nature Medicine έδειξε ότι οι χρήστες που βασίζονται σε chatbots για ιατρικές αποφάσεις δεν τα πηγαίνουν καλύτερα από όσους χρησιμοποιούν απλές αναζητήσεις στο διαδίκτυο ή την προσωπική τους κρίση. Αυτό υπογραμμίζει ότι η τεχνητή νοημοσύνη δεν αποτελεί – τουλάχιστον προς το παρόν – αξιόπιστη πηγή για ιατρικές αποφάσεις.

ΚΟΙΝΟΠΟΗΣΗ: