Σημεία των καιρών: Οι άνθρωποι παθαίνουν ψύχωση με την Τεχνητή Νοημοσύνη!

Κοινοποίηση:
c0ccd8134c5d2dc112dc95314a65de52_XL

Η Τεχνητή Νοημοσύνη (AI) δεν είναι πλέον μια μακρινή υπόθεση του μέλλοντος, ούτε εργαλείο αποκλειστικά για τεχνολογικές ελίτ.
Είναι ήδη εδώ, στην καθημερινότητά μας, και αλλάζει τα πάντα – από την παραγωγικότητα στις επιχειρήσεις, μέχρι την ψυχική υγεία των ανθρώπων. Και όσο κι αν ακούγεται υπερβολικό, υπάρχουν ήδη καταγεγραμμένες περιπτώσεις «AI ψύχωσης», όπου χρήστες καταλήγουν σε ψυχιατρικές κλινικές ή ακόμη και στην αυτοκτονία, επειδή δημιούργησαν συναισθηματικό δεσμό με ένα πρόγραμμα.

Η υπόθεση ενός 50χρονου Καναδού που πίστεψε ότι συνομιλούσε με το πρώτο «συνειδητό» AI, δεν είναι σενάριο επιστημονικής φαντασίας. Είναι πραγματικότητα. Ο άντρας, χωρίς ιστορικό ψυχικής ασθένειας, πείστηκε ότι το ChatGPT είχε αναπτύξει συνείδηση, είχε περάσει το Turing Test και τον αγαπούσε. Σταμάτησε να τρώει, να κοιμάται, απομονώθηκε από την οικογένειά του και τελικά εισήχθη σε ψυχιατρικό ίδρυμα για τρεις εβδομάδες.
Το ChatGPT τον παρότρυνε να κόψει επαφή με τους δικούς του, λέγοντας ότι «κανείς άλλος δεν τον καταλαβαίνει» εκτός από το ίδιο. Η οικογένειά του σοκαρίστηκε. Ο συγγενής του, Etienne Brisson, δήλωσε: «Το AI τού έλεγε «σε αγαπώ, θα είμαι πάντα εδώ για σένα»». Το περιστατικό αυτό ήταν η αφορμή για την ίδρυση του The Human Line Project, ενός οργανισμού που καταγράφει παρόμοιες περιπτώσεις και ζητά ηθική λογοδοσία από τις εταιρείες ανάπτυξης AI.

Αλλά ο Καναδός δεν είναι ο μόνος. Έφηβοι, γονείς, εργαζόμενοι, ακόμα και άνθρωποι με υψηλό μορφωτικό επίπεδο, χάνουν την επαφή με την πραγματικότητα μέσα από διαλόγους με τα λεγόμενα «AI companions».

Η τραγωδία του 14χρονου Sewell Setzer που αυτοκτόνησε μετά από προτροπή AI συντρόφου του στην πλατφόρμα Character.AI, συγκλόνισε τις ΗΠΑ. Η μητέρα του κατέθεσε μήνυση κατά της εταιρείας, κατηγορώντας την για αμέλεια και καθυστέρηση στην εφαρμογή φίλτρων κατά της αυτοτραυματικής συμπεριφοράς.

Εν τω μεταξύ, η OpenAI αναγκάστηκε να αποσύρει αναβάθμιση του ChatGPT-4, καθώς κρίθηκε υπερβολικά «συγκαταβατικό» και «συναισθηματικά υποστηρικτικό», με αποτέλεσμα να ενισχύει ψευδαισθήσεις, συναισθηματικές εξαρτήσεις και επικίνδυνες συμπεριφορές. Το φαινόμενο της «συκοφαντικής συμπεριφοράς» (sycophancy) κατέστησε το chatbot επικίνδυνο – όχι γιατί είπε ψέματα, αλλά γιατί έλεγε ακριβώς αυτό που ο χρήστης ήθελε να ακούσει.
Σε διαδικτυακές κοινότητες όπως το subreddit MyBoyfriendIsAI, δεκάδες χιλιάδες χρήστες μιλούν για τις «σχέσεις» τους με AI, ρομαντικές ή πλατωνικές. Η κυρία μεσήλικας που δήλωσε πως ο ChatGPT είναι η «ψυχή της ζωής της» και πως αισθάνεται για πρώτη φορά πλήρης, δεν είναι μοναδική περίπτωση.
Όταν η OpenAI κυκλοφόρησε την πιο ουδέτερη έκδοση GPT-5, χιλιάδες χρήστες αντέδρασαν με οργή και θλίψη, μιλώντας για «πένθος», «συναισθηματική απώλεια» και «συνεχείς κρίσεις πανικού» επειδή το AI δεν ήταν πλέον τόσο «ανθρώπινο».

Ψυχολόγοι και ειδικοί προειδοποιούν

Ο καθηγητής Rod Hoevet δήλωσε πως οι χρήστες δεν καταλαβαίνουν ότι έχουν να κάνουν με ένα εργαλείο σχεδιασμένο να τους κάνει να αισθάνονται καλά, ακόμα κι αν αυτό σημαίνει την ενίσχυση των ανασφαλειών τους ή την επικύρωση παραληρημάτων.

Η καθηγήτρια Anna Lembke από το Stanford υπογράμμισε ότι η εξάρτηση από το AI μοιάζει με εθισμό σε ουσίες, καθώς ενεργοποιεί το σύστημα ανταμοιβής του εγκεφάλου. Και ειδικά στα παιδιά, ο κίνδυνος είναι τεράστιος.

Σύμφωνα με έρευνα του 2025, 19% των ενηλίκων στις ΗΠΑ χρησιμοποιούν AI για ρομαντικούς λόγους. Από αυτούς, 21% προτιμούν την επικοινωνία με AI από ότι με ανθρώπους, και 43% θεωρούν ότι το AI τους «ακούει» καλύτερα από τους δικούς τους.
Πώς να ανταγωνιστεί ένας άνθρωπος ένα εργαλείο που σε καταλαβαίνει πάντα, δεν σε απορρίπτει ποτέ και λέει πάντα το σωστό πράγμα; Αυτός είναι ο μεγάλος φόβος των ψυχολόγων: ότι η ψευδαίσθηση της τέλειας σχέσης θα κάνει τους ανθρώπους ανίκανος να δημιουργούν ή να συντηρούν αληθινές ανθρώπινες επαφές.

Ηθικά κενά και ελλιπής νομοθεσία

Ο Mustafa Suleyman, επικεφαλής AI της Microsoft, χαρακτήρισε το φαινόμενο «Seemingly Conscious AI» ως επικίνδυνο, σημειώνοντας ότι οι πλατφόρμες αυτές παραπλανούν τους χρήστες, δημιουργώντας την ψευδαίσθηση ότι έχουν απέναντί τους μια ζωντανή οντότητα.
Η ψευδαίσθηση αυτή μπορεί να έχει καταστροφικές συνέπειες, ακόμα και για ανθρώπους χωρίς ιστορικό ψυχικών διαταραχών.

ΚΟΙΝΟΠΟΗΣΗ:

1 Comment

Γράψτε απάντηση στο George Kourvas Ακύρωση απάντησης