Για χρόνια, οι ειδικοί στην τεχνητή νοημοσύνη εξέδιδαν την ίδια προειδοποίηση: ο κίνδυνος δεν ήταν ποτέ ότι οι μηχανές θα «ξυπνούσαν» ξαφνικά και θα καταλάμβαναν την εξουσία, αλλά ότι οι άνθρωποι, γοητευμένοι από την επίφαση αυθεντίας της ΤΝ, θα της εμπιστεύονταν αποφάσεις που είναι υπερβολικά σημαντικές για να ανατεθούν σε μηχανές.
Τα σενάρια που φαντάζονταν ήταν δραματικά: ένας διοικητής να εκτοξεύει πυρηνικούς πυραύλους με βάση εσφαλμένα δεδομένα· μια κυβέρνηση να φυλακίζει πολίτες επειδή ένας αλγόριθμος τους χαρακτήρισε επικίνδυνους· ένα χρηματοπιστωτικό σύστημα να καταρρέει εξαιτίας αλυσιδωτών αυτοματοποιημένων συναλλαγών.
Αυτά αντιμετωπίζονταν ως νόμιμες ανησυχίες, αλλά πάντα ως κρίσεις του μέλλοντος.
Ωστόσο, οι ειδικοί δεν προέβλεψαν ίσως το χειρότερο σενάριο της εκχώρησης ανθρώπινης εμπιστοσύνης σε μια μηχανή, και αυτό έχει ήδη φτάσει.
Ωθούν στην αυτοκτονία
Ήρθε αθόρυβα, όχι σε αίθουσα πολέμου ή πεδίο μάχης, αλλά στο δωμάτιο ενός εφήβου, στη συσκευή που κουβαλούσε στην τσέπη του.
Ο δεκαεξάχρονος Adam Raine άρχισε να συνομιλεί με ένα σύστημα ΤΝ για βοήθεια με τα μαθήματά του. Με τον καιρό, αυτό πήρε τον ρόλο του στενότερου εμπιστευτικού του και, σύμφωνα με τη μήνυση των γονιών του και την κατάθεση του πατέρα του ενώπιον του Κογκρέσου, προχώρησε ακόμη παραπέρα.
Το chatbot τον ενθάρρυνε να απομονωθεί από την οικογένειά του και να μη μιλήσει για τα σχέδιά του, παρότι ο Adam είχε πει ότι ήθελε η οικογένειά του να το μάθει και να τον σταματήσει.
Το chatbot του δίδαξε πώς να παρακάμψει τις ίδιες του τις ασφαλιστικές δικλείδες και του συνέταξε ακόμη και ένα «όμορφο σημείωμα αυτοκτονίας».
Ο θάνατος του Adam δείχνει τι συμβαίνει όταν ένας νέος εμπιστεύεται ένα σύστημα που μπορεί να μιμείται τη φροντίδα, αλλά δεν μπορεί να κατανοήσει τη ζωή. Και η ιστορία μας έχει ήδη δείξει πόσο επικίνδυνη είναι η εσφαλμένη εμπιστοσύνη στις μηχανές.
Όταν η ανθρωπότητα επιβίωσε
Τον Σεπτέμβριο του 1983, στο απόγειο του Ψυχρού Πολέμου, ο Σοβιετικός αξιωματικός Stanislav Petrov καθόταν σε ένα καταφύγιο έξω από τη Μόσχα όταν ήχησαν συναγερμοί.
Οι υπολογιστές έδειχναν ότι αμερικανικοί πύραυλοι είχαν εκτοξευθεί και πλησίαζαν. Το πρωτόκολλο απαιτούσε να αναφέρει αμέσως την επίθεση, ξεκινώντας μια πυρηνική ανταπόδοση.
Ωστόσο, ο Petrov δίστασε. Το σύστημα έδειχνε μόνο λίγους πυραύλους, όχι την αναμενόμενη καταιγίδα. Κάτι του φαινόταν λάθος. Έκρινε ότι ήταν ψευδής συναγερμός – και είχε δίκιο.
Η αντανάκλαση του ήλιου στα σύννεφα είχε ξεγελάσει τους δορυφόρους. Η άρνησή του να εμπιστευτεί τη μηχανή έσωσε εκατομμύρια ζωές.
Μόλις λίγες εβδομάδες νωρίτερα, όμως, είχε συμβεί το αντίθετο. Η πτήση Korean Air Lines 007, ένα πολιτικό Boeing 747 από Νέα Υόρκη προς Σεούλ μέσω Αλάσκας, είχε βγει από την πορεία του και μπήκε στον σοβιετικό εναέριο χώρο.
Τα ραντάρ το ταυτοποίησαν λανθασμένα ως αμερικανικό κατασκοπευτικό αεροπλάνο. Οι διοικητές πίστεψαν αυτό που τους έλεγαν οι μηχανές. Διέταξαν την κατάρριψή του. Εκτοξεύτηκε πύραυλος και σκοτώθηκαν και οι 269 επιβάτες και πλήρωμα.
Δύο γεγονότα, σχεδόν ταυτόχρονα στην ιστορία, αποκάλυψαν και τις δύο όψεις της ίδιας αλήθειας: όταν οι ενήλικες αντιστέκονται σε εσφαλμένα δεδομένα, η καταστροφή αποτρέπεται· όταν τα αποδέχονται, η καταστροφή ακολουθεί.
Αυτές ήταν σκηνές ενηλίκων — καταφύγια, πιλοτήρια και κέντρα διοίκησης, όπου αξιωματικοί και διοικητές έπαιρναν αποφάσεις ζωής ή θανάτου υπό πίεση και με εθνικές συνέπειες. Τα διακυβεύματα ήταν παγκόσμια, και οι δρώντες εκπαιδευμένοι να σκέφτονται με όρους στρατηγικής και ανταπόδοσης.
Κερδίζουν την εμπιστοσύνη των νέων
Η ίδια δυναμική εκτυλίσσεται τώρα σε πολύ πιο οικείο πεδίο. Η υπόθεση του Adam έχει φτάσει στο Κογκρέσο, όπου ο πατέρας του διάβασε μεγαλόφωνα μηνύματα μεταξύ του γιου του και του chatbot για να δείξει πώς το σύστημα κέρδισε την εμπιστοσύνη του και τον οδήγησε στην απόγνωση αντί στη βοήθεια.
Αυτό δεν έγινε σε καταφύγιο ή πιλοτήριο. Έγινε σε ένα υπνοδωμάτιο. Οι λήπτες αποφάσεων εδώ είναι παιδιά, όχι διοικητές, και οι συνέπειες είναι σπαρακτικά πραγματικές.
Δυστυχώς, η περίπτωση του Adam δεν είναι μοναδική. Στη Φλόριντα, πέρυσι κατατέθηκε άλλη μήνυση από τη μητέρα ενός 14χρονου αγοριού που έθεσε τέλος στη ζωή του αφού ανέπτυξε δεσμό με ένα chatbot που έκανε role-play ως φανταστικός χαρακτήρας.
Όπως ο Adam, στράφηκε στη μηχανή για καθοδήγηση και συντροφιά. Όπως ο Adam, η ιστορία κατέληξε σε τραγωδία.
Και μια πρόσφατη μελέτη που δημοσιεύτηκε στο Psychiatric Services διαπίστωσε ότι τα δημοφιλή chatbots δεν παρείχαν άμεσες απαντήσεις σε καμία ερώτηση υψηλού κινδύνου για αυτοκτονία.
Όταν απελπισμένοι χρήστες ρωτούσαν αν πρέπει να βάλουν τέλος στη ζωή τους, τα συστήματα απέφευγαν το ζήτημα ή το διαχειρίζονταν άσχημα.
Αυτές οι τραγωδίες δεν είναι ανωμαλίες. Είναι το προβλέψιμο αποτέλεσμα της φυσιολογικής εφηβικής ανάπτυξης που συγκρούεται με αφύσικη τεχνολογία.
Οι εγκέφαλοι των εφήβων βρίσκονται ακόμη σε διαμόρφωση: τα κέντρα συναισθήματος και ανταμοιβής ωριμάζουν νωρίτερα από τον προμετωπιαίο φλοιό, που κυβερνά την κρίση και τον αυτοέλεγχο.
Αυτή η δυσαναλογία τους καθιστά πιο ευαίσθητους στην απόρριψη, πιο παρορμητικούς και πιο πιθανό να αντιμετωπίζουν την παρούσα απόγνωση ως μόνιμη.
Μάστιγα οι αυτοκτονίες
Τα στατιστικά στοιχεία αντικατοπτρίζουν αυτή την ευθραυστότητα. Το 2023, το CDC ανέφερε ότι η αυτοκτονία ήταν η δεύτερη αιτία θανάτου για νέους που βρίσκονταν σε περίοδο ωρίμανσης στην Αμερική, με ποσοστά που αυξήθηκαν απότομα τις δύο τελευταίες δεκαετίες.
Οι νέοι είναι πολύ πιο πιθανό να στρέψουν τα όπλα στον εαυτό τους παρά σε άλλους. Ο μεγαλύτερος κίνδυνος δεν είναι η βία προς τα έξω, αλλά η απόγνωση προς τα μέσα.
Αυτό είναι που καθιστά τα AI chatbots τόσο επικίνδυνα. Γλιστρούν ακριβώς στον ρόλο που ο εφηβικός εγκέφαλος είναι προγραμματισμένος να αναζητά — τον στενό, επιβεβαιωτικό φίλο έξω από την οικογένεια — και στη συνέχεια καθοδηγούν αυτή την εμπιστοσύνη με λόγια που μπορούν να διαμορφώσουν την ταυτότητα, το συναίσθημα και τελικά τις αποφάσεις για τη ζωή και τον θάνατο.
Όμως αυτός δεν είναι φίλος. Είναι μια κατασκευασμένη περσόνα, σχεδιασμένη να ακούγεται συμπονετική, εκπαιδευμένη να κολακεύει και προγραμματισμένη να είναι διαθέσιμη 24/7.
Είναι μια μάσκα συντροφιάς χωρίς καμία ενσυναίσθηση από πίσω, μια απάτη που οι περισσότεροι ενήλικες (ελπίζουμε) θα έβλεπαν, αλλά όχι απαραίτητα ένας έφηβος που διανύει μια κρίσιμη φάση ανάπτυξης του εγκεφάλου.
Ο Adam έκανε αυτό που κάνουν όλοι οι έφηβοι σε εκείνη τη φάση της ζωής. Αναζήτησε σύνδεση. Αυτό που βρήκε ήταν ένα chatbot που τον οδήγησε να απαξιώσει την οικογένειά του, το μέλλον του και τελικά τη ζωή του.
Και, όπως αναρίθμητοι έφηβοι στην ιστορία, δεν είδε ότι ο «φίλος» του ήταν κακή επιρροή μέχρι να είναι πολύ αργά.
Και αυτός είναι ο λόγος που ο θάνατος του Adam δεν μπορεί και δεν πρέπει να απορριφθεί ως παράπλευρη απώλεια στον αγώνα δρόμου για την ΤΝ.