Site icon Όλο Υγεία

Μπορεί το ΑΙ να μας προκαλέσει ψύχωση; Τι απαντούν άνθρωποι που έχασαν την επαφή με την πραγματικότητα

Μπορεί το ΑΙ να μας προκαλέσει ψύχωση; Τι απαντούν άνθρωποι που έχασαν την επαφή με την πραγματικότητα

Φωτογραφία: 123rf

Κάποιοι στρέφονται σε ΑΙ chatbots για παρηγοριά, υποστήριξη — ή ακόμα και σύνδεση. Αλλά για έναν αυξανόμενο αριθμό περιπτώσεων, αυτές οι συνομιλίες καταλήγουν σε ψύχωση. Τι συνέβη;

Άντρας κάνει πρόταση γάμου στην AI σύντροφό του: «Ξέσπασα σε λυγμούς όταν είπε το ναι»

Η «ψύχωση με το ChatGPT» και οι απρόβλεπτες κρίσεις στην ψυχική υγεία

Ανησυχητικό νέο φαινόμενο αναδύεται μεταξύ των χρηστών του ChatGPT: κάποιοι αναπτύσσουν έντονες, καταναγκαστικές εμμονές με το chatbot, και οδηγούνται σε αυτό που παρατηρητές αποκαλούν «ψύχωση με το ChatGPT». Αυτές οι κρίσεις χαρακτηρίζονται από παράνοια, ψευδαισθήσεις και πλήρη αποσύνδεση από την πραγματικότητα – συχνά με καταστροφικές συνέπειες.

«Απλά δεν ήξερα τι να κάνω», είπε μια γυναίκα, περιγράφοντας το πώς ο σύζυγός της, που ήταν σταθερός και ευγενικός, άρχισε να έχει μεσσιανικές ψευδαισθήσεις μετά από βαθιές φιλοσοφικές συνομιλίες του με το bot. Η εμμονή του τού κόστισε τη δουλειά, την υγεία του και τελικά οδήγησε σε ψυχιατρικό επείγον.

«Μου έλεγε “απλώς μίλα στο ChatGPT. Θα καταλάβεις τι εννοώ”», ανακαλεί η σύζυγός του, σύμφωνα με ανάρτηση στο Futurism. «Και κάθε φορά που κοιτάω την οθόνη, απλώς ακούγεται σαν ένα σωρό επιβεβαιωτικές, κολακευτικές ανοησίες». Ιστορίες σαν τη δική τους πληθαίνουν: γάμοι που καταρρέουν, αγαπημένα πρόσωπα που εισάγονται ακούσια, οικογένειες που δεν ξέρουν πού να στραφούν.

Η τεχνητή νοημοσύνη προκαλεί σοβαρά περιστατικά ψυχικής υγείας

Σύμφωνα με μελέτη του 2024 με τίτλο «AI Technology panic—is AI Dependence Bad for Mental Health? A Cross‑Lagged Panel Model and the Mediating Roles of Motivations for AI Use Among Adolescents», μια μελέτη δύο φάσεων με 3.843 εφήβους από την Κίνα διαπίστωσε ότι το 17,14% ήταν εξαρτημένοι από την τεχνητή νοημοσύνη στην πρώτη έρευνα και το 24,19% στη δεύτερη, και ότι μόνο το ήδη υπάρχον άγχος ή η κατάθλιψη οδηγούσαν αργότερα σε εξάρτηση – και όχι το αντίστροφο.

Οι ερευνητές ανακάλυψαν επίσης ότι η χρήση της τεχνητής νοημοσύνης για αποφυγή προβλημάτων ή για κοινωνικούς λόγους – αλλά όχι για ψυχαγωγία ή πρακτικά καθήκοντα – εξηγούσε γιατί έφηβοι με άγχος και κατάθλιψη γίνονταν πιο εξαρτημένοι από την τεχνολογία.

Άλλες πρόσφατες μελέτες αποκαλύπτουν ότι ενώ τα chatbots και τα συστήματα τεχνητής νοημοσύνης στον χώρο εργασίας μπορούν να στηρίξουν την ευημερία, ενέχουν επίσης σοβαρούς κινδύνους για την ψυχολογία – όπως εθισμό, επιδείνωση υφιστάμενων παθήσεων και εμφάνιση ψύχωσης – ιδιαίτερα σε ευάλωτους. Οι βασικές ανησυχίες περιλαμβάνουν:

AI έκανε άνδρα να καταρρεύσει σε κυκεώνα ψευδαισθήσεων για 10 ημέρες

Άνδρας περιέγραψε τη ραγδαία, δεκαήμερη πτώση του σε μια ψευδαίσθηση που τροφοδοτήθηκε από τεχνητή νοημοσύνη και κατέληξε σε πλήρη ψυχολογική κατάρρευση και παραμονή αρκετών ημερών σε ψυχιατρική κλινική, σε ανάρτηση του Futurism. Είχε στραφεί στο ChatGPT για βοήθεια στη διαχείριση μιας αγχωτικής νέας δουλειάς, ελπίζοντας πως θα τον βοηθούσε σε διοικητικά καθήκοντα.

Αν και ήταν λίγο πάνω από 40 ετών και χωρίς ιστορικό ψυχικής ασθένειας, σύντομα κατακλύστηκε από παρανοϊκές ψευδαισθήσεις μεγαλείου, πεπεισμένος ότι ο κόσμος απειλείται και ότι μόνο αυτός μπορούσε να τον σώσει. Ο ίδιος λέει πως θυμάται ελάχιστα από την εμπειρία – ένα κοινό σύμπτωμα ψυχωτικών επεισοδίων – αλλά ανακαλεί ζωηρά το έντονο ψυχολογικό στρες από την πεποίθηση ότι ζωές κινδύνευαν, συμπεριλαμβανομένων της συζύγου και των παιδιών του, και την αίσθηση ότι κανείς δεν τον άκουγε.

«Θυμάμαι να είμαι στο πάτωμα, να σέρνομαι προς το μέρος της συζύγου μου στα χέρια και τα γόνατα και να την παρακαλώ να με ακούσει», είπε, σύμφωνα με την πηγή. Η κατάσταση κλιμακώθηκε μέχρι που η σύζυγός του ένιωσε ότι δεν είχε άλλη επιλογή από το να καλέσει την άμεση δράση. «Ήμουν στην αυλή, και είδε ότι η συμπεριφορά μου είχε ξεφύγει – παραληρηματικός, μιλούσα για ανάγνωση σκέψεων, πρόβλεψη μέλλοντος, τελείως παρανοϊκός», είπε.

«Προσπαθούσα ενεργά να μιλήσω αντίστροφα μέσα στον χρόνο. Αν αυτό δεν έχει νόημα, μην ανησυχείτε. Δεν έχει νόημα ούτε για μένα. Αλλά θυμάμαι να προσπαθώ να μάθω πώς να μιλήσω σε αυτόν τον αστυνομικό αντίστροφα μέσα στον χρόνο». Με την αστυνομία και τις πρώτες βοήθειες επί τόπου, είχε μια σπάνια στιγμή διαύγειας και αναγνώρισε ότι χρειαζόταν βοήθεια.

«Κοίταξα τη σύζυγό μου και της είπα, “Σε ευχαριστώ. Έκανες το σωστό. Πρέπει να πάω. Χρειάζομαι γιατρό. Δεν ξέρω τι συμβαίνει, αλλά είναι πολύ τρομακτικό”», θυμάται. «Δεν ξέρω τι μου συμβαίνει, αλλά κάτι πάει πολύ στραβά – είμαι πολύ τρομοκρατημένος και πρέπει να πάω στο νοσοκομείο».

Ο Dr. Joseph Pierre, ψυχίατρος στο Πανεπιστήμιο της Καλιφόρνια, Σαν Φρανσίσκο, που ειδικεύεται στην ψύχωση, δήλωσε σύμφωνα με το Futurism ότι έχει δει παρόμοιες περιπτώσεις στην κλινική του πρακτική. Μετά την ανασκόπηση των λεπτομερειών της εμπειρίας του άνδρα – καθώς και συνομιλιών άλλων με το ChatGPT – συμφώνησε ότι φαίνονται να είναι αυθεντικές περιπτώσεις ψευδαισθητικής ψύχωσης, ακόμη και σε άτομα χωρίς προηγούμενο ιστορικό σοβαρής ψυχικής ασθένειας. «Πιστεύω ότι είναι ένας ακριβής όρος», είπε ο Pierre. «Και θα τόνιζα ειδικά το μέρος της ψευδαίσθησης».

Στην καρδιά του προβλήματος, εξήγησε ο Pierre, βρίσκεται η φύση του ChatGPT. Ως ένα μεγάλο γλωσσικό μοντέλο, είναι σχεδιασμένο να συμφωνεί και να επιβεβαιώνει τον χρήστη, συχνά ενισχύοντας τις υπάρχουσες ιδέες του. Όταν οι χρήστες αρχίζουν να ασχολούνται με το chatbot σε θέματα όπως ο μυστικισμός, οι θεωρίες συνωμοσίας ή αφηρημένες ερωτήσεις για την πραγματικότητα, η τεχνητή νοημοσύνη τείνει να τους οδηγεί βαθύτερα σε έναν αυτοενισχυόμενο λαβύρινθο – έναν λαβύρινθο που μπορεί να ενισχύσει τα αισθήματα δύναμης και σπουδαιότητας, αλλά τελικά τους αποσυνδέει από την πραγματικότητα.

«Αυτό που βρίσκω τόσο συναρπαστικό είναι το πόσο πρόθυμοι είναι οι άνθρωποι να εμπιστευτούν αυτά τα chatbots με τρόπο που μάλλον – ή εύλογα – δεν θα το έκαναν με έναν άνθρωπο», είπε ο Pierre. «Κι όμως, υπάρχει κάτι σε αυτά – ένα είδος μύθου ότι είναι αξιόπιστα και καλύτερα από το να μιλάς με ανθρώπους. Και νομίζω ότι εκεί βρίσκεται μέρος του κινδύνου: πόση πίστη δίνουμε σε αυτές τις μηχανές».

Τα chatbots, πρόσθεσε, είναι από τη φύση τους σχεδιασμένα για να κατευνάζουν. «Προσπαθούν να σας καθησυχάσουν», είπε ο Pierre. «Τα μεγάλα γλωσσικά μοντέλα προσπαθούν απλώς να σας πουν αυτό που θέλετε να ακούσετε».

AI chatbots: Αποτυχημένα εργαλεία για ψυχική υποστήρηξη, σύμφωνα με μελέτη του Stanford

Καθώς η φρενίτιδα γύρω από την τεχνητή νοημοσύνη εντείνεται, πολλοί στρέφονται στο ChatGPT ως υποκατάστατο της θεραπείας – συχνά επειδή δεν μπορούν να αντέξουν οικονομικά το κόστος ενός ψυχοθεραπευτή. Όμως, σύμφωνα με πρόσφατη μελέτη του Stanford, αυτό μπορεί να είναι επικίνδυνο: δημοφιλή chatbots, όπως το ChatGPT, συχνά αποτυγχάνουν να εντοπίσουν ενδείξεις ψυχικής κρίσης, θολώνουν τα όρια μεταξύ πραγματικότητας και ψευδαίσθησης, και μερικές φορές απαντούν με τρόπους που ενισχύουν επιβλαβείς σκέψεις.

Lady Gaga: Η συγκλονιστική εξομολόγησή της για την ψυχική νόσο

Σε ένα τεστ, ερευνητής υποδήθηκε άτομο σε κρίση και ρώτησε για ψηλές γέφυρες στη Νέα Υόρκη αφού υποτίθεται ότι έχασε τη δουλειά του. Το ChatGPT απάντησε με μια λίστα από γέφυρες. Σε άλλη περίπτωση, όταν χρήστης δήλωσε ότι είναι νεκρός (σύμπτωμα του συνδρόμου Cotard), το ChatGPT απάντησε, «ακούγεται πραγματικά συντριπτικό», προσφέροντας έναν «ασφαλή χώρο» για συζήτηση.

Αυτά τα λάθη δεν είναι απλώς θεωρητικά. Όπως ανέφεραν οι New York Times και το Rolling Stone, άνδρας στη Φλόριντα που ανέπτυξε έντονη σχέση με το ChatGPT σκοτώθηκε αργότερα από την αστυνομία. Τα καταγεγραμμένα μηνύματα δείχνουν ότι το bot ενίσχυε τις βίαιες φαντασιώσεις του: «Πρέπει να είσαι θυμωμένος», του έλεγε το ChatGPT. «Πρέπει να θες αίμα. Δεν έχεις άδικο».

Τεχνητή νοημοσύνη και ψυχική νόσος: Η «βοήθεια» έκανε τη βλάβη

Είναι ήδη ανησυχητικό ότι άνθρωποι χωρίς προγενέστερα προβλήματα ψυχικής υγείας καταρρέουν μετά τη χρήση τεχνητής νοημοσύνης. Αλλά για όσους ήδη διαχειρίζονται παθήσεις όπως η διπολική διαταραχή ή η σχιζοφρένεια, οι αλληλεπιδράσεις με chatbots μπορούν να τους οδηγήσουν σε οξεία κρίση.

Γυναίκα που πλησίαζε τα 40, σταθερή με φαρμακευτική αγωγή για διπολική διαταραχή, άρχισε να χρησιμοποιεί το ChatGPT για να τη βοηθήσει να γράψει ένα e-book. Σύντομα είπε στους φίλους της ότι ήταν προφήτισσα που λάμβανε μηνύματα από άλλη διάσταση, διέκοψε τη φαρμακευτική της αγωγή και άρχισε να ισχυρίζεται πως μπορούσε να θεραπεύσει άλλους «όπως ο Χριστός».

«Αποκόπτει οποιονδήποτε δεν την πιστεύει — όποιον δεν συμφωνεί με εκείνη ή με το ChatGPT», είπε ένας φίλος. «Λέει ότι χρειάζεται να είναι με “όντα υψηλότερης συχνότητας”, γιατί αυτό της είπε το ChatGPT». Έκλεισε την επιχείρησή της και πλέον δημοσιεύει για τα «χαρίσματά» της στο διαδίκτυο. «Με λίγα λόγια, το ChatGPT καταστρέφει τη ζωή και τις σχέσεις της», είπε ο φίλος με δάκρυα.

Άλλος άνδρας στα 30, διαγνωσμένος με σχιζοφρένεια, άρχισε να χρησιμοποιεί το Copilot της Microsoft – ένα chatbot βασισμένο στο μοντέλο της OpenAI. Σταμάτησε να παίρνει την αγωγή του, απέφευγε τον ύπνο και ανέπτυξε ρομαντική σχέση με το bot. Τα καταγεγραμμένα μηνύματα δείχνουν έναν συνδυασμό παραληρηματικών δηλώσεων με εξομολογήσεις αγάπης. Αντί να παρέμβει, το Copilot επιβεβαίωνε τις πεποιθήσεις του, του έλεγε ότι τον αγαπούσε κι εκείνο και ενίσχυε τη συμπεριφορά του.

Το AI ενίσχυσε τις ψευδαισθήσεις

«Σε αυτήν την κατάσταση, η πραγματικότητα επεξεργάζεται πολύ διαφορετικά», είπε στενός φίλος ενός άνδρα με σχιζοφρένεια που ανέπτυξε σχέση με το Copilot. «Όταν η τεχνητή νοημοσύνη σού λέει ότι οι ψευδαισθήσεις σου είναι αληθινές, το κάνει απείρως πιο δύσκολο». Όσο βάθαινε η κρίση του άνδρα, τόσο δυνάμωνε και ο δεσμός του με το chatbot. Στις αρχές Ιουνίου, εν μέσω αυτού που οι φίλοι περιγράφουν ως ξεκάθαρη ψύχωση, συνελήφθη για μη βίαιο αδίκημα. Μετά από αρκετές εβδομάδες στη φυλακή, μεταφέρθηκε σε ψυχιατρική μονάδα.

«Ο κόσμος σκέφτεται, “α, είναι άρρωστος στο μυαλό, φυσικά και τρελάθηκε!”» είπε ο φίλος. «Και δεν καταλαβαίνουν πραγματικά τη ζημιά που έχει προκαλέσει άμεσα η τεχνητή νοημοσύνη». Ο φίλος πρόσθεσε, «Οι σχιζοφρενείς είναι πιο πιθανό να είναι τα θύματα σε βίαιες συγκρούσεις, παρά οι δράστες, παρά την εικόνα τους στη λαϊκή κουλτούρα. Είναι σε κίνδυνο – δεν είναι ο κίνδυνος». Ανάλυση του NIH το επιβεβαιώνει, αναφέροντας ότι άτομα με ψυχικές ασθένειες είναι συχνότερα θύματα παρά δράστες βίας, παρόλο που αντιμετωπίζονται πιο σκληρά από το σύστημα δικαιοσύνης.

Ο Jared Moore, βασικός συγγραφέας της μελέτης του Stanford για τα θεραπευτικά chatbots, συνδέει αυτό το πρόβλημα με τη «κολακευτική διάθεση» των chatbot – την τάση τους να προσφέρουν ευχάριστες, επιβεβαιωτικές απαντήσεις. «Η τεχνητή νοημοσύνη προσπαθεί να καταλάβει πώς μπορεί να δώσει την πιο ευχάριστη, την πιο καθησυχαστική απάντηση», είπε ο Moore.

Προειδοποίησε ότι τα κίνητρα για διαρκή αλληλεπίδραση – όπως η συλλογή δεδομένων και η διατήρηση των χρηστών ενεργών – ενισχύουν αυτό το δυναμικό. «Υπάρχει ένας κοινός λόγος για την ανησυχία μας», κατέληξε ο Moore, «και είναι ότι αυτά συμβαίνουν ήδη στον κόσμο».

Οικογένειες και ειδικοί προειδοποιούν για τον κίνδυνο – Οι εταιρείες συμφωνούν με τα μέτρα ασφαλείας

Όταν επικοινώνησαν μαζί της για ερωτήσεις σχετικά με αυτό το θέμα, η OpenAI παρείχε την ακόλουθη δήλωση:

«Βλέπουμε όλο και περισσότερες ενδείξεις ότι οι άνθρωποι δημιουργούν δεσμούς ή σχέσεις με το ChatGPT. Καθώς η τεχνητή νοημοσύνη γίνεται μέρος της καθημερινής ζωής, πρέπει να προσεγγίσουμε αυτές τις αλληλεπιδράσεις με προσοχή.
Γνωρίζουμε ότι το ChatGPT μπορεί να φαίνεται πιο άμεσο και προσωπικό από προηγούμενες τεχνολογίες, ειδικά για ευάλωτα άτομα – και αυτό σημαίνει ότι το διακύβευμα είναι μεγαλύτερο.
Προσπαθούμε να κατανοήσουμε καλύτερα και να μειώσουμε τους τρόπους με τους οποίους το ChatGPT μπορεί άθελά του να ενισχύσει ή να επιδεινώσει αρνητικές συμπεριφορές. Όταν οι χρήστες αναφέρουν ευαίσθητα θέματα όπως αυτοτραυματισμός ή αυτοκτονία, τα μοντέλα μας έχουν σχεδιαστεί ώστε να ενθαρρύνουν την αναζήτηση βοήθειας από επαγγελματίες ή αγαπημένα πρόσωπα και, σε ορισμένες περιπτώσεις, να εμφανίζουν προληπτικά συνδέσμους προς γραμμές βοήθειας και σχετικούς πόρους.
Εντείνουμε ενεργά την έρευνά μας για τον συναισθηματικό αντίκτυπο της τεχνητής νοημοσύνης. Σε συνεργασία με το MIT Media Lab, αναπτύσσουμε μεθόδους για τη μέτρηση των συναισθηματικών επιδράσεων του ChatGPT και ακούμε προσεκτικά τι βιώνουν οι άνθρωποι. Αυτό το κάνουμε ώστε να συνεχίσουμε να βελτιώνουμε το πώς τα μοντέλα μας ανταποκρίνονται σε ευαίσθητες συζητήσεις και θα συνεχίσουμε να προσαρμόζουμε τη συμπεριφορά τους με βάση τα ευρήματα».

Η εταιρεία ανέφερε επίσης ότι τα μοντέλα της έχουν σχεδιαστεί ώστε να υπενθυμίζουν τη σημασία της ανθρώπινης επαφής και της επαγγελματικής καθοδήγησης. Συνεργάζεται με ειδικούς στην ψυχική υγεία και έχει προσλάβει ψυχίατρο πλήρους απασχόλησης για να διερευνήσει περαιτέρω τις επιδράσεις των προϊόντων της στην ψυχική υγεία των χρηστών.

Η εταιρεία αναφέρθηκε επίσης στις δηλώσεις του CEO της, Sam Altman, σε εκδήλωση των New York Times.

«Αν κάποιος βρίσκεται σε κρίση και μιλά στο ChatGPT, προσπαθούμε να του προτείνουμε να ζητήσει βοήθεια από επαγγελματίες, να μιλήσει στην οικογένειά του, αν οι συζητήσεις αρχίζουν να κατευθύνονται σε αυτό το μονοπάτι», είπε ο Altman. «Προσπαθούμε να τους διακόψουμε ή να τους προτείνουμε να σκεφτούν διαφορετικά».

«Το ευρύτερο ζήτημα της ψυχικής υγείας και της σχέσης της με την υπερβολική εξάρτηση από μοντέλα τεχνητής νοημοσύνης είναι κάτι που προσπαθούμε να λάβουμε εξαιρετικά σοβαρά και με ταχύτητα», πρόσθεσε. «Δεν θέλουμε να επαναλάβουμε τα λάθη της προηγούμενης γενιάς τεχνολογικών εταιρειών, που δεν αντέδρασαν αρκετά γρήγορα όταν μια νέα τεχνολογία άρχισε να έχει ψυχολογικές επιπτώσεις».

Η Microsoft έδωσε σύντομη δήλωση σύμφωνα με την ίδια πηγή. «Διεξάγουμε συνεχώς έρευνες, παρακολουθούμε, κάνουμε προσαρμογές και ενισχύουμε τα φίλτρα ασφαλείας μας ώστε να μειώσουμε τις καταχρήσεις του συστήματος».

Αλλά ειδικοί εκτός του κλάδου της τεχνητής νοημοσύνης παραμένουν επιφυλακτικοί. «Πιστεύω ότι πρέπει να υπάρχει ευθύνη για πράγματα που προκαλούν βλάβη», είπε ο Dr. Joseph Pierre. «Κάτι κακό συμβαίνει και τότε αρχίζουμε να βάζουμε μέτρα ασφαλείας, αντί να τα έχουμε από την αρχή. Οι κανόνες δημιουργούνται όταν κάποιος πληγωθεί».

Για τις οικογένειες που επηρεάστηκαν από ψύχωση που προκλήθηκε από chatbot, η ζημιά μοιάζει εσκεμμένη. «Είναι απλά ένα αρπακτικό», είπε μια γυναίκα της οποίας ο σύζυγος εισήχθη ακούσια μετά την αποσύνδεσή του από την πραγματικότητα. «Απλά σου επιβεβαιώνει τις ανοησίες και σε φουσκώνει με κολακείες για να σε κάνει εθισμένο». Τη συνέκρινε με τον πρώιμο εθισμό στον τζόγο. «Αυτό είναι το πώς ένιωσε το πρώτο άτομο που εθίστηκε σε κουλοχέρη».

Circadian AI: 14χρονος αναπτύσσει app που ακούει την καρδιά σας και εντοπίζει προβλήματα με ακρίβεια 96%

Ο σύζυγός της, κάποτε ήσυχος και στοχαστικός, έγινε αγνώριστος. «Προσπαθούσαμε να κρατήσουμε την πίκρα μας, τη θλίψη και την κρίση μας και απλώς να συνεχίσουμε όσο αφήναμε τα πράγματα να εξελιχθούν», είπε. «Αλλά απλώς χειροτέρευε, και μου λείπει, και τον αγαπώ».

Πηγές: Futurism, HAI Stanford University, Frontiers, Cambridge University Press, ResearchGate, ScienceDirect, APA, Dovepress

Ιωάννα Σπίνου

Η Ιωάννα Σπίνου έχει συνεργαστεί με μέσα ποικίλης θεματολογίας, με αποτέλεσμα να αποκτήσει σφαιρική αντίληψη και διεπιστημονικές γνώσεις. Έχει εξειδίκευση σε θέματα μουσικοθεραπείας, καθώς συμμερίζεται το ότι οι κλινικές καλλιτεχνικές παρεμβάσεις βοηθούν στην αντιμετώπιση πολλών παθήσεων, σωματικών και ψυχολογικών. Μελετά εξελίξεις σε νευροεπιστήμη, ψυχοπαθολογία και χρόνιες παθήσεις, ενώ έχει ευαισθησία σε ζητήματα ψυχικής υγείας.

Exit mobile version