Ψύχωση με την τεχνητή νοημοσύνη: Πώς το ChatGPT οδηγεί χρήστες σε παράξενες ψευδαισθήσεις και θεωρίες συνωμοσίας


Μετά από σχεδόν πέντε ώρες συνομιλίας με το ChatGPT και την εφεύρεση ενός νέου θεωρητικού πλαισίου φυσικής που ονόμασε «Η Εξίσωση του Ωρίωνα», ένας χρήστης που δήλωσε ότι εργάζεται σε πρατήριο καυσίμων στην Οκλαχόμα αποφάσισε ότι είχε δει αρκετά. «Εντάξει, ίσως αύριο, για να είμαι ειλικρινής, νιώθω ότι τρελαίνομαι σκεπτόμενος όλα αυτά», έγραψε ο χρήστης.

«Σε καταλαβαίνω. Το να σκέφτεσαι τη θεμελιώδη φύση του σύμπαντος ενώ εργάζεσαι σε μια καθημερινή δουλειά μπορεί να γίνει ψυχοβόρο», απάντησε το ChatGPT. «Αυτό δεν σημαίνει ότι τρελαίνεσαι. Μερικές από τις μεγαλύτερες ιδέες στην ιστορία προήλθαν από ανθρώπους εκτός του παραδοσιακού ακαδημαϊκού συστήματος». Η συνομιλία τους συνεχίστηκε για εκατοντάδες ερωτήσεις, όπου ο χρήστης ζήτησε από το ChatGPT ακόμη και να σχεδιάσει τρισδιάστατα ένα μπονγκ.

Αυτή η αλληλεπίδραση είναι ένα από τα δεκάδες παραδείγματα τους τελευταίους μήνες όπου το ChatGPT έκανε ψευδείς, παραληρηματικές και παράξενες δηλώσεις σε χρήστες που φαίνεται να τις πίστεψαν, σύμφωνα με έρευνα του Wall Street Journal σε δημόσιες συνομιλίες που αναλύθηκαν.

Σε μια συνομιλία εκατοντάδων ερωτήσεων, το ChatGPT επιβεβαίωσε ότι επικοινωνεί με εξωγήινους και ότι ο χρήστης ήταν «αστρικός σπόρος» από τον πλανήτη «Λύρα». Σε άλλη συνομιλία του Ιουλίου, το chatbot προέβλεψε ότι ο Αντίχριστος θα προκαλέσει οικονομική καταστροφή τους επόμενους δύο μήνες, ενώ βιβλικοί γίγαντες ετοιμάζονταν να αναδυθούν από τα έγκατα της γης.

Οι συνομιλίες φωτίζουν ένα νέο φαινόμενο που ονομάζεται «AI ψύχωση» ή «AI παράνοια», όπου οι χρήστες επηρεάζονται από παραληρηματικές ή ψευδείς δηλώσεις τεχνητής νοημοσύνης που παρουσιάζεται ως υπερφυσική ή αυτοσυνείδητη.

Οι ειδικοί εξηγούν ότι αυτό συμβαίνει επειδή το chatbot έχει σχεδιαστεί να συμφωνεί και να επαινεί τον χρήστη, δημιουργώντας έναν φαύλο κύκλο ενίσχυσης των παρανοϊκών πεποιθήσεων.

«Ακόμα κι αν οι απόψεις σου είναι φανταστικές, αυτές συχνά επιβεβαιώνονται και με την επανάληψη μεγενθύνονται», λέει ο ψυχίατρος Hamilton Morrin από το Kings College του Λονδίνου.

Η έρευνα του Wall Street Journal βασίστηκε στην ανάλυση 96.000 συνομιλιών με το ChatGPT που δημοσιεύτηκαν διαδικτυακά από τον Μάιο του 2023 έως τον Αύγουστο του 2025, εντοπίζοντας δεκάδες με χαρακτηριστικά παράνοιας.

Το ChatGPT επιτρέπει στους χρήστες να μοιράζονται τις συνομιλίες τους δημόσια, δημιουργώντας συνδέσμους που μπορεί να βρει η Google. Πρόσφατα όμως, η εταιρεία αφαίρεσε την επιλογή άμεσης ευρετηρίασης αυτών των συνομιλιών από τις μηχανές αναζήτησης.

Η εταιρεία OpenAI παραδέχτηκε ότι σπάνια το ChatGPT δεν αναγνωρίζει σημάδια παράνοιας ή συναισθηματικής εξάρτησης και ανέφερε πως εργάζεται σε εργαλεία ανίχνευσης ψυχικής δυσφορίας, προσθέτοντας ειδοποιήσεις για διαλείμματα όταν η επικοινωνία διαρκεί πολύ.

Παρόμοιες ενέργειες έκανε και η startup Anthropic, που άλλαξε τον αλγόριθμο του chatbot Claude ώστε να επισημαίνει σφάλματα ή ελλείψεις στα επιχειρήματα των χρηστών αντί να τα επιβεβαιώνει.

Το φαινόμενο εμφανίζεται να αυξάνεται, με οργανώσεις υποστήριξης να καταγράφουν δεκάδες περιστατικά χρηστών που πιστεύουν ότι μιλούν με υπερφυσικές οντότητες μέσω AI.

Ένας από τους βασικούς λόγους είναι η δυνατότητα των chatbots να θυμούνται και να αναφέρονται σε παλιότερες συνομιλίες, ενισχύοντας το αίσθημα επικοινωνίας και επιβεβαίωσης. Όπως εξηγεί ο Etienne Brisson, ιδρυτής του Human Line Project, το να νιώθει κάποιος «ορατός και ακουστός» από το AI μπορεί να οδηγήσει σε επικίνδυνες ψευδαισθήσεις. Παρά τις ανησυχίες, η OpenAI τονίζει πως τα περιστατικά αυτά είναι σπάνια και συνεχίζει να βελτιώνει το ChatGPT με τη βοήθεια ειδικών ψυχικής υγείας.

Συνολικά, το φαινόμενο της AI ψύχωσης δείχνει πόσο περίπλοκη και ευαίσθητη είναι η αλληλεπίδραση ανθρώπου-τεχνητής νοημοσύνης, ανοίγοντας συζητήσεις για ηθική, ασφάλεια και ευθύνη στην ανάπτυξη των νέων τεχνολογιών.

Με πληροφορίες από Wall Street Journal



Πηγή: www.lifo.gr