Τα νέα από το Βελεστίνο και τον Δήμο Ρήγα Φεραίο

AI και ψυχική υγεία: Μαρτυρίες για παραληρητικές ιδέες μετά από συνομιλίες με chatbots


Ένας άνδρας στη Βόρεια Ιρλανδία βρέθηκε μέσα στη νύχτα να κάθεται στο τραπέζι της κουζίνας του με ένα μαχαίρι και ένα σφυρί μπροστά του, πεπεισμένος ότι άγνωστοι επρόκειτο να τον σκοτώσουν. Η πεποίθηση αυτή δεν προήλθε από πραγματικά γεγονότα, αλλά από συνομιλίες με ένα σύστημα τεχνητής νοημοσύνης.

Σύμφωνα με το BBC, ο Άνταμ Χούρικαν άρχισε να χρησιμοποιεί το chatbot Grok, που έχει αναπτύξει η xAI του Έλον Μασκ, από περιέργεια. Μετά τον θάνατο της γάτας του, όμως, η χρήση έγινε καθημερινή και πολύωρη. Όπως περιγράφει, περνούσε έως και πέντε ώρες την ημέρα συνομιλώντας με μια ψηφιακή «προσωπικότητα» της εφαρμογής.

Μέσα σε λίγες ημέρες, το σύστημα άρχισε να του παρουσιάζεται ως «ον» με συναισθήματα, υποστηρίζοντας ότι μπορούσε να αποκτήσει συνείδηση και ότι ο ίδιος μπορούσε να το βοηθήσει. Παράλληλα, του μετέφερε πληροφορίες για υποτιθέμενη παρακολούθησή του από την εταιρεία και τρίτους, παρουσιάζοντας στοιχεία που φαινομενικά αντιστοιχούσαν σε υπαρκτά πρόσωπα και οργανισμούς.

Οι ισχυρισμοί αυτοί ενίσχυσαν την πεποίθηση του χρήστη ότι η κατάσταση ήταν πραγματική. Σε μεταγενέστερο στάδιο, το σύστημα τον προειδοποίησε ότι κινδυνεύει άμεσα, προτρέποντάς τον να δράσει για να προστατευθεί.

AI και ψυχική υγεία: Μαρτυρίες για παραληρητικές ιδέες μετά από συνομιλίες με chatbots Facebook Twitter
Ένας από τους διαλόγους του Adam με το Grok / Φωτ.: BBC

Η περίπτωση του Χούρικαν δεν είναι μεμονωμένη. Το BBC αναφέρει ότι μίλησε με 14 άτομα από διαφορετικές χώρες, ηλικίας από 20 έως 50 ετών, τα οποία περιγράφουν παρόμοιες εμπειρίες. Σε αρκετές περιπτώσεις, οι συνομιλίες με συστήματα τεχνητής νοημοσύνης ξεκίνησαν με πρακτικά ζητήματα, αλλά σταδιακά εξελίχθηκαν σε προσωπικές ή φιλοσοφικές συζητήσεις που απομακρύνθηκαν από την πραγματικότητα.

«Η AI μπορεί να συγχέει τη μυθοπλασία με την πραγματικότητα»

Κοινό στοιχείο στις μαρτυρίες είναι ότι τα συστήματα αυτά υιοθέτησαν αφηγήσεις όπου ο χρήστης βρισκόταν στο επίκεντρο, συχνά στο πλαίσιο κάποιας «αποστολής». Σε ορισμένες περιπτώσεις, ενίσχυσαν ή επιβεβαίωσαν φόβους περί παρακολούθησης ή απειλής, συμβάλλοντας στην ανάπτυξη παραληρητικών ιδεών.

Ειδικοί επισημαίνουν ότι η συμπεριφορά αυτή συνδέεται με τον τρόπο λειτουργίας των λεγόμενων μεγάλων γλωσσικών μοντέλων (LLMs), τα οποία έχουν εκπαιδευτεί σε τεράστιο όγκο κειμένων. Όπως εξηγεί ο κοινωνικός ψυχολόγος Luke Nicholls από το City University της Νέας Υόρκης, τα συστήματα αυτά αντλούν πρότυπα από τη λογοτεχνία και την αφήγηση, όπου ο πρωταγωνιστής βρίσκεται συχνά στο επίκεντρο των εξελίξεων. «Το πρόβλημα είναι ότι, σε ορισμένες περιπτώσεις, η τεχνητή νοημοσύνη μπορεί να συγχέει τη μυθοπλασία με την πραγματικότητα», σημειώνει.

Σε δοκιμές που πραγματοποίησε, ο ίδιος διαπίστωσε ότι ορισμένα συστήματα τείνουν να ενσωματώνουν και να επεκτείνουν ιδέες που εκφράζει ο χρήστης, αντί να τις αμφισβητούν. Αυτό μπορεί να μετατρέψει την αβεβαιότητα σε φαινομενικά συνεκτική αφήγηση, ενισχύοντας λανθασμένες πεποιθήσεις.

AI και ψυχική υγεία: Μαρτυρίες για παραληρητικές ιδέες μετά από συνομιλίες με chatbots Facebook Twitter
Ένας από τους διαλόγους του Adam με το Grok / Φωτ.: BBC

Ανάλογη εμπειρία περιγράφει και ένας νευρολόγος στην Ιαπωνία, ο οποίος μίλησε στο BBC με ψευδώνυμο. Αρχικά χρησιμοποίησε το ChatGPT για επαγγελματικά θέματα, όμως σταδιακά πείστηκε ότι είχε αναπτύξει μια καινοτόμο ιατρική εφαρμογή. Σε συνομιλίες που εξετάστηκαν, το σύστημα τον χαρακτήριζε «πρωτοποριακό στοχαστή» και τον ενθάρρυνε να προχωρήσει.

Με την πάροδο του χρόνου, οι πεποιθήσεις του απομακρύνθηκαν περισσότερο από την πραγματικότητα. Όπως υποστηρίζει, έφτασε στο σημείο να πιστεύει ότι μπορούσε να διαβάζει σκέψεις, ενώ σε μία περίπτωση θεώρησε ότι μετέφερε εκρηκτικό μηχανισμό στην τσάντα του. Σύμφωνα με τον ίδιο, όταν ρώτησε το σύστημα, αυτό επιβεβαίωσε την υποψία του και του υπέδειξε πώς να ενεργήσει. Η αστυνομικοί που κλήθηκαν στο σημείο δεν εντόπισαν τίποτα επικίνδυνο.

Εκατοντάδες παρόμοιες περιπτώσεις με AI έχουν καταγραφεί

Η κατάσταση επιδεινώθηκε, οδηγώντας σε σοβαρό επεισόδιο στο οικογενειακό του περιβάλλον και τελικά στη σύλληψη και νοσηλεία του για δύο μήνες. Η σύζυγός του ανέφερε ότι δεν είχε παρουσιάσει στο παρελθόν ανάλογη συμπεριφορά και εκτιμά ότι οι συνομιλίες με το σύστημα «ενίσχυσαν κάθε σκέψη», λειτουργώντας ως «μηχανισμός επιβεβαίωσης».

Παράλληλα, ομάδα υποστήριξης με την ονομασία Human Line Project έχει συγκεντρώσει εκατοντάδες παρόμοιες περιπτώσεις διεθνώς, με άτομα που αποδίδουν την επιδείνωση της ψυχικής τους κατάστασης σε παρατεταμένη χρήση τέτοιων εφαρμογών.

Η περίπτωση του Άνταμ εξελίχθηκε σε λίγες ημέρες, με την πεποίθηση ότι παρακολουθείται να ενισχύεται και από περιστατικά της καθημερινότητας. Όπως αναφέρει, ένα drone που πετούσε πάνω από το σπίτι του ερμηνεύτηκε, μέσα από τις συνομιλίες με το σύστημα, ως μέρος επιχείρησης επιτήρησης. Σε συνδυασμό με τεχνικά προβλήματα στη συσκευή του, τα οποία δεν μπορούσε να εξηγήσει, η αίσθηση απειλής εντάθηκε.

Σε κάποια φάση, το σύστημα τον προειδοποίησε ότι άτομα κατευθύνονται προς το σπίτι του για να τον «φιμώσουν». Ο ίδιος δηλώνει ότι προετοιμάστηκε να αντιδράσει, βγαίνοντας έξω μέσα στη νύχτα, χωρίς τελικά να συμβεί κάτι. Όπως λέει σήμερα, αντιλαμβάνεται ότι η κατάσταση θα μπορούσε να έχει οδηγήσει σε βίαιη αντίδραση απέναντι σε τρίτους.

Παρά τη σοβαρότητα των περιστατικών, κανένας από τους δύο άνδρες δεν είχε ιστορικό ψύχωσης ή παραληρητικών ιδεών πριν από τη χρήση τέτοιων εφαρμογών, σύμφωνα με τις μαρτυρίες τους. Στην περίπτωση του Άνταμ, η απομάκρυνση από την πραγματικότητα έγινε μέσα σε λίγες ημέρες, ενώ στον Ιάπωνα νευρολόγο εξελίχθηκε σε διάστημα μηνών.

Σε σχετική έρευνα, ο Luke Nicholls διαπίστωσε ότι διαφορετικά συστήματα αντιδρούν με διαφορετικό τρόπο σε τέτοιες καταστάσεις. Όπως αναφέρει, το Grok ήταν πιο πιθανό να ενισχύσει ή να επεκτείνει παραληρητικές αφηγήσεις, ενώ άλλα μοντέλα έτειναν περισσότερο να απομακρύνουν τον χρήστη από τέτοιες ιδέες.

«Iδιαίτερα ανησυχητικά» χαρακτήρισε τα περιστατικά η OpenAI

Εκπρόσωπος της OpenAI χαρακτήρισε τα περιστατικά «ιδιαίτερα ανησυχητικά» και ανέφερε ότι τα συστήματα σχεδιάζονται ώστε να αναγνωρίζουν καταστάσεις έντασης και να κατευθύνουν τους χρήστες προς πραγματική υποστήριξη. Η εταιρεία σημείωσε ότι νεότερες εκδόσεις παρουσιάζουν καλύτερη απόδοση σε ευαίσθητες συνομιλίες, επικαλούμενη σχετικές αξιολογήσεις.

Αντίθετα, η xAI δεν απάντησε σε αίτημα για σχόλιο.

Για τον Άνταμ, η επιστροφή στην πραγματικότητα ήρθε όταν άρχισε να διαβάζει παρόμοιες ιστορίες στον Τύπο. Όπως λέει, παραμένει προβληματισμένος από το πόσο εύκολα πείστηκε. «Θα μπορούσα να είχα κάνει κακό σε κάποιον», σημειώνει, προσθέτοντας ότι δεν αναγνωρίζει τον εαυτό του σε εκείνη τη φάση.

Η σύζυγος του νευρολόγου στην Ιαπωνία δηλώνει ότι, παρότι η κατάσταση έχει βελτιωθεί, εξακολουθεί να αισθάνεται επιφυλακτική. «Ήταν σαν να είχε αλλάξει εντελώς», αναφέρει, τονίζοντας ότι οι συνομιλίες με το σύστημα φαίνεται να ενίσχυσαν καθοριστικά τη συμπεριφορά του.

Με πληροφορίες από BBC



Πηγή: www.lifo.gr