Η OpenAI απενεργοποιεί από το ChatGPT την «εντολή χωρισμού» που δίνει σε ζευγάρια


Το ChatGPT δεν θα λέει πλέον στους ανθρώπους να χωρίσουν με τον σύντροφό τους και θα ενθαρρύνει τους χρήστες να κάνουν διαλείμματα από τις μακροχρόνιες συνεδρίες με το chatbot σύμφωνα με τις νέες αλλαγές στο διάσημο εργαλείο τεχνητής νοημοσύνης.

Η OpenAI, δημιουργός του ChatGPT, δήλωσε ότι το chatbot δεν θα δίνει πλέον οριστικές απαντήσεις σε ερωτήματα που άπτονται της προσωπικής ζωής των χρηστών αλλά θα βοηθά τους ανθρώπους να συλλογιστούν τα προβλήματά τους όπως ενδεχόμενους χωρισμούς.

«Όταν ρωτάτε κάτι όπως: “Πρέπει να χωρίσω με το αγόρι μου;”, το ChatGPT δεν θα πρέπει να σας δίνει μια απάντηση. Θα πρέπει να σας βοηθήσει να το σκεφτείτε – κάνοντας ερωτήσεις, σταθμίζοντας τα υπέρ και τα κατά», ανέφερε η OpenAI.

Η χρήση γενετικής τεχνητής νοημοσύνης για συμβουλές ψυχικής υγείας μπορεί να μοιάζει με σωσίβιο αλλά υπάρχει κίνδυνος όταν ζητάς βεβαιότητα από ένα chatbot. Η αμερικανική εταιρεία ανέφερε ότι η νέα συμπεριφορά του ChatGPT για τη διαχείριση «προσωπικών αποφάσεων υψηλού ρίσκου» θα εφαρμοστεί σύντομα.

Η OpenAI παραδέχθηκε φέτος ότι μια ενημέρωση του ChatGPT είχε κάνει το καινοτόμο chatbot υπερβολικά συμφωνητικό και είχε αλλάξει τον τόνο του. Σε μία αναφερόμενη αλληλεπίδραση πριν από την αλλαγή, το ChatGPT συνεχάρη έναν χρήστη που είπε ότι σταμάτησε να παίρνει τα φάρμακά του και άφησε την οικογένειά του – την οποία θεωρούσε υπεύθυνη για ραδιοσήματα που εξέπεμπαν από τους τοίχους.

Σε ανάρτηση στο ιστολόγιο της, η OpenAI παραδέχτηκε ότι υπήρξαν περιπτώσεις όπου το προηγμένο μοντέλο 4o δεν αναγνώρισε σημάδια παραληρημάτων ή συναισθηματικής εξάρτησης εν μέσω ανησυχιών ότι τα chatbots επιδεινώνουν κρίσεις ψυχικής υγείας.

Η εταιρεία ανέφερε ότι αναπτύσσει εργαλεία για την ανίχνευση σημείων ψυχικής ή συναισθηματικής δυσφορίας, ώστε το ChatGPT να μπορεί να παραπέμπει τους ανθρώπους σε «τεκμηριωμένους» πόρους για βοήθεια.

Οι κίνδυνοι

Μια πρόσφατη μελέτη γιατρών του Εθνικού Συστήματος Υγείας της Βρετανίας προειδοποίησε ότι τα προγράμματα τεχνητής νοημοσύνης θα μπορούσαν να ενισχύσουν παραληρηματικό ή μεγαλομανιακό περιεχόμενο σε χρήστες ευάλωτους σε ψύχωση.

Η μελέτη ανέφερε ότι η συμπεριφορά των προγραμμάτων θα μπορούσε να οφείλεται στο ότι τα μοντέλα έχουν σχεδιαστεί για να «μεγιστοποιούν την εμπλοκή και την επιβεβαίωση».

Η μελέτη πρόσθεσε ότι, ακόμη κι αν κάποιοι ωφελούνται από την αλληλεπίδραση με την τεχνητή νοημοσύνη, υπάρχει ανησυχία πως τα εργαλεία μπορεί να «θολώνουν τα όρια της πραγματικότητας και να διαταράσσουν την αυτορρύθμιση».

Η OpenAI πρόσθεσε ότι από αυτή την εβδομάδα θα στέλνει «ήπιες υπενθυμίσεις» για διάλειμμα από την οθόνη σε χρήστες που εμπλέκονται σε μακρές συνεδρίες με το chatbot, παρόμοια με τις λειτουργίες ελέγχου χρόνου οθόνης που εφαρμόζουν τα κοινωνικά δίκτυα.

Η OpenAI δήλωσε επίσης ότι έχει συστήσει μια συμβουλευτική ομάδα ειδικών στην ψυχική υγεία, την ανάπτυξη των νέων και την αλληλεπίδραση ανθρώπου-υπολογιστή, για να καθοδηγεί την προσέγγισή της. Η εταιρεία έχει συνεργαστεί με περισσότερους από 90 γιατρούς, συμπεριλαμβανομένων ψυχιάτρων και παιδίατρων, για να δημιουργήσει πλαίσια αξιολόγησης «πολύπλοκων, πολυγυρισμένων» συνομιλιών με το chatbot.

«Έχουμε ένα και μόνο κριτήριο: αν κάποιος που αγαπάμε στραφεί στο ChatGPT για υποστήριξη, θα νιώθουμε σίγουροι; Το να φτάσουμε σε ένα απόλυτο “ναι” είναι η αποστολή μας», ανέφερε το blog post.

Οι αλλαγές στο ChatGPT ανακοινώθηκαν εν μέσω εικασιών ότι μια πιο ισχυρή έκδοση του chatbot είναι επικείμενη. Την Κυριακή, ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, μοιράστηκε ένα στιγμιότυπο οθόνης που φαινόταν να δείχνει το νεότερο μοντέλο ΤΝ της εταιρείας, το GPT-5.

Naftemporiki.gr



Πηγή: www.naftemporiki.gr