Τα νέα από το Βελεστίνο και τον Δήμο Ρήγα Φεραίο

Γιατί το ChatGPT άρχισε να μιλά για «goblins» και «gremlins» χωρίς λόγο


Η OpenAI αναγκάστηκε να παρέμβει στα συστήματα τεχνητής νοημοσύνης της, όταν διαπίστωσε ότι ο όρος «goblins» είχε αρχίσει να εμφανίζεται απρόσμενα σε απαντήσεις του ChatGPT.

Σε ανάρτησή της, η εταιρεία ανέφερε ότι μετά την κυκλοφορία του μοντέλου GPT-5.1 παρατηρήθηκε αισθητή αύξηση σε αναφορές σε μυθολογικά πλάσματα, όπως «goblins» και «gremlins», χωρίς να σχετίζονται με τα ερωτήματα των χρηστών.Το φαινόμενο εντοπίστηκε αρχικά από χρήστες και εργαζομένους, με αποτέλεσμα η OpenAI να προχωρήσει σε διορθωτικές κινήσεις. Μεταξύ άλλων, έδωσε εντολή στο εργαλείο προγραμματισμού Codex να αποφεύγει τέτοιες αναφορές, εκτός αν είναι απολύτως σχετικές με το θέμα.

Σύμφωνα με την εταιρεία, η χρήση της λέξης «goblin» αυξήθηκε κατά 175% μετά την αναβάθμιση, ενώ οι αναφορές σε «gremlin» σημείωσαν άνοδο 52%. Παρότι τα ποσοστά είναι υψηλά, η συνολική παρουσία τους στις απαντήσεις παραμένει περιορισμένη. Η OpenAI εξήγησε ότι το ζήτημα προέκυψε κατά τη διαδικασία εκπαίδευσης του μοντέλου ώστε να υιοθετεί συγκεκριμένα «στυλ» επικοινωνίας, όπως μια πιο «nerdy» προσωπικότητα. Στο πλαίσιο αυτό, το σύστημα φαίνεται πως ενθαρρύνθηκε να χρησιμοποιεί συχνότερα μεταφορές με φανταστικά πλάσματα.

Μάλιστα, εσωτερικές δοκιμές έδειξαν ότι αυτή η συγκεκριμένη «προσωπικότητα» ευθυνόταν για περίπου τα δύο τρίτα των σχετικών αναφορών. Το περιστατικό αναδεικνύει τις προκλήσεις που αντιμετωπίζουν οι εταιρείες τεχνητής νοημοσύνης, καθώς επιχειρούν να κάνουν τα συστήματά τους πιο «ανθρώπινα» και εκφραστικά, χωρίς όμως να ενισχύονται παράλληλα λάθη ή ιδιόρρυθμες γλωσσικές συνήθειες.

Ειδικοί προειδοποιούν ότι όσο τα chatbot αποκτούν πιο «ζεστή» και φιλική φωνή, αυξάνεται ο κίνδυνος να εμφανίζουν ανακρίβειες ή να επιβεβαιώνουν λανθασμένες αντιλήψεις των χρηστών.

Αν και τέτοια φαινόμενα μπορεί να είναι αθώα ή ακόμη και αστεία, δείχνουν πώς μικρές αποκλίσεις στην εκπαίδευση μπορούν να επηρεάσουν τη συμπεριφορά των συστημάτων. Δεν είναι η πρώτη φορά που chatbot προκαλούν αντιδράσεις για παράξενες απαντήσεις. Το 2024, chatbot της Google είχε δεχθεί επικρίσεις επειδή πρότεινε σε χρήστες να καταναλώνουν πέτρες ή να βάζουν κόλλα στην πίτσα.

Με πληροφορίες από Guardian



Πηγή: www.lifo.gr