Τα προηγμένα μοντέλα τεχνητής νοημοσύνης καταρρέουν μπροστά σε σύνθετα προβλήματα, δείχνει έρευνα


Μια νέα μελέτη της Apple αποκαλύπτει σοβαρούς περιορισμούς στις δυνατότητες των πιο εξελιγμένων μοντέλων τεχνητής νοημοσύνης, αμφισβητώντας τις κυρίαρχες προσδοκίες της τεχνολογικής βιομηχανίας για την επίτευξη τεχνητής γενικής νοημοσύνης (AGI).

Σύμφωνα με την έρευνα που δημοσιεύτηκε το Σαββατοκύριακο, τα λεγόμενα μοντέλα μεγάλης συλλογιστικής (Large Reasoning Models – LRM), μια προηγμένη κατηγορία συστημάτων ΤΝ σχεδιασμένων για επίλυση σύνθετων προβλημάτων μέσω αναλυτικών βημάτων σκέψης, υπέστησαν πλήρη κατάρρευση ακρίβειας όταν αντιμετώπισαν προβλήματα αυξημένης πολυπλοκότητας.

Αντίθετα, σε εργασίες χαμηλής δυσκολίας, τα συμβατικά μοντέλα ΤΝ είχαν καλύτερες επιδόσεις. Όμως και οι δύο τύποι μοντέλων εμφάνισαν σημαντικά ελλείμματα σε πιο απαιτητικά σενάρια, με τα LRM να παρουσιάζουν ανησυχητικά σημάδια «παραίτησης» από την προσπάθεια συλλογισμού, καθώς πλησίαζαν το όριο αποτυχίας.

Τεχνητή νοημοσύνη: «Καταστροφικά» τα ευρήματα για την πορεία προς την AGI

Ο Gary Marcus, διακεκριμένος ακαδημαϊκός και ένθερμος επικριτής της υπερεκτίμησης των δυνατοτήτων των LLM (μεγάλα γλωσσικά μοντέλα), χαρακτήρισε τη μελέτη της Apple ως «αρκετά καταστροφική». Όπως σχολίασε:

«Όποιος πιστεύει ότι τα LLM αποτελούν άμεση οδό προς την AGI που θα μεταμορφώσει ριζικά την κοινωνία προς το καλύτερο, κάνει λάθος».

Η μελέτη ανέλυσε πώς τα μοντέλα επιχειρούν την επίλυση προβλημάτων μέσω δομημένης σκέψης, διαπιστώνοντας ότι όσο αυξάνεται η δυσκολία, τόσο μειώνεται η ικανότητά τους να εφαρμόζουν συνεπή λογικά βήματα. Μάλιστα, ακόμα και όταν τους παρέχεται ορθός αλγόριθμος για την επίλυση ενός προβλήματος, αδυνατούν να τον ακολουθήσουν αποτελεσματικά.

Η ερευνητική ομάδα σημειώνει: «Μόλις τα μοντέλα πλησιάσουν ένα κρίσιμο όριο – το οποίο ταυτίζεται με την κατάρρευση της ακρίβειάς τους – αρχίζουν να μειώνουν την προσπάθεια συλλογισμού τους, παρότι τα προβλήματα γίνονται δυσκολότερα».

Αυτό το εύρημα ερμηνεύεται ως ένδειξη θεμελιώδους περιορισμού κλιμάκωσης των γνωστικών δυνατοτήτων των σύγχρονων LRM.

Δοκιμές με γρίφους και γνωστά μοντέλα Τεχνητής Νοημοσύνης

Η μελέτη περιλάμβανε δοκιμές επίλυσης κλασικών γρίφων, όπως ο Πύργος του Ανόι και τα παζλ «διάσχισης ποταμού». Οι ερευνητές αναγνώρισαν ότι η έμφαση στα παζλ αποτελεί έναν περιορισμό της μελέτης, αλλά τόνισαν ότι πρόκειται για αναγνωρισμένα τεστ γνωστικής ικανότητας.

Μεταξύ των μοντέλων που αξιολογήθηκαν ήταν:

  • GPT o3 της OpenAI
  • Gemini Thinking της Google
  • Claude 3.7 Sonnet-Thinking της Anthropic
  • DeepSeek-R1 της DeepSeek

Οι εταιρείες Anthropic, Google και DeepSeek κλήθηκαν να σχολιάσουν τα ευρήματα, ενώ η OpenAI αρνήθηκε να σχολιάσει.

Ο Andrew Rogoyski, του Ινστιτούτου για την Ανθρωποκεντρική Τεχνητή Νοημοσύνη στο Πανεπιστήμιο του Surrey, σημείωσε ότι η μελέτη της Apple υπογραμμίζει τις δομικές αδυναμίες της παρούσας κατεύθυνσης στην ανάπτυξη ΤΝ: «Το γεγονός ότι τα μοντέλα μεγάλης συλλογιστικής χάνουν τη “συνοχή” τους στα πιο σύνθετα προβλήματα, παρότι αποδίδουν καλά στα απλούστερα, υποδηλώνει πως βρισκόμαστε πιθανόν μπροστά σε ένα τεχνολογικό αδιέξοδο».

Η μελέτη καταλήγει στο συμπέρασμα ότι η σημερινή προσέγγιση ανάπτυξης τεχνητής νοημοσύνης ίσως να έχει φτάσει τα όριά της, τουλάχιστον όσον αφορά την ικανότητα γενικευμένης συλλογιστικής – δηλαδή τη δυνατότητα να εφαρμόζεται ένα μεμονωμένο συμπέρασμα σε ευρύτερα πεδία.

Όπως επισημαίνουν οι ερευνητές: «Τα ευρήματά μας αμφισβητούν βασικές παραδοχές για το μέλλον των LRM και υποδεικνύουν ότι οι παρούσες τεχνικές ίσως αντιμετωπίζουν θεμελιώδη εμπόδια στην προσπάθεια για αληθινή γενίκευση σκέψης».

Με πληροφορίες από Guardian

 

 

 

 



Πηγή: www.lifo.gr