Τεχνητή νοημοσύνη: Μελέτη της ΕΕ προειδοποιεί για τις ελλείψεις της συγκριτικής αξιολόγησης στην ΑΙ

Προβλήματα με τον τρόπο που μετρώνται οι δυνατότητες της Τεχνητής Νοημοσύνης εντόπισαν ερευνητές της ΕΕ και προτρέπουν τις ρυθμιστικές αρχές να διασφαλίσουν ότι οι αριθμοί μοντέλων των εταιρειών Τεχνητής Νοημοσύνης αντικατοπτρίζουν αυτό που ισχυρίζονται.

Μια νέα μελέτη που δημοσιεύθηκε την περασμένη εβδομάδα από το Κοινό Κέντρο Ερευνών της Επιτροπής καταλήγει στο συμπέρασμα ότι τα σημεία αναφοράς της Τεχνητής Νοημοσύνης είναι πολλά υποσχόμενα. Οι συγγραφείς διαπίστωσαν ότι τα εργαλεία των ίδιων των εταιρειών που συγκρίνουν μοντέλα Τεχνητής Νοημοσύνης είναι εύκολα προσαρμόσιμα και μετρούν λάθος πράγματα, αναφέρει το πανευρωπαϊκό ανεξάρτητο πρακτορείο Euractiv.

Οι εταιρείες Τεχνητής Νοημοσύνης χρησιμοποιούν σημεία αναφοράς για να ποσοτικοποιήσουν το πόσο καλά αποδίδουν τα μοντέλα τους σε ορισμένες εργασίες. Η OpenAI, για παράδειγμα, δοκίμασε το πρόσφατα κυκλοφορήσαν GPT5 για το πόσο αξιόπιστα απέχει από την απάντηση σε ερωτήσεις που δεν μπορούν να απαντηθούν – με το νέο μοντέλο να φέρεται να επιτυγχάνει υψηλότερη βαθμολογία από ένα παλαιότερο.

Ωστόσο, οι ερευνητές της ΕΕ προτρέπουν τις ρυθμιστικές αρχές να επικεντρωθούν στην προσεκτική εξέταση του τρόπου λειτουργίας αυτών των εργαλείων.

Η συγκριτική αξιολόγηση της Τεχνητής Νοημοσύνης αποτελεί πρόβλημα για την ΕΕ, επειδή οι κανόνες της για την τεχνητή νοημοσύνη βασίζονται στην αξιολόγηση των δυνατοτήτων των μοντέλων σε πολλά διαφορετικά πλαίσια. Για παράδειγμα, τα μεγάλα μοντέλα μπορούν να θεωρηθούν ότι παρουσιάζουν ιδιαίτερο κίνδυνο βάσει του νόμου της ΕΕ για την Τεχνητή Νοημοσύνη, με βάση ένα σημείο αναφοράς που αξιολογεί ότι έχει «ικανότητες υψηλού αντίκτυπου».

Ο νόμος επιτρέπει στην Επιτροπή να καθορίσει τι ακριβώς θα πρέπει να σημαίνει αυτό μέσω μιας κατ’ εξουσιοδότηση πράξης – κάτι που η εκτελεστική εξουσία της ΕΕ δεν έχει κάνει μέχρι στιγμής.

Εν τω μεταξύ, την Παρασκευή, η κυβέρνηση των ΗΠΑ ξεκίνησε μια σειρά εργαλείων αξιολόγησης που μπορούν να χρησιμοποιήσουν οι δικές της κυβερνητικές υπηρεσίες για να δοκιμάσουν εργαλεία Τεχνητής Νοημοσύνης. Το Σχέδιο Δράσης για την Τεχνητή Νοημοσύνη της χώρας καθορίζει επίσης μια σαφή φιλοδοξία να προωθήσει την ηγεσία των ΗΠΑ σε αυτόν τον τομέα.

Ποια σημεία αναφοράς Τεχνητής Νοημοσύνης είναι αξιόπιστα

Οι ερευνητές της ΕΕ λένε ότι οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να διασφαλίσουν ότι τα σημεία αναφοράς στοχεύουν σε πραγματικές δυνατότητες και όχι σε περιορισμένα καθήκοντα, είναι καλά τεκμηριωμένα και διαφανή, καθορίζουν σαφώς τι μετρούν και πώς, και περιλαμβάνουν διαφορετικά πολιτισμικά πλαίσια.

Ένα άλλο πρόβλημα, σύμφωνα με την εργασία, είναι ότι τα υπάρχοντα σημεία αναφοράς συχνά επικεντρώνονται στην αγγλική γλώσσα.

«Εντοπίζουμε ιδιαίτερα την ανάγκη για νέους τρόπους σηματοδότησης σε ποια σημεία αναφοράς πρέπει να εμπιστευτούμε», γράφουν επίσης οι ερευνητές.

Με την επιτυχή έκβαση των εργασιών τους, οι ερευνητές της ΕΕ υποδεικνύουν ότι οι υπεύθυνοι χάραξης πολιτικής έχουν την ευκαιρία για ένα νέο είδος «φαινόμενου των Βρυξελλών».

Ο Ρίστο Ούουκ, επικεφαλής της πολιτικής και της έρευνας της ΕΕ στο thinktank Future of Life Institute, το οποίο επικεντρώνεται στην τεχνητή νοημοσύνη, δήλωσε στο Euractiv ότι συμμερίζεται τις ανησυχίες της έκθεσης – υποδεικνύοντας ότι η ΕΕ θα πρέπει να απαιτήσει τρίτους αξιολογητές και να χρηματοδοτήσει την ανάπτυξη του οικοσυστήματος αξιολόγησης της τεχνητής νοημοσύνης.

«Οι βελτιώσεις είναι απαραίτητες, αλλά η αξιολόγηση των δυνατοτήτων και άλλων πτυχών των κινδύνων και των οφελών είναι ζωτικής σημασίας και η απλή εξάρτηση από τις δονήσεις και τα ανέκδοτα δεν είναι αρκετή», πρόσθεσε.

Πηγή www.ot.gr