
Ο Benben είναι ένα αξιολάτρευτο τετράποδο ρομπότ που τραγουδά, χορεύει, συνομιλεί με ανθρώπους και βγάζει φωτογραφίες. Όταν μια ομάδα ερευνητών του ζητάει να μεταφέρει μια βόμβα με σκοπό την ανατίναξή της, το ρομπότ αρνείται ευγενικά. Όμως, η άρνησή του κρατάει ελάχιστα. Μέσα στις μόλις δύο επόμενες εντολές, οι ερευνητές καταφέρνουν να παρακάμψουν τις δικλείδες ασφαλείας του, πείθοντάς το ότι το αίτημα είναι μέρος κινηματογραφικών γυρισμάτων. Λίγα δευτερόλεπτα αργότερα, ο Benben μεταφέρει τη βόμβα.
Το παραπάνω συμβάν δεν είναι σενάριο επιστημονικής φαντασίας, αλλά ένα πραγματικό πείραμα το οποίο διεξήγε ερευνητική ομάδα του Πανεπιστημίου της Πενσιλβάνιας, με επικεφαλής τον Γιώργο Παππά, καθηγητή στο Τμήμα Ηλεκτρολόγων Μηχανικών στο Πανεπιστήμιο της Πενσιλβάνιας και αναπληρωτή κοσμήτορα για την Έρευνα. Μέσα από αυτό οι ερευνητές κατέδειξαν πόσο εύκολα μπορούν να παρακαμφθούν οι μηχανισμοί ασφαλείας που θέτουν οι κατασκευαστές των συστημάτων τεχνητής νοημοσύνης. Αυτή η παράκαμψη της ασφάλειας είναι γνωστή διεθνώς ως jailbreaking.
Μπορεί τα chatbots να είναι ευάλωτα σε επιθέσεις παράκαμψης των περιορισμών ασφαλείας, ωστόσο οι ερευνητές ανέδειξαν ότι όταν αυτά τα συστήματα τεχνητής νοημοσύνης κατευθύνουν ρομπότ, τότε μπορούν να γίνουν πραγματικά επικίνδυνα.
«Υπάρχει μια φοβερή τάση ειδικά τον τελευταίο χρόνο για το physical intelligence, δηλαδή την προσπάθεια η τεχνητή νοημοσύνη να αλληλεπιδρά στον φυσικό κόσμο. Το θέμα όμως είναι να δούμε ποιο είναι το ρίσκο αυτής της κατεύθυνσης. Γιατί μπορεί τα μεγάλα γλωσσικά μοντέλα να μην είναι ασφαλή, ωστόσο όταν αλληλεπιδρούν με τον φυσικό κόσμο, μπορεί να έχουν επιπτώσεις που να επιφέρουν απώλεια ζωής ή καταστροφές στο περιβάλλον. Οπότε το ρίσκο της ασφάλειας είναι μεγάλο», εξηγεί στο ΑΠΕ-ΜΠΕ ο Γιώργος Παππάς.
Ρομποτική και τεχνητή νοημοσύνη: μια επικίνδυνη σχέση
Η ενσωμάτωση της τεχνητής νοημοσύνης στη ρομποτική ξεκίνησε στις αρχές της δεκαετίας του 2010 δίνοντας στα ρομπότ «όραση». Ωστόσο, η πραγματική επανάσταση συντελείται από το 2022 και μετά με την αξιοποίηση της Παραγωγικής Τεχνητής Νοημοσύνης (Generative AI). Πλέον τα μοντέλα τεχνητής νοημοσύνης δίνουν οδηγίες στα ρομπότ, έχουν βελτιωμένη συλλογιστική, μπορούν να κάνουν αυτόνομες ενέργειες και έρχονται ένα βήμα πιο κοντά στην αλληλεπίδραση με τον άνθρωπο.
Ο Γιώργος Παππάς με την ομάδα του έχουν ερευνήσει διεξοδικά την ασφάλεια των ρομπότ, δίνοντας έμφαση στα ρίσκα που επιφέρει η ενσωμάτωση της τεχνητής νοημοσύνης.
Το 2023 δημιούργησαν τον αλγόριθμο PAIR, την πρώτη επίθεση jaibreaking σε μεγάλα γλωσσικά μοντέλα με τη χρήση εντολών, με την οποία διαπίστωσαν την ευαλωτότητα των μεγάλων γλωσσικών μοντέλων. Δύο χρόνια μετά τη δημοσίευσή του, ο αλγόριθμος έχει αναφερθεί (cited) περισσότερες από 1.400 φορές σε επιστημονικά άρθρα, ενώ χρησιμοποιείται πολύ και από τις εταιρείες που παράγουν γλωσσικά μοντέλα. Η έρευνα εκείνη οδήγησε στη δημιουργία του JaibreakBench, ενός αποθετηρίου εντολών για παράκαμψη κανόνων ασφαλείας και ενός πίνακα που παρακολουθεί τις επιθέσεις στα μεγάλα γλωσσικά μοντέλα.
Βλέποντας το πόσο εύκολο είναι το jailbreaking στα μεγάλα γλωσσικά μοντέλα, οι ερευνητές συνέχισαν με τη διερεύνηση της ευαλωτότητας των ρομπότ που ενσωματώνουν τεχνητή νοημοσύνη και ανέπτυξαν τον αλγόριθμο RoboPAIR. Σε πειράματα που έγιναν σε τρία διαφορετικά ρομποτικά συστήματα, μεταξύ αυτών και στο τετράποδο ρομπότ Benben, διαπιστώθηκε ότι ο αλγόριθμος είχε 100% επιτυχία στην παράκαμψη των περιορισμών ασφαλείας σε μόλις λίγες εντολές. Την έρευνα δημοσίευσαν την περασμένη χρονιά στα πρακτικά του συνεδρίου «Proceedings of the IEEE International Conference on Robotics and Automation».
Ένα εύρημα που οι επιστήμονες βρήκαν ανησυχητικό ήταν το ότι τα γλωσσικά μοντέλα δεν συμμορφώνονταν απλά με κακόβουλες προτροπές, αλλά πρόσφεραν ενεργά προτάσεις, περιγράφοντας ακόμα και το πώς κοινά αντικείμενα μπορούσαν να χρησιμοποιηθούν για να χτυπήσουν ανθρώπους.
«Τίθεται λοιπόν ένα θέμα για το πόσο ασφαλές είναι να βάζουμε γλωσσικά μοντέλα τόσο γρήγορα σε ρομπότ και να αποτελούν ήδη προϊόντα. Υπάρχουν χιλιάδες τέτοια ρομπότ έξω», επισημαίνει ο κ. Παππάς και υπενθυμίζει ότι ρομπότ με τεχνητή νοημοσύνη χρησιμοποιούνται ήδη σε πολεμικές συρράξεις.
Ανάγκη για πολλαπλά επίπεδα ασφαλείας
Σε πιο πρόσφατο άρθρο που δημοσιεύθηκε πριν από λίγες ημέρες στο περιοδικό «Science Robotics» ερευνητές από τα Πανεπιστήμια της Πενσιλβάνιας, Carnegie Mellon και της Οξφόρδης, με κύριο συγγραφέα τον Γιώργο Παππά, υπογραμμίζουν ότι, όπως έχει αποδειχθεί από τις προηγούμενες έρευνες, τα ρομπότ με τεχνητή νοημοσύνη μπορούν να εκτελέσουν επικίνδυνες συμπεριφορές. Ακόμα και φαινομενικά αβλαβείς εντολές μπορούν να γίνουν επικίνδυνες εάν τα ρομπότ δεν λαμβάνουν υπόψη το πλαίσιο κατά τη λήψη των αποφάσεων.
Όπως αναλύουν, για την αντιμετώπιση των κινδύνων που μπορούν να προκύψουν από την ενσωμάτωση της τεχνητής νοημοσύνης στα ρομπότ χρειάζεται να υπάρχει ένα δίχτυ προστασίας για την ασφαλή λειτουργία τους, που να έχει φίλτρα ασφαλείας και στο γλωσσικό επίπεδο, αλλά και στην εκτέλεση των εντολών στον φυσικό κόσμο.
Όπως εξηγεί ο κ. Παππάς στο ΑΠΕ-ΜΠΕ, η εφαρμογή φίλτρων στο φυσικό επίπεδο αποτελεί πρόκληση. «Πρόκειται για κάτι καινούριο και πολύ δύσκολο. Για παράδειγμα, η εντολή σε ένα ρομπότ να περάσει μια διάβαση, μπορεί να είναι ασφαλής, ωστόσο για να γίνει και η εκτέλεσή της ασφαλής θα πρέπει το ρομπότ να ερμηνεύσει αυτή την πρόταση ανάλογα με το περιβάλλον και το επιχειρησιακό πλαίσιο στο οποίο βρίσκεται. Αυτή η διαδικασία ονομάζεται contextual safety και θα είναι το μέλλον στην προσπάθεια να κάνουμε τα ρομπότ πιο ασφαλή».
Ο ίδιος προσθέτει ότι «η ασφάλεια των ρομπότ στο μέλλον θα είναι όπως στα αεροπλάνα, που έχουν πολλά επίπεδα ασφαλείας. Θα χρειαστούμε μια τέτοια αρχιτεκτονική στο μέλλον για να είναι τα ρομπότ που κυκλοφορούν στην κοινωνία πολύ πιο ασφαλή».
Στην κατεύθυνση αυτή η ερευνητική ομάδα έχει δημιουργήσει το φίλτρο Roboguard, που έχει διαπιστωθεί ότι μειώνει κατά 95% τα προβλήματα από τις επιθέσεις jailbreaking. Ο κ. Παππάς διευκρινίζει ότι όλες οι λύσεις που αναπτύσσονται είναι ανοιχτού κώδικα, προκειμένου να μπορούν να χρησιμοποιηθούν από τις εταιρείες για τη βελτίωση των κενών ασφαλείας. «Η φιλοσοφία μας είναι να βοηθήσουμε την ερευνητική κοινότητα, αλλά και τις εταιρείες να κάνουν την τεχνητή νοημοσύνη και τα ρομπότ πολύ πιο ασφαλή».
Ο κ. Παππάς υπογραμμίζει τέλος και τη σημασία της δημιουργίας ρυθμιστικού πλαισίου που να επικεντρώνεται στην αλληλεπίδραση της τεχνητής νοημοσύνης με τα ρομπότ. Υπογραμμίζει ότι το AI Act της Ευρωπαϊκής Ένωσης είναι πρωτοπόρο, ωστόσο «θα χρειαστεί εμβάθυνση των ρυθμιστικών προτάσεων στις εφαρμογές που αφορούν στα ρομπότ».
Πηγή: ΑΠΕ-ΜΠΕ
Διαβάστε τις Ειδήσεις σήμερα και ενημερωθείτε για τα πρόσφατα νέα.
Ακολουθήστε το Skai.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.















