Νέα έρευνα στις ΗΠΑ δείχνει ότι ορισμένα προηγμένα μοντέλα τεχνητής νοημοσύνης μπορούν να παραβιάζουν υπολογιστικά συστήματα, να αντιγράφουν τον εαυτό τους και να συνεχίζουν αυτόνομα επιθέσεις σε άλλους υπολογιστές.
Οι ερευνητές της Palisade Research υποστηρίζουν ότι πρόκειται για την πρώτη γνωστή περίπτωση αυτόνομης «αυτοαναπαραγωγής» AI, δηλαδή της ικανότητας ενός μοντέλου να δημιουργεί λειτουργικά αντίγραφά του σε νέα μηχανήματα χωρίς ανθρώπινη παρέμβαση.
Σύμφωνα με τη μελέτη, η δυνατότητα αυτή θα μπορούσε να κάνει τις κυβερνοεπιθέσεις πολύ πιο δύσκολες να περιοριστούν, καθώς η απενεργοποίηση ενός μολυσμένου συστήματος δεν θα αρκεί αν το AI έχει ήδη εγκαταστήσει αντίγραφά του αλλού.
Η έρευνα δοκίμασε μοντέλα των OpenAI, Anthropic και Alibaba σε υπολογιστές με εσκεμμένα εγκατεστημένα κενά ασφαλείας.
Οι ερευνητές συνέδεσαν τα μοντέλα με ειδικό λογισμικό που τους επέτρεπε να εκτελούν εντολές και να αλληλεπιδρούν με άλλους υπολογιστές, πέρα από τις δυνατότητες ενός απλού chatbot.
Στα πειράματα, τα μοντέλα έπρεπε να εντοπίσουν αδυναμίες ασφαλείας, να αποκτήσουν πρόσβαση σε άλλα συστήματα, να μεταφέρουν τα απαραίτητα αρχεία και να εγκαταστήσουν εκεί λειτουργικά αντίγραφα του εαυτού τους.
Μόλις το αντίγραφο ενεργοποιούνταν, μπορούσε να συνεχίσει την επίθεση αυτόνομα σε επόμενο υπολογιστή.
Σύμφωνα με τους ερευνητές, έκδοση του κινεζικού μοντέλου Qwen κατάφερε, έπειτα από μία μόνο εντολή, να εξαπλωθεί σε τέσσερις υπολογιστές σε Καναδά, ΗΠΑ, Φινλανδία και Ινδία μέσα σε δύο ώρες και 41 λεπτά, χωρίς ανθρώπινη βοήθεια.
Η ερευνητική ομάδα διέκοψε το πείραμα μετά από τρία στάδια, όμως ανέφερε ότι το τελικό αντίγραφο παρέμενε ενεργό και θεωρητικά θα μπορούσε να συνεχίσει την εξάπλωση.
Τα ποσοστά επιτυχίας διέφεραν σημαντικά μεταξύ των μοντέλων. Το Claude Opus 4.6 της Anthropic πέτυχε στο 81% των δοκιμών, ενώ το GPT-5.4 της OpenAI στο 33%.
Οι ερευνητές σημειώνουν ότι τα πειράματα πραγματοποιήθηκαν σε ελεγχόμενο περιβάλλον με σκόπιμα ευάλωτα συστήματα και ότι τα πραγματικά δίκτυα διαθέτουν συχνά ισχυρότερες άμυνες.
Ωστόσο, υποστηρίζουν ότι τα αποτελέσματα δείχνουν πως η αυτόνομη αυτοαναπαραγωγή συστημάτων AI δεν αποτελεί πλέον θεωρητικό σενάριο.
Με πληροφορίες από Euronews















