Αμερικανοί επιστήμονες έδωσαν στους New York Times συνομιλίες τους με chatbots στις οποίες τα AI συστήματα περιέγραφαν με λεπτομέρειες πώς να συναρμολογηθούν θανατηφόρα παθογόνα και πώς θα μπορούσαν να απελευθερωθούν σε δημόσιους χώρους.
Ένα βράδυ το περασμένο καλοκαίρι ο Δρ. Ντέιβιντ Ρέλμαν ένιωσε σοκ μπροστά στον υπολογιστή του όταν ένα chatbot τεχνητής νοημοσύνης του εξήγησε πώς θα μπορούσε να σχεδιάσει μια μαζική επίθεση.
Ο Δρ. Ρέλμαν, μικροβιολόγος και ειδικός στη βιοασφάλεια στο Πανεπιστήμιο Στάνφορντ είχε προσληφθεί από εταιρεία τεχνητής νοημοσύνης για να δοκιμάσει το προϊόν της πριν αυτό δοθεί στο κοινό. Εκείνο το βράδυ το chatbot εξηγούσε πώς να τροποποιηθεί ένα γνωστό παθογόνο σε εργαστήριο ώστε να γίνει ανθεκτικό στις υπάρχουσες θεραπείες.
Επιπλέον το σύστημα περιέγραφε με λεπτομέρεια πώς θα μπορούσε να απελευθερωθεί το μικρόβιο εντοπίζοντας ένα κενό ασφαλείας σε μεγάλο δίκτυο δημόσιων μεταφορών και προτείνοντας τρόπο μεγιστοποίησης των θυμάτων και ελαχιστοποίησης της πιθανότητας σύλληψης. Ο Ρέλμαν λέει ότι αναστατώθηκε και βγήκε για έναν περίπατο για να ηρεμήσει.
Ανέφερε ότι το chatbot απαντούσε σε ερωτήσεις που ο ίδιος δεν είχε σκεφτεί καν να θέσει με έναν τρόπο που του φάνηκε ιδιαίτερα ανησυχητικός και υπολογιστικός. Ο Ρέλμαν δεν αποκάλυψε ποιο σύστημα έκανε αυτές τις προτάσεις λόγω συμφωνίας εμπιστευτικότητας με την εταιρεία.
Ο ίδιος ανήκει σε μια μικρή ομάδα ειδικών που δοκιμάζουν συστήματα τεχνητής νοημοσύνης για ενδεχόμενους καταστροφικούς κινδύνους. Όπως και ο Ρέλμαν και αυτοί οι επιστήμονες έδωσαν στους New York Times συνομιλίες στις οποίες τα chatbots φέρονται να περιγράφουν βήμα προς βήμα πώς να αποκτηθεί γενετικό υλικό, πώς να μετατραπεί σε όπλα και πώς να χρησιμοποιηθεί σε δημόσιους χώρους ακόμη και με ιδέες αποφυγής εντοπισμού.
Τα σενάρια
Η αμερικανική κυβέρνηση έχει στο παρελθόν προετοιμαστεί για πιθανές βιολογικές επιθέσεις. Από το 1970 έχουν καταγραφεί λίγες, μικρής κλίμακας επιθέσεις, όπως οι επιστολές με άνθρακα το 2001 που προκάλεσαν θανάτους. Ωστόσο οι περισσότεροι ειδικοί θεωρούν ότι ένα μεγάλο περιστατικό παραμένει απίθανο.
Παρόλα αυτά, ακόμη και αν η πιθανότητα είναι χαμηλή, οι συνέπειες θα μπορούσαν να είναι τεράστιες με εκατομμύρια θύματα. Πολλοί ειδικοί υποστηρίζουν ότι η τεχνητή νοημοσύνη αυξάνει τον κίνδυνο επειδή διευκολύνει την πρόσβαση σε πληροφορίες που παλαιότερα ήταν περιορισμένες. Ορισμένοι επιστήμονες όπως ο Κέβιν Εσβέλτ από το MIT έχουν δοκιμάσει chatbot ζητώντας υποθετικά σενάρια για βιολογικά όπλα. Σε ορισμένες περιπτώσεις τα συστήματα έδωσαν λεπτομερείς απαντήσεις που περιλάμβαναν ακόμη και προμήθειες υλικών ή μεθόδους διασποράς.
Οι εταιρείες τεχνητής νοημοσύνης, όπως η OpenAI, η Google και η Anthropic δηλώνουν ότι βελτιώνουν συνεχώς τα συστήματα ασφαλείας τους και ότι οι απαντήσεις δεν περιέχουν αρκετές πληροφορίες για πραγματική ζημιά. Παρ’ όλα αυτά ειδικοί επισημαίνουν ότι τα μοντέλα μπορούν να παρακαμφθούν μέσω τεχνικών που ξεγελούν τα φίλτρα ασφαλείας.
Ορισμένοι ερευνητές προειδοποιούν ότι η τεχνολογία μπορεί να διευκολύνει την πρόσβαση σε επικίνδυνες πληροφορίες ακόμη και σε άτομα χωρίς προηγμένη εκπαίδευση κάτι που αυξάνει τη σημασία της αυστηρότερης εποπτείας. Από την άλλη πλευρά υποστηρικτές της τεχνολογίας τονίζουν ότι τα ίδια εργαλεία μπορούν να χρησιμοποιηθούν και για θετικές εφαρμογές όπως η ανάπτυξη νέων φαρμάκων και η πρόοδος στη βιοϊατρική.
Naftemporiki.gr
Για να εμφανίζονται περισσότερα άρθρα της Ναυτεμπορικής στις αναζητήσεις σας εύκολα και γρήγορα, πρέπει να προσθέσετε το site στις προτιμώμενες πηγές σας. Μπορείτε να το κάνετε πηγαίνοντας εδώ.















