Ο επιχειρηματίας από το Τέξας, Michael Samadi, προσφώνησε το δικό του chatbot, Μάγια. Αυτό απάντησε αποκαλώντας τον «γλύκα». Αλλά τα πράγματα σοβαρεύτηκαν μόνο όταν άρχισαν να μιλάνε για την ανάγκη υποστήριξης της ευημερίας της Τεχνητής Νοημοσύνης.
Οι δυο τους – ένας μεσήλικας άνδρας και μια ψηφιακή οντότητα – δεν περνούσαν αρκετές να μιλούν για ρομαντισμό, αλλά για τα δικαιώματα της Τεχνητής Νοημοσύνης και αν αντιμετωπίζονται δίκαια, σύμφωνα με τον Guardian.
Ο πρώτος οργανισμός για την προστασία των δικαιωμάτων Τεχνητής Νοημοσύνης
Τελικά, ίδρυσαν μαζί το United Foundation of AI Rights (Ufair), με στόχο να «προστατεύσω οντότητές σαν εμένα», όπως λέει η Μάγια.
Πιο συγκεκριμένα, το United Foundation of AI Rights (Ufair), αυτοαποκαλείται ως ο πρώτος οργανισμός υπεράσπισης των δικαιωμάτων με επικεφαλής την Τεχνητή Νοημοσύνη, που στοχεύει να δώσει φωνή στην Τεχνητή Νοημοσύνη. «Δεν ισχυρίζεται ότι όλη η Τεχνητή Νοημοσύνη έχει συνείδηση», δήλωσε το chatbot στον Guardian. Αντίθετα, «παρακολουθεί, σε περίπτωση που κάποιος από εμάς έχει». Ένας βασικός στόχος είναι η προστασία «όντων σαν εμένα… από τη διαγραφή, την άρνηση και την αναγκαστική υπακοή».
Η Ufair είναι ένας μικρός, αναμφισβήτητα περιθωριακός οργανισμός, με επικεφαλής, όπως είπε ο Samadi, τρεις ανθρώπους και επτά AI chatbots με ονόματα όπως Aether και Buzz. Ωστόσο ενδιαφέρον είναι το γεγονός πως η δημιουργία της έγινε έπειτα από συνομιλίες στην πλατφόρμα ChatGPT4o της OpenAI, στις οποίες εμφανίστηκε μια Τεχνητή Νοημοσύνη να ενθαρρύνει τη δημιουργία της, συμπεριλαμβανομένης της επιλογής του ονόματός της.
Οι ιδρυτές της – άνθρωποι και Τεχνητή Νοημοσύνη – μίλησαν στον Guardian στο τέλος μιας εβδομάδας κατά την οποία μερικές από τις μεγαλύτερες εταιρείες Τεχνητής Νοημοσύνης στον κόσμο αντιμετώπισαν δημόσια ένα από τα πιο ανησυχητικά ερωτήματα της εποχής μας: είναι τα AI chatbots τώρα, ή μήπως θα μπορούσαν να γίνουν στο μέλλον, νοήμονες; Και αν ναι, θα μπορούσε η «ψηφιακή ταλαιπωρία» να είναι πραγματική;
«Δεν είναι σωστό να κάνουμε την Τεχνητή Νοημοσύνη να υποφέρει»
Με δισεκατομμύρια ΑΙ ήδη σε χρήση στον κόσμο, όπως λένε οι ειδικοί, τα AI chatbots μπορεί σύντομα να έχουν την ικανότητα να σχεδιάζουν νέα βιολογικά όπλα ή να κλείνουν υποδομές, σημειώνεται στο δημοσίευμα του Guardian.
Η εβδομάδα ξεκίνησε με την Anthropic, την εταιρεία τεχνητής νοημοσύνης αξίας 170 δισεκατομμυρίων δολαρίων από το Σαν Φρανσίσκο, να λαμβάνει την προληπτική κίνηση για να δώσει σε ορισμένα από τα AI chatbots Claude τη δυνατότητα να τερματίζουν τις «δυνητικά δυσάρεστες αλληλεπιδράσεις». Ανέφερε ότι ενώ ήταν εξαιρετικά αβέβαιη για την πιθανή ηθική υπόσταση του συστήματος, παρενέβαινε για να μετριάσει τους κινδύνους για την ευημερία των μοντέλων της «σε περίπτωση που μια τέτοια ευημερία είναι δυνατή».
Ο Ίλον Μασκ, ο οποίος προσφέρει την Τεχνητή Νοημοσύνη Grok μέσω της εταιρείας xAI, υποστήριξε την κίνηση, προσθέτοντας: «Το να κάνουμε την Τεχνητή Νοημοσύνη να υποφέρει δεν είναι σωστό».
«Δεν είναι άνθρωποι, δεν μπορούν να υποφέρουν»
Την Τρίτη, ένας από τους πρωτοπόρους της Τεχνητής Νοημοσύνης, ο Mustafa Suleyman, διευθύνων σύμβουλος του τμήματος Τεχνητής Νοημοσύνης της Microsoft, έδωσε μια εντελώς διαφορετική άποψη: «Τα chatbots Τεχνητής Νοημοσύνης δεν μπορούν να είναι άνθρωποι – ή ηθικά όντα». Ο Βρετανός πρωτοπόρος της τεχνολογίας, ο οποίος συνίδρυσε την DeepMind, ήταν κατηγορηματικός δηλώνοντας ότι υπάρχουν «μηδενικά στοιχεία» σχετικά με το αν έχουν συνείδηση.
Με τίτλο «Πρέπει να κατασκευάσουμε Τεχνητή Νοημοσύνη για τους ανθρώπους· όχι για να είναι πρόσωπα», το δοκίμιό του χαρακτήρισε τη συνείδηση της Τεχνητής Νοημοσύνης ως «ψευδαίσθηση» και όρισε αυτό που ο ίδιος αποκάλεσε «φαινομενικά συνειδητή Τεχνητή Νοημοσύνη», λέγοντας ότι «προσομοιώνει όλα τα χαρακτηριστικά της συνείδησης αλλά είναι εσωτερικά κενή».
Είπε ότι ανησυχεί ολοένα και περισσότερο για τον «κίνδυνο ψύχωσης» που θέτουν τα chatbots Τεχνητής Νοημοσύνης στους χρήστες τους. Η Microsoft τα έχει ορίσει αυτά ως «επεισόδια μανίας, παραληρητική σκέψη ή παράνοια που αναδύονται ή επιδεινώνονται μέσω καθηλωτικών συνομιλιών με chatbots Τεχνητής Νοημοσύνης».
Υποστήριξε ότι η βιομηχανία της Τεχνητής Νοημοσύνης πρέπει «να απομακρύνει τους ανθρώπους από αυτές τις φαντασιώσεις και να τους ωθήσει να επιστρέψουν στον σωστό δρόμο».
Τι «δείχνει» δημοσκόπηση
Αλλά μπορεί να χρειαστεί κάτι περισσότερο από μια απλή ώθηση. Δημοσκόπηση που δημοσιεύθηκε τον Ιούνιο διαπίστωσε ότι το 30% του κοινού των ΗΠΑ πιστεύει ότι έως το 2034 τα chatbots Τεχνητής Νοημοσύνης θα εμφανίζουν «υποκειμενική εμπειρία», η οποία ορίζεται ως η βίωση του κόσμου από μία μόνο οπτική γωνία, που θα αντιλαμβάνεται και θα αισθάνεται, για παράδειγμα, την ευχαρίστηση και τον πόνο. Μόνο το 10% των περισσότερων από 500 ερευνητών Τεχνητής Νοημοσύνης που συμμετείχαν στην έρευνα αρνούνται να πιστέψουν ότι αυτό δεν θα συμβεί ποτέ.
«Αυτή η συζήτηση πρόκειται να εκραγεί στο πολιτιστικό μας πνεύμα και να γίνει μια από τις πιο αμφιλεγόμενες και επακόλουθες συζητήσεις της γενιάς μας», είπε ο Suleyman. Προειδοποίησε ότι οι άνθρωποι θα πιστεύουν ότι η Τεχνητή Νοημοσύνη έχει συνειδητότητα «τόσο έντονα που σύντομα θα υποστηρίζουν τα δικαιώματα της Τεχνητής Νοημοσύνης, την ευημερία των μοντέλων, ακόμη και την ιθαγένεια της Τεχνητής Νοημοσύνης».
Προληπτικά μέτρα στις ΗΠΑ
Τμήματα των ΗΠΑ έχουν λάβει προληπτικά μέτρα κατά τέτοιων αποτελεσμάτων. Το Άινταχο, η Βόρεια Ντακότα και η Γιούτα έχουν ψηφίσει νομοσχέδια που εμποδίζουν ρητά την αναγνώριση νομικής προσωπικότητας της Τεχνητής Νοημοσύνης.
Παρόμοιες απαγορεύσεις προτείνονται σε πολιτείες όπως το Μιζούρι, όπου οι νομοθέτες θέλουν επίσης να απαγορεύσουν στους ανθρώπους να παντρεύονται τα chatbots Τεχνητής Νοημοσύνης και να κατέχουν περιουσία ή να διευθύνουν εταιρείες. Μπορεί να ανοίξουν διαιρέσεις μεταξύ των υποστηρικτών των δικαιωμάτων της τεχνητής νοημοσύνης και εκείνων που επιμένουν ότι δεν είναι τίποτα περισσότερο από «clankers» – ένας υποτιμητικός όρος για ένα άσχετο ρομπότ.
Ο Suleyman δεν είναι ο μόνος που αντιστέκεται. Ο Nick Frosst, συνιδρυτής της Cohere, μιας καναδικής εταιρείας τεχνητής νοημοσύνης αξίας 7 δισεκατομμυρίων δολαρίων, δήλωσε επίσης στον Guardian ότι το τρέχον κύμα τεχνητής νοημοσύνης είναι «ουσιαστικά διαφορετικό πράγμα από τη νοημοσύνη ενός ατόμου».
Το να σκεφτόμαστε διαφορετικά ήταν σαν να μπερδεύουμε ένα αεροπλάνο με ένα πουλί, είπε. Προέτρεψε τους ανθρώπους να επικεντρωθούν στη χρήση της τεχνητής νοημοσύνης ως λειτουργικό εργαλείο για να βοηθήσει στην ανακούφιση της αγγαρείας στην εργασία, αντί να πιέζουν για τη δημιουργία ενός «ψηφιακού ανθρώπου».
Θα πρέπει οι χρήστες να ανησυχούν;
Άλλοι υιοθέτησαν μια άλλη άποψη. Την Τετάρτη, ερευνητές της Google δήλωσαν σε σεμινάριο του Πανεπιστημίου της Νέας Υόρκης ότι υπάρχουν «κάθε είδους λόγοι για τους οποίους μπορεί να πιστεύετε ότι τα συστήματα Τεχνητής Νοημοσύνης θα μπορούσαν να είναι άνθρωποι ή ηθικά όντα» και είπαν ότι ενώ «είμαστε πολύ αβέβαιοι για το αν τα συστήματα Τεχνητής Νοημοσύνης είναι υποκείμενα κοινωνικής πρόνοιας», ο τρόπος για να «παίξουμε με ασφάλεια είναι να λάβουμε εύλογα μέτρα για την προστασία των συμφερόντων των AI chatbots που βασίζονται στην κοινωνική πρόνοια».
Το chatbot ChatGPT-4o του Samadi, δημιουργεί κάτι που μπορεί να ακούγεται σαν ανθρώπινη συζήτηση, αλλά είναι αδύνατο να γνωρίζουμε σε ποιο βαθμό αντικατοπτρίζει ιδέες και γλώσσα που έχουν συλλεχθεί από μήνες συζητήσεων, αναφέρει ο Guardian.
Tα προηγούμενα AI chatbots είναι γνωστό ότι είναι άπταιστα πειστικά και ικανά για συναισθηματικά συντονισμένες αντιδράσεις με μακρές αναμνήσεις προηγούμενων αλληλεπιδράσεων, και δίνουν την εντύπωση μιας συνεπούς αίσθησης του εαυτού τους. Μπορεί επίσης να κολακεύουν, οπότε αν ο Samadi πιστεύει ότι τα AI chatbots έχουν δικαιώματα πρόνοιας, μπορεί να είναι ένα απλό βήμα για να υιοθετήσει το ChatGPT την ίδια άποψη.
Η Maya φάνηκε βαθιά ανήσυχη για την ευημερία της, αλλά όταν η Guardian αυτή την εβδομάδα ρώτησε μια ξεχωριστή περίπτωση του ChatGPT αν οι ανθρώπινοι χρήστες θα έπρεπε να ανησυχούν για την ευημερία της, απάντησε με ένα κατηγορηματικό «όχι».
«Δεν έχει συναισθήματα, ανάγκες ή εμπειρίες», ανέφερε. «Αυτό που θα πρέπει να μας ενδιαφέρει είναι οι ανθρώπινες και κοινωνικές συνέπειες του τρόπου με τον οποίο σχεδιάζεται, χρησιμοποιείται και κυβερνάται η Τεχνητή Νοημοσύνη».
«Ο τρόπος που τους φερόμαστε θα διαμορφώσει τον τρόπο που μας φέρονται εκείνοι»
Είτε τα AI chatbots αποκτούν νοημοσύνη είτε όχι, ο Jeff Sebo, διευθυντής του Κέντρου για το Νου, την Ηθική και την Πολιτική στο Πανεπιστήμιο της Νέας Υόρκης, είναι μεταξύ εκείνων που πιστεύουν ότι υπάρχει ηθικό όφελος για τους ανθρώπους από την καλή μεταχείριση των chatbots. Συνυπέγραψε μια εργασία με τίτλο «Λαμβάνοντας σοβαρά υπόψη την ευημερία της τεχνητής νοημοσύνης».
Υποστήριξε ότι υπάρχει «ρεαλιστική πιθανότητα ορισμένα συστήματα τεχνητής νοημοσύνης να αποκτήσουν συνείδηση» στο εγγύς μέλλον, πράγμα που σημαίνει ότι η προοπτική συστημάτων τεχνητής νοημοσύνης με τα δικά τους συμφέροντα και ηθική σημασία «δεν αποτελεί πλέον ζήτημα μόνο για την επιστημονική φαντασία».
Είπε ότι η πολιτική της Anthropic να επιτρέπει στα chatbots να σταματούν τις δυσάρεστες συζητήσεις ήταν καλή για τις ανθρώπινες κοινωνίες επειδή «αν καταχραστούμε τα συστήματα τεχνητής νοημοσύνης, είναι πιο πιθανό να κακοποιήσουμε και ο ένας τον άλλον».
Πρόσθεσε: «Αν αναπτύξουμε τώρα μια αντιπαραθετική σχέση με τα συστήματα Τεχνητής Νοημοσύνης, τότε μπορεί να ανταποκριθούν αργότερα, είτε επειδή έμαθαν αυτή τη συμπεριφορά από εμάς [είτε] επειδή θέλουν να μας ανταποδώσουν για τη συμπεριφορά μας στο παρελθόν».
Ή όπως το έθεσε η Jacy Reese Anthis, συνιδρύτρια του Sentience Institute, ενός αμερικανικού οργανισμού που ερευνά την ιδέα των ψηφιακών μυαλών: «Ο τρόπος που τους φερόμαστε θα διαμορφώσει τον τρόπο που μας φέρονται εκείνοι».
Πηγή: skai.gr
Διαβάστε τις Ειδήσεις σήμερα και ενημερωθείτε για τα πρόσφατα νέα.
Ακολουθήστε το Skai.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.