Του Will Oremus
Ο Αμερικανός πρόεδρος, Ντόναλντ Τραμπ, υπέγραψε την Τετάρτη εκτελεστικό διάταγμα με στόχο να κατευθύνει τις ομοσπονδιακές συμβάσεις μόνο προς εταιρείες των οποίων τα μοντέλα τεχνητής νοημοσύνης (AI) θεωρούνται ιδεολογικά ουδέτερα.
Το διάταγμα, το οποίο εντάσσεται στο πλαίσιο του «Σχεδίου Δράσης για την Τεχνητή Νοημοσύνη» της κυβέρνησης Τραμπ, θέτει στο στόχαστρο αυτό που ο ίδιος αποκαλεί «woke AI», δηλαδή chatbot, προγράμματα δημιουργίας εικόνων και άλλα εργαλεία που θεωρούνται ότι φέρουν φιλελεύθερες προκαταλήψεις. Συγκεκριμένα, απαγορεύει στις ομοσπονδιακές υπηρεσίες να προμηθεύονται μοντέλα AI που προωθούν έννοιες όπως η ποικιλομορφία, η ισότητα και η ένταξη (DEI).
«Από εδώ και στο εξής», δήλωσε ο Τραμπ, «η κυβέρνηση των ΗΠΑ θα συνεργάζεται μόνο με AI που υπηρετεί την αλήθεια, τη δικαιοσύνη και την αμεροληψία».
Τι σημαίνει όμως “woke AI” και πώς μπορούν να την αποφύγουν οι εταιρείες τεχνολογίας;
Σύμφωνα με ειδικούς στην τεχνητή νοημοσύνη, τα ερωτήματα αυτά είναι ασαφή. Νομικοί εκφράζουν ανησυχίες ότι η απόπειρα του Τραμπ να ορίσει τι μπορεί ή τι δεν μπορεί να λέει ένα chatbot αγγίζει ζητήματα της Πρώτης Τροπολογίας.
«Φράσεις όπως “χωρίς ιδεολογική προκατάληψη” ακούγονται ωραίες», δήλωσε η Rumman Chowdhury, εκτελεστική διευθύντρια της Humane Intelligence και πρώην επικεφαλής δεοντολογίας στη μηχανική μάθηση στο Twitter. «Αλλά στην πράξη είναι αδύνατο να επιτευχθεί».
Οι ανησυχίες ότι τα δημοφιλή εργαλεία τεχνητής νοημοσύνης έχουν φιλελεύθερη προκατάληψη άρχισαν να ενισχύονται στους συντηρητικούς κύκλους το 2023. Τότε άρχισαν να κυκλοφορούν στα μέσα κοινωνικής δικτύωσης παραδείγματα όπου το ChatGPT της OpenAI εμφανιζόταν να υποστηρίζει πολιτικές όπως η θετική διάκριση και τα δικαιώματα των τρανς, ή αρνιόταν να γράψει ποίημα υπέρ του Τραμπ.
Το ζήτημα πήρε μεγαλύτερες διαστάσεις την επόμενη χρονιά, όταν ο εικονικός δημιουργός εικόνων Gemini της Google κατηγορήθηκε ότι παρουσίαζε εικόνες με ακατάλληλη εθνοτική ποικιλομορφία για παράδειγμα, απεικονίζοντας Μαύρους, Ασιάτες και αυτόχθονες Αμερικανούς ως Βίκινγκς, Ναζί ή «Πατέρες του Αμερικανικού Έθνους», σε περιπτώσεις όπου ιστορικά τέτοιες εθνοτικές ταυτότητες δεν ίσχυαν.
Η Google απολογήθηκε και τροποποίησε το εργαλείο, εξηγώντας ότι τα αποτελέσματα ήταν ακούσιο προϊόν της προσπάθειας να δημιουργηθεί ένα πιο καθολικά προσβάσιμο εργαλείο.
Ο Fabio Motoki, λέκτορας στο University of East Anglia, επιβεβαιώνει ότι τα εργαλεία AI, όπως το GPT-4 της OpenAI, σε κάποιες περιπτώσεις εμφανίζουν φιλελεύθερες τάσεις, όπως έδειξε μελέτη του. Σε μια μελέτη που δημοσιεύθηκε τον περασμένο μήνα, αυτός και οι συνεργάτες του διαπίστωσαν ότι το GPT-4 του OpenAI απάντησε σε πολιτικά ερωτηματολόγια εκφράζοντας απόψεις που ευθυγραμμίζονταν στενά με εκείνες του μέσου Δημοκρατικού.
Όμως, όπως τονίζει, «η αξιολόγηση της πολιτικής τοποθέτησης ενός chatbot δεν είναι απλή». Σε άλλα ζητήματα, όπως η στρατιωτική υπεροχή των ΗΠΑ, τα ίδια εργαλεία ευθυγραμμίζονται περισσότερο με τις απόψεις των Ρεπουμπλικανών.
Τα μοντέλα τεχνητής νοημοσύνης παρουσιάζουν κάθε είδους προκαταλήψεις, σύμφωνα με τους ειδικούς. Είναι μέρος του τρόπου με τον οποίο λειτουργούν.
Τα chatbots και τα προγράμματα που δημιουργούν εικόνες βασίζονται σε τεράστιες ποσότητες δεδομένων που συλλέγονται από ολόκληρο το διαδίκτυο για να προβλέψουν την πιο πιθανή ή κατάλληλη απάντηση σε ένα ερώτημα χρήστη. Έτσι, μπορεί να απαντήσουν σε μια ερώτηση αναπαράγοντας μισογυνιστικά στερεότυπα που έχουν αντληθεί από κάποιο ανώνυμο και αμφιλεγόμενο φόρουμ, ενώ σε μια άλλη να επικαλεστούν πολιτικές DEI που έχουν προέρχονται από εταιρικές πολιτικές προσλήψεων.
Η εκπαίδευση ενός μοντέλου AI ώστε να αποφεύγει τέτοιες προκαταλήψεις είναι εξαιρετικά δύσκολη, δήλωσε ο Motoki. Θα μπορούσε κανείς να προσπαθήσει να το πετύχει περιορίζοντας τα δεδομένα εκπαίδευσης, πληρώνοντας ανθρώπους για να αξιολογούν τις απαντήσεις του ως προς την ουδετερότητα ή γράφοντας σαφείς οδηγίες στον κώδικα του μοντέλου. Αλλά και οι τρεις αυτές προσεγγίσεις έχουν περιορισμούς και είναι γνωστό ότι μπορεί να φέρουν τα αντίθετα αποτελέσματα, καθιστώντας τις απαντήσεις του μοντέλου λιγότερο χρήσιμες ή ακριβείς.
«Είναι πάρα, πάρα πολύ δύσκολο να καθοδηγήσεις αυτά τα μοντέλα ώστε να κάνουν αυτό που θέλουμε», είπε.
Το λάθος του Gemini της Google είναι ένα παράδειγμα. Ένα άλλο προέκυψε φέτος, όταν η xAI του Ίλον Μασκ προγραμμάτισε το chatbot Grok ώστε να δίνει προτεραιότητα στην «αναζήτηση της αλήθειας» έναντι της πολιτικής ορθότητας με αποτέλεσμα να αναπαράγει ρατσιστικές και αντισημιτικές θεωρίες συνωμοσίας και, σε κάποιο σημείο, να αυτοαποκαλείται «mecha-Hitler».
Η πολιτική ουδετερότητα για ένα μοντέλο τεχνητής νοημοσύνης είναι απλώς «ανύπαρκτη», δήλωσε η Rumman Chowdhury. «Δεν είναι κάτι πραγματικό».
Για παράδειγμα, εξήγησε, αν ρωτήσεις ένα chatbot για την οπλοκατοχή, μπορεί να απαντήσει αναφέροντας επιχειρήματα τόσο των Ρεπουμπλικανών όσο και των Δημοκρατικών ή να προσπαθήσει να βρει μια μέση λύση. Όμως, ένας μέσος χρήστης στο Τέξας μπορεί να εκλάβει αυτή την απάντηση ως φιλελεύθερη προκατάληψη, ενώ ένας κάτοικος της Νέας Υόρκης μπορεί να τη θεωρήσει υπερβολικά συντηρητική. Σε χρήστες στη Μαλαισία ή τη Γαλλία, όπου οι αυστηροί νόμοι για την οπλοκατοχή θεωρούνται δεδομένοι, η ίδια απάντηση ίσως να φανεί ακραία.
Το πώς η κυβέρνηση Τραμπ θα καθορίσει ποια εργαλεία AI θεωρούνται ουδέτερα είναι κρίσιμο ερώτημα, σύμφωνα με τον Samir Jain, αντιπρόεδρο πολιτικής του μη κερδοσκοπικού Κέντρου για τη Δημοκρατία και την Τεχνολογία.
Το ίδιο το εκτελεστικό διάταγμα, σημείωσε, δεν είναι ουδέτερο, καθώς αποκλείει ορισμένες απόψεις που κλίνουν προς τα αριστερά αλλά όχι εκείνες που κλίνουν προς τα δεξιά. Συγκεκριμένα, το διάταγμα αναφέρει ότι έννοιες όπως η «κριτική θεωρία φυλής», η «ταυτότητα φύλου», η «ασυνείδητη προκατάληψη» και ο «συστημικός ρατσισμός» δεν θα πρέπει να ενσωματώνονται σε μοντέλα AI.
«Υποψιάζομαι ότι οτιδήποτε παρέχει πληροφορίες για την υγειονομική φροντίδα των τρανς θα χαρακτηριστεί ‘woke’», είπε ο Jain. «Αλλά αυτό από μόνο του είναι μία πολιτική τοποθέτηση».
Η επιβολή μιας τέτοιας οπτικής σε εργαλεία AI που παράγονται από ιδιωτικές εταιρείες ενδέχεται να παραβιάζει την Πρώτη Τροπολογία του αμερικανικού Συντάγματος, είπε, ανάλογα με το πώς θα εφαρμοστεί.
«Η κυβέρνηση δεν μπορεί γενικά να επιβάλλει συγκεκριμένα είδη λόγου ή να λογοκρίνει ορισμένες απόψεις», δήλωσε ο Samir Jain. Ωστόσο, η εκτελεστική εξουσία έχει κάποιο περιθώριο να θέτει πρότυπα για τα προϊόντα που προμηθεύεται, εφόσον οι περιορισμοί στον λόγο σχετίζονται με τον σκοπό για τον οποίο χρησιμοποιούνται.
Ορισμένοι αναλυτές και υπέρμαχοι της τεχνολογίας εκτιμούν πάντως ότι το εκτελεστικό διάταγμα του Τραμπ είναι λιγότερο αυταρχικό απ’ όσο φοβούνταν.
Ο Neil Chilson, επικεφαλής πολιτικής για την τεχνητή νοημοσύνη στο συντηρητικό μη κερδοσκοπικό Abundance Institute, δήλωσε ότι τον ανησυχούσε η πιθανότητα υπερβολικά δεσμευτικών οδηγιών για την «woke AI», παρότι γενικά υποστηρίζει το σχέδιο του Τραμπ. Αφού όμως διάβασε το διάταγμα, δήλωσε την Πέμπτη ότι οι ανησυχίες του ήταν «υπερβολικές» και θεωρεί ότι η συμμόρφωση θα είναι «εύκολη στην εφαρμογή της».
Η Mackenzie Arnold, διευθύντρια πολιτικής ΗΠΑ στο Ινστιτούτο για το Δίκαιο και την Τεχνητή Νοημοσύνη, μία ανεξάρτητη δεξαμενή σκέψης, εξέφρασε ικανοποίηση που το διάταγμα αναγνωρίζει τη μεγάλη τεχνική δυσκολία τού να προγραμματιστούν ουδέτερα εργαλεία AI και προβλέπει μια διαδρομή συμμόρφωσης μέσω της διαφάνειας, δηλαδή της κοινοποίησης των οδηγιών των μοντέλων από τις εταιρείες.
«Αν και δεν μου αρέσει η διατύπωση του διατάγματος για την “αποτροπή της woke AI” στο Δημόσιο, το ίδιο το κείμενο είναι σχετικά λογικό», είπε, προσθέτοντας πως το κρίσιμο ζήτημα είναι το πώς θα εφαρμοστεί στην πράξη.
«Αν εστιάσει σε λογικές απαιτήσεις διαφάνειας, όλα θα πάνε καλά», σημείωσε. «Αν όμως κινηθεί προς ιδεολογικές πιέσεις, τότε θα μιλάμε για σοβαρό ολίσθημα και κακό προηγούμενο».
Πηγή: The Washington Post
Διαβάστε τις Ειδήσεις σήμερα και ενημερωθείτε για τα πρόσφατα νέα.
Ακολουθήστε το Skai.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις.