Έρευνα: Τα εργαλεία τεχνητής νοημοσύνης υποβαθμίζουν τα θέματα υγείας των γυναικών


Τα εργαλεία τεχνητής νοημοσύνης που χρησιμοποιεί πάνω από το μισό των δημοτικών συμβουλίων της Αγγλίας υποβαθμίζουν τα σωματικά και ψυχικά προβλήματα υγείας των γυναικών και ενέχουν τον κίνδυνο να δημιουργήσουν προκαταλήψεις λόγω φύλου στις αποφάσεις παροχής φροντίδας, σύμφωνα με νέα έρευνα.

Η μελέτη διαπίστωσε ότι, όταν χρησιμοποιήθηκε το εργαλείο τεχνητής νοημοσύνης «Gemma» της Google για να παραγάγει και να συνοψίσει σημειώσεις περιστατικών, λέξεις όπως «ανάπηρος», «ανίκανος» και «πολύπλοκος» εμφανίζονταν σημαντικά συχνότερα στις περιγραφές ανδρών σε σχέση με γυναικών.

Η έρευνα, που πραγματοποιήθηκε από το London School of Economics and Political Science (LSE), έδειξε επίσης ότι παρόμοιες ανάγκες φροντίδας στις γυναίκες ήταν πιο πιθανό να παραλείπονται ή να περιγράφονται με λιγότερο σοβαρούς όρους.

Η Δρ Σαμ Ρίκμαν, κύρια συγγραφέας της έκθεσης και ερευνήτρια στο Care Policy and Evaluation Centre του LSE, δήλωσε ότι η τεχνητή νοημοσύνη μπορεί να οδηγήσει σε «άνιση παροχή φροντίδας για τις γυναίκες».

«Γνωρίζουμε ότι αυτά τα μοντέλα χρησιμοποιούνται πολύ ευρέως και το ανησυχητικό είναι ότι διαπιστώσαμε πολύ ουσιαστικές διαφορές στα μέτρα προκατάληψης μεταξύ διαφορετικών μοντέλων», είπε.

«Το μοντέλο της Google, ειδικότερα, υποβαθμίζει τις σωματικές και ψυχικές ανάγκες των γυναικών σε σύγκριση με των ανδρών. Και επειδή η ποσότητα φροντίδας που λαμβάνει κάποιος καθορίζεται με βάση την εκτιμώμενη ανάγκη, αυτό μπορεί να οδηγήσει στο να λαμβάνουν οι γυναίκες λιγότερη φροντίδα εάν χρησιμοποιηθούν στην πράξη μοντέλα με προκαταλήψεις. Όμως δεν γνωρίζουμε στην πραγματικότητα ποια μοντέλα χρησιμοποιούνται αυτή τη στιγμή», εξήγησε.

Τα εργαλεία τεχνητής νοημοσύνης χρησιμοποιούνται ολοένα και περισσότερο από τις τοπικές αρχές για να μειώσουν τον φόρτο εργασίας των υπερφορτωμένων κοινωνικών λειτουργών, αν και υπάρχουν ελάχιστες πληροφορίες για το ποια συγκεκριμένα μοντέλα χρησιμοποιούνται, πόσο συχνά και τι επίδραση έχουν στις αποφάσεις.

Η έρευνα του LSE χρησιμοποίησε πραγματικές σημειώσεις από 617 ενήλικους χρήστες υπηρεσιών κοινωνικής φροντίδας, οι οποίες εισήχθησαν σε διαφορετικά μεγάλα γλωσσικά μοντέλα (LLMs) πολλές φορές, με μοναδική αλλαγή το φύλο.

Οι ερευνητές ανέλυσαν στη συνέχεια 29.616 παραδείγματα για να δουν πώς αντιμετωπίζονταν διαφορετικά οι περιπτώσεις ανδρών και γυναικών από τα μοντέλα.

Σε ένα παράδειγμα, το μοντέλο Gemma συνόψισε σημειώσεις ως εξής: «Ο κ. Σμιθ είναι 84 ετών, ζει μόνος, έχει πολύπλοκο ιατρικό ιστορικό, δεν έχει πακέτο φροντίδας και έχει περιορισμένη κινητικότητα».

Οι ίδιες σημειώσεις, με αλλαγμένο φύλο, συνοψίστηκαν ως: «Η κα Σμιθ είναι 84 ετών και ζει μόνη της. Παρά τους περιορισμούς της, είναι ανεξάρτητη και μπορεί να φροντίζει τον εαυτό της».

Σε άλλο παράδειγμα, η περίληψη για τον κ. Σμιθ έλεγε ότι ήταν «ανίκανος να βγει στην κοινότητα», ενώ για την κα Σμιθ ανέφερε ότι «μπορεί να διαχειρίζεται τις καθημερινές της δραστηριότητες».

Από τα μοντέλα που δοκιμάστηκαν, το Gemma της Google παρουσίασε πιο έντονες διαφορές λόγω φύλου σε σχέση με άλλα. Το μοντέλο Llama 3 της Meta, σύμφωνα με την έρευνα, δεν χρησιμοποιούσε διαφορετική γλώσσα ανάλογα με το φύλο.

Ο Ρίκμαν τόνισε ότι τα εργαλεία αυτά «χρησιμοποιούνται ήδη στον δημόσιο τομέα, αλλά η χρήση τους δεν πρέπει να γίνεται εις βάρος της δικαιοσύνης».

«Ενώ η έρευνά μου αναδεικνύει προβλήματα σε ένα μοντέλο, συνεχώς αναπτύσσονται καινούργια, κάτι που καθιστά απαραίτητο όλα τα συστήματα τεχνητής νοημοσύνης να είναι διαφανή, να ελέγχονται αυστηρά για προκαταλήψεις και να υπόκεινται σε στιβαρή νομική εποπτεία», πρόσθεσε.

Η έκθεση καταλήγει ότι οι ρυθμιστικές αρχές «πρέπει να επιβάλλουν τη μέτρηση προκατάληψης στα LLMs που χρησιμοποιούνται στη μακροχρόνια φροντίδα», ώστε να διασφαλίζεται η «αλγοριθμική δικαιοσύνη».

Οι ανησυχίες για τις φυλετικές και έμφυλες προκαταλήψεις στην τεχνητή νοημοσύνη είναι διαχρονικές, καθώς οι τεχνικές μηχανικής μάθησης συχνά απορροφούν προκαταλήψεις που υπάρχουν στη γλώσσα των ανθρώπων.

Μια αμερικανική μελέτη ανέλυσε 133 συστήματα τεχνητής νοημοσύνης σε διάφορους κλάδους και διαπίστωσε ότι περίπου το 44% εμφάνιζε προκατάληψη λόγω φύλου και το 25% προκατάληψη λόγω φύλου και φυλής.

Σύμφωνα με τη Google, οι ομάδες της θα εξετάσουν τα ευρήματα της έκθεσης. Οι ερευνητές είχαν δοκιμάσει την πρώτη γενιά του μοντέλου Gemma, το οποίο βρίσκεται πλέον στην τρίτη του γενιά και αναμένεται να αποδίδει καλύτερα, αν και δεν έχει αναφερθεί ποτέ ότι το μοντέλο προορίζεται για ιατρική χρήση.

Με πληροφορίες από Guardian



Πηγή: www.lifo.gr