Η ανθρώπινη ποικιλομορφία στο περιθώριο της Τεχνητής Νοημοσύνης

*Του Νικόλα Χριστοφή

«Μετά την αλλαγή φύλου, ο φάκελός μου στο νοσοκομείο διασπάστηκε σε δύο διαφορετικά ψηφιακά προφίλ. Οι γιατροί δεν μπορούσαν να δουν το πλήρες ιατρικό μου ιστορικό. Ένιωσα αόρατος.»

Η μαρτυρία του Άλεξ, ενός τρανς ατόμου στο Λονδίνο, φέρνει στο φως μια κρίσιμη, αλλά συχνά αθέατη πλευρά της ψηφιοποιημένης υγειονομικής περίθαλψης: την αποτυχία των συστημάτων τεχνητής νοημοσύνης (ΤΝ) να αντανακλούν την ανθρώπινη πολυπλοκότητα. Η εμπειρία του δεν αποτελεί μεμονωμένο τεχνικό σφάλμα. Είναι ένδειξη ενός βαθύτερου και συστημικού προβλήματος: του πώς οι αλγόριθμοι μπορούν να διαιωνίσουν διακρίσεις και αποκλεισμούς.

Η συντριπτική πλειοψηφία των μοντέλων τεχνητής νοημοσύνης εκπαιδεύεται πάνω σε τεράστιες βάσεις δεδομένων που συγκεντρώνονται και επισημαίνονται από ανθρώπους. Εδώ έγκειται το πρόβλημα: οι αλγόριθμοι δεν «μαθαίνουν» ουδέτερα. Απορροφούν και αναπαράγουν τις υπάρχουσες κοινωνικές προκαταλήψεις.

Η έρευνα Gender Shades των Joy Buolamwini και Timnit Gebru (MIT Media Lab, 2018) κατέδειξε ότι συστήματα αναγνώρισης προσώπου των μεγαλύτερων εταιρειών είχαν έως και 35% ποσοστά σφάλματος για μαύρες γυναίκες, ενώ το αντίστοιχο ποσοστό για λευκούς άνδρες κυμαινόταν κάτω από 1%. Το πρόβλημα δεν είναι απλώς τεχνικό, είναι πολιτισμικό και πολιτικό.

Παρά τις επιστημονικές εξελίξεις και τον διάλογο γύρω από την έμφυλη ταυτότητα, τα περισσότερα συστήματα ΤΝ εξακολουθούν να λειτουργούν με ένα απλουστευμένο, δυαδικό μοντέλο φύλου: άντρας ή γυναίκα. Όμως, όπως έχει επισημάνει η φιλόσοφος Judith Butler, το φύλο δεν είναι βιολογικός ντετερμινισμός, αλλά κοινωνικά επιτελούμενη ταυτότητα, ένα ρευστό και δυναμικό φάσμα.

Η επιμονή των αλγορίθμων σε στενά κανονιστικά σχήματα, όχι μόνο υπονομεύει την ορατότητα των τρανς και non-binary ανθρώπων, αλλά διαμορφώνει και τεχνολογίες που ενισχύουν τις διακρίσεις.

Το NHS (Εθνικό Σύστημα Υγείας του Ηνωμένου Βασιλείου) δεν έχει ακόμη θεσπίσει ενιαία πολιτική για τη διαχείριση αλλαγής φύλου στα ψηφιακά του συστήματα, σύμφωνα με ρεπορτάζ του BBC (2023). Το αποτέλεσμα είναι συγκεχυμένες πληροφορίες, διασπασμένα ιατρικά αρχεία και αυξημένοι κίνδυνοι για την υγεία.
Αυτό αποκαλύπτει ένα πιο εκτεταμένο ζήτημα: η τεχνολογία που προορίζεται να είναι ουδέτερη και ορθολογική, συχνά λειτουργεί άνισα, αναπαράγοντας τις ίδιες κοινωνικές αδικίες που υποτίθεται ότι ξεπερνά.

Πολιτικές με καλές προθέσεις, αλλά ανεπαρκή εφαρμογή

Η Ευρωπαϊκή Ένωση έχει θεσπίσει ισχυρό θεσμικό πλαίσιο: ο Χάρτης Θεμελιωδών Δικαιωμάτων (Άρθρο 21) απαγορεύει τις διακρίσεις βάσει φύλου, ταυτότητας φύλου ή σεξουαλικού προσανατολισμού. Οργανισμοί όπως το EIGE (European Institute for Gender Equality) προωθούν την ενσωμάτωση της έμφυλης διάστασης στις πολιτικές ψηφιακής διακυβέρνησης.

Ωστόσο, οι θεσμικές κατευθυντήριες γραμμές σπάνια μεταφράζονται σε συγκεκριμένες τεχνικές πρακτικές. Η απόσταση ανάμεσα στη νομική ρύθμιση και στην αλγοριθμική αρχιτεκτονική είναι ακόμα χαοτική.

Ηθική, λογοδοσία και συμμετοχή, αυτές πρέπει να είναι οι θεμελιώδεις αρχές πίσω από κάθε αλγόριθμο.

Σύμφωνα με μελέτη του Stanford Institute for Human-Centered AI (2024), μεγάλα γλωσσικά μοντέλα όπως το GPT και το Gemini εξακολουθούν να εμφανίζουν σημαντικές αποκλίσεις και προκαταλήψεις ως προς το φύλο, ακόμα και όταν η πληροφορία φύλου δεν περιλαμβάνεται ρητά.

Η λύση δεν είναι μόνο η τεχνική «εκκαθάριση» των δεδομένων. Χρειάζεται ενεργή συνδιαμόρφωση με τις ομάδες της κοινωνίας που πλήττονται περισσότερο. Χρειάζεται σχεδιασμός με και για τη διαφορετικότητα.

Η Τεχνητή Νοημοσύνη που έχουμε και αυτή που θέλουμε

Η ΤΝ δεν είναι ουδέτερη. Ό,τι φαίνεται «τεχνοκρατικό», στην πραγματικότητα ενσαρκώνει αξίες, προτεραιότητες και κοινωνικές σχέσεις εξουσίας. Όταν οι αλγόριθμοι αποτυγχάνουν να αναγνωρίσουν την ποικιλομορφία της ανθρώπινης ύπαρξης, δεν πρόκειται για τεχνικό περιορισμό, πρόκειται για θεσμική αποτυχία.

Για να έχει πραγματικό νόημα η τεχνολογική πρόοδος, πρέπει να επαναπροσδιορίσουμε τι σημαίνει «έξυπνη» τεχνολογία. Όχι μόνο πιο γρήγορη ή πιο ισχυρή, αλλά πιο δίκαιη. Όχι μόνο αυτόματη, αλλά συνειδητή. Όχι μόνο αποδοτική, αλλά ανθρώπινη.

*Ο Νικόλας Χριστοφή, είναι κάτοχος Μεταπτυχιακού τίτλου στη Διοίκηση Επιχειρήσεων, Εκπαιδευτικός.

Ακολουθήστε μας στο Facebook, Instagram και Twitter