fbpx

Intelligenza Artificiale (IA) e Gender bias: Cosa sono?

L’avvento dell’Intelligenza Artificiale (IA) ha portato a progressi straordinari in una vasta gamma di settori: dall’assistenza sanitaria alla guida autonoma, fino al  linguistico. Tuttavia, nonostante i suoi benefici, l’IA è soggetta a un problema significativo: il gender bias. In questo articolo, capiremo insieme i principali bias nell’IA, i loro effetti e le possibili soluzioni da adottare.

Cosa sono i bias in informatica

I bias rappresenta un’anomalia sistematica che si manifesta quando un algoritmo genera risultati costantemente distorti a causa di supposizioni errate avvenute durante il processo di apprendimento automatico (o Machine Learning). 

Questi sistemi cercano di riprodurre ciò che è in grado di fare la mente umana, analizzando una grande quantità di dati e provando a fare previsioni o prendere decisioni sui nuovi dati.  Il rischio è che si vengano a creare comportamenti discriminatori nei confronti di determinate categorie di persone.

Gender bias nell’Intelligenza Artificiale: 

 

I gender bias nell’IA (o bias di genere) si riferiscono alla tendenza di alcuni algoritmi di produrre risultati parziali o distorti a causa di dati di addestramento sbilanciati o di pregiudizi discriminatori legati al genere. Questo fenomeno può portare a discriminazioni ingiuste e decisioni errate nei confronti delle donne in diversi contesti. 

Come funzionano i bias di genere

 

Dato che l’apprendimento dell’IA viene alimentato con i dati creati dagli esseri umani, possiamo affermare che i bias di genere rappresentano e ripropongono la realtà. In effetti, l’Intelligenza Artificiale si basa su dati matematici ma anche e soprattutto storici e da questo possiamo dedurre che stiamo insegnando all’IA a discriminare una parte della popolazione, molto più spesso le donne, perché è questo che tali dati assorbono da noi.

Origine dei bias di gener nell’AI

Oggi non è più possibile considerare imparziali i sistemi di IA, come inizialmente creduto. Sembra infatti che l’IA utilizzi stereotipi e un linguaggio inclusivo, se non discriminatorio, non riconducibile a un errore tecnico, ma piuttosto a veri e propri pregiudizi insiti nella società.  Questo sembra essere dovuto sia alla provenienza dei dati indiscriminatamente utilizzati per “allenare” l’IA,, sia anche ai bias trasmessi senza volerlo dai creatori del sistema. Sembra infatti che essi implicitamente passino alla tecnologia le loro opinioni, i loro preconcetti o le loro aspettative sociali. Dato non trascurabile è che la maggior parte degli sviluppatori dell’IA sono uomini, condizione che implica indubbiamente delle distorsioni.  

Esempi di bias nell’Intelligenza Artificiale 

Come abbiamo detto, uno dei casi di bias nell’IA è il gender bias, dove gli algoritmi possono mostrare preferenze per un genere rispetto all’altro. Ad esempio, un algoritmo di screening dei curricula potrebbe favorire candidati maschi rispetto a candidate femmine, oppure non concedere un prestito alle donne solo perché storicamente questo non succedeva. 

Qui di seguito alcuni esempi che dimostrano come il gender bias nell’intelligenza artificiale possa influenzare diversi aspetti della vita quotidiana e della società.

  • Traduzione automatica: gli algoritmi di traduzione automatica possono introdurre gender bias attraverso scelte linguistiche e stereotipi culturali. Ad esempio, in alcune lingue come l’italiano, le traduzioni automatiche tendono a usare pronomi maschili per professioni considerate tradizionalmente svolte da uomini, anche quando il genere del soggetto è sconosciuto o non specificato. Il sistema prediligerà ad esempio “dottore” per “doctor” o anche, al contrario, “infermiera” per “nurse”.
  • Assistenza virtuale: gli assistenti virtuali come Siri, Alexa e Google Assistant sono stati criticati perché perpetuano stereotipi di genere. L’Onu ha richiesto la parità di genere per questi assistenti vocali. 
  • Pubblicità online: gli algoritmi utilizzati nelle piattaforme di pubblicità online possono mostrare annunci discriminatori in base al genere, ad esempio proponendo annunci per lavori o promozione di prodotti specifici solo a un genere, perpetuando così disuguaglianze e stereotipi di genere.
  • Riconoscimento facciale: gli algoritmi di riconoscimento facciale possono essere soggetti a gender bias, mostrando una maggiore accuratezza nel riconoscimento dei volti degli uomini rispetto a quelli delle donne. Questo fenomeno può portare a un’identificazione errata o a una sottorappresentazione delle donne in vari contesti, come la sorveglianza pubblica o l’identificazione dei criminali.
  • Algoritmi di selezione del personale: alcuni algoritmi utilizzati nei processi di selezione del personale possono far emergere gender bias favorendo candidati maschi rispetto a candidate femmine. Questo può avvenire a causa dei dati di apprendimento che riflettono la realtà, cioè i pregiudizi preesistenti nei processi di assunzione passate, portando a un circolo vizioso di discriminazione.  

Grase, per esempio, è un progetto finanziato dall’UE, con l’obiettivo di promuovere un linguaggio non discriminatorio e inclusivo, al fine di evitare discriminazioni di genere in ambito lavorativo.

 Impatto e conseguenze dei (gender) bias nell’IA

I bias nell’IA possono avere conseguenze significative e negative. In ambito sanitario, ad esempio, potrebbe portare a diagnosi errate o a raccomandazioni di trattamento non ottimali. Nell’ambito della giustizia, potrebbe invece condurre a decisioni discriminatorie nei confronti di determinati gruppi etnici o sociali. 

Il rischio maggiore, però, secondo la ricercatrice e attivista italiana Diletta Huskeys, è dato dall’applicazione della regola di questi pregiudizi. Per quanto siano in parte gli esseri umani a “formare” il sistema di apprendimento, è vero anche che una persona non può imporre una regola a un numero elevatissimo di persone in un unico momento. Il sistema, invece, impara da dati che una donna non può avere accesso a un mutuo e lo farà divenire una regola su ampia scala.

Conclusioni

I bias nell’Intelligenza Artificiale rappresentano una sfida significativa che richiede l’attenzione e l’impegno continuo della comunità tecnologica. Affrontare questo problema non solo migliorerà l’affidabilità e l’equità dei sistemi basati sull’IA, ma promuoverà anche una società più giusta e inclusiva. È essenziale continuare a perseguire attivamente delle soluzioni che riducano la presenza di  bias nell’IA e assicurino che questa tecnologia, così potente e ormai all’ordine del giorno, sia utilizzata per il bene di tutti.

Se vuoi scoprire di più su come utilizzare un linguaggio più inclusivo e non discriminatorio, leggi anche il nostro articolo “Il linguaggio inclusivo in italiano”.

Per qualsiasi ulteriore informazione puoi scriverci all’indirizzo email [email protected] oppure chiamarci al numero 338 8122727, saremo lieti di aiutarti.

Fonti:

  1. Bias di genere BMV Biblioteca Medica Virtuale, consultato il 12/04/2024
  2. Gender Bias in Hiring: An Analysis of the Impact of Amazon’s Recruiting Algorithm , consultato il 26/04/2024
  3. Gender bias in transformers: A comprehensive review of detection and mitigation strategies
  4. I bias nell’intelligenza artificiale, una questione aperta e (ancora) poco discussa I com, Istituto per la competitività, consultato il 12/04/2024 
  5. Alexa, Siri e le altre: basta sessismo, l’Onu chiede parità di genere per assistenti vocali La Repubblica, consultato il 12/04/2024
  6. Progetto “GRASE – Gender and Race Sterotypes Eradication in labour market access Fondazione Ismu Iniziative e studi sulla multietnicità, consultato il 12/04/2024
  7. Discriminazione di genere nell’IA: Intervista a Diletta Huyskes S-Citizenship, consultato il 12/04/2024
  8. Senza donne al lavoro nell’intelligenza artificiale, rischiamo grandi discriminazioni Wired, consultato il 12/04/2024