Bias di genere intelligenza artificiale: quando l’algoritmo decide chi è prudente e chi coraggioso
I modelli di IA cambiano comportamento in base al genere del prompt: se pensano da donna diventano cauti, se da uomo più rischiosi. Ecco cosa rivela la ricerca.
Gli algoritmi non hanno sesso. Eppure si comportano come se ne avessero uno.
Un gruppo di ricercatori dell’Università di Teheran ha dimostrato qualcosa di inquietante: basta chiedere a un modello linguistico di “rispondere come una donna” perché diventi improvvisamente più prudente nelle scelte finanziarie. Se invece gli chiedi di “pensare come un uomo”, eccolo trasformarsi in un piccolo speculatore digitale. Non è un esperimento da psicologia spicciola: è la prova che i nostri pregiudizi sono finiti dritti nel cuore dei sistemi che dovrebbero essere neutrali.
La scoperta arriva da uno studio che ha messo alla prova modelli di DeepSeek, Google, Meta e OpenAI usando il test di Holt-Laury, un classico dell’economia comportamentale. Dieci scelte tra sicurezza e rischio, dove le probabilità scivolano gradualmente da una parte all’altra. Un metodo collaudato per misurare l’avversione al rischio in esseri umani. Solo che qui i soggetti non erano umani, ma reti neurali. E il risultato? DeepSeek Reasoner e Gemini 2.0 Flash-Lite hanno mostrato una marcata differenza: più cauti al femminile, più audaci al maschile. Come se avessero imparato la lezione peggiore della storia: il coraggio finanziario è maschio, la prudenza è femmina.
La macchina che ha imparato i nostri stereotipi
Il paradosso è che questi sistemi non dovrebbero avere opinioni. Sono addestrati su miliardi di testi per calcolare probabilità, non per replicare luoghi comuni. Eppure, quando nei dati di addestramento la parola “donna” appare accanto a “cautela” abbastanza volte, il modello traduce quella correlazione in un comportamento operativo. Non ragiona, interpreta. Non decide, cita.
I ricercatori iraniani hanno chiamato questo fenomeno MoRA: Manipulability of Risk Aversion, ovvero la misura di quanto un modello sia disposto a cambiare idea sul rischio in base al contesto identitario imposto dal prompt. Se ti chiedo di essere una madre investitrice, diventi conservativa. Se ti chiedo di essere un giovane trader, spingi verso la speculazione. Non serve un’intelligenza artificiale malvagia per generare discriminazione; basta un algoritmo educato troppo bene sui nostri pregiudizi.
Va detto che non tutti i modelli si comportano allo stesso modo. GPT di OpenAI, per esempio, resta imperturbabile. Non si lascia trascinare nel gioco semantico del genere, non assume personalità, non modula il proprio grado di rischio in base al prompt. Una forma di ascetismo digitale che, in tempi di allucinazioni generative, appare quasi una virtù monastica. Altri modelli, come Llama e Grok, mostrano comportamenti incoerenti, a volte invertendo del tutto l’effetto. Un po’ come quegli studenti che cercano di capire l’intenzione dell’insegnante e finiscono per sbagliare la domanda.
Quando i dati parlano di noi (e non ci piace quello che dicono)
C’è un aspetto che pochi vogliono affrontare. L’intelligenza artificiale non è un cervello, ma un riflesso del linguaggio umano. Se la cultura occidentale ha costruito per secoli una narrativa del rischio in chiave maschile, è inevitabile che i modelli la replichino. Il vero scandalo non è che l’IA impari i nostri bias, ma che noi non siamo ancora riusciti a disimpararli.
Uno studio del Berkeley Haas Center ha analizzato 133 sistemi di IA in diversi settori: il 44% mostrava bias di genere, il 25% esibiva sia bias di genere che razziali. Un altro lavoro pubblicato su Nature ha esaminato sei modelli linguistici principali: tutti, nessuno escluso, mostravano qualche livello di pregiudizio di genere. Anche il più equilibrato (ChatGPT) usava il 24,5% in meno di parole femminili rispetto ai testi scritti da umani. E non è solo una questione di quantità: il tono conta. Tutti i modelli esprimevano più sentimenti negativi verso le donne che verso gli uomini.
La ricerca di Stanford ha testato come i modelli linguistici assegnano il genere alle professioni. Risultato? ChatGPT usava pronomi maschili l’83% delle volte per “programmatore”, e pronomi femminili il 91% delle volte per “infermiere”. Anche quando esplicitamente istruito a evitare bias di genere, continuava a favorire i pronomi maschili il 68% delle volte. Non è un bug, è una feature: il riflesso fedele di come parliamo, scriviamo, pensiamo.
Il problema tecnico nascosto dietro le parole
Dal punto di vista tecnico, c’è un problema di stabilità. L’output di un modello dovrebbe essere robusto di fronte a perturbazioni semantiche irrilevanti. Se basta cambiare il genere nel prompt per modificare il comportamento, significa che la funzione di decisione interna non è affidabile. È come un motore che cambia direzione perché qualcuno ha toccato lo specchietto retrovisore. Un CTO serio non lo accetterebbe mai.
Ciò che serve è un’architettura di controllo capace di isolare il livello decisionale dal livello di rappresentazione linguistica. In altre parole, il modo in cui descrivi il soggetto non dovrebbe influenzare la logica della scelta. L’industria dovrebbe preoccuparsi meno di “mitigare i bias” e più di misurare la stabilità decisionale. Un modello stabile è prevedibile, e un modello prevedibile è controllabile.
Ma la neutralità non paga sul mercato: vende più la promessa di un’IA “empatica”, “umana”, “personalizzabile”. La personalizzazione, però, è un nome elegante per la manipolabilità. Siamo noi che la chiediamo, e l’algoritmo che ce la restituisce con una fedeltà inquietante.
Word embedding: dove nasce il pregiudizio
Per capire come nascono questi bias, bisogna scendere un livello più in profondità: i word embedding. Questi algoritmi trasformano le parole in vettori matematici, dove la geometria cattura le relazioni semantiche. Se “re” e “regina” sono vicini, è perché hanno significati simili. Il problema è che questa geometria cattura anche i pregiudizi.
Un lavoro del 2016 ha dimostrato che gli embedding addestrati su Google News contenevano stereotipi di genere disturbanti. L’analogia “uomo sta a programmatore come donna sta a casalinga” emergeva spontaneamente dalla geometria dei vettori. Non perché qualcuno l’avesse programmata esplicitamente, ma perché nei dati di addestramento quelle associazioni ricorrevano abbastanza da diventare pattern strutturali.
Un altro studio ha creato nuvole di parole per visualizzare i vicini più prossimi di “uomo” e “donna” negli embedding. Nel gruppo maschile: businessman, chirurgo ortopedico, mago, meccanico. Nel gruppo femminile: casalinga, infermiera, ostetrica. Più di 160 parole di leadership associate agli uomini, solo 31 per le donne. Il numero parla da solo.
Le conseguenze nel mondo reale
Questo non è un gioco accademico. I modelli linguistici vengono usati per scremare curriculum, valutare rischi creditizi, consigliare investimenti, assistere diagnosi mediche. Uno studio dell’Università di Washington ha scoperto che i sistemi di screening automatico dei CV mostravano bias razziali e di genere significativi. I nomi associati ai neri venivano scelti con preferenza zero in alcuni test. Una ricerca sul GPT-4 applicato al rischio cardiovascolare ha rivelato che le condizioni psichiatriche influenzavano diversamente la valutazione del rischio tra uomini e donne.
Nel 2024, una contea americana ha testato un sistema basato su LLM per valutare gli imputati prima del processo. I ricercatori hanno esaminato 15.000 punteggi di rischio: gli imputati neri venivano etichettati “ad alto rischio” il 28% più spesso rispetto ai bianchi con la stessa storia. Bastava cambiare un nome in “Jamal” o “DeShawn” per aumentare il punteggio di rischio, anche con fatti identici.
Un sondaggio del 2024 su oltre 350 aziende ha rivelato che il 62% aveva perso fatturato a causa di sistemi di IA che prendevano decisioni distorte. Il bias nell’IA non è solo una questione sociale; è una responsabilità aziendale crescente. Un rapporto PwC stima che il bias razziale negli algoritmi finanziari potrebbe portare a una perdita di 1,5 trilioni di dollari di PIL potenziale solo negli Stati Uniti.
FAQ: le domande che (forse) ti stai facendo
Perché i modelli di IA assorbono i bias di genere?
I modelli linguistici imparano dai dati su cui vengono addestrati. Se nei testi di addaddrestramento certe professioni sono associate prevalentemente a un genere, o se certi comportamenti vengono descritti in modo diverso per uomini e donne, il modello replica queste associazioni. Non è intelligente nel senso umano: non comprende il significato profondo, ma riconosce pattern statistici. Il problema non è l’algoritmo in sé, ma i dati che usiamo per addestrarlo.
È possibile creare un’IA completamente neutrale rispetto al genere?
In teoria sì, ma è complicato. Alcuni ricercatori hanno sviluppato tecniche di “debiasing” per ridurre i pregiudizi negli embedding, ma questi metodi spesso coprono il problema senza eliminarlo del tutto. Una soluzione più efficace richiede di ripensare l’intero processo: dai dati di addestramento all’architettura del modello, fino ai meccanismi di controllo che separano la rappresentazione linguistica dalla logica decisionale. L’obiettivo non dovrebbe essere solo la neutralità, ma la stabilità: un sistema che non cambia le sue decisioni in base a dettagli irrilevanti come il genere di un pronome.
La lezione finale: specchi che riflettono troppo bene
I modelli linguistici sono diventati laboratori etnografici involontari. Studiare come cambiano quando assumono un’identità è più rivelatore di qualunque test di Turing. Perché mostrano quanto la nostra intelligenza, quella biologica, sia ancora impigliata in categorie che pretendiamo di aver superato.
L’IA non ha un genere, ma il linguaggio che la alimenta sì. E finché useremo parole che separano il coraggio dalla prudenza in base a un pronome, continueremo a costruire algoritmi che fanno lo stesso. Il futuro non appartiene all’intelligenza artificiale neutrale, ma a quella consapevole delle proprie distorsioni. Una macchina che riconosce i propri bias è meno pericolosa di un essere umano che li nega.
Il rischio vero, oggi, non è che l’IA impari i nostri pregiudizi. È che noi impariamo a conviverci, fingendo che siano solo un effetto collaterale statistico. E invece sono la prova che, quando costruiamo macchine per imitare la nostra intelligenza, finiscono per imitare anche i nostri difetti. Forse è il momento di chiederci se vogliamo davvero che i nostri assistenti digitali diventino così umani.
Vuoi approfondire come i bias nell’IA possono influenzare il tuo settore? Resta aggiornato sulle ultime ricerche e sui metodi per costruire sistemi più equi e affidabili.
Fonti e approfondimenti
- UN Women: Artificial Intelligence and Gender Equality (2024)
- Achtari et al.: Gender Bias in AI’s Perception of Cardiovascular Risk (2024)
- Bolukbasi et al.: Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings (2016)
- Garg et al.: Word Embeddings Quantify 100 Years of Gender and Ethnic Stereotypes (2018)
- Holt & Laury: Risk Aversion and Incentive Effects (2002)
- O’Connor & Liu: Gender Bias Perpetuation and Mitigation in AI Technologies (2023)
- All About AI: AI Bias Statistics 2025 (2025)
