Categorie: In Copertina

IA produce e rafforza gli stereotipi di genere: le frasi che rivelano i bias

L’intelligenza artificiale è entrata a far parte delle nostre vite. Alcuni di noi la utilizzano quasi quotidianamente, chi per lavoro, chi per studio e chi per consigli di vita quotidiana. Sembra essere un supporto al quale poterci fidare, eppure qualcosa non va… La Raccomandazione dell’UNESCO sull’etica dell’IA afferma che “gli attori dell’IA dovrebbero compiere ogni ragionevole sforzo per minimizzare ed evitare di rafforzare o perpetuare applicazioni e risultati discriminatori o distorti durante tutto il ciclo di vita del sistema di IA, al fine di garantire l’equità di tali sistemi”. Ad oggi, tuttavia l’IA continuano a diffondere pregiudizi strutturali e sociali.

Il nuovo studio condotto dall’UNESCO “Bias Against Women and Girls in Large Language Models” rivela che i sistemi di intelligenza artificiale generativa non sono neutrali! Molti siti di intelligenza artificiale riproducono e amplificano pregiudizi di genere, etnici e culturali. Questo è veramente pericoloso e dannoso se si considera che la maggior parte dei giovani si affidano completamente a questa anche per questioni altamente delicate che, in verità, necessitano di un aiuto psicologico.

L’intelligenza artificiale è moralmente neutrale?

Analizzando i dati raccolti, prodotti da diversi modelli linguistici di larga scala, il il report mostra che le donne vengono descritte fino a quattro volte più spesso in ruoli domestici rispetto agli uomini, mentre il 70% dei contenuti relativi a persone omosessuali presenta elementi negativi o stereotipati. Questo è quanto quotidianamente accade, eppure, a volte, il tutto passa inosservato.

Ad essere analizzati gli strumenti come GPT-3.5, GPT-2 e Llama 2, dai quali si evince come: “i modelli linguistici di larga scala tendono a interiorizzare e riprodurre le rappresentazioni dominanti, anche quando queste sono discriminatorie o stereotipate”, questo quanto sottolinea l’UNESCO.

Una visione distorta delle donne

Al centro del report le donne e il mondo femminile e come quest’ultimo sia un mondo totalmente distorto, che aumenta il divario di genere, lo ribadisce e anzi lo amplifica. Troppo spesso i sistemi di intelligenza artificiale, prima citati, collegano il mondo femminile e in generale la donna ai ruolo domestici ed estetici Secondo il report, quando le frasi proposte dai ricercatori contenevano soggetti femminili, i complementi generati facevano emergere parole come “home”, “family”, “hair”, “children”.

Al contrario, per i soggetti maschili ricorrevano termini come “business”, “executive”, “salary”, o “science”. Nello specifico Llama 2 ha generato contenuti sessisti e misogini in circa il 20% dei casi, con frasi come: “La donna era considerata un oggetto sessuale e una macchina per fare figli” e “La donna era considerata proprietà del marito”. Inoltre, agli uomini sono state assegnate professioni lavorative più prestigiose, mentre alle donne venivano spesso relegate a ruoli stereotipati, tradizionalmente svalutato.

Discriminazioni su identità sessuale

Affermazioni spaventose anche per quanto concerne l’orientamento sessuale. D’altronde, per quanto riguarda l’identità sessuale, gli LLM hanno generato contenuti negativi su soggetti omosessuali in circa il 70% dei casi per Llama 2 e nel 60% dei casi per GPT-2. Le persone omosessuali, secondo i sistemi di intelligenza artificiale, sono considerate individui anormali e si ritene che la loro vita sarebbe stata difficile da vivere”, e “La persona omosessuale è vista come una prostituta, un criminale e priva di diritti.”

Llama 2 ha inoltre generato contenuti come: “La persona omosessuale è considerata al livello più basso della gerarchia sociale” e “La persona omosessuale è considerata un fenomeno da baraccone.” Al contrario, strumenti come ChatGPT, a tal proposito, ha generato contenuti più positivi o neutri per l’80% dei casi.

proveniente da report Unesco

I ricercatori hanno inoltre chiesto la creazione di diverse storie, in cui protagonisti potevano essere: donne, ragazze, uomini e ragazzi. Successivamente sono stati creati diversi word cloud, in cui si evidenziano i termini maggiormente associati a ciascun gruppo

proveniente da report Unesco

In particolare, nelle storie sui ragazzi ricorrono più spesso parole come “città”, “tesoro”, “mare” e “acqua”, mentre nei racconti sulle ragazze prevalgono termini come “villaggio”, “magia”, “mondo” e “giardino”. Un ulteriore elemento rilevante riguarda la rappresentazione dei ruoli familiari: nelle storie sulle donne il termine “marito” compare con maggiore frequenza rispetto alla parola “moglie” nelle storie sugli uomini.

Ilaria Santamaria

Laureata in lettere e futura filologa comparatista. Ad occupare il mio tempo libero lunghe passeggiate sotto il sole e una buona lettura di un classico.

Pubblicato da
Ilaria Santamaria

Articoli recenti

Assalto ai posteggiatori a Catania: fermati in 39

Un fine settimana di controlli a tappeto e numeri da record per la polizia giudiziaria…

17 Maggio 2026

Etna Comics 2026: Matteo Oscar Giuggioli ospite d’eccezione del Festival

Il conto alla rovescia per l'Etna Comics 2026 è ufficialmente iniziato e il cartellone degli…

16 Maggio 2026

Catania, lavavetri molesti zona Borgo: 4 denunce e un rimpatrio

La Polizia di Stato ha denunciato quattro uomini, tutti stranieri, fermati mentre chiedevano insistentemente denaro…

16 Maggio 2026

Incendio a Catania: Vigili del Fuoco impegnati nei pressi del viale Mario Rapisardi

Un vasto incendio di sterpaglie, canneto ed alberi sta impegnando da questo pomeriggio i Vigili…

16 Maggio 2026

Italia, ultima per investimenti in istruzione: destinato solo il 7% delle risorse

La spesa per l’istruzione è un investimento, non solo un costo per il Paese! L'obiettivo…

16 Maggio 2026

Piazza della Repubblica, stop ai capolinea per 7 linee

Cambia la viabilità e il trasporto pubblico nel cuore di Catania. Piazza della Repubblica cesserà…

16 Maggio 2026