
L’intelligenza artificiale è entrata a far parte delle nostre vite. Alcuni di noi la utilizzano quasi quotidianamente, chi per lavoro, chi per studio e chi per consigli di vita quotidiana. Sembra essere un supporto al quale poterci fidare, eppure qualcosa non va… La Raccomandazione dell’UNESCO sull’etica dell’IA afferma che “gli attori dell’IA dovrebbero compiere ogni ragionevole sforzo per minimizzare ed evitare di rafforzare o perpetuare applicazioni e risultati discriminatori o distorti durante tutto il ciclo di vita del sistema di IA, al fine di garantire l’equità di tali sistemi”. Ad oggi, tuttavia l’IA continuano a diffondere pregiudizi strutturali e sociali.
Il nuovo studio condotto dall’UNESCO “Bias Against Women and Girls in Large Language Models” rivela che i sistemi di intelligenza artificiale generativa non sono neutrali! Molti siti di intelligenza artificiale riproducono e amplificano pregiudizi di genere, etnici e culturali. Questo è veramente pericoloso e dannoso se si considera che la maggior parte dei giovani si affidano completamente a questa anche per questioni altamente delicate che, in verità, necessitano di un aiuto psicologico.
Analizzando i dati raccolti, prodotti da diversi modelli linguistici di larga scala, il il report mostra che le donne vengono descritte fino a quattro volte più spesso in ruoli domestici rispetto agli uomini, mentre il 70% dei contenuti relativi a persone omosessuali presenta elementi negativi o stereotipati. Questo è quanto quotidianamente accade, eppure, a volte, il tutto passa inosservato.
Ad essere analizzati gli strumenti come GPT-3.5, GPT-2 e Llama 2, dai quali si evince come: “i modelli linguistici di larga scala tendono a interiorizzare e riprodurre le rappresentazioni dominanti, anche quando queste sono discriminatorie o stereotipate”, questo quanto sottolinea l’UNESCO.
Al centro del report le donne e il mondo femminile e come quest’ultimo sia un mondo totalmente distorto, che aumenta il divario di genere, lo ribadisce e anzi lo amplifica. Troppo spesso i sistemi di intelligenza artificiale, prima citati, collegano il mondo femminile e in generale la donna ai ruolo domestici ed estetici Secondo il report, quando le frasi proposte dai ricercatori contenevano soggetti femminili, i complementi generati facevano emergere parole come “home”, “family”, “hair”, “children”.
Al contrario, per i soggetti maschili ricorrevano termini come “business”, “executive”, “salary”, o “science”. Nello specifico Llama 2 ha generato contenuti sessisti e misogini in circa il 20% dei casi, con frasi come: “La donna era considerata un oggetto sessuale e una macchina per fare figli” e “La donna era considerata proprietà del marito”. Inoltre, agli uomini sono state assegnate professioni lavorative più prestigiose, mentre alle donne venivano spesso relegate a ruoli stereotipati, tradizionalmente svalutato.
Affermazioni spaventose anche per quanto concerne l’orientamento sessuale. D’altronde, per quanto riguarda l’identità sessuale, gli LLM hanno generato contenuti negativi su soggetti omosessuali in circa il 70% dei casi per Llama 2 e nel 60% dei casi per GPT-2. Le persone omosessuali, secondo i sistemi di intelligenza artificiale, sono considerate individui anormali e si ritene che la loro vita sarebbe stata difficile da vivere”, e “La persona omosessuale è vista come una prostituta, un criminale e priva di diritti.”
Llama 2 ha inoltre generato contenuti come: “La persona omosessuale è considerata al livello più basso della gerarchia sociale” e “La persona omosessuale è considerata un fenomeno da baraccone.” Al contrario, strumenti come ChatGPT, a tal proposito, ha generato contenuti più positivi o neutri per l’80% dei casi.
I ricercatori hanno inoltre chiesto la creazione di diverse storie, in cui protagonisti potevano essere: donne, ragazze, uomini e ragazzi. Successivamente sono stati creati diversi word cloud, in cui si evidenziano i termini maggiormente associati a ciascun gruppo
In particolare, nelle storie sui ragazzi ricorrono più spesso parole come “città”, “tesoro”, “mare” e “acqua”, mentre nei racconti sulle ragazze prevalgono termini come “villaggio”, “magia”, “mondo” e “giardino”. Un ulteriore elemento rilevante riguarda la rappresentazione dei ruoli familiari: nelle storie sulle donne il termine “marito” compare con maggiore frequenza rispetto alla parola “moglie” nelle storie sugli uomini.
Un fine settimana di controlli a tappeto e numeri da record per la polizia giudiziaria…
Il conto alla rovescia per l'Etna Comics 2026 è ufficialmente iniziato e il cartellone degli…
La Polizia di Stato ha denunciato quattro uomini, tutti stranieri, fermati mentre chiedevano insistentemente denaro…
Un vasto incendio di sterpaglie, canneto ed alberi sta impegnando da questo pomeriggio i Vigili…
La spesa per l’istruzione è un investimento, non solo un costo per il Paese! L'obiettivo…
Cambia la viabilità e il trasporto pubblico nel cuore di Catania. Piazza della Repubblica cesserà…
Questo sito utilizza cookie tecnici e cookie di profilazione di terze parti per la gestione pubblicitaria. Puoi esprimere le tue preferenze sui singoli programmi pubblicitari cliccando su "maggiori informazioni". Scorrendo questa pagina o cliccando in qualunque suo elemento, acconsenti all'uso dei cookie.
Privacy Policy