Tecnologia e Intelligenza artificiale
I bias di genere negli algoritmi che sono alla base della tecnologia moderna rappresentano una sfida cruciale nell’era dell’intelligenza artificiale. Questi sistemi, infatti, tendono a rispecchiare gli stereotipi di genere insiti nei dati utilizzati per il loro addestramento, producendo risultati distorti e contribuendo a perpetuare pregiudizi esistenti. Per garantire che la tecnologia sia davvero inclusiva e imparziale, è fondamentale riconoscere l’esistenza di questi bias e sviluppare soluzioni mirate per affrontarli.

Stereotipi di genere nelle immagini generate da strumenti di intelligenza artificiale
DALL·E 2 è uno strumento di intelligenza artificiale generativa che permette agli utenti di creare immagini di alta qualità sulla base di una richiesta testuale. Tende a restituire più soggetti maschili e potrebbe quindi introdurre ulteriori bias di genere nel panorama digitale. Uno studio recente esamina la presenza e la frequenza di bias di genere nelle immagini generate tramite DALL·E 2; utilizza test Z e adatta modelli lineari generalizzati misti.

Studio dei bias di genere nei modelli per il linguaggio
L’articolo "Gender bias in transformers: a comprehensive review of detection and mitigation strategies" esamina la letteratura esistente sui pregiudizi di genere nei transformers e riporta delle metriche e dei metodi impiegati per misurare e mitigare questa fonte di distorsione.