Roma, 31 gennaio 2026 – Il tema dei pregiudizi di genere nell’intelligenza artificiale (IA) torna al centro del dibattito pubblico, sollevato da recenti casi controversi e dallo sviluppo di nuove iniziative femministe nel settore tecnologico. Il fenomeno riguarda in particolare la rappresentazione e il trattamento delle donne nelle piattaforme digitali e negli algoritmi, con implicazioni profonde su sicurezza, diritti e potere.
Pregiudizi di genere e rischi nei sistemi di IA
Secondo l’esperta internazionale Ivana Bartoletti, Vicepresidente e Chief AI Governance and Privacy Officer presso Wipro, le tecnologie di intelligenza artificiale riflettono e amplificano le disuguaglianze sociali esistenti. Bartoletti, che ha collaborato con il Consiglio d’Europa su tematiche di IA e genere, evidenzia come i dataset utilizzati per addestrare gli algoritmi non siano mai neutrali, ma rispecchino rapporti di potere storici e stereotipi culturali.
Un caso emblematico è quello di Grok, chatbot sviluppato da x.AI e lanciato nel novembre 2023 da Elon Musk, finito sotto accusa per la funzione che consentiva la generazione di deepfake a sfondo sessuale, inclusi nudi falsi di donne e minori, successivamente sospesa. Bartoletti sottolinea che “se esistono strumenti per nudificare le donne, verranno usati”, definendo i deepfake nudi “una forma di umiliazione e controllo che silenzia molte donne e le spinge fuori dallo spazio digitale”.
Altri esempi di bias di genere nell’IA includono difficoltà nei sistemi di riconoscimento facciale nel riconoscere accuratamente le donne, soprattutto quelle di colore, e l’uso prevalente di voci femminili negli assistenti vocali, che rafforzano stereotipi di ruolo. Inoltre, nei generatori di immagini, il termine “CEO” è spesso associato a figure maschili, mentre “assistente” a figure femminili, dimostrando come gli algoritmi riproducano le disuguaglianze.
Le risposte femministe e l’emergere di alternative tecnologiche
Di fronte a questo scenario, si stanno sviluppando iniziative che mirano a ripensare l’intelligenza artificiale da una prospettiva femminista e inclusiva. In America Latina e nei Caraibi è nata la Rete Femminista di IA, che promuove progetti focalizzati su trasparenza, politiche pubbliche e lotta ai bias algoritmici. Tra gli strumenti innovativi si segnalano AymurAI, Arvage IA e SofIA, che applicano la prospettiva di genere all’analisi giuridica e smascherano discriminazioni presenti negli algoritmi.
L’afrofemminismo contribuisce inoltre a rivendicare l’IA come spazio di autodeterminazione, con assistenti virtuali come AfroféminasGpt, addestrati su saperi e voci nere, per rappresentare comunità spesso marginalizzate.
Bartoletti insiste sull’importanza di una maggiore rappresentanza femminile nei luoghi decisionali delle aziende tecnologiche e nelle istituzioni che regolano la politica tecnologica, perché “l’intelligenza artificiale non è solo tecnologia, ma una scelta su come vogliamo trasformare la società”. Le stime del World Economic Forum indicano infatti che le donne costituiscono meno di un terzo della forza lavoro globale nell’IA, un dato che evidenzia la necessità di un cambiamento strutturale per garantire equità e inclusività nel settore.
Questa prospettiva sottolinea come la questione femminista nell’intelligenza artificiale sia profondamente legata al tema del potere: solo con una reale diversità e inclusione ai vertici sarà possibile progettare sistemi tecnologici equi, sicuri e rispettosi dei diritti di tutte e tutti.






