Site icon antonionaddeo.blog

Donne e Intelligenza Artificiale nella Pubblica Amministrazione

(Intervento al seminario del Formez del 7 marzo 2025)

Introduzione

Oggi parliamo di Donne e Intelligenza Artificiale nella Pubblica Amministrazione (PA) – un tema cruciale nell’era della trasformazione digitale dei nostri enti pubblici. L’Intelligenza Artificiale (IA) sta iniziando a rivoluzionare il funzionamento della PA, migliorando servizi, snellendo processi e supportando decisioni. Ma mentre questa rivoluzione tecnologica avanza, è fondamentale chiedersi: quale impatto ha sull’uguaglianza di genere? La PA italiana, infatti, è storicamente caratterizzata da un’ampia presenza femminile (le donne sono il 58,8% dei 3,2 milioni di dipendenti pubblici) ma con forte sotto-rappresentanza nei ruoli dirigenziali (solo il 33,8% delle posizioni apicali). Se da un lato l’IA può essere uno strumento potente per innovare i servizi pubblici, dall’altro rischia di replicare – o addirittura accentuare – i bias di genere esistenti. In questo intervento, esamineremo la situazione attuale dell’IA nella PA con dati aggiornati, analizzeremo l’impatto di queste tecnologie sulle carriere delle donne, approfondiremo il tema dei bias di genere negli algoritmi decisionali e infine delineeremo prospettive future e raccomandazioni per promuovere una maggiore inclusione femminile nel settore pubblico digitale. L’obiettivo è offrire una panoramica chiara e divulgativa, adatta a un pubblico istituzionale, su come garantire che la “rivoluzione IA” nella PA sia anche un’opportunità per colmare il gender gap anziché ampliarlo.

Stato attuale: l’IA nella Pubblica Amministrazione

Negli ultimi anni abbiamo assistito a un’accelerazione nell’adozione di soluzioni di IA nella PA. Dal livello locale a quello centrale, emergono numerosi casi d’uso: centralini telefonici “intelligenti” per smistare le chiamate, sistemi che automatizzano la gestione del protocollo e la classificazione di documenti, chatbot che rispondono 24/7 alle domande dei cittadini, fino a strumenti di data analysis che aiutano a individuare frodi o migliorare le politiche pubbliche. Questo fermento tecnologico è sostenuto da investimenti significativi: la spesa in servizi di consulenza ICT per il settore pubblico (spesso legata a progetti di IA) è cresciuta del 30,5% tra il 2021 e il 2022, raggiungendo 535 milioni di euro nel 2022, con aumenti marcati specialmente nella Sanità (+66%) e nelle Amministrazioni centrali (+31%). Inoltre, il nuovo Piano Triennale per l’Informatica nella PA 2024–2026 dedica ampio spazio all’introduzione dell’IA, con linee guida in via di definizione per accompagnare gli enti pubblici nell’uso etico e efficace di queste tecnologie. In altre parole, l’IA non è più fantascienza per la PA: è una realtà in rapida espansione.

Dal punto di vista del personale, che portata ha questa trasformazione? Studi recenti indicano che circa il 57% dei dipendenti pubblici svolge mansioni fortemente esposte all’automazione intelligente. Ciò significa che oltre 1,85 milioni di lavoratori pubblici italiani potrebbero vedere l’IA entrare nel proprio lavoro quotidiano, in varia misura. L’impatto però non è uniforme: per la maggior parte (circa l’80% dei profili esposti) si prevede un effetto di complementarità, ossia l’IA fungerà da supporto che arricchisce e rende più efficiente il lavoro umano. Pensiamo ad esempio a funzionari che grazie all’AI analizzano più rapidamente grandi moli di dati, o a dirigenti che utilizzano sistemi predittivi per prendere decisioni informate: in questi casi la tecnologia aumenta le capacità umane invece di sostituirle. Tuttavia, esiste anche un rovescio della medaglia: si stima che per circa il 12% dei dipendenti pubblici altamente esposti – pari a oltre 200.000 lavoratori – l’IA possa avere un effetto sostitutivo significativo. Si tratta soprattutto di professioni con compiti ripetitivi e meno specializzati, dove algoritmi e automazione potrebbero rimpiazzare parte del lavoro umano. Questo dato ci invita a una riflessione: quali sono questi ruoli e chi vi è impiegato? È qui che il discorso sulla tecnologia incrocia quello di genere.

L’impatto dell’IA sulla carriera delle donne nella PA

Le Pubbliche Amministrazioni italiane, pur avendo molti dipendenti donna, vedono ancora poche donne ai vertici e in ruoli tecnico-specialistici. Ad esempio, la figura del Responsabile per la Transizione al Digitale (RTD) – introdotta per guidare l’innovazione tecnologica negli enti – è ricoperta da una donna solo nel 33,4% dei casi (circa 3.500 donne su oltre 10.000 RTD). Ciò riflette un trend generale: le donne nella PA tendono a concentrarsi in settori come istruzione e amministrazione, mentre i ruoli ICT e dirigenziali digitali restano prevalentemente maschili. Questo squilibrio fa sì che l’impatto dell’IA sulle carriere possa differire tra uomini e donne.

Consideriamo il dato citato poco fa: il 12% dei dipendenti pubblici potrebbe essere in parte sostituito dall’IA, in particolare nei compiti più ripetitivi. Ebbene, molte di quelle mansioni routinarie – ad esempio nell’area amministrativa o nelle segreterie – sono oggi svolte da donne. Nella PA locale, oltre la metà degli impiegati amministrativi è donna, e in generale le donne costituiscono la maggioranza del personale di supporto. Se l’adozione di chatbot, RPA (Robotic Process Automation) e algoritmi vari ridurrà la necessità di personale in quei ruoli, c’è il rischio concreto che a farne le spese siano soprattutto lavoratrici. In altre parole, l’innovazione potrebbe colpire posti di lavoro a forte presenza femminile, ponendo un problema di ricollocazione e reskilling: senza un adeguato aggiornamento delle competenze, molte dipendenti potrebbero vedere rallentata (o interrotta) la propria crescita professionale.

D’altra parte, l’IA porta anche nuove opportunità professionali nella PA – dai data scientist agli esperti di analisi dei dati, dai project manager per progetti AI fino ai responsabili etici dei nuovi sistemi. È essenziale che le donne abbiano pari accesso anche a queste carriere emergenti. Purtroppo, lo scenario attuale dell’AI come settore professionale evidenzia un forte gender gap: a livello europeo, solo il 16% delle persone con competenze nell’IA è donna. E più la carriera avanza, più il numero cala (le donne con oltre 10 anni di esperienza nel campo IA sono appena il 12%). Ciò significa che, senza interventi correttivi, anche nella PA i team che implementano algoritmi e sistemi avanzati rischiano di essere composti quasi solo da uomini. Questo non solo priva le donne di opportunità in settori ben retribuiti e strategici, ma priva la PA stessa di talenti e di diversità di prospettive preziose per sviluppare servizi migliori.

Un altro aspetto critico è come l’IA possa influenzare i processi decisionali interni della PA, ad esempio nelle assunzioni e nelle progressioni di carriera. Se si iniziano ad usare strumenti di AI per scremare CV o valutare candidati ai concorsi pubblici, bisogna assicurarsi che non introducano pregiudizi discriminatori. Il monito viene dal settore privato: qualche anno fa fece scalpore il caso di Amazon, che sperimentò un software di reclutamento basato sull’IA e scoprì che il sistema tendeva a scartare i curricula femminili. Addestrato sui dati storici (in cui prevalevano candidati uomini nell’area tech), l’algoritmo aveva “imparato” ad associare il successo professionale a caratteristiche maschili, penalizzando parole come “women” (donne) presenti nei CV e declassando candidati provenienti da college femminili. In pratica, l’IA considerava il fatto di essere donna come un fattore negativo! Amazon fu costretta ad annullare quel progetto, ma l’episodio è illuminante: senza adeguate contromisure, l’IA può riprodurre o amplificare i bias di genere, anche in ambiti come la selezione del personale. Immaginiamo se ciò accadesse in un algoritmo usato per valutare i curriculum nei concorsi pubblici o per identificare i dipendenti più meritevoli di promozione: le donne, già sottorappresentate in molti ruoli apicali, potrebbero trovarsi di fronte a barriere aggiuntive “invisibili” ma insidiose.

Bias di genere nei sistemi di IA e decisioni automatizzate

Per comprendere gli effetti dei bias di genere nell’IA, partiamo da una premessa: gli algoritmi di intelligenza artificiale apprendono dai dati. Se i dati rispecchiano disuguaglianze o stereotipi presenti nella società, il sistema AI tenderà a perpetuarli. I bias possono manifestarsi in molti modi. Abbiamo visto l’esempio del recruitment: un dataset storico squilibrato a favore di candidati uomini ha portato l’algoritmo a discriminare le donne. Ma casi analoghi si sono riscontrati in vari settori. Nei sistemi di elaborazione del linguaggio naturale (NLP), addestrati su grandi quantità di testi, sono emersi pregiudizi sessisti: ad esempio, modelli che associavano termini come “uomo” a professioni scientifiche e “donna” a ruoli domestici, riflettendo stereotipi presenti nei testi di training. Nei sistemi di visione artificiale, come il riconoscimento facciale, studi hanno mostrato errori molto più frequenti nel riconoscere donne (soprattutto se di colore) rispetto ai volti maschili bianchi. In un test noto, i software di face recognition hanno commesso errori sul 35% dei volti di donne afroamericane contro appena l’1% sui volti di uomini caucasici. È facile intuire le conseguenze: in ambito di sicurezza o sorveglianza, queste tecnologie potrebbero ingiustamente segnalare o penalizzare donne innocenti più spesso degli uomini, oppure fallire nel riconoscere correttamente le donne come individui (problema di under-recognition). Anche in ambito sanitario, se i dati medici raccolti trascurano differenze di genere, un algoritmo diagnostico potrebbe risultare meno accurato per le pazienti donne, con rischi sulla qualità delle cure.

I pregiudizi algoritmici non sono intenzionali – nessuno programma un AI per essere “sessista” – ma emergono silenziosamente dai dati e dai modelli se non si presta attenzione. Questo rende fondamentale, per la PA, dotarsi di un approccio etico e trasparente all’IA. Quando si introduce un sistema automatizzato che prende decisioni (o supporta decisioni) su persone, occorre chiedersi: su quali dati è addestrato? Ci sono distorsioni nella base dati? L’output favorisce sistematicamente un gruppo su un altro? Ad esempio, un algoritmo che assegna punteggi di priorità per l’accesso a un servizio pubblico (case popolari, sussidi, formazione) potrebbe inconsapevolmente sfavorire le donne se basato su modelli familiari “tradizionali” o su criteri storicamente tarati sul lavoratore maschio. Similmente, sistemi di valutazione delle performance potrebbero riprendere bias che in passato hanno portato a sottovalutare il contributo femminile. L’IA è spesso uno specchio dei nostri dati: per evitare che rifletta anche le nostre ingiustizie, bisogna intervenire a monte.

Fortunatamente, la consapevolezza su questi rischi sta crescendo. In Italia e in Europa sono in via di definizione norme e linee guida per assicurare un’IA affidabile e non discriminatoria. L’AI Act europeo, di prossima approvazione, imporrà obblighi stringenti di trasparenza e controllo soprattutto per gli algoritmi ad alto impatto usati nel settore pubblico (dall’istruzione al recruiting, dalla giustizia ai servizi essenziali). Ciò significa che le PA dovranno valutare e documentare i rischi dei sistemi di AI, inclusi i possibili bias di genere, prima di metterli in funzione. Inoltre, l’Agenzia per l’Italia Digitale (AgID) ha avviato una consultazione sulle Linee Guida per l’adozione dell’IA nella PA (febbraio 2025), che mirano proprio a fornire indicazioni operative perché gli algoritmi pubblici siano sicuri, efficaci e equi. Uno degli obiettivi dichiarati del Piano è garantire che i dati utilizzati per addestrare sistemi di IA nella PA siano di alta qualità e privi di distorsioni, proprio per prevenire discriminazioni. In sintesi, c’è una chiara comprensione istituzionale che fiducia nell’IA pubblica significa anche assicurarsi che non riproduca stereotipi di genere o altre forme di pregiudizio.

Prospettive future e raccomandazioni per l’inclusione femminile

Guardando al futuro, come possiamo far sì che l’IA diventi un alleato dell’uguaglianza di genere nella PA, anziché un fattore di regressione? Ecco alcune prospettive e raccomandazioni concrete:

Conclusione

In conclusione, Intelligenza Artificiale e parità di genere non devono viaggiare su binari separati nella Pubblica Amministrazione. La rivoluzione digitale in corso rappresenta un’occasione irripetibile per ridisegnare processi e servizi pubblici in chiave più efficiente, ma anche più equa. Come abbiamo visto, l’IA nella PA porta con sé opportunità enormi – dalla semplificazione del lavoro quotidiano dei nostri impiegati, al miglioramento dell’interazione con i cittadini – ma anche rischi legati ai bias e agli squilibri di genere. Sta a noi, come comunità istituzionale, orientare la bussola nella direzione giusta. Ciò significa mettere in campo strategie ben calibrate: tutelare le lavoratrici di fronte ai cambiamenti tecnologici, abbattere le barriere che impediscono alle donne di emergere nei ruoli tecnico-dirigenziali, e garantire che gli algoritmi che utilizzeremo siano progettati secondo principi di fairness e inclusione. Una PA che saprà integrare l’IA mantenendo al centro l’elemento umano – nella sua diversità – sarà una PA più capace di comprendere e servire l’intera popolazione. In fondo, costruire algoritmi equi e promuovere carriere femminili non sono che due facce della stessa medaglia: significa lavorare per un’innovazione che rispecchi i valori democratici di pari opportunità e giustizia. Facciamo in modo che, nella “sala operativa” dell’intelligenza artificiale pubblica, siedano sempre più donne accanto agli uomini a prendere le decisioni. Solo così l’IA potrà davvero contribuire a una Pubblica Amministrazione nuova, efficiente e inclusiva per tutti.

Equità di genere nella PA: sotto la lente carriere e professioni | SDA Bocconi School of Management – Top Business School in Europe

Equità di genere nella PA: sotto la lente carriere e professioni | SDA Bocconi School of Management – Top Business School in Europe

AI Act, requisiti e obblighi per i sistemi ad alto rischio: tutto quello che c’è da sapere – Agenda Digitale

Progetti – Donne che programmano il futuro

Bias di Genere nell’AI: Comprendere e Mitigare con Flavia Marzano – Aracne

Ma l’avete letta, la direttiva Zangrillo sulla formazione? Tutta, dico.

La direttiva del Ministro per la pubblica amministrazione suggerisce un approccio innovativo alla formazione dei dipendenti pubblici, enfatizzando il valore umano rispetto al mero adempimento delle ore. Propone che la formazione debba essere vista come investimento e responsabilità, promuovendo il benessere dei dipendenti per migliorare i servizi ai cittadini.

La contrattazione collettiva: ieri, oggi e domani

Lectio magistralis al Convegno Nazionale PuntoCOMFORT Bologna, 15 aprile 2026 Permettetemi di iniziare con una considerazione sul titolo di questo convegno: Rovesciare il Project Management. Rovesciare. Un verbo coraggioso. Che presuppone che ci sia qualcosa che, così com’è, non funziona abbastanza. Che si possa — che si debba — rimettere la struttura in discussione. Ho…

Esplorando il Passato: Le Istituzioni Italiane del ‘900

Nel recente incontro della serie “PAzzesco ma vero”, il Professor Guido Melis ha presentato il suo libro “Le istituzioni della Repubblica italiana (1946-1994)”, esplorando la nostra storia attraverso documenti d’archivio. Melis ha discusso di come le istituzioni siano organismi vivi e ha riflettuto sulla resilienza della democrazia italiana nel superare sfide storiche.

Exit mobile version