Nella Pubblica Amministrazione italiana, l’intelligenza artificiale promette di rivoluzionare il reclutamento e la gestione delle carriere. Ma siamo sicuri che sia davvero la soluzione che cercavamo? O rischiamo di amplificare le disuguaglianze di genere già esistenti sotto la maschera dell’obiettività tecnologica?

La trasformazione digitale che avanza

La Pubblica Amministrazione italiana sta vivendo una vera rivoluzione tecnologica. Con investimenti crescenti e il nuovo Piano Triennale per l’Informatica nella PA 2024-2026, l’adozione dell’intelligenza artificiale non è più una possibilità futura, ma una realtà presente che sta già trasformando il modo in cui lavoriamo e selezioniamo il personale.

L’appeal è irresistibile: algoritmi per selezionare candidati in pochi minuti, sistemi di valutazione delle competenze più oggettivi e processi di carriera basati sui dati invece che sulle percezioni. La promessa è una PA efficiente, trasparente e meritocratica.

Ma qui emerge il primo grande dilemma: cosa succede quando l’efficienza tecnologica incontra le persone? E soprattutto, cosa succede alle donne che oggi rappresentano il 58,8% dei 3,2 milioni di dipendenti pubblici italiani, ma solo il 33,8% dei ruoli dirigenziali?

I fantasmi algoritmici: quando l’obiettività diventa discriminazione

La lezione più inquietante arriva dai casi documentati di bias algoritmici nel reclutamento. Il caso Amazon dovrebbe essere studiato in ogni corso di formazione per dirigenti pubblici: l’azienda ha dovuto annullare un software di reclutamento basato sull’IA perché penalizzava sistematicamente i CV femminili. L’algoritmo, addestrato su dati storici dove prevalevano candidati uomini nel settore tecnologico, aveva “imparato” ad associare il successo professionale a caratteristiche maschili, arrivando a declassare candidati provenienti da college femminili o con parole come “women” nei curriculum.

Questo episodio illumina un problema strutturale: i pregiudizi algoritmici non sono intenzionali, nessuno programma un’IA per essere sessista, ma emergono silenziosamente dai dati se non si presta la dovuta attenzione. Nella PA, dove l’utilizzo di strumenti di IA per valutare candidati ai concorsi pubblici è in crescita, questo rischio diventa ancora più critico perché coinvolge l’accesso equo ai servizi pubblici e alle opportunità di carriera.

Gli studi sui sistemi di riconoscimento facciale hanno rivelato errori del 35% sui volti di donne afroamericane contro appena l’1% sui volti di uomini caucasici. Se questi sistemi vengono utilizzati per controlli di sicurezza negli uffici pubblici o per procedure di identificazione, le implicazioni discriminatorie sono evidenti.

La strada verso un’IA equa nella PA: dalle buone intenzioni ai fatti concreti

Fortunatamente, la consapevolezza su questi rischi sta crescendo. A livello italiano ed europeo, sono in fase di definizione norme precise: l’AI Act europeo imporrà obblighi stringenti di trasparenza e controllo per gli algoritmi ad alto impatto utilizzati nel settore pubblico, dall’istruzione al reclutamento. In Italia, l’Agenzia per l’Italia Digitale ha recentemente aggiornato le Linee Guida per l’adozione dell’IA nella PA con l’obiettivo dichiarato di garantire che i dati utilizzati per addestrare i sistemi siano di alta qualità e privi di distorsioni.

Ma servono azioni concrete che vadano oltre le dichiarazioni di principio. Le PA devono investire massicciamente nella formazione digitale del personale, con particolare attenzione alle donne che occupano ruoli a rischio automazione. Il reskilling e l’upskilling in ambito ICT non sono più opzionali, sono una necessità urgente per evitare che l’innovazione tecnologica rallenti la crescita professionale delle dipendenti.

Serve diversità nei team che progettano e implementano algoritmi nella PA. Non possiamo permetterci che i sistemi di IA pubblica siano sviluppati quasi esclusivamente da uomini: servono prospettive diverse, competenze interdisciplinari, task force che includano figure femminili con background giuridico, sociologico o di servizio all’utenza. Solo con più punti di vista diversi possiamo identificare e mitigare i bias nascosti prima che diventino discriminazioni sistematiche.

Il Decreto PNRR 2 del 2022 ha introdotto misure di discriminazione positiva nelle carriere pubbliche a favore del genere meno rappresentato, con l’obiettivo ambizioso del 50% di donne tra i responsabili di transizione digitale. Ma queste misure devono essere applicate e monitorate con rigore, non rimanere sulla carta.

Il momento della scelta: costruire un’IA che serva davvero tutti

Siamo di fronte a un bivio cruciale per la Pubblica Amministrazione italiana. Da una parte abbiamo l’opportunità di utilizzare l’intelligenza artificiale per creare una PA più efficiente, trasparente e meritocratica. Dall’altra, corriamo il rischio concreto di amplificare le disuguaglianze di genere esistenti, creando barriere invisibili ma potentissime nell’accesso ai concorsi pubblici e nelle progressioni di carriera.

La differenza tra questi due scenari non la farà la potenza degli algoritmi, ma la saggezza con cui li implementeremo. Ogni sistema di IA utilizzato nella PA deve essere sottoposto a verifiche periodiche e rigorose per individuare bias discriminatori. Servono audit algoritmici, test con dati disaggregati per genere, pubblicazione trasparente dei risultati. Se un comune utilizza un sistema automatizzato per assegnare bonus o servizi, deve verificare regolarmente che l’output non presenti differenziali sistematici tra uomini e donne a parità di requisiti.

Ma soprattutto, serve un cambiamento culturale profondo. Nessuna riforma tecnologica sarà pienamente efficace senza sfidare gli stereotipi che allontanano le donne dalle professioni tecnico-scientifiche. La PA deve diventare promotrice attiva di una cultura inclusiva, valorizzando le storie di successo femminili nel digitale: dirigenti donna che guidano progetti di IA, analiste di dati che innovano i servizi, ricercatrici che sviluppano soluzioni etiche.

Il futuro dell’intelligenza artificiale nella Pubblica Amministrazione non sarà determinato dalla sofisticazione dei nostri algoritmi, ma dalla nostra capacità di garantire che nella “sala operativa” dell’IA pubblica siedano sempre più donne accanto agli uomini a prendere le decisioni che riguardano tutti noi. Solo così l’IA potrà davvero contribuire a una PA nuova, efficiente e inclusiva per tutti.

Rispondi

Scopri di più da antonionaddeo.blog

Abbonati ora per continuare a leggere e avere accesso all'archivio completo.

Continua a leggere