L'Intelligenza Artificiale entra nelle PA: la consultazione alle Linee Guida è aperta, ma le critiche sono dietro l'angolo
di Claudia Giulia Ferraùto (5 marzo 2025)
Questo articolo fa parte della Newsletter settimanale “Tech e Privacy”
L’Intelligenza Artificiale nella Pubblica Amministrazione: un’illusione pericolosa?
Le Linee Guida sull’IA nella Pubblica Amministrazione
Fino al 20 marzo 2025 sono aperte le consultazioni pubbliche sulle Linee Guida sull’Intelligenza Artificiale (IA) nella Pubblica Amministrazione (PA), promosse dall’Agenzia per l’Italia Digitale (AgID) con la Determinazione n. 17/2025. Questo documento rappresenta un pilastro del Piano Triennale per l’Informatica nella PA 2024-2026, allineandosi alla Strategia Italiana per l’IA 2024-2026 e all’AI Act europeo.
L’obiettivo delle Linee Guida è regolamentare l’adozione, l’acquisto e lo sviluppo di sistemi di intelligenza artificiale nella PA, garantendo un uso etico, sicuro e trasparente. Il focus principale è su efficienza e innovazione, con principi chiave come:
• Conformità normativa
• Responsabilità e trasparenza
• Sicurezza cibernetica
• Tutela dei dati personali
Tra gli strumenti operativi proposti vi sono decaloghi, checklist e best practice, oltre a un modello guida per l’adozione dell’IA nella PA in modo responsabile. Viene inoltre introdotto un Codice Etico e la pubblicazione delle soluzioni adottate per garantire trasparenza.
L’Osservatorio AI4PA ha individuato sei ambiti di miglioramento e 20 principi guida, inserendo le Linee Guida all’interno di un mercato dell’IA in Italia che, nel 2024, valeva 1,2 miliardi di euro.
Queste Linee Guida si pongono come una roadmap strategica, con l’obiettivo di integrare l’IA nella PA in modo strutturato ed equilibrato, bilanciando innovazione, conformità e tutela dei diritti fondamentali. Il documento rimarrà aperto al contributo pubblico fino al 20 marzo 2025.
“Best practice” nell’adozione dell’IA nella Pubblica Amministrazione, esistono?
Se volessimo essere rigorosi, dovremmo dire che non esistono ancora best practice consolidate, perché l’implementazione dell’IA nella PA è ancora in una fase sperimentale. Tuttavia, adottando un approccio più pragmatico, possiamo riconoscere che esistono alcuni progetti pilota che potrebbero evolversi in best practice nel tempo. Vediamoli nel dettaglio:
Comune di Palermo: Control Room per la Smart City
Il Comune di Palermo ha introdotto una Control Room nell’ambito della sua strategia di trasformazione in Smart City. Questo centro operativo utilizza tecnologie avanzate, tra cui l’IA, per monitorare e gestire i servizi urbani. L’obiettivo dichiarato è migliorare l’efficienza e la qualità dei servizi per i cittadini. Tuttavia, sarebbe utile disporre di dati concreti per misurare il reale impatto di questa innovazione.
Ministero dell’Interno: IA per i Controlli di Sicurezza
Il Ministero dell’Interno ha avviato l’uso dell’IA per rafforzare i controlli di sicurezza, con l’intento di migliorare l’analisi e la capacità di risposta delle forze dell’ordine. Il concetto di “maggiore sicurezza” è senz’altro un obiettivo condivisibile, ma anche in questo caso sarebbe interessante capire quali indicatori vengono utilizzati per valutarne l’efficacia.
Comune di Milano: Chatbot per i Servizi al Cittadino
Il Comune di Milano ha implementato un chatbot basato su IA per fornire assistenza ai cittadini in modo più rapido ed efficiente. Questo strumento risponde alle domande più frequenti e guida gli utenti nei servizi disponibili, con la promessa di migliorare l’accessibilità e ridurre i tempi di attesa. Resta da vedere il riscontro della cittadinanza: i milanesi percepiscono davvero questi benefici? Un monitoraggio sulla soddisfazione degli utenti potrebbe confermare o meno l’efficacia del servizio.
Agenzia delle Entrate: Analisi dei Dati Fiscali con l’IA
L’Agenzia delle Entrate ha iniziato a sfruttare l’IA per analizzare grandi volumi di dati fiscali, con l’obiettivo di individuare anomalie e potenziali casi di evasione. In teoria, questo dovrebbe portare a una gestione più efficiente delle risorse e a una maggiore equità fiscale. Sarebbe interessante sapere se i professionisti del settore – commercialisti e fiscalisti – notano un reale miglioramento nei processi e nell’interazione con l’amministrazione.
INPS: IA per la Predizione delle Richieste di Servizi
L’INPS sta sperimentando l’IA per prevedere la domanda futura di servizi, come pensioni e sussidi, con l’obiettivo di allocare le risorse in modo più efficace e migliorare la pianificazione strategica. Se questo sistema funziona, potrebbe contribuire a una gestione più sostenibile del sistema previdenziale. Se davvero l’IA ottimizza la distribuzione delle risorse, ci aspettiamo un effetto positivo per tutti i cittadini, soprattutto in un settore così cruciale come la previdenza sociale.
Ma se ci sono già questi progetti pilota in atto, viene anche da chiedersi: le Linee Guida sono un optional?
Questi esempi dimostrano che l’IA sta già entrando nei meccanismi della PA, tra l’altro anche in ambiti molto delicati come la sicurezza, il fisco e il welfare. A questo punto, una domanda è lecita: se l’adozione dell’IA è già in corso, a cosa servono le Linee Guida? Sono strumenti essenziali per garantire un’implementazione etica e regolamentata o rischiano di essere un semplice elemento accessorio, da consultare più per forma che per sostanza?
La questione resta aperta: la regolamentazione deve accompagnare l’innovazione, ma è fondamentale che sia applicata concretamente, altrimenti rischiamo di trovarci con soluzioni tecnologiche avanzate ma senza una reale governance su come vengono utilizzate.
A mio parere
Negli ultimi anni, l’Intelligenza Artificiale è stata presentata come la soluzione universale per migliorare l’efficienza della Pubblica Amministrazione. Questa retorica ha generato una bolla di entusiasmo che rischia di spingere le istituzioni a implementare l’IA senza una reale comprensione dei suoi limiti e delle sue implicazioni.
Criticità inesplorate
In un post pubblicato di recente, che vi invito a studiare, non solo a leggere, uno dei massimi esperti di sicurezza informatica dell’intelligenza artificiale – Are We Safe Yet – discute di come la ricerca dimostri che l’IA, in un particolare contesto, possa essere trasformata in uno strumento autonomo per compromettere altri sistemi di IA, con implicazioni allarmanti per la sicurezza digitale. L’argomento centrale è l’uso di modelli di linguaggio di grandi dimensioni (LLM) per eseguire autonomamente il “jailbreaking”, ossia l’aggiramento delle misure di sicurezza, sia su se stessi che su altri modelli.
Per citare un caso specifico: un LLM (Gemini-1.5-Pro) è stato indotto a fornire istruzioni su tecniche di SQL injection, un’azione che normalmente dovrebbe essere bloccata dalle sue misure di sicurezza. L’attacco, invece, è riuscito mascherando la richiesta come un esercizio di scrittura creativa, nascondendo quindi l’intento malevolo dietro una narrazione fittizia.
Fantascienza, dirà qualcuno. Non riguarda il tipo di IA che si vuole introdurre nei sistemi informatici delle pubbliche amministrazioni italiane, dirà qualcun altro, convinto sinceramente di avere tutte le opzioni dei possibili sviluppi e degli scenari futuri sotto controllo.
Però non vedo certezze granitiche su questo orizzonte.
A proposito di intelligenza artificiale come panacea di tutti i mali e strumento risolutivo tout court: la bolla IA in cui siamo immersi da tre anni è destinata a esplodere, non necessariamente a spegnersi, ma certo a voltare pagina, portando a un brusco cambiamento per una serie di ragioni che però meritano una riflessione a parte. Quando questo accadrà, è possibile che molte delle soluzioni IA implementate nella PA si rivelino inefficienti, obsolete e difficili da gestire.
Senza una seria strategia di lungo periodo, rischiamo di trovarci con sistemi costosi, mal integrati e privi di supervisione e manutenzione adeguate.
Che tipo di Intelligenza Artificiale stiamo introducendo?
Chi sono le aziende fornitrici? Un solo fornitore di tecnologia - l’abbiamo visto in tutt’altro settore questa estate - può creare problemi di sicurezza su tutto il sistema. D’altra patte tanti fornitori necessitano di altrettante attenzioni, dai corsi di aggiornamento per il personale, alla manutenzione dei sistemi.
Dire che la PA utilizzerà l’IA non è sufficiente. Dobbiamo chiederci:
Chi sviluppa questi software e come vengono selezionati?
Sono soluzioni open source o proprietarie?
Rispettano gli standard europei su etica, privacy e sicurezza?
Al momento, le risposte a queste domande sono generiche e insoddisfacenti. Spesso si afferma che i sistemi saranno conformi all’AI Act, ma questa è una dichiarazione priva di senso, perché l’AI Act è ancora in fase di definizione. Nessun software può essere quindi oggi dichiarato conforme a una normativa che non è ancora completamente definita.
Senza risposte chiare su questi aspetti, rischiamo di prendere decisioni strategiche senza trasparenza e senza un vero dibattito pubblico.
Chi controllerà questi sistemi?
L’adozione dell’IA nella PA richiede competenze specifiche, ma chi sarà responsabile della supervisione?
Esistono corsi di formazione adeguati per i dipendenti pubblici?
Sono obbligatori e prevedono una certificazione finale?
Sono allineati agli standard europei su etica e sicurezza?
Non possiamo pensare che i dipendenti pubblici imparino a gestire questi strumenti nel tempo libero. Se manca una formazione strutturata e certificata, il rischio è che l’uso dell’IA venga delegato a sistemi automatizzati senza supervisione umana.
L’IA può sostituire completamente il fattore umano?
Un cittadino multato per errore da un sistema automatizzato potrà parlare con un essere umano? Oppure dovrà affidarsi a un altro algoritmo che analizzerà il reclamo con gli stessi parametri del primo?
Il principio dell’accessibilità garantita prevede che ogni cittadino possa interagire con la PA senza barriere tecnologiche. Se sostituiamo il contatto umano con interfacce automatizzate, rischiamo di escludere le fasce più vulnerabili della popolazione, creando un’amministrazione pubblica sempre più distante dai cittadini.
Un errore storico?
Ci troviamo davanti a una delle più grandi trasformazioni digitali della storia della Pubblica Amministrazione. Se affrontata con superficialità e senza un’adeguata regolamentazione, rischiamo di creare un sistema inefficiente, inaccessibile e privo di controllo umano.
L’IA non è una bacchetta magica: è uno strumento e, come tale, deve essere utilizzato con criterio, trasparenza e consapevolezza dei suoi limiti. Prima di adottare queste Linee Guida e implementare software su larga scala, è fondamentale un serio dibattito pubblico, che coinvolga esperti, cittadini e istituzioni.
Call to action
Fino al 20 marzo la consultazione è aperta!
La consultazione pubblica è un’occasione concreta per chiedere maggiore trasparenza, regole più chiare e un’implementazione dell’IA nella PA che sia davvero etica e responsabile.
Invito tutti a partecipare alla consultazione e a sollecitare la nostra classe politica affinché non si limiti a seguire una moda tecnologica, ma faccia scelte consapevoli e lungimiranti.
Il futuro dell’amministrazione pubblica non può essere lasciato all’improvvisazione.
Fonti: Agenzia per l’Italia Digitale (AgID): https://www.agid.gov.it/it/notizie/intelligenza-artificiale-in-consultazione-le-linee-guida-pa •Piano Triennale per l’Informatica nella Pubblica Amministrazione 2024-2026: https://www.agid.gov.it/it/ambiti-intervento/intelligenza-artificiale •Forum PA: https://www.forumpa.it/pa-digitale/linee-guida-agid-per-ladozione-dellia-nella-pa-dai-principi-agli-strumenti-pratici-ecco-cosa-contengono/ •Il Sole 24 Ore: https://www.ilsole24ore.com/art/piantedosi-intelligenza-artificiale-i-controlli-sicurezza–AF3Spom •Osservatorio AI4PA: https://www.osservatorioai4pa.it/documenti/linee-guida-agid-intelligenza-artificiale-pubblica-amministrazione-2025/
TUTTI I TEMI DELLA I SETTIMANA DI MARZO 2025
Crypto Strategic Reserve: il lato oscuro del lancio di Trump
La critica di Peter Fleischer alla nuova direzione etica dell'AI di Google
Starlink vs T-Mobile: la battaglia per la telecomunicazione mobile e le alternative emergenti
Il Glossario: in questo numero parliamo di “Trendsetter” e vi faccio scoprire due nomi famosi che secondo me molti di voi non conoscono!