Linee guida AGID per l’adozione dell’intelligenza artificiale nella PA: principi, fasi e strumenti operativi
Le linee guida AGID per l’adozione dell’intelligenza artificiale nella Pubblica Amministrazione sono il documento operativo che traduce i principi dell’AI Act e della Legge 132/2025 in procedure concrete per decidere se, quando e come introdurre un sistema di intelligenza artificiale nel tuo ente.
La consultazione pubblica si è conclusa il 20 marzo 2025 e la versione definitiva è attesa nel primo semestre 2026.
Puoi già usare gli strumenti e le indicazioni metodologiche contenuti nella bozza: i principi fondamentali e la struttura generale sono autorevoli e difficilmente subiranno modifiche sostanziali.
Alcuni dettagli tecnici potrebbero essere aggiornati nella versione finale, ma il grosso del lavoro che fai adesso resterà valido.
Linee Guida AGID per l’adozione dell’IA all’interno della PA
- Consultazione pubblica: ✅ Conclusa (18 febbraio – 20 marzo 2025)
- Versione definitiva: ⏳ In attesa (prevista primo semestre 2026)
- Riferimento normativo: Determinazione n. 17/2025 del 17 febbraio 2025
A cosa servono le Linee Guida AGID per l’adozione dell’intelligenza artificiale nella Pubblica Amministarzione?
Le linee guida per l’adozione dell’intelligenza artificiale rispondono alla domanda operativa più urgente per un RTD: “Il mio ente vuole usare l’IA. Da dove comincio e come faccio a non sbagliare?”
Il documento definisce cinque principi che orientano ogni decisione, un modello di adozione in sette fasi basato sul ciclo di vita OCSE, e una dotazione di strumenti pratici (checklist, schede, template) che puoi usare immediatamente.
Copre gli aspetti di conformità normativa e impatto organizzativo, lasciando alle linee guida su sviluppo e procurement le indicazioni tecniche e contrattuali.
Linee Guida AGID per l’adozione dell’AI nella PA: i 5 principi
1. Conformità e governance
Prima di adottare qualsiasi sistema di IA devi verificare la conformità all’AI Act, alla Legge 132/2025, al GDPR e a tutte le normative settoriali applicabili.
Questa verifica non puoi delegarla al fornitore con un “sarà conforme, vero?”: devi condurre una valutazione documentata.
Il principio richiede anche che ruoli e responsabilità siano definiti chiaramente e scritti in una policy interna: chi autorizza l’adozione di un nuovo sistema, chi monitora il funzionamento nel tempo, chi interviene in caso di problemi, chi aggiorna la documentazione.
2. Etica e inclusione
I sistemi di IA possono perpetuare o amplificare bias presenti nei dati di addestramento, generando discriminazioni anche non intenzionali.
Prima di mettere in produzione un sistema che impatta sui cittadini, devi testarlo su gruppi diversi per verificare che non produca risultati discriminatori basati su genere, età, etnia, disabilità o altre caratteristiche protette.
L’accessibilità rientra in questo principio: i servizi basati su IA devono essere fruibili da tutti, comprese le persone con disabilità, nel rispetto della Convenzione ONU.
3. Qualità e affidabilità
Un sistema di IA che produce risultati errati o incoerenti è pericoloso per la reputazione del tuo ente e per i diritti dei cittadini.
Questo principio impone standard precisi sulla qualità dei dati di addestramento (corretti, completi, rappresentativi), sulla robustezza tecnica (funzionamento stabile e prevedibile) e sulla capacità di spiegare i risultati (trasparenza algoritmica).
Prima di adottare un sistema, verifica che il fornitore ti dia documentazione tecnica adeguata: qualità dei dati, test condotti, margini di errore attesi, limitazioni note.
Non accettare risposte vaghe tipo “il nostro sistema usa algoritmi avanzati di machine learning”.
4. Innovazione e sostenibilità
L’IA non va adottata “perché è innovativa” o “perché lo fanno tutti”, ma solo quando porta benefici concreti e sostenibili.
I costi da valutare non sono solo economici (licenze, consulenze, formazione), ma anche ambientali (consumo energetico dei modelli, soprattutto quelli generativi di grandi dimensioni) e organizzativi (tempo del personale, gestione del cambiamento).
C’è anche la sostenibilità nel lungo periodo:
- cosa succede se il fornitore chiude o cambia politiche commerciali?
- hai alternative o sei in una situazione di vendor lock-in?
- il sistema è basato su standard aperti?
5. Formazione e organizzazione
Non puoi adottare responsabilmente l’IA se il personale che la utilizzerà non ha le competenze per farlo in modo consapevole e critico.
Questo principio si collega direttamente al Piano Triennale 2024-2026, che prevede risorse concrete.
Il programma formativo sulla piattaforma Syllabus (linea di azione CAP1.32) copre aspetti gestionali, tecnologici e giuridici dell’IA nella PA ed è rivolto a tutti i dipendenti pubblici.
AgID organizza anche almeno 10 webinar all’anno su intelligenza artificiale (linea di azione CAP1.18), in collaborazione con Formez, SNA e Politecnico di Milano: gratuiti e accessibili a chiunque lavori nel settore pubblico.
Modello di adozione dell’intelligenza artificiale nella PA: le 7 fasi
Le linee guida per l’adozione dell’intelligenza artificial nella Pubblica Amministarzione adottano il ciclo di vita definito dall’OCSE, suddiviso in sette fasi dalla pianificazione alla dismissione.
Comprendere questo ciclo ti aiuta a organizzare il lavoro e a non saltare passaggi che poi si pagano cari.
Fase 1: pianificazione e design
L’organizzazione individua l’obiettivo che il sistema di IA si prefigge di raggiungere, comprendendo il contesto operativo e i dati richiesti.
Nella pratica, questa è la fase dove ti chiedi:
- quale problema voglio risolvere?
- l’IA è davvero la soluzione migliore o esistono approcci più semplici?
- chi sono gli utenti finali?
- quali dati ho a disposizione e sono adeguati?
- quali sono i rischi?”
È anche la fase della prima valutazione del livello di rischio secondo l’AI Act:
- il sistema rientra nelle pratiche vietate?
- è ad alto rischio?
- è a rischio limitato o minimo?
Questa classificazione determina tutti gli adempimenti successivi.
Fase 2: raccolta e gestione dati
I dati sono acquisiti, analizzati, ripuliti, integrati e trasformati secondo le esigenze.
La qualità dei dati è assolutamente critica: se metti dentro dati spazzatura, otterrai risultati spazzatura, senza eccezioni.
Devi documentare la provenienza dei dati, le basi giuridiche che ne legittimano il trattamento, le misure di sicurezza adottate.
Se usi dati personali, devi verificare la conformità al GDPR e potenzialmente condurre una DPIA.
Fase 3: sviluppo e addestramento
Il modello di IA viene costruito e addestrato.
Anche se questa fase è tipicamente condotta dal fornitore, il tuo ruolo come PA deployer resta importante: devi richiedere documentazione tecnica su come il modello è stato addestrato, le metriche di performance, i test di robustezza, i bias identificati e mitigati.
Fase 4: verifica e validazione
Prima della messa in produzione servono test approfonditi:
- il sistema funziona come previsto?
- i risultati sono accurati?
- non produce discriminazioni?
- è robusto rispetto a input inattesi o malevoli?
La verifica include anche la conformità normativa: valutazioni d’impatto completate, documentazione tecnica pronta, autorizzazioni ottenute, cittadini informati.
Fase 5: deployment
Il sistema entra in produzione.
Devi assicurarti che gli utenti (cittadini, imprese, dipendenti) siano informati che stanno interagendo con un sistema di IA, che la supervisione umana sia effettiva e non solo formale, e che ci siano procedure chiare per gestire segnalazioni di malfunzionamenti.
Fase 6: monitoraggio e manutenzione
Il ciclo di vita dell’IA non finisce col deployment.
Devi definire indicatori di performance e soglie di allerta: se il tasso di errore supera una certa soglia, scatta un alert e interviene un supervisore.
Se emergono segnalazioni ripetute di discriminazioni, devi sospendere il sistema e approfondire.
La manutenzione comprende l’aggiornamento del modello con nuovi dati, l’adattamento a cambiamenti normativi, la correzione di problemi.
Fase 7: dismissione
Quando un sistema non è più necessario, obsoleto o non conforme, va dismesso in modo controllato: migrazione verso alternative, continuità dei servizi, cancellazione o anonimizzazione dei dati personali, aggiornamento della documentazione.
Linee Guida AGID per l’adozione dell’IA nella Pubblica Amministrazione: gli strumenti operativi
Questo è probabilmente l’aspetto più prezioso delle linee guida: una dotazione di strumenti pratici utilizzabili immediatamente.
Strumento 1: valutazione della maturità organizzativa e tecnologica
Prima di adottare sistemi di IA devi capire se il tuo ente è pronto.
Lo strumento ti guida attraverso domande su competenze disponibili, infrastrutture tecniche, processi di governance, cultura organizzativa, e ti permette di identificare i gap da colmare prima di procedere.
Strumento 2: schede di valutazione d’impatto
L’Appendice contiene schede dettagliate per la valutazione d’impatto, organizzate in sei categorie: domande introduttive per qualificare il sistema e determinare il rischio, diritti fondamentali ed equità, robustezza tecnologica, governance dei dati, gestione del rischio, accountability e supervisione umana.
Ogni scheda contiene domande specifiche, indicazioni sul rischio associato, suggerimenti per documentare le risposte.
Strumento 3: checklist per la classificazione del rischio
Una checklist operativa per applicare l’Allegato III dell’AI Act e determinare se un sistema rientra nella categoria ad alto rischio.
La classificazione non è sempre intuitiva e questa checklist ti evita errori.
Strumento 4: template documentali
Modelli per policy interne sull’uso dell’IA, informative ai cittadini, registri dei trattamenti integrati con sistemi di IA, procedure di supervisione umana.
Vanno adattati al tuo ente, ma rappresentano una base solida che ti risparmia il lavoro di creare tutto da zero.
Gli strumenti del Piano Triennale
Oltre agli strumenti specifici delle linee guida, il Piano Triennale 2024-2026 (aggiornamento 2026) mette a disposizione lo Strumento 5 – Intelligenza Artificiale nella Pubblica Amministrazione, con best practice da casi reali, modelli di riferimento per diverse tipologie di enti, checklist operative per pianificare interventi e indicatori di successo per misurare l’impatto.
Il questionario nazionale AGID-Politecnico di Milano
Nel novembre 2025, AGID ha lanciato un’indagine nazionale sull’adozione dell’IA con il supporto dell’Osservatorio Agenda Digitale del Politecnico di Milano.
Il questionario, esteso a un numero molto più ampio di amministrazioni rispetto all’indagine 2024 sulle sole PA centrali, copre quattro aree: contesto organizzativo dell’ente, strategia per l’IA, casi d’uso identificati, progetti già sviluppati.
I risultati aggregati, attesi nel primo semestre 2026, alimenteranno la versione definitiva delle linee guida e l’Osservatorio sulla digitalizzazione nel territorio italiano, permettendoti di confrontare il tuo ente con i benchmark nazionali.
I primi dati disponibili: il rapporto di giugno 2025
Il primo rapporto AGID, pubblicato a giugno 2025, fotografava le amministrazioni centrali: su 142 organizzazioni contattate, 108 hanno risposto e 45 hanno dichiarato almeno un’iniziativa IA.
Sono stati censiti 120 progetti, con tre finalità prevalenti: aumento dell’efficienza operativa (42%), miglioramento della gestione e analisi dei dati (24%), miglioramento dell’accesso ai servizi per cittadini e imprese (18%).
Sul piano tecnologico prevalgono chatbot e assistenti virtuali (presenti in oltre il 60% dei casi), con un interesse crescente verso l’IA generativa.
Devo aspettare la versione definitiva per iniziare?
No. La bozza è un riferimento autorevole, costruito con mesi di lavoro e il contributo di molte amministrazioni.
Puoi iniziare a usare gli strumenti di valutazione, mappare i sistemi eventualmente già in uso, condurre le prime autovalutazioni. Quando uscirà la versione definitiva, dovrai verificare se ci sono aggiornamenti significativi e adeguare eventualmente la documentazione, ma il grosso del lavoro resterà valido.
La bozza ha valore vincolante?
No, la bozza non ha ancora valore formalmente vincolante. Solo la versione definitiva, emanata ai sensi dell’articolo 71 del CAD, avrà piena efficacia normativa.
La bozza riflette però la direzione ufficiale di AgID: seguire fin da ora le sue indicazioni ti mette in una posizione sicura.
Come si collegano alle linee guida su sviluppo e procurement?
Le tre linee guida sono progettate come documenti complementari.
Quella sull’adozione stabilisce i principi e il modello generale. Quella sullo sviluppo approfondisce gli aspetti tecnici per chi costruisce soluzioni internamente. Quella sul procurement fornisce gli strumenti per chi acquista da fornitori esterni.
I principi definiti nelle linee guida per l’adozione sono il fondamento su cui si costruiscono le altre due.
Hai bisogno di supporto per l’adozione dell’intelligenza artificiale all’interno del tuo ente?
Lavorando con oltre 400 enti pubblici ho visto quali errori si commettono più spesso quando si inizia a lavorare sull’adozione dell’IA: partire senza una valutazione di maturità, saltare la classificazione del rischio, accettare documentazione tecnica insufficiente dai fornitori.
Sono errori che costano tempo e credibilità, e puoi evitarli.