Legge 132/2025: la prima legge italiana dedicata all’uso dell’intelligenza artificiale nella Pubblica Amministrazione
Il 10 ottobre 2025 è entrata in vigore la Legge 23 settembre 2025, n. 132, pubblicata in Gazzetta Ufficiale n. 223 del 25 settembre 2025. Si tratta della prima legge nazionale italiana interamente dedicata all’intelligenza artificiale, e rappresenta un punto di svolta per tutte le pubbliche amministrazioni.
Sai qual è la prima domanda che mi fanno i Responsabili della Transizione Digitale quando parliamo di questa legge?
“Ma devo fare qualcosa subito o posso aspettare i decreti attuativi?”
La risposta è chiara: alcuni obblighi sono già operativi dal 10 ottobre 2025, mentre altri aspetti saranno definiti nei prossimi mesi attraverso i decreti attuativi previsti entro ottobre 2026.
Questa pagina ti guida attraverso ciò che devi sapere sulla Legge 132/2025 per il tuo ente: cosa prevede esattamente, quali sono gli obblighi immediati, come si collega all’AI Act europeo e, soprattutto, cosa devi fare concretamente nei prossimi mesi.
Perché l’Italia ha fatto una legge nazionale sull’intelligenza artificiale se esiste già l’AI Act europeo?
Magari te lo sarai chiesto anche tu…
Con il Regolamento UE 2024/1689 (AI Act) già in vigore, perché serviva una legge italiana?
La risposta è nella natura stessa dei due strumenti normativi.
L’AI Act europeo è un regolamento direttamente applicabile in tutti gli Stati membri, ma lascia margini di implementazione nazionale su aspetti cruciali.
La Legge 132/2025 non introduce nuovi obblighi ulteriori rispetto all’AI Act per i sistemi di intelligenza artificiale già regolati a livello europeo, ma fa tre cose fondamentali per l’Italia:
- Innanzitutto, designa le autorità nazionali competenti: l’Agenzia per l’Italia Digitale (AgID) assume il ruolo di promotore dell’innovazione, mentre l’Agenzia per la Cybersicurezza Nazionale (ACN) diventa l’autorità di vigilanza sui sistemi di IA. Questo è importante perché ogni ente pubblico avrà ora punti di riferimento chiari per orientarsi.
- In secondo luogo, la legge stabilisce principi e regole specifiche per settori strategici italiani: pubblica amministrazione, sanità, lavoro, giustizia, professioni intellettuali. Questi settori hanno caratteristiche peculiari nel contesto italiano che richiedevano un intervento mirato.
Infine, conferisce deleghe al Governo per adottare decreti legislativi di attuazione entro 12 mesi dall’entrata in vigore (quindi entro ottobre 2026) che definiranno aspetti operativi fondamentali come le procedure di valutazione della conformità, la banca dati nazionale dei sistemi IA ad alto rischio nella PA, e il quadro sanzionatorio dettagliato.
In sintesi: l’AI Act ti dice “cosa”, la Legge 132/2025 ti dice “chi fa cosa in Italia e come”.
I principi fondamentali che guidano l’uso dell’intelligenza artificiale nella Pubblica Amministrazione
L’articolo 3 della Legge 132/2025 stabilisce i principi generali che devono orientare ogni utilizzo di sistemi di intelligenza artificiale, sia nella pubblica amministrazione che nel settore privato.
Questi principi sono vincolanti e non derogabili.
Vediamoli in dettaglio, perché rappresentano il fondamento su cui costruire qualsiasi strategia di adozione dell’IA nel tuo ente.
L’essere umano al centro: controllo e autonomia decisionale
Il primo principio è quello dell’antropocentrismo tecnologico.
I sistemi e i modelli di intelligenza artificiale devono essere sviluppati e applicati nel rispetto dell’autonomia e del potere decisionale dell’uomo, assicurando la sorveglianza e l’intervento umano in ogni fase.
Cosa significa questo nella pratica quotidiana del tuo ente?
Significa che l’IA può aiutarti a elaborare bozze di atti, ad analizzare grandi quantità di dati, a cercare informazioni rilevanti nei documenti, ma la decisione finale deve sempre essere presa da un essere umano che se ne assume la responsabilità.
Non puoi delegare a un sistema automatizzato la valutazione di una domanda di contributo, l’assegnazione di un alloggio popolare, la selezione di un candidato in un concorso pubblico.
Puoi usare l’IA per supportare queste attività, accelerarle, renderle più efficienti, ma la decisione finale resta tua.
Trasparenza e conoscibilità: sapere che l’IA è stata usata
La legge pone la trasparenza tra i principi fondamentali. Questo significa che i cittadini e le imprese devono poter conoscere se e in che modo l’intelligenza artificiale ha contribuito a decisioni che li riguardano.
L’articolo 4, comma 3 stabilisce che le informazioni e le comunicazioni relative al trattamento dei dati connesse all’utilizzo di sistemi di IA devono essere rese con linguaggio chiaro e semplice, in modo da garantire all’utente la conoscibilità dei relativi rischi.
Per la tua PA questo significa che dovrai sviluppare informative comprensibili, pubblicare sul sito istituzionale quali sistemi di IA utilizzi e per quali finalità, e assicurarti che ogni cittadino possa capire facilmente quando interagisce con un sistema automatizzato.
Protezione dei dati personali e riservatezza
L’utilizzo dell’IA deve avvenire nel pieno rispetto del GDPR e della normativa nazionale sulla protezione dei dati personali.
L’articolo 3, comma 1 della Legge 132/2025 pone espressamente tra i principi fondamentali la protezione dei dati personali e la riservatezza.
Nella pratica, questo significa che è assolutamente vietato inserire dati personali identificativi o informazioni riservate in sistemi di intelligenza artificiale non espressamente autorizzati dal tuo ente. Se usi ChatGPT gratuito per elaborare una bozza, non puoi inserire nome, cognome, codice fiscale o altri dati personali dei cittadini.
Non discriminazione e accuratezza
I sistemi di IA non devono generare output discriminatori basati su caratteristiche personali o appartenenza a categorie protette.
L’articolo 3, comma 1 indica espressamente tra i principi fondamentali la non discriminazione e la parità dei sessi.
Inoltre, la legge richiede che i sistemi siano sviluppati su dati e tramite processi di cui devono essere garantite la correttezza, l’attendibilità, la sicurezza, la qualità, l’appropriatezza e la trasparenza.
Articolo 14: cosa prevede nello specifico per la Pubblica Amministrazione
Se c’è un articolo della Legge 132/2025 che devi conoscere a memoria come RTD o dirigente pubblico, è l’articolo 14, rubricato “Uso dell’intelligenza artificiale nella pubblica amministrazione”.
Questi tre commi delineano il perimetro d’azione chiaro per tutte le amministrazioni pubbliche italiane.
Le finalità legittime: efficienza, rapidità, qualità
Il primo comma dell’articolo 14 stabilisce che le pubbliche amministrazioni utilizzano l’intelligenza artificiale allo scopo di:
- Incrementare l’efficienza della propria attività
- Ridurre i tempi di definizione dei procedimenti
- Aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese
Queste sono le uniche finalità legittime per l’uso dell’IA nella PA.
Non puoi adottare un sistema di intelligenza artificiale per “fare come fanno tutti” o perché “è innovativo”. Devi essere in grado di dimostrare che l’IA contribuisce concretamente a migliorare l’efficienza, ridurre i tempi o aumentare la qualità dei servizi.
Ma attenzione: queste finalità non sono incondizionate. Lo stesso comma 1 dell’articolo 14 lega indissolubilmente questi obiettivi a un obbligo fondamentale: assicurare agli interessati la conoscibilità del funzionamento e la tracciabilità dell’utilizzo dell’IA.
Funzione strumentale: l’intelligenza artificale supporta, non sostituisce
Il comma 2 dell’articolo 14 è cristallino: l’utilizzo dell’IA avviene in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale.
Questo principio ha conseguenze pratiche immediate. Se un sistema di IA ti suggerisce di respingere una domanda di contributo, tu sei responsabile di quella decisione se la adotti.
Non puoi difenderti dicendo “me l’ha detto l’algoritmo”.
La responsabilità amministrativa, e in alcuni casi anche penale, resta in capo al funzionario pubblico che ha adottato l’atto.
Misure tecniche, organizzative e formative
Il comma 3 dell’articolo 14 impone alle pubbliche amministrazioni di adottare misure tecniche, organizzative e formative finalizzate a garantire un utilizzo responsabile dell’IA e a sviluppare le capacità trasversali degli utilizzatori.
Cosa significa in concreto? Significa che il tuo ente deve…
Dal punto di vista tecnico, implementare sistemi che garantiscano la tracciabilità degli output generati dall’IA, la possibilità di salvare ed esportare conversazioni e prompt per eventuali verifiche future, meccanismi di controllo e supervisione umana costante
Dal punto di vista organizzativo, definire policy chiare sull’uso dell’IA, designare responsabili per i vari sistemi adottati, stabilire procedure per la valutazione d’impatto prima di introdurre nuovi strumenti di intelligenza artificiale
Dal punto di vista formativo, sviluppare programmi di alfabetizzazione sull’IA (AI literacy) per tutto il personale, con particolare attenzione ai ruoli che maggiormente potrebbero beneficiare di questi strumenti.
La formazione non è un “nice to have”, è un obbligo di legge dal 10 ottobre 2025
AgID e ACN: le autorità nazionali che dovrai conoscere
L’articolo 20 della Legge 132/2025 designa ufficialmente le due autorità nazionali responsabili dell’attuazione della normativa sull’intelligenza artificiale in Italia.
AgID: l’autorità per la promozione dell’innovazione
L’Agenzia per l’Italia Digitale (AgID) assume il ruolo di autorità nazionale per la promozione dell’innovazione in materia di intelligenza artificiale. Questo significa che AgID sarà il tuo punto di riferimento per:
- Le linee guida operative specifiche per le pubbliche amministrazioni. AgID ha già concluso il 20 marzo 2025 una consultazione pubblica sulla bozza di linee guida dedicate all’IA nella PA, e si attende la pubblicazione della versione definitiva nei prossimi mesi. Queste linee guida forniranno indicazioni concrete su come implementare i principi della Legge 132/2025 nelle attività quotidiane.
- Le best practice e i modelli di riferimento per l’adozione dell’IA nella PA italiana. AgID sta costruendo un ecosistema di condivisione delle esperienze tra enti, in modo che non ogni comune debba reinventare la ruota.
- Il supporto nella valutazione d’impatto che le amministrazioni devono condurre prima di introdurre sistemi di IA, in particolare quelli ad alto rischio secondo la classificazione dell’AI Act.
ACN: l’autorità di vigilanza e cybersicurezza
L’Agenzia per la Cybersicurezza Nazionale (ACN) diventa l’autorità di vigilanza sui sistemi di intelligenza artificiale, con particolare focus sulla sicurezza nazionale e sulla resilienza dei sistemi nel cyberspazio.
ACN avrà competenze specifiche su aspetti cruciali come la verifica della conformità dei sistemi IA ai requisiti di cybersicurezza lungo tutto il ciclo di vita, la promozione di iniziative per rafforzare la sicurezza informatica attraverso l’intelligenza artificiale, e la vigilanza sugli aspetti di sicurezza nazionale connessi all’uso dell’IA.
Le altre autorità coinvolte: un ecosistema di governance
Oltre ad AgID e ACN, la Legge 132/2025 prevede il coinvolgimento di altre autorità che già conosci, ognuna con competenze specifiche nel proprio ambito.
Il Garante per la protezione dei dati personali mantiene tutti i suoi poteri in materia di protezione dei dati personali e privacy.
Ogni volta che un sistema di IA tratta dati personali, il Garante ha competenza a vigilare, sanzionare, richiedere valutazioni d’impatto.
L’Autorità per le garanzie nelle comunicazioni (AGCOM) assume il ruolo di Coordinatore dei Servizi Digitali ai sensi del Digital Services Act europeo, con competenze specifiche sui contenuti online generati da IA.
Il Comitato Nazionale per l’Etica dell’Intelligenza Artificiale, istituito presso la Presidenza del Consiglio dei Ministri, avrà funzioni di indirizzo, controllo e consulenza sull’applicazione dei principi etici e sull’impatto sociale dei sistemi di IA.
I settori specifici: sanità, lavoro, giustizia e professioni
La Legge 132/2025 dedica una parte significativa del proprio impianto normativo alla regolazione dell’impiego dei sistemi di IA in contesti professionali e settoriali specifici.
Questa scelta riflette la consapevolezza che l’intelligenza artificiale ha impatti diversi a seconda del settore in cui viene applicata.
Sanità: diagnosi e percorsi terapeutici assistiti dall’IA
Gli articoli 7, 8 e 10 disciplinano l’uso dell’IA in ambito sanitario, con particolare attenzione alla ricerca, alla sperimentazione e all’applicazione clinica.
La legge stabilisce che i trattamenti di dati operati per finalità di ricerca e sviluppo di sistemi IA in sanità da parte di soggetti pubblici, IRCCS e soggetti privati operanti nel settore sanitario sono dichiarati di rilevante interesse pubblico.
Questo significa che è autorizzato l’uso secondario di dati personali, anche sensibili, purché privi di elementi identificativi diretti e previo adeguato informativa agli interessati. Le procedure devono essere comunicate al Garante per la protezione dei dati personali, che può intervenire entro 30 giorni.
Lavoro: selezione, valutazione, monitoraggio
L’articolo 11 stabilisce che l’IA deve essere impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psicofisica dei lavoratori e accrescere la qualità delle prestazioni lavorative e la produttività.
Il comma 2 introduce un obbligo di trasparenza specifico: il datore di lavoro o committente è tenuto a informare il lavoratore dell’utilizzo dell’IA nei casi e con le modalità già previste dal “decreto trasparenza” (D.Lgs. 152/1997, art. 1-bis).
Questo significa che se il tuo ente utilizza sistemi di IA per la selezione del personale, la valutazione delle performance, il monitoraggio delle attività lavorative o l’assegnazione di mansioni, deve informare preventivamente i lavoratori con modalità chiare e comprensibili.
Giustizia: supporto al lavoro giudiziario, mai sostituzione
L’articolo 15 è categorico: nei casi di impiego dei sistemi di IA nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti.
L’IA può essere utilizzata per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie, ma la decisione giurisdizionale resta prerogativa esclusiva del giudice.
Professioni intellettuali: l’IA come strumento, non come sostituto
L’articolo 13 disciplina l’uso dell’IA nell’esercizio delle professioni intellettuali.
Il principio è chiaro: l’intelligenza artificiale rimane uno strumento di supporto, l’uso va comunicato in modo chiaro al cliente o all’assistito, e la tecnologia non può sostituire la responsabilità professionale.
Questo vale per avvocati, commercialisti, ingegneri, architetti e tutte le professioni regolamentate.
Se un professionista usa ChatGPT per redigere una bozza di contratto o per analizzare documenti, deve informare il cliente e rimane comunque responsabile del risultato finale.
Le deleghe al Governo: cosa succederà nei prossimi 12 mesi
La Legge 132/2025 conferisce al Governo diverse deleghe legislative da esercitare entro 12 mesi dall’entrata in vigore, quindi entro ottobre 2026.
Capire queste deleghe è fondamentale per anticipare ciò che sta per arrivare.
Disciplina organica su dati, algoritmi e metodi di addestramento
L’articolo 16 delega il Governo ad adottare uno o più decreti legislativi per definire una disciplina organica relativa all’utilizzo di dati, algoritmi e metodi matematici per l’addestramento di sistemi di IA.
La delega è chiara: senza introdurre obblighi ulteriori negli ambiti già soggetti all’AI Act europeo.
I decreti dovranno individuare le ipotesi per cui sia necessario definire un regime giuridico specifico, prevedere strumenti di tutela (risarcitori o inibitori) e un apposito apparato sanzionatorio, e attribuire alle sezioni specializzate in materia di impresa le controversie relative all’uso di dati e algoritmi per l’addestramento dell’IA.
Procedure nazionali di valutazione della conformità
I decreti attuativi definiranno le procedure per la designazione degli organismi notificati, le procedure nazionali di valutazione della conformità dei sistemi IA ad alto rischio, la realizzazione della banca dati nazionale dei sistemi IA ad alto rischio utilizzati nella PA.
Questa banca dati sarà fondamentale per la trasparenza: permetterà ai cittadini di conoscere quali sistemi di intelligenza artificiale sono utilizzati dalle amministrazioni pubbliche e per quali finalità.
Sandbox regolatorie e regime transitorio
I decreti disciplineranno anche le “sandbox regolatorie”, cioè ambienti controllati dove pubbliche amministrazioni e imprese potranno sperimentare sistemi di IA innovativi sotto la supervisione delle autorità competenti, in deroga temporanea ad alcune norme.
Sarà inoltre definito il regime transitorio per i sistemi già in uso al momento dell’entrata in vigore dell’AI Act, specificando tempi e modalità per l’adeguamento alle nuove norme.
Le novità penali: deepfake e manipolazione dei mercati
La Legge 132/2025 introduce rilevanti novità in materia penale, rispondendo all’esigenza di contrastare gli abusi delle tecnologie di intelligenza artificiale.
Il nuovo reato di deepfake (art. 612-quater c.p.)
L’articolo 25, comma 1 introduce nel codice penale il nuovo articolo 612-quater che punisce l’illecita diffusione di immagini, video o voci alterati con IA e idonei a trarre in inganno.
La pena prevista è la reclusione da uno a cinque anni.
Il reato è procedibile a querela, salvo che il fatto sia connesso con altro reato procedibile d’ufficio.
Sono previste circostanze aggravanti quando il fatto è commesso da pubblici ufficiali o incaricati di pubblico servizio, o quando i contenuti manipolati riguardano persone che ricoprono cariche pubbliche o istituzionali.
Aggravanti per manipolazione di mercato e aggiotaggio
L’articolo 25 introduce aggravanti significative per chi utilizza sistemi di IA per commettere reati di manipolazione di mercato (art. 185 TUF) o aggiotaggio (art. 2637 c.c.).
Le pene arrivano fino a 2-7 anni di reclusione e multe significative (fino a 6 milioni di euro per la manipolazione di mercato).
Questo riflette la consapevolezza del legislatore che l’IA può essere usata per generare notizie false, manipolare sentiment sui mercati finanziari, o ostacolare l’attività di vigilanza delle autorità competenti.
Il diritto d’autore e il text and data mining
La Legge 132/2025 interviene anche sulla disciplina del diritto d’autore, introducendo l’articolo 70-septies nella Legge 633/1941 (Legge sul Diritto d’Autore).
Quando un’opera generata da IA è tutelata
La legge conferma che solo un’opera con apporto creativo umano può ottenere tutela autoriale.
Le creazioni generate interamente da IA senza intervento umano significativo non sono protette dal diritto d’autore, mentre lo sono quelle in cui l’autore umano guida o controlla il processo creativo.
Questo ha conseguenze pratiche importanti: se usi ChatGPT per generare un testo, la mera generazione automatica non crea un’opera protetta.
Ma se elabori il prompt con cura, selezioni e rivedi l’output, integri parti scritte da te, allora c’è un apporto creativo umano che può essere tutelato.
Text and data mining: quando è lecito estrarre dati per addestrare IA
L’articolo 70-septies chiarisce la liceità di estrazioni e riproduzioni tramite sistemi generativi di IA da opere protette dal diritto d’autore per finalità di ricerca scientifica, formazione di modelli, o analisi di grandi quantità di dati (text and data mining).
Tuttavia, i titolari dei diritti possono opporsi a tale utilizzo con modalità tecniche (machine-readable) o attraverso comunicazioni esplicite.
Le piattaforme e i fornitori di sistemi IA devono rispettare queste riserve.
Il sistema sanzionatorio: quanto rischi se non ti adegui
La Legge 132/2025 rinvia al sistema sanzionatorio dell’AI Act europeo, che prevede sanzioni amministrative proporzionate alla gravità della violazione e alle dimensioni dell’organizzazione.
Le sanzioni più gravi, fino a 35 milioni di euro o 7% del fatturato mondiale annuo (si applica l’importo maggiore), sono previste per la violazione dei divieti su pratiche di IA inaccettabili, come sistemi di manipolazione subliminale, social scoring da parte di autorità pubbliche, identificazione biometrica remota in tempo reale in spazi pubblici senza autorizzazione.
Sanzioni fino a 15 milioni di euro o 3% del fatturato sono previste per violazioni degli obblighi sui sistemi ad alto rischio, come la mancata conduzione di valutazioni di impatto, l’assenza di supervisione umana adeguata, la non conformità ai requisiti di qualità dei dati.
Sanzioni fino a 7,5 milioni di euro o 1% del fatturato sono previste per comunicazioni inesatte o omesse alle autorità competenti.
Sono previste misure proporzionate per PMI e startup, per evitare che il sistema sanzionatorio diventi una barriera all’innovazione per le organizzazioni di dimensioni ridotte.
Cosa devi fare concretamente: la roadmap operativa
Arriviamo al punto che ti interessa di più: cosa devi fare nei prossimi mesi per essere conforme alla Legge 132/2025?
Immediato (entro fine 2025)
Prima di tutto, devi effettuare una mappatura dell’esistente.
- Quali sistemi di intelligenza artificiale, anche generativa, sono già utilizzati nel tuo ente?
- Da chi?
- Per quali finalità?
Questa ricognizione è il punto di partenza obbligato.
Parallelamente, avvia un programma di formazione base per sensibilizzare il personale sui principi della legge, sui rischi dell’uso improprio dell’IA, e sulle regole operative fondamentali.
Non serve un corso di tre giorni, bastano anche poche ore ben strutturate per dare le nozioni essenziali.
Inizia a redigere una policy interna provvisoria sull’uso dell’IA, anche semplice, che stabilisca almeno le regole basilari: cosa è vietato (inserire dati personali in ChatGPT), cosa è consentito con autorizzazione, chi è responsabile, come documentare l’uso dell’IA.
Breve termine (primo semestre 2026)
Nel primo semestre 2026 dovranno uscire le linee guida definitive di AgID, che forniranno indicazioni operative dettagliate specifiche per la PA.
Non appena pubblicate, dovrai studiarle e applicarle.
Dovrai condurre una valutazione d’impatto per ogni sistema di IA ad alto rischio che il tuo ente intenda adottare o che già utilizzi. AgID fornirà strumenti e metodologie per facilitare questo processo.
Inizia a predisporre le informative pubbliche da pubblicare sul sito istituzionale: quali sistemi di IA utilizza il tuo ente, per quali finalità, come funzionano a grandi linee, quali sono i diritti dei cittadini, come esercitare tali diritti.
Medio termine (secondo semestre 2026)
Entro ottobre 2026 usciranno i decreti legislativi attuativi che completeranno il quadro normativo.
A quel punto dovrai aggiornare il regolamento interno definitivo dell’ente tenendo conto di tutte le specificazioni operative contenute nei decreti.
Dovrai registrare i sistemi IA ad alto rischio utilizzati nella banca dati nazionale che sarà istituita dai decreti attuativi.
Programma percorsi formativi avanzati per i ruoli specifici: RTD, DPO, responsabili di servizio, personale che utilizza quotidianamente sistemi di IA.
La formazione deve diventare continua, non un evento una tantum.
Le domande che ricevo più spesso…
“Posso continuare a usare ChatGPT per scrivere bozze di documenti?”
Sì, puoi continuare a usarlo, ma con alcune accortezze fondamentali. Non inserire mai dati personali identificativi (nomi, cognomi, codici fiscali, indirizzi).
Usa la versione Plus o Enterprise che permette di disattivare l’uso dei dati per training.
Documenta sempre quando lo usi salvando prompt e output. E soprattutto, ricorda che la responsabilità del documento finale è tua, anche se l’hai fatto scrivere in parte da ChatGPT.
“Devo fare subito una valutazione d’impatto per tutti i sistemi IA?”
Dipende. Se usi solo strumenti generativi per supporto interno (redigere bozze, cercare informazioni) senza che producano output che impattino direttamente sui cittadini, sei in un’area di rischio limitato.
Se invece usi sistemi di IA per attività che impattano i diritti dei cittadini (assegnazione di benefici, selezione del personale, erogazione di servizi essenziali), allora sì, la valutazione d’impatto è necessaria e dovresti condurla quanto prima.
“Cosa succede se non mi adeguo?”
Le conseguenze possono essere serie.
Dal punto di vista amministrativo, potresti affrontare sanzioni significative se violi obblighi fondamentali come la trasparenza, la protezione dei dati, la supervisione umana.
Ma c’è anche un rischio reputazionale: un uso scorretto dell’IA che danneggi i cittadini diventa rapidamente una notizia sui giornali e mina la fiducia nelle istituzioni.
“Posso aspettare i decreti attuativi per fare qualcosa?”
Formalmente alcuni aspetti operativi saranno definiti nei prossimi mesi dai decreti, ma i principi fondamentali sono già in vigore dal 10 ottobre 2025.
Se aspetti senza fare nulla, ti troverai in ritardo quando usciranno le linee guida AgID e i decreti attuativi. Meglio iniziare subito con le attività di base (mappatura, formazione, policy provvisoria) per poi affinare quando arriveranno le indicazioni operative definitive.
Legge 132/2025 e AI Act: come si integrano?
Un aspetto che genera spesso confusione è il rapporto tra la Legge 132/2025 e l’AI Act europeo. Facciamo chiarezza.
L’AI Act (Regolamento UE 2024/1689) è direttamente applicabile in Italia e prevale su qualsiasi normativa nazionale in caso di contrasto. La Legge 132/2025 si applica in modo complementare all’AI Act, non in contrasto.
Ciò significa che quando l’AI Act prevede obblighi specifici per i fornitori o deployer di sistemi di IA ad alto rischio, quegli obblighi si applicano direttamente senza bisogno di recepimento nazionale.
La Legge 132/2025 non aggiunge ulteriori obblighi di prodotto oltre a quelli dell’AI Act.
Quello che la legge italiana fa è definire l’apparato nazionale di implementazione: chi sono le autorità competenti (AgID, ACN), come funzionano le procedure di notifica e vigilanza, quali sono le specificità settoriali italiane, come si coordinano le diverse autorità.
In pratica…
Se sei fornitore di un sistema IA ad alto rischio, devi rispettare i requisiti tecnici dell’AI Act (qualità dei dati, trasparenza, supervisione umana, robustezza).
Se sei una PA italiana che utilizza (deployer) quel sistema, devi rispettare sia l’AI Act che le disposizioni specifiche dell’articolo 14 della Legge 132/2025 sulla conoscibilità, tracciabilità e responsabilità.
Oltre la conformità: l’opportunità dell’IA per la tua PA
Concludiamo con una riflessione che va oltre gli obblighi normativi.
La Legge 132/2025 non è nata per frenare l’innovazione, ma per orientarla verso un modello responsabile e sostenibile.
Il quadro normativo che si sta consolidando tra AI Act europeo e legge italiana non deve essere visto solo come una lista di vincoli e adempimenti, ma come un’opportunità per ripensare il modo in cui la tua amministrazione lavora, decide e si relaziona con i cittadini.
L’intelligenza artificiale può davvero aiutarti a ridurre i tempi dei procedimenti, a migliorare la qualità dei servizi, a liberare il personale da attività ripetitive per dedicarlo a compiti a maggior valore aggiunto che richiedono empatia, creatività, giudizio umano.
Ma questo può avvenire solo se l’adozione dell’IA è consapevole, pianificata, accompagnata da formazione adeguata e inserita in un framework di governance chiaro.
La sfida principale non è tecnologica, è culturale e organizzativa. Richiede dirigenti che comprendano le potenzialità e i limiti dell’IA, funzionari formati e consapevoli, DPO e RTD che sappiano integrare la protezione dei dati con la governance algoritmica, e cittadini informati e tutelati.
La Legge 132/2025 ti fornisce la bussola per questo percorso. Ora tocca a te decidere come usarla.
Ti serve aiuto concreto per adeguarti alla Legge 132/2025?
Ho aiutato oltre 400 enti pubblici nella transizione digitale.
So che ogni amministrazione ha esigenze specifiche, vincoli di budget, situazioni organizzative uniche. Per questo ho costruito servizi modulari che si adattano alla tua realtà concreta.
Dalla formazione del personale alla redazione di policy operative, dalla valutazione d’impatto all’affiancamento nella scelta dei sistemi, posso supportarti in ogni fase del percorso di adozione responsabile dell’intelligenza artificiale.
Non sei solo in questo viaggio. Parliamone.