I dipendenti usano ChatGPT in ufficio: cosa deve fare l’RTD?
Lunedì mattina, arrivi in ufficio e mentre passi tra le scrivanie noti qualcosa che ormai non ti sorprende più: un collega con la finestra di ChatGPT aperta, un altro che copia-incolla da Claude, qualcuno che chiede a Gemini di riscrivere una comunicazione.
Lo sai che sta succedendo, lo sanno tutti. Ma nessuno ne parla ufficialmente.
Ecco l’elefante nella stanza di ogni ente pubblico italiano: i dipendenti stanno già usando strumenti di intelligenza artificiale generativa, ogni giorno, mentre tu come RTD ti chiedi cosa fare.
Non puoi fingere che non accada, non puoi bloccare tutto con un divieto draconiano, ma non puoi nemmeno lasciare il Far West.
E nel frattempo la Legge 132/2025 è entrata in vigore il 10 ottobre e dice cose precise su come l’AI deve essere usata nella pubblica amministrazione.
Il problema vero: nessuno sa cosa sta facendo chi
La prima difficoltà che affronti è che non hai visibilità su cosa sta succedendo davvero: quali strumenti vengono usati, da chi, per fare cosa, con quali dati. Un dipendente potrebbe star inserendo dati personali dei cittadini su ChatGPT senza sapere che finiscono sui server di OpenAI.
Un altro potrebbe prendere un output pieno di errori e metterlo direttamente in una determina senza verificarlo.
Il rischio non è teorico: se un documento ufficiale contiene informazioni sbagliate generate dall’AI e nessuno le ha controllate, la responsabilità resta al funzionario che ha firmato.
E se quei dati personali finiscono dove non dovevano, l’ente risponde per la violazione della privacy.
Il tutto senza che tu abbia la minima idea di cosa stia accadendo.
La tentazione di molti RTD è non intervenire, sperare che il problema si risolva da solo o aspettare indicazioni dall’alto.
Ma il silenzio non protegge: anzi, ti espone di più perché stai lasciando correre una situazione che dovresti governare.
Aspettare non è un’opzione, ma nemmeno bloccare tutto
Qualcuno potrebbe pensare di risolvere la questione con un divieto totale: “Nessuno usi strumenti AI in ufficio, punto.”
Il problema è che non funziona, perché i dipendenti li useranno comunque, magari sui loro telefoni personali, e tu avrai ancora meno controllo di prima. Inoltre bloccare l’innovazione tout court ti mette in una posizione difficile: l’AI può davvero aiutare la PA a lavorare meglio, e impedirne l’uso significa rinunciare a un’opportunità concreta.
D’altro canto, “aspettare le linee guida definitive di AGID” è la scusa perfetta per non fare nulla, ma i principi della Legge 132/2025 sono già in vigore.
Aspettare significa accumulare rischi: ogni giorno che passa senza una policy interna è un giorno in cui qualcuno potrebbe fare qualcosa che ti mette nei guai.
La via di mezzo esiste, ed è quella che io chiamo pre-regolamentazione: una circolare interna che mette ordine senza pretendere di essere definitiva.
La circolare interna: il tuo primo passo concreto
Una circolare di buona prassi non è un regolamento completo sull’AI, ma è qualcosa di davvero importante: comunica ai dipendenti che l’ente è consapevole di cosa sta succedendo, stabilisce regole base immediate, e mette in protezione sia te che tutto il personale amministrativo.
In pratica, dice: “Sappiamo che lo state usando, ecco i rischi, ecco come comportarvi in attesa del regolamento definitivo.”
Il primo passo è un censimento: chiedere a tutti i dipendenti cosa stanno già usando.
Sembra banale, ma ti darà una fotografia reale della situazione.
Poi definisci i divieti chiari: mai inserire dati personali, mai caricare documenti riservati, mai usare output senza verificarli.
Infine, stabilisci l’obbligo di documentazione: chi usa strumenti AI deve salvare i prompt e gli output, così da avere tracciabilità in caso di contenzioso.
Questo principio si traduce in una regola pratica che devi comunicare chiaramente: l’output dell’AI deve sempre passare per una revisione umana prima di diventare un atto o documento ufficiale. Non è un consiglio, è un obbligo di legge.
Supervisione umana obbligatoria
- Fonte: Art. 3, comma 3, Legge 132/2025
- Classificazione: OBBLIGO
- Livello certezza: ✅ Certezza normativa
- Testo chiave: “I sistemi di intelligenza artificiale devono assicurare la sorveglianza e l’intervento umano”
Cosa scrivere nella circolare
I 5 passi per la circolare interna
- Invia una comunicazione a tutti i dipendenti chiedendo di segnalare quali strumenti AI stanno già usando
- Raccogli le risposte e crea una mappatura della situazione attuale
- Prepara la circolare con le regole base (divieto dati personali, obbligo verifica, obbligo documentazione)
- Fai firmare la circolare al Segretario Generale o al dirigente competente
- Prevedi una verifica trimestrale per aggiornare la situazione
La circolare non deve essere un trattato giuridico: deve essere comprensibile da tutti, scritta con linguaggio chiaro e semplice come richiede l’articolo 4 della Legge 132/2025.
Ecco gli elementi essenziali che deve contenere.
L’ente prende atto che strumenti di AI generativa vengono già utilizzati e avvia una ricognizione per capire la situazione reale.
In attesa di un regolamento definitivo e delle linee guida AGID, vengono stabilite regole provvisorie di comportamento: non inserire dati personali o sensibili, non caricare documenti riservati, verificare sempre gli output prima dell’uso ufficiale, conservare traccia di prompt e risposte.
Io sono convinto che questa pre-regolamentazione non sia solo utile, ma necessaria: ti permette di passare da una situazione di rischio inconsapevole a una di rischio gestito.
Non risolve tutto, ma ti mette al sicuro nel caso qualcuno ti chieda “cosa avete fatto per governare l’uso dell’AI nel vostro ente?”
La formazione: consapevolezza prima dell’uso
Oltre alla circolare, c’è un altro tassello che fa la differenza: una formazione base per tutti i dipendenti che usano questi strumenti.
Non serve un corso avanzato di machine learning, ma è assolutamente necessario che chi usa ChatGPT o Claude sappia almeno tre cose fondamentali.
- Prima: l’AI può sbagliare, anche clamorosamente, e questi errori si chiamano “allucinazioni”. Se chiedi una norma, potrebbe inventarsela. Se chiedi un dato, potrebbe tirarlo fuori dal nulla.
- Seconda: i dati che inserisci in molti strumenti gratuiti vengono utilizzati per addestrare il modello, quindi non sono più riservati.
- Terza: la responsabilità del documento finale resta tua, non puoi dire “me l’ha scritto ChatGPT” come giustificazione.
Quando i dipendenti capiscono questi tre concetti, il loro comportamento cambia: iniziano a verificare, a non fidarsi ciecamente, a usare l’AI come assistente e non come oracolo.
Ed è esattamente quello che serve.
La responsabilità che non puoi delegare
Come RTD, il tuo compito è mettere l’ente nelle condizioni di usare la tecnologia in modo sicuro e conforme.
Sulla questione AI, questo significa prendere in mano la situazione invece di subire quello che sta già accadendo.
La circolare interna non è un atto eroico, è il minimo sindacale per dire “ci stiamo occupando della cosa.”
La Legge 132/2025 ha stabilito i principi: antropocentrismo, trasparenza, supervisione umana, responsabilità in capo alle persone fisiche.
Le linee guida AGID arriveranno a completare il quadro con strumenti operativi.
Ma tu non devi aspettare: il quadro normativo c’è già, e il tuo compito è tradurlo in azioni concrete nel tuo ente.
Se vuoi approfondire tutti gli obblighi e le opportunità della Legge 132/2025, ho preparato una guida completa sulla pagina dedicata.
E se preferisci un supporto strutturato per costruire la tua circolare e il percorso di adeguamento, puoi partire dal supporto.