Home > Osservatorio Stato Digitale > Cultura Digitale > Intelligenza artificiale negli enti locali: linee guida e regole interne per il governo dell’attività amministrativa

Intelligenza artificiale negli enti locali: linee guida e regole interne per il governo dell’attività amministrativa

Di: Antonio Meola

15/04/2026

L’ingresso dell’intelligenza artificiale nei processi di lavoro delle amministrazioni pubbliche pone un problema preliminare di governo interno degli strumenti. Il contributo, muovendo da una recente direttiva del Segretario generale di ente metropolitano, esamina il nesso tra il regolamento (UE) 2024/1689, la L. 23 settembre 2025, n. 132, il TUEL, il d.lgs. 30 marzo 2001, n. 165, il Codice dell’amministrazione digitale, il GDPR e le bozze di Linee guida AgID in consultazione pubblica su sviluppo e procurement di sistemi di IA nella PA. Ne emerge una linea di equilibrio: l’IA può trovare spazio come supporto istruttorio e redazionale, ma a condizione che siano assicurati conoscibilità e tracciabilità dell’impiego, controllo umano effettivo, responsabilità del funzionario o del dirigente, protezione dei dati, selettività nei casi ammissibili e forte cautela, se non esclusione, negli ambiti più sensibili. In questa prospettiva, la direttiva interna non altera il riparto delle competenze tra Segretario generale e dirigenza, ma presidia, con regole comuni di metodo, un ambito applicativo nuovo, nel quale innovazione, legalità organizzativa, qualità documentale e tutela dei diritti devono procedere insieme.

L’ingresso dell’intelligenza artificiale nei processi di lavoro della pubblica amministrazione non è più soltanto una questione di opportunità tecnologica ma di disciplina giuridica, governo organizzativo e responsabilità amministrativa.

Il quadro europeo e nazionale si è infatti notevolmente consolidato.

Da un lato, il regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 ha introdotto un assetto armonizzato fondato sul rischio, sulla trasparenza, sulla sicurezza e sulla tutela dei diritti fondamentali. Dall’altro, la L. 23 settembre 2025, n. 132 ha dato al sistema italiano un riferimento espresso, fissando principi generali e disposizioni specifiche per la pubblica amministrazione.

Il rilievo della legge n. 132 del 2025, per il tema qui considerato, è particolarmente evidente. L’art. 3 colloca l’adozione e l’utilizzo dei sistemi di IA nel rispetto dei diritti fondamentali, della trasparenza, della proporzionalità, della sicurezza, della protezione dei dati personali, della riservatezza, della non discriminazione e della sostenibilità; richiede inoltre conoscibilità, spiegabilità, sorveglianza e intervento umano, oltre a una precondizione di cybersicurezza lungo l’intero ciclo di vita dei sistemi. Già da qui emerge una linea essenziale: nella pubblica amministrazione l’IA non può essere concepita come un espediente organizzativo, ma come tecnologia da governare entro un perimetro di garanzie.

Per gli enti locali, il problema concreto non coincide con l’esistenza astratta della tecnologia, ma con il suo impiego nelle attività quotidiane degli uffici: organizzazione del materiale istruttorio, sintesi documentale, predisposizione di bozze, supporto alla redazione di atti e, in prospettiva, supporto a segmenti valutativi del procedimento.

Proprio su questo piano interviene in modo particolarmente utile l’art. 14 della L. n. 132 del 2025. La norma prevede che le pubbliche amministrazioni utilizzino l’intelligenza artificiale per incrementare efficienza, ridurre i tempi dei procedimenti e migliorare qualità e quantità dei servizi, assicurando però agli interessati la conoscibilità del funzionamento e la tracciabilità dell’utilizzo. Ancora più importante è il secondo comma dello stesso art. 14, che qualifica l’utilizzo dell’IA in funzione strumentale e di supporto all’attività provvedimentale e ribadisce che l’autonomia e il potere decisionale restano in capo alla persona, unica responsabile dei procedimenti e dei provvedimenti nei quali l’IA sia stata utilizzata.

Questo passaggio offre una base normativa diretta alla distinzione fra uso istruttorio e uso sostitutivo. L’IA può coadiuvare, ma non può rappresentare una sede invisibile di formazione della volontà amministrativa. La verifica delle fonti, la qualificazione giuridica, la motivazione,

l’assunzione della responsabilità finale e il controllo di legalità documentale restano attività integralmente umane.

In questa fase, assumono particolare interesse anche le bozze di Linee guida AgID avviate in consultazione con Determinazione del Direttore Generale n. 43 del 10 marzo 2026, pubblicata il 12 marzo 2026 sul Portale Amministrazione trasparente dell’Agenzia. La bozza di Linee guida per lo sviluppo di sistemi di Intelligenza Artificiale nella pubblica amministrazione dedica espressamente il paragrafo 2.3 ai “Principi generali della Legge 132/2025 per lo sviluppo e il procurement di sistemi IA”, articolandoli in sette direttrici: tutela dei diritti fondamentali, qualità e trasparenza dei dati e dei processi, centralità dell’uomo, tutela del metodo democratico, coerenza con l’AI Act, cybersicurezza, accessibilità universale e inclusione.

La bozza di Linee guida per il procurement di IA nella pubblica amministrazione, dal

canto suo, chiarisce già al paragrafo 3.1 che il procurement dei sistemi di IA richiede un approccio consapevole e strutturato, perché tali sistemi possono incidere su procedimenti amministrativi, diritti fondamentali, aspettative di cittadini e imprese e modalità di esercizio della funzione pubblica; la stessa bozza richiama espressamente, quale quadro di riferimento, anche la L. n. 132 del 2025. Tali passaggi, pur collocati in testi non ancora definitivamente approvati, confermano che il tema non è confinato alla dimensione tecnica dello sviluppo o dell’acquisto di software, ma investe direttamente il modo in cui la pubblica amministrazione organizza la propria attività.

Per gli enti locali, l’adozione di regole interne sull’uso dell’IA va letta in connessione con il quadro ordinamentale generale. L’art. 97 del D.Lgs. 18 agosto 2000, n. 267 attribuisce al Segretario generale compiti di collaborazione e funzioni di assistenza giuridico amministrativa

nei confronti degli organi dell’ente, in ordine alla conformità dell’azione amministrativa alle leggi, allo statuto e ai regolamenti nonchè, ai sensi degli art. 147 e 147 bis del TUEL, di presidio dei controlli interni, con particolare riguardo al controllo strategico e ai controlli di regolarità amministrativa ex post. L’art. 4 del D.Lgs. 30 marzo 2001, n. 165, a sua volta, conferma il riparto tra funzioni di indirizzo politicoamministrativo e funzioni di gestione, riservando ai dirigenti l’adozione degli atti e dei provvedimenti amministrativi, con responsabilità esclusiva dell’attività amministrativa.

Ne deriva che una direttiva del Segretario generale in materia di IA non può e non deve sostituire la sfera gestionale né alterare la responsabilità dirigenziale; può però fissare regole comuni di metodo, criteri minimi di cautela, standard di validazione, modalità di tracciabilità, limiti interni di impiego e presidi organizzativi coerenti con il quadro legale. In questo senso, la direttiva interna non si pone in contrasto con il regolamento dell’ente né con l’autonomia gestionale, ma opera come presidio applicativo in un ambito nuovo, in cui la rapidità dell’innovazione rischia altrimenti di precedere le regole.

Il principio della tracciabilità, richiamato dall’art. 14 della legge n. 132 del 2025, ha negli enti locali una ricaduta immediata. Se l’IA viene utilizzata nella fase redazionale o istruttoria, il suo impiego non dovrebbe restare invisibile. Una pubblica amministrazione che pretende trasparenza verso l’esterno non può tollerare opacità nella catena di formazione degli atti. Da qui l’utilità di una regola interna che imponga la dichiarazione dell’eventuale uso istruttorio dell’IA, accompagnata da una validazione finale del dirigente responsabile, da un controllo puntuale delle fonti e dalla conservazione di un assetto di responsabilità pienamente riconoscibile.

Accanto a ciò, resta decisivo il tema della protezione dei dati. Il regolamento (UE) 2016/679 impone liceità, minimizzazione, proporzionalità, limitazione delle finalità e adeguate misure di sicurezza. Lo stesso art. 3 della L. n. 132 del 2025 valorizza protezione dei dati personali, riservatezza e cybersicurezza come condizioni strutturali dell’uso dell’IA. Ne consegue che un ente locale, nel disciplinare l’uso di strumenti generativi o di supporto redazionale, dovrebbe vietarne o limitarne rigorosamente l’impiego in presenza di dati appartenenti a categorie particolari, ossia dati giudiziari, informazioni sensibili per la sicurezza dell’ente o procedimenti ad elevato impatto su diritti, posizioni soggettive e dati sensibili. La regola prudenziale, in questi casi, non è un riflesso di sfiducia verso la tecnologia, ma una conseguenza della legalità amministrativa.

Il quadro non può dirsi completo senza richiamare il Codice dell’amministrazione digitale. L’art. 12 del D.Lgs. 7 marzo 2005, n. 82 colloca l’uso delle tecnologie dell’informazione tra gli strumenti ordinari per perseguire efficienza, efficacia, imparzialità, trasparenza, semplificazione e partecipazione. L’art. 3-bis del medesimo decreto, inoltre, richiama i principi generali dell’accessibilità dei servizi digitali. Anche da questo punto di vista, l’adozione dell’IA non può essere letta come mero fattore di accelerazione procedurale. Deve, piuttosto, essere valutata alla luce della qualità del servizio reso, della comprensibilità degli esiti, dell’accessibilità per tutti gli utenti e della possibilità di mantenere un controllo umano effettivo e documentabile.

Il punto, in definitiva, non è scegliere tra impulso tecnologico e diffidenza pregiudiziale. Per gli enti locali, la questione vera è più concreta: costruire condizioni di utilizzo amministrativamente compatibili. La combinazione tra AI Act, l. 132 del 2025, ruolo delle Autorità nazionali delineato dall’art. 20 della stessa legge, bozze di Linee guida AgID in consultazione, TUEL, D.Lgs. 165 del 2001, CAD e GDPR suggerisce una linea nitida. L’IA può essere ammessa come supporto istruttorio e redazionale; deve restare conoscibile, tracciabile e sottoposta a controllo umano; richiede regole interne, misure tecniche, organizzative e formative; impone cautele rafforzate nei procedimenti più sensibili e nella gestione dei dati.

In questa prospettiva, una direttiva interna ben costruita non celebra la tecnologia e non la demonizza. Più semplicemente, evita che l’innovazione entri negli uffici senza presidio giuridico, senza metodo e senza responsabilità. È qui che si misura oggi il punto di equilibrio più serio tra Stato digitale e qualità dell’amministrazione.

Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0