Provvedimento algoritmico: sì, ma come?

Il ricorso alle decisioni automatizzate applicato ai provvedimenti amministrativi non può essere funzionalizzato solo alla semplificazione e all’efficientamento della Pubblica amministrazione, ma alle tecnologie è opportuno guardare anche in vista del miglioramento del processo decisionale, nonché della qualità della decisione. L’impiego di algoritmi, certamente in grado di valutare e graduare una moltitudine di domande soddisfando le esigenze di celerità dell’azione amministrativa, non può tuttavia essere scollegato dalle tutele che il nostro ordinamento deve riconoscere anche al soggetto destinatario degli effetti giuridici di una eventuale determinazione non umana. Ma quali sono i limiti e le garanzie indefettibili a contorno del provvedimento amministrativo algoritmico?

 

L’impiego dello strumento algoritmico consente una maggiore velocità, efficienza ed in astratto una maggiore imparzialità del provvedimento amministrativo, soprattutto quando esso è il risultato di processi seriali e standardizzati. A maggior ragione, quando occorre gestire un notevole numero di istanze, l’elevata potenza di calcolo di una formula matematica ben congeniata può rappresentare la miglior estrinsecazione del principio costituzionale del buon andamento della pubblica amministrazione, di cui all’art. 97 della nostra Carta fondamentale.

Tuttavia, l’ammissibilità ed i limiti del ricorso alla cd. decisione algoritmica costituiscono alcune delle tematiche più interessanti giuridicamente, e socialmente controverse, di cui si è occupata la giurisprudenza amministrativa negli ultimi anni. Ciò che occorre verificare è che, a monte e nel mentre viene generato un provvedimento automatizzato, non vengano meno le guarentigie di legittimità del provvedimento amministrativo, che nel nostro ordinamento sono descritte nella legge, 7 agosto, n. 241 del 1990. La cd. Legge sul procedimento amministrativo, infatti, disciplina l’attività amministrativa, individuando specificamente le fasi, i ruoli e le funzioni in capo agli uffici e al responsabile del procedimento, che anticipano, e nei fatti legittimano, il provvedimento finale. Ma può essere altrettanto legittima una decisione incisiva su posizioni giuridiche di soggetti privati, se devoluta ad un meccanismo informatico-matematico? Quali sono le necessarie garanzie da prevedere affinché l’algoritmo non produca una decisione “ingiusta”?

Dell’ammissibilità dell’impiego di decisioni algoritmiche nell’attività amministrativa si è più volte parlato (partendo da una posizione radicalmente preclusiva oggi non più condivisa, anche QUI) e, come ha avuto modo di precisare il Consiglio di Stato nelle pronunce più significative dedicate alla questione (cfr. CdS sez. VI, n. 2270 /2019 e le sentt. 8472, 8473, 8474 del 2019), il ricorso alla funzione algoritmica all’interno del procedimento amministrativo non è vietato di per sé, neppure in relazione a quei procedimenti caratterizzati da discrezionalità, anche tecnica. La condizione affinché una decisione algoritmica sia legittima, tuttavia, è che siano rispettati determinati requisiti, derivanti sia dai principi di diritto interno che dalle norme del diritto europeo (cfr. Cons. Stato, sez.VI, sentt. 881/2020 e 1206/2021).

Il TAR Napoli, nella recentissima sentenza 14 novembre 2022, n. 7003, pronunciandosi in merito alla legittimità di un provvedimento amministrativo di secondo grado avente ad oggetto la revisione dell’erogazione di contributi agricoli, ha molto apprezzabilmente tentato di delineare il legal framework di riferimento, chiamato a dettagliare le linee guida legittimanti una decisione automatizzata della pubblica amministrazione.

Innanzitutto, il Collegio chiarisce come, soprattutto nel dato europeo (tra le molte fonti, si pensi soprattutto alla Proposta di Regolamento in materia di Intelligenza Artificiale, COM/2021/206), sia emersa l’esigenza di controbilanciare le spinte semplificatorie ed acceleratorie della decisione automatizzata alla necessità di assicurare un controllo umano del procedimento, attribuendo al responsabile la possibilità di intervenire, validare o, al contrario, smentire la decisione automatica in funzione di garanzia (cd. human in the loop). Il principio affermato in sede europea è quello della “non esclusività della decisione algoritmica”: colui che è il destinatario degli effetti giuridici di una decisione automatizzata ha diritto a che la stessa non sia basata unicamente su un processo automatizzato (art. 22 GDPR).

Sul piano interno, il Collegio osserva come il ricorso all’algoritmo, in funzione integrativa e servente della decisione umana, non può mai comportare un abbassamento del livello delle tutele garantite dalla legge sul procedimento amministrativo, ed in particolare di quelle relative all’individuazione del responsabile del procedimento, all’obbligo di motivazione e alle garanzie partecipative.

Tra queste, assume rilevanza primaria il rispetto del principio di trasparenza, che trova un immediato corollario nell’obbligo di motivazione degli atti amministrativi ex art. 3 della legge 241/90. Il Collegio ritiene, comprensibilmente, che tale onere motivazionale sia assolutamente insopprimibile, quand’anche lo strumento della decisione amministrativa sia un complesso computo matematico-informatico. Anzi, il fatto che il provvedimento venga emanato sulla scorta di una complessa operazione di calcolo produce, secondo i giudici, l’opposto effetto di rafforzare l’obbligo motivazionale in capo all’Amministrazione, la quale dovrà rendere la propria decisione finale non solo conoscibile, ma anche comprensibile. Dunque, a detta dei giudici partenopei, per ritenere adempiuto l’onere motivazionale occorrerà spostare l’attenzione nella fase di costruzione dell’algoritmo, e in particolare: su come i parametri dell’algoritmo vengono scelti; su come essi si combinano tra di loro; e, ancor prima, su come i termini assunti quale parametro siano stati realizzati. Sono questi i momenti in cui è operata la scelta caratterizzata da discrezionalità dell’amministrazione, sì che a queste fasi preliminari di nascita dell’algoritmo devono essere anticipate le opportune garanzie. Come aveva già affermato il Consiglio di Stato, “la decisione amministrativa automatizzata impone al giudice di valutare in primo luogo la correttezza del processo informatico in tutte le sue componenti: dalla sua costruzione, all’inserimento dei dati, alla loro validità, alla loro gestione” (cfr. Cons. St., sez. VI, n. 2270/2019).  I

In caso di decisione fondata su un algoritmo, pertanto, è assicurata una “declinazione rafforzata del principio di trasparenza”, intesa come “piena conoscibilità della regola espressa in un linguaggio differente da quello giuridico” (Cons. St., sez. VI, n. 2270/2019). Il principio di conoscibilità, infatti, comporta per l’interessato il diritto a conoscere sia l’esistenza di processi decisionali automatizzati che lo riguardino, sia a ricevere informazioni significative sulla logica utilizzata dall’algoritmo, così come previsto dagli artt. 13 e 14 del GDPR (Regolamento 2016/679) che risultano formulati in maniera generale e, perciò, applicabili sia a decisioni prese da soggetti privati che da soggetti pubblici (cfr. Cons. St. s. 8472/2019). Inoltre, trattandosi di una decisione presa proprio da una pubblica amministrazione, viene in rilievo anche l’art. 41 della Carta di Nizza, ed il diritto ad una “good administration”, laddove si afferma che, quando la pubblica amministrazione intende adottare una decisione che può avere effetti avversi su di una persona, essa ha l’obbligo di sentirla prima di agire, di consentirle l’accesso ai suoi archivi e documenti, nonché di “motivare le proprie decisioni”. La piena conoscibilità dell’algoritmo, dunque, deve essere garantita dai programmatori in tutti gli aspetti, a partire dal procedimento usato per l’elaborazione al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Già i giudici di Palazzo Spada avevano evidenziato che la “caratterizzazione multidisciplinare” dell’algoritmo comporta che la sua comprensione non richieda solo competenze giuridiche, ma anche tecniche, informatiche, statistiche, amministrative, sicché vuol dire che la conoscibilità della “formula tecnica”, che di fatto rappresenta l’algoritmo, debba essere corredata da spiegazioni che traducano la tecnica informatica sottesa nella “regola giuridica” prodotta (cfr. Cons. St. s. 2270/2019).

Dalle coordinate ermeneutiche poste dalle prime pronunce del Consiglio di Stato, ed oggi in questa lineare sentenza del TAR Napoli, emerge come il rispetto del principio di trasparenza imponga un indefettibile obbligo di motivazione a carico della pubblica amministrazione, che si declina indefettibilmente nella conoscibilità e nella comprensibilità del meccanismo algoritmico utilizzato. E ciò al fine di consentire, da un lato, il pieno esercizio del diritto di difesa da parte del soggetto inciso dal provvedimento e, dall’altro, il pieno sindacato di legittimità da parte del giudice amministrativo.

Hanno colto nel segno, dunque, le censure mosse dalla parte ricorrente nel ricorso che ha dato origine alla pronuncia de qua, la quale denunciava sia il difetto di motivazione, sia la violazione delle garanzie partecipative. Negare tali guarentigie procedurali, declinate sul versante del diritto di azione, vuol dire frustrare il diritto alla difesa in giudizio di cui agli artt. 24 e 113 della Costituzione. Diritto che viene violato tutte le volte in cui l’assenza della motivazione non permette inizialmente all’interessato e, successivamente, su impulso di questi, al giudice, di percepire l’iter logico-giuridico seguito dall’amministrazione per giungere ad un determinato approdo provvedimentale, sulla consapevolezza che la decisione robotizzata “impone al giudice di valutare la correttezza del processo automatizzato in tutte le sue componenti” (Cons. Stato, Sez. VI, sent. 2270/2019).

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale