Un convegno milanese sulla giustizia amministrativa digitale

Qual è l’apporto che l’Intelligenza Artificiale può dare alla giustizia amministrativa? Sostituirà o affiancherà il giudice amministrativo? Quali implicazioni comporta l’opacità della analisi predittiva degli algoritmi di machine learning? Ne parliamo nel convegno “una giustizia amministrativa digitale?”  

Il 2 dicembre 2021, presso l’Università degli Studi di Milano, nell’ambito del corso di Giustizia Amministrativa della Prof.ssa Margherita Ramajoli (ordinaria di diritto amministrativo), si è tenuto un seminario (organizzato con il patrocinio dell’Ordine degli avvocati di Milano), dal titolo “Una giustizia amministrativa digitale?”. 

Il convegno, introdotto e coordinato dalla Prof.ssa Ramajoli, affronta uno dei temi che principalmente anima il dibattito scientifico attuale: il fenomeno della digitalizzazione del processo amministrativo. 

La prima relazione è quella del Prof. Alfio Ferrara, professore di informatica presso l’Università di Milano. Le sue riflessioni muovono dall’assunto che l’informatica sia vittima di un fraintendimento secondo cui questa viene concepita, molto spesso, come una disciplina tecnica la cui funzione sia esclusivamente strumentale al diritto per elevare l’efficienza del sistema amministrativo. Al contrario, l’informatica, ma più specificatamente la Data Science, deve essere intesa come disciplina che studia l’informazione e che, dunque, è in grado di accrescere il nostro patrimonio conoscitivo, attraverso l’analisi dei dati. In questo senso, può parlarsi di una vera e propria rivoluzione digitale, perché essa assicura l’accesso ad una conoscenza che non si riuscirebbe altrimenti ad avere. 

Sennonché, l’elaborazione dei dati attraverso strumenti di intelligenza artificiale pone una serie di criticità, specie in relazione all’IA di ultima generazione. Questa, infatti, subisce la c.d. inference inductive, ossia una inferenza induttiva che non rende il processo di analisi dei dati reversibile e, dunque, comprensibile. In altri termini, dunque, l’essere umano non è in grado di conoscere, né tantomeno di capire, il perché del comportamento della macchina.  

Allora, alla luce di queste riflessioni, le soluzioni prospettabili sembrano essere due: o predisporre sistemi di AI Explainable e che, dunque, siano comprensibili a priori, oppure tentare di spiegare a posteriori il processo di determinazione.  

Tuttavia, in conclusione, il professore solleva la perplessità che si stia attualmente riflettendo sui principi del diritto digitale senza avere diritto digitale, o perlomeno sulla base di un diritto digitale che non è del tutto compiuto. Ne discende che provare a trarre delle conclusioni è, forse, ancora prematuro. 

 

Il convegno prosegue, poi, con l’intervento della Prof.ssa di Diritto Amministrativo, Barbara Marchetti, le cui riflessioni riguardano il rapporto tra giustizia amministrativa e AI. La Professoressa prospetta due usi di IA applicata al processo: l’AI che si sostituisce integralmente al giudice e l’IA che assiste il giudice e ne facilita il compito. La prima è molto lontana, come prospettiva; la seconda, invero, può immaginarsi come una prospettiva in cui l’AI formula raccomandazioni e predizioni che il giudice può scegliere di seguire o meno. 

Tuttavia, in generale, gli strumenti di intelligenza artificiale incontrano, secondo la relatrice, quattro principali criticità: 

  1. il c.d. “effetto pecorone”: un giudice sarà portato a farsi catturare dalla macchina e a rinunciare a produrre una sua analisi e una revisione dell’operato dell’algoritmo;
  2. effetti sulla giurisprudenza: c’è il pericolo che si venga a creare uno stare decisis, vincolando il giudice al passato;
  3. motivazione: l’algoritmo di machine learning non consente al giudice di dimostrare e spiegare perché abbia raggiunto quella decisione;
  4. difesa delle parti: come si garantisce il contradditorio, in un sistema di questo tipo?

Sull’uso dell’Intelligenza artificiale, la professoressa richiama anche la proposta di Regolamento sull’Intelligenza artificiale; proposta che, per certi versi, sembra chiedere garanzie irrealizzabili. Ne è un esempio la trasparenza: il machine learning non è in alcun modo in grado di garantire tale paradigma (come rilevato qui). Allo stesso modo, l’art. 14 del Regolamento sembra imporre al giudice amministrativo, affiancato da IA, delle azioni per il controllo e per la comprensibilità delle macchine. Ciò lascerebbe supporre che il giudice dovrebbe acquisire quelle competenze tecniche di cui, invero, solo un programmatore è investito. Al contrario, quello che in concreto si rende auspicabile, è lo sviluppo di un senso critico del giudice, necessario a non affidarsi “come un pecorone” alle determinazioni della macchina. 

In conclusione, la Professoressa affronta, poi, il tema del sindacato del giudice sull’amministrazione digitale: l’amministrazione che si avvale di machine learning per la sua attività conoscitiva e decisoria, afferma, richiede un cambiamento dei parametri utilizzati dal giudice per il suo sindacato. In questi termini, la Professoressa Marchetti ritiene il sindacato di ragionevolezza debba essere rivisto e sostituito da un sindacato di altro tipo, dal momento che non è possibile verificare come la macchina abbia appreso le logiche utilizzate. 

 

La terza relazione è a cura della Dott.ssa Laura Patelli, magistrata referendaria del Tar Milano. La magistrata esalta la declinazione del processo amministrativo in chiave telematica, soprattutto alla luce delle esigenze imposte dalla emergenza sanitaria, ricordando che, dal 2017, il processo amministrativo è diventato telematico: gli atti originali del processo sono ormai informatici, le comunicazioni avvengono via pec, le pronunce sono visionabili tramite portali digitali, ecc. Fa, in parte, eccezione l’udienza (ne abbiamo parlato qui), che viene svolta in presenza (sebbene, alla luce dell’esperienza pandemica, in alcune circostanze anche le udienze si sono tenute -e potranno continuare a svolgersi- da remoto). 

Un orientamento del Consiglio di Stato ha statuito, poi, i termini per il deposito digitale della documentazione processuale: ne è così derivato che i depositi della documentazione, in vista di una udienza, devono avvenire entro le ore 12 del giorno di scadenza (cfr. Consiglio di Stato, sez. VI, n. 3149/2020). 

La relazione evidenzia, poi, alcune criticità legate sempre al sistema che ruota attorno alla giustizia. In particolare, i documenti processuali, solitamente in formato pdf, mancano del collegamento iperlink ai i riferimenti normativi o giurisprudenziali citati; non consentono, così, al giudice di aprire in automatico i documenti citati dalle parti (e rendono, perciò, più difficoltoso il lavoro del giudice). Non vi sono servizi di assistenza digitale, poi, rileva; mancano ad esempio i c.d. BOT, oppure dei sistemi di intelligenza artificiale che possano aiutare le segreterie ad anonimizzare (senza commettere errori grossolani) le decisioni giurisdizionali. (sul processo in fase di pandemia si rimanda qui).  

 

La relazione conclusiva è a cura della Prof.ssa Luisa Torchia, ordinaria di Diritto Amministrativo. La Professoressa evidenzia, in primo luogo, alcune delle criticità legate all’uso dell’IA nel sistema giudiziale: anzitutto, è necessario che la decisione non resti opaca e che siano al contrario garantite la fishbawl trasparency e reasoned trasperency (la prima rende noti i passaggi che sottendono all’adozione di una determinazione, la seconda consente, invero, la spiegabilità del ragionamento prevalso); in secondo luogo, è opportuno assicurare che, laddove l’algoritmo sbagli, la responsabilità di chi ha sbagliato a “scriverlo” sia condivisa con quella di chi (funzionario/giudice) non lo ha controllato (cfr. l’orientamento espresso dal Tar Trento, sez. Un., n. 149/2015). 

La relazione precisa, poi, che la predizione dell’algoritmo nell’ambito della giustizia è basata su inferenze statistiche e non su rapporti di causa-effetto: questo comporta che la giustizia, così impostata, non predice affatto il futuro, ma si limita a cristallizzare il passato. Il rischio, dunque, è che si rafforzi il conformismo, a discapito dell’uguaglianza e della evoluzione del sistema. 

In questi termini, viene messa in crisi anche l’attività interpretativa del giudice, specie quella semantica che comporta il collegamento delle norme e dei fatti. Se tutte le decisioni sono assunte da algoritmi, e dunque appaiono standardizzate, è davvero necessario un giudice nomofilattico, allora, che le riporti a sistema, ordinandole? Quale sarà il ruolo dell’Adunanza Plenaria, ad esempio, in un sistema di tal fatta? 

Il problema di fondo, sostiene la Prof.ssa Torchia, è che l’IA omogeneizza arbitrariamente futuro e passato e abolisce la dimensione del tempo; essa rende il futuro conosciuto come il passato; ma il futuro può essere migliore del passato, precisa, solo se si fanno cose nuove. Altrimenti, si finisce con lo svalutare il futuro stesso. 

Tuttavia, secondo la relatrice, la discussione sulla giustizia digitale è utilissima per scoprire i bias impliciti dei giudici “umani”: se la macchina sbaglia e discrimina è perché, a monte, sbagliano e discriminano i giudici essere umani, posto che i dati inseriti, su cui la macchina si basa per decidere, sono quelli offerti delle decisioni che i primi hanno assunto (come rilevato in questa sede). Nella sua prospettiva, quindi, guardando ai difetti della giustizia digitale, in altri termini, si può forse migliorare la giustizia umana. 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale