L’errore dell’algoritmo obbliga la pubblica amministrazione a risarcire il danno

“Chi sbaglia paga”: è un principio generale dell’ordinamento giuridico declinato in vari ambiti (civile, penale, amministrativo ecc.). Ma se a sbagliare è un algoritmo? Recentemente il Tribunale di Roma ha dovuto prendere posizione su questo problema e l’ha fatto nel modo apparentemente più ovvio: addossando la responsabilità a chi ha utilizzato quell’algoritmo. Ma una soluzione di questo tipo è veramente appagante? Si tratta di un modello applicabile a tutti i sistemi di intelligenza artificiale oppure soltanto ad alcuni di essi? Tali interrogativi meriterebbero forse una soluzione sul piano normativo, che però ancora manca. Nel frattempo, la giurisprudenza è chiamata a dare delle risposte. 

 

La vicenda esaminata dal Tribunale di Roma è abbastanza semplice e ha visto contrapporsi il Ministero dell’istruzione e del merito e una docente scolastica in qualità di sua dipendente. In particolare, quest’ultima sosteneva di essere stata vittima di una sorta di errore commesso dall’algoritmo utilizzato dal Ministero per attribuire le supplenze ai docenti. Il meccanismo di conferimento degli incarichi avrebbe dovuto essere lineare: i candidati con un punteggio più alto in graduatoria avrebbero dovuto ricevere i posti in base alle proprie preferenze. 

Purtroppo, però l’algoritmo ha commesso degli errori. Diversamente da quanto preventivato, il software non ha convocato il docente con il maggior punteggio in graduatoria, ma ha proseguito nella cernita partendo dall’ultimo docente che aveva ottenuto una supplenza nella precedente tornata, scorrendo e assegnando così la nuova supplenza al candidato con punteggio immediatamente successivo. In concreto, quindi, l’incarico è stato affidato ad un docente con un punteggio nettamente inferiore a quello cui invece sarebbe spettata la supplenza. 

La vicenda presenta evidentemente delle caratteristiche peculiari: da un lato, infatti, è presente un’attività amministrativa (in particolare organizzativa), che ha come finalità la ripartizione degli incarichi di supplenza; dall’altro lato, è presente un rapporto di pubblico impiego, soggetto però alle regole del diritto civile. Tali peculiarità rendono questo caso paradigmatico. 

Quanto al primo aspetto, infatti, è difficile conciliare i principi dell’attività amministrativa con le potenzialità insite nell’impiego dei sistemi di intelligenza artificiale. Il compito di trovare il giusto bilanciamento spetterebbe al legislatore, che però è restio a prendere posizione sul punto (basti pensare all’iter legislativo del c.d. AI Act, ne abbiamo parlato QUI). Fa eccezione, a livello nazionale, l’art. 30 del d.lgs. n. 36 del 2023 (nuovo codice dei contratti pubblici), il quale elenca i principi che regolano l’utilizzo dell’intelligenza artificiale nel ciclo di vita dei contratti pubblici. In generale, però, il punto di equilibrio è stato finora fissato dalla giurisprudenza del Consiglio di Stato (ne abbiamo parlato QUI, QUI e QUI). 

Dall’altro lato, la vicenda si iscrive in un rapporto di pubblico impiego regolato dal diritto privato. Ciò comporta che, in linea di massima, le conclusioni cui è giunto il Tribunale di Roma non riguardano soltanto l’attività amministrativa, ma possono essere estese anche ai rapporti tra privati, normalmente regolati dal diritto civile. 

Ma quali sono i modelli a disposizione per risolvere una controversia di questo tipo? L’algoritmo ha sbagliato, la docente ha subito un danno: chi è obbligato a risarcire? Le ipotesi astrattamente in campo sono molte: si può immaginare di attribuire la personalità giuridica all’algoritmo e imputare ad esso la responsabilità; si può configurare una responsabilità oggettiva o presunta dell’utilizzatore (in questo caso, il Ministero), oppure persino del produttore (l’operatore economico fornitore del software); si possono imporre degli obblighi di vigilanza e protezione (sempre in capo al Ministero); si possono infine applicare i criteri “ordinari” di imputazione soggettiva del danno, ammettendo la responsabilità del danneggiante soltanto in presenza di colpa o dolo. Applicando quest’ultimo modello, per esempio, il Ministero potrebbe dimostrare di non essere stato a conoscenza del difetto dell’algoritmo. 

La recente proposta di direttiva avanzata dalla Commissione europea (ancora in discussione) è orientata in una duplice direzione: da un lato, cerca di alleggerire l’onere della prova in carico al danneggiato; dall’altro lato, configura delle ipotesi di responsabilità oggettiva in capo ai fornitori di sistemi ad alto rischio. In ogni caso, stando alla proposta, andrà valutata in un secondo momento la possibilità di imporre persino una copertura assicurativa per i soggetti coinvolti nell’utilizzo di queste tecnologie. 

Al netto dei modelli teorici e delle proposte sul tavolo, tuttavia, il Tribunale di Roma, nella sentenza n. 1463 del 10 febbraio 2023, ha avuto a disposizione “soltanto” la disciplina civilistica. Dopo aver riconosciuto che effettivamente l’algoritmo è caduto in un errore grossolano, il Tribunale ha accertato il diritto della ricorrente ad ottenere l’incarico di supplenza e ha condannato la pubblica amministrazione a risarcire il danno causato. Purtroppo, però, complice anche la conformazione del rito del lavoro (notoriamente sfavorevole sul piano istruttorio alla parte resistente), il giudice non ha preso posizione sulle problematiche appena descritte. Non ha chiarito, per esempio, se la responsabilità del Ministero avesse natura propriamente oggettiva oppure se dipendesse dalla mancata prova circa l’insussistenza del requisito soggettivo. Si tratta di aspetti determinanti tanto per chiarire i rapporti tra le parti in causa, quanto per comprendere il regime di un’eventuale rivalsa del Ministero nei confronti dell’ipotetico fornitore del software. Per ricevere questi chiarimenti sarà quindi necessario aspettare ancora. 

 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale