Il consenso trasparente (e non solo informato) nell’età degli algoritmi: qualche chiarimento dalla Cassazione

La prima Sezione della Corte di Cassazione civile analizza il tema della necessarietà della trasparenza algoritmica nei rapporti sinallagmatici per il rilascio del consenso. Le questioni analizzate si muovono nel solco di quelle già analizzate dalla giurisprudenza amministrativa con riguardo alla piena conoscenza delle informazioni che conducono al processo di formazione del risultato della macchina. Tutto ciò conferma non solo che le regole algoritmiche, applicabili nei rapporti tra autorità e libertà, trovano applicazione nei rapporti paritari di diritto privato, ma anche che la libera manifestazione del consenso può essere ostacolata dal “potere” dei nuovi strumenti algoritmici e di intelligenza artificiale. 

 

La Prima Sezione della Cassazione civile, con l’ordinanza n. 30123 del 10 ottobre 2023, analizza un tema estremamente complesso il quale, nonostante abbia trovato maggiori riflessioni ed approdi nella scienza giuridica pubblicistica, intreccia anche i rapporti sinallagmatici, vale a dire la trasparenza e la conoscenza effettiva dell’algoritmo (analizzato in un recente Post dell’Osservatorio, ma sul quale erano state svolte interessanti riflessioni, con riguardo alla decisione amministrativa, in un altro Post). La pronuncia in esame valorizza l’utilizzo degli strumenti algoritmici in quanto tali, a prescindere dal rapporto giuridico sotteso (se esso sia, appunto, privato o amministrativo) e conferma l’indispensabilità di un governo delle nuove tecnologie quanto più vicino possibile alla cognizione informatica media dei cittadini. 

 

La decisione prende le mosse da un provvedimento del 24 novembre 2016 dell’Autorità Garante per la protezione dei dati personali, la quale vietò il trattamento, da parte di un ente associativo, di dati personali attraverso i quali si intendeva realizzare una piattaforma web, che aveva lo scopo di contrastare fenomeni basati sulla creazione di profili artefatti o inveritieri e, contestualmente, calcolare, in maniera imparziale, attraverso meccanismi di intelligenza artificiale, il “rating reputazionale” dei soggetti censiti. Il provvedimento è stato impugnato dall’associazione e la riforma della sentenza è stata accolta dal Tribunale di Roma, ed avverso la sentenza da quest’ultimo pronunciata il Garante per i dati personali ha proposto un ricorso per cassazione ex art. 365 c.p.c. La Suprema Corte ha annullato con rinvio la decisione del Tribunale di Roma per uno specifico motivo, che si rinviene nella opacità dell’algoritmo impiegato: lo schema esecutivo dell’algoritmo utilizzato per il trattamento di dati personali deve essere quanto meno conoscibile al fine di consentire l’adesione, da parte dei consociati, ad una piattaforma informatica. Il Tribunale di Roma, nel giudizio di rinvio, respinge il ricorso dell’associazione sulla base della non conformità dello strumento informatico utilizzato rispetto al principio di diritto stabilito dalla Cassazione, ritenendo che l’algoritmo utilizzato non esplichi il processo che esso ha seguito, ma si limiti semplicemente a descrivere “in termini comparatistici l’incidenza dei singoli dati presi in considerazione” (un approfondimento del rapporto tra algoritmi informatici e consenso informato è stato svolto in un precedente Post dell’Osservatorio). Da ultimo, avverso questa sentenza l’associazione ha adito nuovamente la Corte di Cassazione, richiedendo l’annullamento del provvedimento del Garante per la protezione dei dati personali del 24 novembre 2016. 

 

Da un punto di vista metodologico, la Cassazione civile segue ormai la logica dell’interdisciplinarietà tra diritto e tecnologie fatta propria anche dal giudice amministrativo (aspetto sul quale è possibile rimandare ad un precedente Post di questo Osservatorio) – è emblematica, in tal senso, la sentenza del Consiglio di Stato n. 7891 del 2021, approfondita in questo Post – e la Suprema Corte, prima di entrare nel merio della questione, ritorna sulla costruzione dei c.d. algoritmi deterministici, caratterizzati da un input inserito dall’uomo e da un output invece prodotto dalla macchina. Un sommario richiamo alle dinamiche algoritmiche – che tuttavia non tiene conto degli strumenti di intelligenza artificiale – consente di comprendere meglio le ragioni sottese al principio di diritto enunciato in questa pronuncia dalla Cassazione. Secondo quest’ultima, infatti, ciò che va stigmatizzato non è il risultato dell’algoritmo – il quale, come noto, nonostante goda di una presunzione di certezza, è certamente fallibile – ma è piuttosto l’impossibilità di conoscere concretamente il percorso seguito dalla macchina proprio in vista dell’output finale. Il ragionamento, nel caso di specie, va traslato sul momento in cui il consenso di un consumatore sia “validamente prestato” ai sensi dell’articolo 23, d.lgs. n. 196 del 2003, e cioè “solo se è espresso liberamente e specificamente in riferimento ad un trattamento chiaramente individuato, se è documentato per iscritto, e se sono rese all’interessato le informazioni di cui all’articolo 13”, in virtù del quale l’interessato debba essere informato circa le finalità e le modalità del trattamento cui sono destinati i dati. 

 

Siffatta ricostruzione, ove applicata a casi nei quali il trattamento dei dati è gestito da un algoritmo informatico, conferma come sarà la dinamica sottesa alla logica algoritmica stessa a dover esser coperta dal consenso. Per tale ragione, al fine di integrare i presupposti di un consenso “libero e specifico”, colui il quale intenda prestare il consenso sarà necessariamente tenuto a conoscere tutte le informazioni attinenti al processo di formazione del risultato della macchina; diversamente, e cioè laddove l’interessato conosca soltanto l’output dell’algoritmo, e non anche l’iter logico ad esso sotteso, il consenso non potrà dirsi validamente prestato. In questo caso, la Cassazione sembra adattare, con qualche accorgimento, una formula felice utilizzata dalla giurisprudenza amministrativa, che tuttavia è rimasta tale senza dare gli effetti sperati. Mentre per il Consiglio di Stato, quello che è necessario, al fine di consentire una conoscenza piena effettiva dell’algoritmo, ancorché deterministico, è fare in modo che la regola tecnica sia tradotta in regola giuridica (nella prospettiva dell’onere motivazionale), in questo caso ciò che rileva è che “sia possibile tradurre in linguaggio matematico/informatico i dati di partenza, cosicché il tutto divenga opportunamente comprensibile alla macchina, grazie ai soggetti esperti programmatori”. 

 

Nell’ambito della scienza giuspubblicistica che si è interessata dall’amministrazione automatizzata, è emerso come le dinamiche sottese all’algoritmo non siano facilmente intellegibili, non soltanto per il privato che non dispone delle competenze specifiche per tradurre la regola tecnica in un passaggio giuridico, ma neppure per l’amministrazione. Questo accade sia allorché si prediliga lo strumento degli algoritmi di auto-apprendimento, sia in ragione del costante processo di aggiornamento dei software che non consente una conoscibilità nel lungo periodo del procedimento argomentativo della macchina, incidendo negativamente anche sulla stabilità del risultato e generando una “drammatica carenza di trasparenza”. Quanto appena detto rischia di condurre ad un progressivo incremento della tensione strutturale tra il principio di imparzialità e quello di trasparenza, sbilanciata evidentemente a favore del primo, e in spregio alla necessità di preservare la coesistenza dei due termini nella logica di un giusto procedimento amministrativo, soprattutto ove questo sia automatizzato.  

 

La dinamica appena evidenziata, che trova applicazione nelle logiche del rapporto tra autorità ed individuo, in teoria non dovrebbe trovare applicazione nei rapporti paritari di diritto privato, nella misura in cui l’utilizzo di strumenti algoritmici è subordinato al consenso delle parti e non, come nei rapporti giuridici amministrativi, alla scelta organizzative del potere pubblico. Tuttavia, se il consenso informato è subordinato alla conoscenza della logica algoritmica, il rischio concreto è che paradossalmente i privati possano soffrire maggiormente della carenza di cognizioni sul processo seguito dalla macchina, nella misura in cui la libera manifestazione della volontà sarebbe ostacolata dalla conoscenza, tutt’altro che scontata, della dinamica sottesa all’algoritmo. Tutto ciò, evidentemente, confermerebbe il “potere dell’algoritmo” a scapito dei diritti fondamentali dei cittadini. 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale