Recensione a “L’intelligenza artificiale “sostenibile” e il processo di socializzazione del diritto civile”, Edizioni Scientifiche Italiane, Napoli, 2020.

Nel volume, che costituisce la rielaborazione di una relazione presentata dall’autore alla Scuola estiva del 2019 dell’Associazione Dottorati di Diritto Privato, Enrico Caterini dialoga con il lettore, chiarendo quali prospettive attendano l’uomo sul piano della vita sociale e regolativa a fronte della innegabile innovazione dirompente che va registrandosi.

 

Nel 2017, la vendita mondiale di robot industriale è incrementata del 30% nel mondo (dati comunicati dalla federazione internazionale di robotica); nel 2018, il 57% delle imprese nel mondo ha avviato processi di automazione (report Mcinsey& C.); secondo il world Economic Forum, il tempo di lavoro, nel 2025, sarà svolto per il 52% dalle macchine e per il 48% dai lavoratori.

 

Di questi dati dà conto Enrico Caterini nel suo testo “L’intelligenza artificiale “sostenibile” e il processo di socializzazione del diritto civile”, che costituisce la rielaborazione e l’estensione della relazione letta dall’a. nel corso della “Scuola estiva del 2019” dell’Associazione Dottorati di Diritto Privato, svoltasi presso l’Università Politecnica delle Marche, l’11 settembre 2019.

 

Nel lavoro, diviso in 12 paragrafi e corredato di un corposo apparato di note, l’a. si prefigge l’obiettivo di chiarire, da un lato, che cosa si intenda con Intelligenza Artificiale, dall’altro, che prospettive attendano l’uomo sul piano della vita sociale e regolativa a fronte della innegabile innovazione dirompente che va registrandosi.

 

Enrico Caterini rileva anzitutto che la robotica, passando per il tramite della fase della cd. automazione (la macchina lavora da sé e non ha bisogno dell’impulso), è approdata, dalla fase della programmazione delle azioni (umane e macchiniche), alla fase della cd. autonomizzazione (la macchina assume da sé le decisioni). Il tema è di particolare importanza, posto che questa possibilità del robot di decidere (e, dunque, di assumere scelte su interessi che hanno riflessi su assetti valoriali) senza che a monte vi sia il bisogno di un governo eterodiretto cambia le prospettive.

 

Più nel dettaglio, secondo l’a., il progresso dell’IA, fenomeno pervasivo e invasivo, incide, tra le altre idee consolidate che abbiamo conosciuto e che conosciamo, su quella di “persona”, posto che muta le condizioni naturali dell’esistenza umana (e, quindi, anche dell’intelligenza umana).

 

In particolare, l’autonomizzazione delle macchine pone, nella prospettiva di Caterini, una questione sociale; un problema, specificamente, di accessibilità: lo strumento, che è sempre meno strumento e sempre più centro decisionale che muta gli equilibri, diventa possibile causa di differenziazione tra le persone, posto che non tutti ad esso possono liberamente accedere.

Per evitare che gli strumenti si trasformino in occasioni di discriminazioni dettate dal difetto di accessibilità a tutti, occorre dunque porre in essere delle azioni socialmente orientate (che siano ad esempio volte a rimediare agli ostacoli socio-economici). È necessario, poi, che siano assicurate una certa trasparenza e una certa intelligibilità degli strumenti.

Appare condivisibile, quindi, la parte in cui nel saggio si rileva la necessità di riconoscere che gli autori algoritmici e gli attanti macchinici sono responsabili, non solo civilmente, ma anche socialmente: l’IA non può essere causa di un aggravamento delle differenze, ma deve porsi quale veicolo di uguaglianza. Perché ciò accada, è necessario che il ritrovato della scienza soggiaccia al primato del diritto, che è strumento per la costruzione di una società giusta.

 

Si tratta di un tema centrale, di cui occorre debitamente tener conto nel portare avanti gli studi sull’innovazione tecnologica: si pensi al settore salute e alla distribuzione differenziate delle risorse su base regionale; ma anche, più banalmente, alle diseguaglianze sociali che sono venute a sostanziarsi nel corso della pandemia, alla luce del già esistente differenziale digitale nelle famiglie italiane (di questo aspetto, si è dato conto in un altro post di questo Osservatorio).

 

Di particolare rilievo la parte in cui l’a. si concentra sull’analisi delle due funzioni dell’IA: la funzione della disintermediazione (l’IA consente di superare i soggetti frapposti che solitamente sono sempre stati soggetti di garanzia nei rapporti sociali) e la funzione della predittività (la capacità propria dell’IA di elaborazione del dato molto più potente dell’IU che le consente, nel presente, di proiettarsi nella dimensione futura attraverso una valutazione predittiva dell’insieme delle informazioni).

 

Il carattere della disintermediazione, afferma l’a., appare molto rischioso.

 

Effettivamente, già ora che l’uomo ha disintermerdiato la sola informazione, noi tutti ci siamo resi conto di quanto tale carattere dell’innovazione sia stato pericoloso sul piano pratico: il rischio che viviamo quotidianamente, infatti, è quello di accedere direttamente a dati che, non filtrati, dis-informano (di questo ha dato conto Lorenzo Casini nel suo ultimo volume “Lo Stato nell’era di Google. Frontiere e sfide globali”, Mondadori, 2020, la cui intervista rilasciata all’Osservatorio può leggersi qui: https://www.irpa.eu/intervista-con-lautore-lorenzo-casini-lo-stato-nellera-di-google-frontiere-e-sfide-globali-mondadori-2020/).

 

Il problema si acuisce, ritiene Caterini, quando la disintermediazione transita dalla informazione ai valori: con l’IA possiamo arrivare a disintermediare tutte quelle strutture, quegli strumenti di garanzia (Banche, Stati, soggetti e professioni di controllo) che erano strumenti di garanzia per le parti più deboli (ad esempio per ragioni di asimmetria informativa) dei rapporti governati dall’ordinamento. Il rischio è che dunque i valori vengano immessi nel circuito giuridico economico e sociale senza alcuna garanzia e senza alcun controllo.

 

Si chiede, poi, Caterini, se nel contesto rivoluzionato dalla vita automata non mutino anche i paradigmi della concezione democratica.

L’IA, afferma l’a., provoca una estrema attenzione sul dato e comporta una consequenziale poca attenzione sulle idee; fa sì, cioè, che il valore della democrazia si trasferisca dall’idea al dato. Tuttavia, afferma, tenuto conto del fatto che non necessariamente le due identità coincidono, lo spostamento sul fronte del dato provoca la pericolosa mancanza del momento valutativo ed ideale, che al contrario deve al contrario esistere affinché la democrazia possa definirsi tale.

Vero è, precisa l’a., che, in tale contesto, l’uomo vanta un diritto fondamentale al dato vero (a un dato che sia cioè corrispondente a una non assoluta verità). Tuttavia, è altrettanto vero, precisa, che siffatto il diritto al dato vero è il presupposto della decisione democratica, ma non può coincidere con essa: la decisione democratica, nella sua prospettiva, per essere definita come tale, necessita dell’elemento della scelta; se manca quest’ultimo elemento, il decisore coincide con il tecnico e il sistema democratico collassa (di come la tecnologia influenzi e condizioni la democrazia, ha parlato G. Sgueo in un altro post dell’Osservatorio).

 

Quanto alla funzione predittiva, essa si manifesta in vari settori della medicina preventiva, tra gli altri, e risulta invero -forse giustamente- spesso criticata, quando accostata al tema della giustizia, quantomeno in Italia (sul punto, si veda lo scritto di R. Bricchi, pubblicato in Giur. it., numero monografico a cura di Enrico Gabrielli e Ugo Ruffolo, nel luglio 2019, che è stato recensito in questo Osservatorio).

 

L’a. rileva che essa può avere invero una ricaduta positiva: per il suo tramite, ad esempio, tutti noi consumatori assumiamo contestualmente il ruolo di committenti dei prodotti da consumare (diveniamo, cioè, soggetti di produzione); quando forniamo informazioni su gusti, preferenze, ecc., forniamo alle società di produzione delle preferenze che spingeranno quella stessa azienda a produrre beni maggiormente rispondenti ai nostri gusti.

 

Il testo spinge il lettore, tra le altre cose, a ragionare sull’opportunità di tenere ancora separate le due intelligenze (umana e artificiale), sulla certezza di potere considerare la prima (IU) superiore a alla seconda (IA), sulla necessità di iniziare a considerare le stesse come un processo integrante.

Invero, l’a. rileva che è stato provato che, nel replicare lo schema metrologico dell’intelligenza umana, l’Intelligenza Artificiale ha un potenziale di calcolo enormemente superiore rispetto alla prima (ed è avvantaggiata, quindi, perché riesce a fare cose che la mente umana, dal punto di vista dell’applicazione della sua metodica razionalista, non è capace di fare); tuttavia, sottolinea che è stato altresì dimostrato che l’IA non è soltanto intelligenza razionale.

In particolare, grazie a un esperimento effettuato nell’ambito sportivo, è stato rilevato che anche le macchine ragionano di fantasia, applicando dunque la stessa metodica che applica il cervello umano quando si discosta dalla logica razionale e lavora su congetture astratte. In altri termini, si è scoperto che anche la creatività è automatizzabile e che, dunque, la capacità elaborativa della macchina è pari o quasi pari alla capacità elaborativa dell’uomo (in particolare, ciò è stato dimostrato da un esperimento effettuato da un giocatore orientale di Go, che, nel 2017, con lo scopo di provare la superiorità dell’IU sull’IA, ha sfidato una macchina progettata per giocare a quel gioco e ha perso 4 set su 5: nell’analizzare le ragioni della sconfitta, ci si è accorti del fatto che la macchina, per vincere, aveva adoperato, ricorrendo alla fantasia, una mossa strategica).

Secondo Caterini, occorre in ogni caso prendere definitivamente contezza del fatto che, allo stato, l’intelligenza artificiale, sebbene replichi della parte dell’intelligenza umana che conosce e apprende attraverso l’esperienza, è diversa da quest’ultima. L’a. sottolinea, infatti, che, se è vero che la distinzione tra le due intelligenze non può essere rinvenuta nel momento creativo, è altrettanto vero che essa può essere rinvenuta, invece, nella presenza/assenza di coscienza: l’IA, infatti, contrariamente all’Intelligenza Umana, non ha coscienza (e interagisce, perciò, con l’apparato della conoscenza). Essa è poi priva del giudizio, in quanto, a differenza dell’IU, non è né saggia (è incapace di penetrare oltre le persone e le cose) né giusta (non valuta l’interesse degli altri, quando sceglie e decide, ma solo il proprio).

 

L’autore si sofferma, inoltre, sul tema della cd. soggettivizzazione dell’IA.

Gli studi giuridici più avanzati, rileva, riconoscono ormai quasi pacificamente soggettività giuridica all’IA (sia a quella robotica, si a quella che non si esprime per il tramite di un robot). Questo dimostra, sottolinea Caterini, che la soggettività non va identificata con la persona: quest’ultima è solo una parte -sebbene importantissima- del ventaglio delle soggettività giuridiche che l’ordinamento concepisce.

In tal senso, egli conviene con le teorie che registrano un superamento della concezione antropocentrica della soggettività giuridica, anche alla luce della giurisprudenza degli interessi che, nel tempo, è intervenuta su questo tema, riconoscendo la soggettività di foreste, ghiacciai, animali, ecc.

L’ordinamento, afferma, può senza dubbio riconoscere e apprezzare nuovi interessi, tanto da soggettivarli; l’unico limite risiede nella persona, che da tali riconoscimenti, afferma, non deve in alcun modo essere lesa, ma deve anzi trarre giovamento in termini di aumento della sua tutela.

 

Consequenzialmente, Caterini, riprendendo espressamente l’idea kantiana secondo la quale l’agente morale risponde delle sue azioni, afferma che all’autonoma capacità di decisione della macchina soggettivizzata deve per forza corrispondere una autonoma responsabilità.

 

Il tema è particolarmente centrale, tanto è che, come rilevato in altre occasioni, è stato attenzionato sia dalla dottrina italiana, sia dall’Unione Europea (quanto agli studi della dottrina italiana, si vedano i contributi pubblicati nel soprarichiamato numero monografico di Giur. it., recensito su questo Osservatorio; quanto all’attenzione riservata dall’UE al tema, si veda il post di commento alla Risoluzione del Parlamento Europeo del 2016).

 

In conclusione, il saggio dimostra quanto il discorso sulle potenzialità dell’IA debba sempre essere condotto nel prisma dei valori della persona (fulcro dell’ordinamento, intesa in una prospettiva assiologica e ontologica): l’innovazione non deve smarrire la dimensione sociale dell’umanità e deve al contrario sviluppare nelle sue potenzialità la capacità di cooperazione tra gli uomini. Tramite l’IA può essere garantita l’effettività dei diritti e dei doveri dell’uomo, ma può anche essere semplificato il meccanismo di accesso degli attori sociali agli stessi.

 

Da non sottovalutare, sottolinea l’a., l’impegno del giurista (in particolare, del civilista), che deve impegnarsi per agire affinché il diritto accresca il tasso di socialità, assumendo una posizione interpretativa che sia coerente con la legge fondamentale della Repubblica.

 

Sempre in quest’ottica (che poi è strettamente connessa a quella di cui s’è dato conto fin dall’inizio), Caterini specifica, innovativamente, che l’intelligenza artificiale è strumento di sostenibilità sociale; può essere, cioè, grazie alla sua capacità di guardare al futuro, un facilitatore che sospinge e agevola le azioni verso la sostenibilità, da intendersi come quel principio generale dell’ordinamento italoeuropeo secondo il quale la fenomenologia giuridica del presente deve rispettare e conservare la futurità.

 

Si tratta di un lavoro profondo, che va al di là del diritto civile e involge molte altre discipline; il libro di Caterini dimostra che quello dell’IA, oltre a essere un problema del diritto, è un problema che interessa, tra gli altri, anche il piano antropologico e quello sociale: il volume, che sintetizza un costante dialogo del giurista con le altre scienze, conferma come lo studioso di diritto che voglia confrontarsi col tema debba necessariamente tener conto di (e prima ancora studiare le) altre discipline e altre scienze; la sua ricerca, se così non fa, resta altrimenti priva di significato (e, in ogni caso, incompleta).

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.