
Nel volume “Pari dignità sociale e Reputation scoring. Per una lettura costituzionale della società digitale”, Elena Di Carpegna Brivio verifica come si ponga il costituzionalismo di fronte alla rivoluzione digitale, quali effetti negativi questa richiamata rivoluzione provochi sulla realtà fattuale e quali rimedi possano essere giuridicamente approntati per farvi fronte. L’a., per leggere in senso costituzionale la società digitale, ritiene che si debba guardare al valore delle dignità sociale, il quale può essere considerato come un “argine efficace alla deriva quantitativa che è propria del potere computazionale”.
“Pari dignità sociale e Reputation scoring. Per una lettura costituzionale della società digitale” è un libro pubblicato nel 2024 da Elena Di Carpegna Brivio, ricercatrice presso il Dipartimento di Scienze Economico-Aziendali e diritto per l’Economia, dell’Università degli Studi di Milano-Bicocca, (monografia edita da Giappichelli e inserita nella collana “Studi di diritto dell’economia” del Dipartimento di Scienze Economico-Aziendali e diritto per l’Economia dell’Università degli Studi di Milano-Bicocca).
Si tratta di un volume che chiarisce fin da subito quale sia il suo obiettivo principale: nelle note introduttive del libro, l’a. afferma di voler verificare come si ponga il costituzionalismo di fronte alla rivoluzione digitale, quali effetti negativi questa richiamata rivoluzione provochi sulla realtà fattuale e quali rimedi possano essere giuridicamente approntati per farvi fronte. Ed Ella è altrettanto chiara nel precisare immediatamente che, per leggere in senso costituzionale la società digitale, occorre guardare al valore delle dignità sociale, il quale può essere considerato come un “argine efficace alla deriva quantitativa che è propria del potere computazionale” (p. 153).
Dignità sociale, attenzione, non mera dignità; perché è questa la dignità cui la nostra Costituzione repubblicana si riferisce, con il fine di riconoscerle un indubbio valore intersoggettivo e comunitario.
Più dettagliatamente, l’a. specifica che, perché il richiamo alla dignità non sia una formula dal generico potere evocativo, occorre ragionare sulla formula -maggiormente precisa- della «pari dignità sociale», prevista dall’art. 3 della Carta fondamentale. E ciò in quanto, a differenza di altre illustre enunciazioni (quali ad esempio quella tedesca e quella della Carta dei diritti fondamentali dell’Unione Europea), per la Costituzione italiana la dignità “non è soltanto un elemento universale che accomuna tutti i membri della famiglia umana, ma è anche un elemento che deve maturare all’interno delle relazioni sociali” (p. 142) grazie alle quali si conquista e attraverso le quali può essere “guardata dal diritto positivo” (p. 58).
La tesi di fondo è quella secondo cui solo nelle forme della «pari dignità sociale» il valore universale della dignità può assumere quell’efficacia orizzontale e intersoggettiva che è necessaria sia per contrastare un potere sfuggente e multiforme, come il potere computazionale, sia per ricongiungere la persona umana (non soltanto con i suoi dati, ma anche) con la possibilità di realizzare, nel contesto sociale, il pieno svolgimento della sua personalità: attraverso la dignità come obbligazione sociale diviene possibile dare una lettura costituzionale della società digitale.
Ai sensi della Costituzione, spiega l’a., ogni possibile raffigurazione della persona umana “deve essere parametrata a un’idea costituzionale di dignità che riguarda certamente l’essere umano in sé considerato, ma che nulla sarebbe se ad essa non fosse data la possibilità di realizzarsi nel contesto sociale e nella vita di relazione che, di fatto, determina la reale condizione della persona” (p. 53).
Elena Di Carpegna Brivio si preoccupa di giungere a questa affermazione per il tramite di un’interessante analisi ricostruttiva del fenomeno “rivoluzione digitale”; un’analisi che si articola in sei capitoli e che consente all’autrice di proporre una sorta di sintesi delle questioni che maggiormente hanno interessato -e interessano- la società digitale.
Il libro parte da un assunto condivisibile: la rivoluzione digitale, al pari di quella industriale, incide sul quotidiano, sul modo in cui l’essere umano imposta e vive le relazioni con i propri simili e con l’ambiente che lo circonda; essa implica delle trasformazioni sociali che portano a riflettere su alcuni concetti tradizionali e che riportano al centro del dibattito molti pilastri di fondo del diritto pubblico, perché alcuni di quei temi che si pongono alla radice del pensiero costituzionale sembrano essere sottoposti dall’evoluzione tecnologica a un vero e proprio “logoramento” (p. 1). Tra questi temi interessati dal logoramento, l’a. individua la garanzia delle libertà, la lotta alle discriminazioni e alle diseguaglianze, la trasparenza delle decisioni (politiche e amministrative), il giusto processo, la partecipazione democratica; ed è in particolare nel II capitolo che Ella rileva la capacità delle tecnologie digitali di incidere trasversalmente su una serie di elementi che costituiscono veri e propri cardini del costituzionalismo: l’identità personale, la privacy e la libertà personale. Questi tre elementi, afferma l’a., vengono trasformati da tecnologie che considerano la persona umana non più un’unità psicofisica che deve essere rappresentata nel contesto sociale in un modo rispondente alla sua esperienza e ai suoi convincimenti, ma come un accumulo di dati e informazioni che possono essere organizzate e riorganizzate secondo le finalità più eterogenee.
Nel trattare della rivoluzione tecnologica, l’a. fa particolare riferimento all’intelligenza artificiale, rilevando come la stessa abbia compiuto un netto salto di qualità e abbia così portato a ripensare moltissime attività umane, fino a mettere in discussione aspetti portanti dei processi relazionali e decisionali. L’IA trasforma il modo in cui quotidianamente viviamo e lavoriamo; i sistemi vengono ormai utilizzai per prendere decisioni importanti: per assumere, per prevenire le malattie, per curare… Insomma: sono vari i processi decisionali in cui il ruolo di sistemi di calcolo automatizzato è divenuto crescente. Si tratta di un’evoluzione che apre straordinari scenari di progresso, sì, ma che, come noto, genera pure nuove forme di potere e di soggezione, nuovi pericoli.
Nel volume, l’a. si concentra su un pericolo specifico; e cioè, sulle distorsioni che possono prodursi nel leggere secondo filtri statistici la reputazione sociale (da qui, il titolo del volume). I punteggi reputazionali sono valutazioni sintetiche della reputazione sociale formulate dagli algoritmi attraverso correlazioni e inferenze statistiche; valutazioni che sono state attuate anche da noi, in Italia, non solo da soggetti privati, invero, ma anche da alcuni soggetti pubblici, i quali hanno avviato progetti locali -analizzati dall’autrice nel volume oggetto d’analisi-, che hanno indotto l’Autorità garante della privacy ad aprire delle istruttorie atte a scrutinare l’opportunità di queste pratiche idonee a produrre “una cittadinanza a punti”.
Cosa non convince di questi sistemi, che esprimono il valore sociale dell’individuo attraverso rilevazioni e misurazioni di carattere quantitativo? Intanto, spiega l’autrice, il fatto che in essi vi sia una tendenza a rendere irrilevanti le differenze di contesto e ad appiattire le molte sfaccettature della personalità umana sui soli comportamenti che, misurabili, possono essere osservati dagli algoritmi; in secondo luogo, il fatto che la misurazione del comportamento di un soggetto in un dato momento storico, al fine di formulare e quantificare una previsione sul suo comportamento futuro, tende a nascondere alla valutazione il merito potenziale della singola persona, condannandola invece a una ripetizione costante del suo passato; infine, il fatto che quando essi vengono utilizzati per accordare o negare benefici, viene esaltato il valore di condizioni di fatto da cui diviene sempre più difficile emanciparsi, perché persone che provengono da un contesto sociale disagiato, con alti livelli di povertà o di criminalità, avranno molta più difficoltà ad ottenere punteggi elevati rispetto a chi proviene da un contesto privilegiato: il rischio allora è quello di assistere a un ripiegamento della società verso classi sociali tendenzialmente chiuse. Insomma: nel momento in cui il valore sociale della persona viene espresso in punteggi, si creano nuovi ordini di merito e si affermano anche nuove gerarchie sociali; i sistemi di scoring possono generare pericolose classifiche di “buoni” e “cattivi”, di “virtuosi” e “depravati”, di “meritevoli” e “immeritevoli” (p. 151). E questo, come sottolineato anche dalla Corte di Giustizia dell’Unione Europea (causa C-26/22 -Schufa Holding-, sentenza del 7 dicembre 2023), non solo lede i diritti, le libertà e i legittimi interessi delle persone fisiche, ma impatta fortemente, come ha rilevato sul punto pure il nostro Garante privacy, scrutinando quelle esperienze italiane richiamate supra, anche sulla loro dignità. L’idea di assegnare alle persone valori numerici che ne esprimono sinteticamente il “merito sociale” comporta gravi conseguenze di ordine costituzionale; è per questo che anche il Regolamento generale sulla protezione dei dati personali (GDPR) e il Digital Service Act (DSA), analizzati dall’autrice nel capitolo IV del suo volume, si preoccupano di proteggere la persona contro gli effetti distorsivi dei punteggi reputazionali: lo scopo è quello di evitare che tramite essi si sostanzino forme di controllo e di reificazione dell’essere umano.
In quest’ottica, soccorre proprio la pari dignità sociale, che afferma il dovere giuridico di impedire che la persona umana sia sottoposta a schemi predefiniti e impegna il diritto a sviluppare un’azione sociale che sia capace di fare in modo che il riconoscimento sociale di ciascuno, la sua reputazione, non sia “il prodotto di classifiche da scalare e di punteggi da conquistare, ma sia il portato della capacità di contribuire, secondo la propria possibilità e la propria scelta, al progresso spirituale e materiale della società” (p. 154).
La lettura di questo libro ha riportato alla mia mente due documenti che ho studiato quando ho iniziato ad analizzare giuridicamente il tema dell’intelligenza artificiale -e, più in generale, il tema dei rapporti tra diritto e utilizzo delle nuove tecnologie-: un saggio monografico, pubblicato da Enrico Caterini, dal titolo “L’intelligenza artificiale sostenibile e il processo di socializzazione del diritto civile”, edito da Edizioni scientifiche italiane (e recensito su questo Osservatorio: N. Posteraro, Recensione a “L’intelligenza artificiale “sostenibile” e il processo di socializzazione del diritto civile”, Edizioni Scientifiche Italiane, Napoli, 2020), e un parere del comitato Comitato Nazionale per la Bioetica sull’utilizzo dell’IA nel campo della salute, pubblicato nel mese di settembre del 2019 e pure commentato, a suo tempo, su questo spazio di confronto: N. Posteraro, Gli aspetti etici dell’Intelligenza Artificiale applicata alla medicina; il CNB e il CNBBSV esprimono il parere richiesto dal Presidente del Consiglio dei Ministri). Si tratta di due documenti che hanno anticipato molte delle questioni che sono state poi approfondite dagli studi successivamente intervenuti sull’argomento e attenzionate dagli atti normativi che si sono occupati nel tempo del tema.
Nel saggio monografico, Enrico Caterini si prefigge l’obiettivo di chiarire che prospettive attendano l’uomo sul piano della vita sociale e regolativa a fronte della dirompente innovazione digitale. Secondo l’autore, l’autonomizzazione delle macchine pone una questione sociale; e, più specificamente, un problema di accessibilità. Lo strumento, che è sempre meno strumento e sempre più centro decisionale che muta gli equilibri, diventa possibile causa di differenziazione tra le persone, posto che non tutti ad esso possono liberamente accedere.
Si tratta di un tema centrale, di cui occorre debitamente tener conto nel portare avanti gli studi sull’intelligenza artificiale, che rischia di acuire le differenze esistenti e di crearne di nuove. Come è stato rilevato sul punto anche dalla recente Strategia Italiana per l’Intelligenza Artificiale 2024-2026, un ambizioso programma di innovazione sull’intelligenza artificiale, se non ben guidato e indirizzato, potrebbe portare all’effetto avverso di aumentare divari e disomogeneità. Questa è una tematica ben nota all’autrice del volume in analisi e che in verità viene in generale in rilievo quando ci si occupi dell’utilizzo di qualsiasi tecnologia digitale: come sappiamo, l’Italia è ancora caratterizzata da un non sufficiente livello di digitalizzazione e competenze digitali. Se è vero che l’indice di digitalizzazione dell’economia e della società (DESI) dimostra che il nostro Paese sta guadagnando terreno, avanzando a ritmi molto sostenuti, è altrettanto vero che la trasformazione digitale sconta ancora varie carenze, da noi.
Quando si promuove l’utilizzo massiccio di nuove tecnologie si deve quindi tener conto di questi dati, perché v’è il concreto rischio che, trascurato il problema del digital divide, la tecnologia generi una condizione di privazione o di grave menomazione di diritti fondamentali (si pensi banalmente alle diseguaglianze sociali che sono venute a sostanziarsi nel corso della pandemia, alla luce del già esistente differenziale digitale nelle famiglie italiane; ma si pensi anche ai rischi che sono venuti a sostanziarsi nello stesso periodo di tempo per le persone meno giovani una volta che certi servizi essenziali sono stati erogati solo digitalmente, quando si è ad esempio fatto uso delle piattaforme digitali per consentire la prenotazione dei vaccini).
Perciò, per evitare che gli strumenti tecnologici si trasformino in occasioni di discriminazioni dettate dal difetto di accessibilità a tutti, occorre porre in essere delle azioni socialmente orientate che siano ad esempio volte a rimediare agli ostacoli socio-economici e che siano anche atte a evitare che si alimentino quei processi di digital divide di conoscenze, che, sul lungo periodo, minerebbero la coesione sociale ed economica del Paese. Da questo punto di vista, educare alla cittadinanza digitale al tempo dell’IA è essenziale. Nella citata strategia Italiana per l’intelligenza artificiale si legge che occorre promuovere percorsi educativi per le scuole e l’intera cittadinanza, mirati a preparare la società italiana alla rivoluzione dell’intelligenza artificiale; questo aiuterà a colmare il divario di conoscenza, ma servirà anche ad affrontare le preoccupazioni etiche e sociali che può produrre questa tecnologia. E in effetti, occorre lavorare anche sulla comprensione del giusto utilizzo dell’IA, per far sì che gli utenti ne colgano appieno i vantaggi e ne valutino criticamente le limitazioni e i rischi: come sottolineato anche dal diritto europeo, infatti, soltanto un’economia digitale in cui le persone partecipino con consapevolezza e con garanzia dei loro diritti può diventare sana e compatibile con un’idea di miglioramento sociale (cfr. Considerando 7 del regolamento 2016/679/UE).
Sul punto, mi pare utile solleticare la riflessione su di un tema che viene poco studiato, forse, e che invece meriterebbe di essere approfondito, soprattutto dagli amministrativisti; un tema che attiene al rapporto tra diseguaglianze e accessibilità, sì, ma che prescinde dal problema del digital divide appena richiamato: mi riferisco al problema dell’accessibilità ai servizi digitali da parte delle persone con disabilità.
L’esperienza ci insegna che le tecnologie, seppure capaci di contribuire allo sviluppo di una società più efficiente, veloce e globalizzata, possono innalzare nuovi muri per chi abbia bisogni particolari; in particolare, la progettazione e la programmazione della tecnologia secondo logiche di mercato (e dunque, per un’utenza priva di disabilità) può creare delle barriere virtuali (c. digitali), che, al pari di quelle architettoniche, possono senz’altro diventare fonte di emarginazione e di diseguaglianze. È un aspetto di cui occorre tener conto, soprattutto quando la tecnologia si utilizzi per assicurare lo svolgimento della funzione amministrativa (sia consentito il rimando a N. Posteraro, Il restyling della legge Stanca, le nuove linee guida AGID, e l’accessibilità delle persone disabili agli strumenti informatici delle pubbliche amministrazioni: a che punto… saremo?).
Invero, l’Italia è sempre apparsa particolarmente attenta a garantire, sul piano normativo, la piena accessibilità delle persone disabili ai sistemi informatici delle pp.AA. Tuttavia, probabilmente anche a causa della stratificazione normativa confusa e oggetto di continue modificazioni, lo stato di salute dell’accessibilità digitale degli amministrati agli strumenti informatici delle amministrazioni italiane non pare si sia attestato nel tempo a livelli ottimali. I siti della pubblica amministrazione – soprattutto comunale – non sono sempre accessibili; e quando accessibili per una certa categoria di persone con disabilità, non sono poi sempre concretamente consultabili da coloro i quali facciano uso di tecnologia assistiva (si consideri, a titolo esemplificativo, il caso di una persona cieca o ipovedente che voglia prendere visione di uno di quei documenti che la pubblica amministrazione ha pubblicato sui propri siti web siccome obbligata dalla legge a diffonderne il contenuto: qualora il file sia stato pubblicato in rete dopo essere stato meramente scansionato, l’interessato incontrerà difficoltà pratiche evidenti, nel conoscerlo sul piano contenutistico, posto che la tecnologia assistiva di cui si avvale per potere svolgere compiutamente le proprie attività quotidiane non sarà in grado di decifrare il testo del documento -che si presenta come un qualsiasi file immagine, e non come un file di testo decifrabile-). Si tratta di un problema che incide sulla piena ed effettiva attuazione di princìpi cardine dell’attività amministrativa, come quelli di pubblicità e di trasparenza.
Ecco: in un passaggio del volume recensito, l’autrice afferma che oggi la nostra esistenza dipende in modo crescente dalla possibilità di accedere e utilizzare tecnologie digitali e il nostro stesso senso del sé si forma, sempre di più, attraverso la proiezione digitale della nostra personalità (p. 150); il che significa che le persone con disabilità, qualora non siano messe nelle condizioni di accedere a siffatti strumenti, rischiano di subire importanti impatti sulla propria esistenza e sullo sviluppo della propria personalità.
Inoltre, occorre tener conto del fatto che, come è stato dimostrato, le diseguaglianze che l’IA può accentuare e provocare possono anche prescindere dal problema dell’accessibilità; nel senso che l’intelligenza artificiale può creare delle pericolose discriminazioni anche in un contesto in astratto perfettamente eguale sotto il profilo dell’accessibilità. E in effetti, gli algoritmi non offrono alcuna garanzia di essere equi, meditati, inclusivi e non discriminatori. Anzi, i bias che si accompagnano all’uso dell’intelligenza artificiale sono estremamente rilevanti e in ampia misura idonei a riproporre e amplificare molti dei difetti della società umana; quei difetti che, come precisa l’autrice del volume, il costituzionalismo ha sempre cercato di sradicare. Le tecnologie – idealmente – nascono per essere imparziali, prive di pregiudizi, condizionamenti o influenze umane; tuttavia, una tecnologia come l’intelligenza artificiale ben facilmente assume connotazioni percepibili come “non neutrali”, per via della sua intrinseca connessione con le informazioni prodotte dalla società, dalle scelte umane che la guidano e la orientano, dalla complessità delle interazioni che può generare. È noto, ad esempio, il caso rilevato dallo studio accademico statunitense di afroamericani con anemia falciforme, che, sottoposti a diagnosi, erano stati inutilmente trattati per il diabete, in virtù di dati incentrati su uomini bianchi.
Insomma: il discorso sulle potenzialità dell’IA (dell’innovazione in generale) deve quindi sempre essere condotto nel prisma dei valori della persona, che è il fulcro dell’ordinamento e va intesa in una prospettiva assiologica e ontologica.
Quanto al parere, si tratta di un documento che sottolinea le opportunità, i rischi e le principali applicazioni dell’IA in medicina, dedicando particolare attenzione agli aspetti etici della questione.
Ora: nella medicina esistono già oggi molte applicazioni dell’IA finalizzate a migliorare (e a rivoluzionare) la pratica sanitaria; in un recente libro edito da Il Mulino, dal titolo “Curarsi con l’intelligenza artificiale“, Daniele Caligiore, esplorando il ruolo rivoluzionario dell’intelligenza artificiale nel campo della salute, parla di applicazioni all’avanguardia come la diagnostica per immagini, la chirurgia robotizzata, i gemelli digitali e il metaverso. Queste tecnologie sembrano tratte da un racconto di fantascienza, ci dice l’a., ma sono invece ormai una realtà tangibile, una realtà che promette notevoli benefici, sì, ma che solleva anche significative preoccupazioni (e in effetti, è proprio per questo, che, come rilevato dalla su richiamata strategia Italiana per l’intelligenza artificiale 2024-2026, si è via via fatta strada una sensibilità, verso l’IA, che convintamente abbraccia la necessità di una visione etica dell’innovazione, che sappia porre al centro le persone e i loro bisogni).
Pur apprezzando i progressi e le opportunità dischiuse dalla IA (al punto da ritenere che debba essere promossa la ricerca su IA sia in ambito privato, sia -soprattutto- in ambito pubblico), il Comitato, senza esaltare od ostacolare lo sviluppo della tecnologia, nel parere intende dichiaratamente “identificare le condizioni etiche per uno sviluppo della IA che non rinuncia ad alcuni aspetti della nostra umanità”.
Il parere mi pare particolarmente interessante nella parte in cui precisa che l’IA è uno strumento potente, ma accessorio alla decisione umana: la macchina deve per forza di cose restare assoggettata a un “controllo umano significativo”, in termini di supervisione e attenzione. Con la tecnologia, si deve quindi auspicare una medicina “con” le macchine, non una medicina “delle” macchine; in questo senso, il soggetto umano deve continuare a essere un elemento fondativo del processo decisionale automatizzato, in quanto gli deve essere riconosciuta la capacità di assumere le principali decisioni: gli algoritmi devono essere utilizzati soltanto come strumenti di supporto.
Si tratta del noto principio dello human in the loop, quel principio fatto proprio anche dalla giurisprudenza amministrativa interna, la quale, nel momento in cui ha iniziato a occuparsi dell’applicabilità degli algoritmi applicati al procedimento amministrativo, e ad ammetterli, ha sottolineato quanto sia importante che il contributo umano in ogni caso controlli, validi, ovvero smentisca la decisione automatica. Il giudice amministrativo, per definire l’inserimento degli algoritmi nel procedimento amministrativo, ha fatto leva sull’art. 22 del GDPR, che, nel primo periodo, stabilisce il diritto dell’interessato a non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato; e ha utilizzato questa disposizione per configurare un vero e proprio diritto soggettivo dell’interessato a un procedimento amministrativo in cui venga conservata quantomeno la supervisione di un funzionario umano che sia in grado di controllare, validare o smentire la decisione algoritmica, assicurandone la logicità e legittimità.
Interessanti sul punto mi sono parse le riflessioni dell’autrice, secondo cui l’art. 22 del GDPR è ben lontano dall’affermare lo human in the loop come principio generale, perché lo considera semmai come un diritto che si applica soltanto laddove il consenso dell’interessato, il contratto o la norma di legge non abbiano autorizzato l’applicazione di decisioni interamente algoritmiche. Secondo Elena Di Carpegna Brivio, queste deroghe individuate dallo stesso GDPR sono dotate di una portata così ampia da rendere il principio dello human in the loop un elemento quasi residuale, difficilissimo da applicare in un ambiente sociale digitale in cui il consenso viene agevolmente prestato per ottenere beni e servizi. Inoltre, l’a. segnala che il Consiglio di Stato, nel valorizzare l’art. 22 del GDPR non menziona l’oscillazione del regolamento tra protezione della persona e affermazione di logiche di mercato basate sul trattamento di dati personali: il giudice amministrativo, spiega, sceglie di valorizzare ampiamente solo l’aspetto di tutela dell’interessato, affermando che sottoporre il procedimento amministrativo a strumenti integralmente automatizzati determinerebbe una lesione del principio di eguaglianza, nonché dei diritti di difesa e dei principi costituzionali che presiedono alla gestione dell’attività amministrativa; e però, continua, individuare lo human in the loop come unica garanzia compatibile con una lettura “costituzionale” del ricorso a decisioni integralmente automatizzate può portare a un irrigidimento eccessivo, che contraddice l’intento generale di considerare l’evoluzione tecnologica come uno strumento che può contribuire positivamente allo sviluppo della pubblica amministrazione.
Mi sembra una riflessione importante, che spinge probabilmente ad aprire il dibattito su una questione che al momento è rimasta forse ingiustamente poco studiata da chi si sia occupato del tema.
Certo è che di questo principio dello human in the loop ha innegabilmente tenuto conto anche il legislatore europeo nel redigere l’AI act, questa nuova disciplina complessiva che promette di dare un quadro di regolazione stabile all’inserimento dell’intelligenza artificiale nella società: come specifica l’autrice, dal testo dell’AI Act emerge chiaramente come sia necessario porre l’intelligenza artificiale al servizio dell’uomo e dare ad essa un carattere davvero antropocentrico. Ai sensi del regolamento, i sistemi di IA devono essere sviluppati e utilizzati come strumenti al servizio delle persone e come tali devono essere rispettosi della dignità umana e dell’autonomia personale, funzionando in modo da poter essere adeguatamente controllati e sorvegliati dagli esseri umani lungo tutta la loro vita utile (anche se nel regolamento la sorveglianza umana dei processi algoritmici non viene considerata elemento a sé stante, ma viene accompagnata da una serie di altri elementi che congiuntamente devono garantire uno sviluppo dell’intelligenza artificiale compatibile con la protezione costituzionale della persona; questi elementi sono –almeno- la sicurezza e integrità tecnica degli strumenti informatici, il rispetto della privacy dei dati e una trasparenza che consenta sempre di verificare e spiegare il funzionamento degli algoritmi).
L’analisi del documento si è invero rivelata importantissima, per l’a. del testo in commento, non soltanto perché le ha consentito di riflettere su questo principio dello human in the loop, ma anche perché nel regolamento si tratta espressamente di quel sistema di crediti sociali che l’autrice critica, a ragion veduta, nel suo saggio monografico. Il regolamento, nell’identificare le tecnologie che comportano un rischio inaccettabile per i diritti della persona umana e che, come tali, devono essere bandite dall’Unione, individua anche forme di scoring, ritenendo che i procedimenti di questo tipo siano delle pratiche a rischio inaccettabile quando da essi possa derivare un pregiudizio concreto per i diritti della persona: al Considerando 17, l’AI act chiarisce che intende vietare alcuni tipi di punteggi reputazionali perché «ledono il diritto alla dignità e alla non discriminazione e i valori di uguaglianza e giustizia».
Questo veloce passaggio consente quindi di tornare al punto di partenza: vero è che il regolamento sceglie di precludere la diffusione dei soli punteggi che comportano conseguenze negative, ma è altrettanto vero che le disposizioni che il regolamento europeo dedica ai punteggi reputazionali rappresentano un sicuro progresso nel riconoscimento di alcune pratiche più estreme di scoring come lesive della dignità umana e incompatibili con qualsivoglia concezione di Stato di diritto. Il che non si può sottovalutare.
Il regolamento considera insomma i punteggi come un vero e proprio antagonista del valore della dignità (p. 141); quel valore che viene inequivocabilmente indicato dai legislatori, dai giudici, dalle autorità indipendenti e, nel volume che si recensisce, anche dall’a., nella sua accezione costituzionale di “pari dignità sociale”, come la guida da cui occorre partire per limitare le distorsioni dell’intelligenza artificiale e, più in generale, della rivoluzione digitale.
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0