Intelligenza artificiale e coronavirus – Il parere del CESE sul libro Bianco della Commissione UE alla luce dell’emergenza Covid-19

Il 15 luglio 2020 il Comitato economico e sociale europeo (CESE) si è pronunciato in via consultiva sul libro Bianco in materia di intelligenza artificiale adottato dalla Commissione europea nel febbraio 2020. Il parere evidenzia alcuni nodi critici nel libro bianco e si sofferma sull’importanza che l’intelligenza artificiale può avere nella lotta all’attuale pandemia purché siano rispettati i principi di trasparenza, conoscibilità, proporzionalità e non discriminazione e purché si abbia consapevolezza che in alcuni casi il bilanciamento con alcuni diritti richiede che l’uso di certi strumenti sia vietato in radice.

 

 

Il 15 luglio 2020 il Comitato economico e sociale europeo (CESE) si è pronunciato in via consultiva sul libro Bianco in materia di intelligenza artificiale adottato lo scorso febbraio dalla Commissione (su cui su questo Osservatorio S. Del Gatto, Una regolazione europea dell’AI come veicolo di eccellenza e affidabilità. Gli obiettivi del Libro bianco della Commissione europea sull’intelligenza artificiale).
Nel parere il CESE ha evidenziato alcuni snodi problematici del Libro bianco su cui invita, pertanto, la Commissione a svolgere un’ulteriore riflessione. Tra i temi più interessanti, approfonditi dal Comitato economico e sociale, la nozione di settore “ad alto rischio” utilizzata nel Libro bianco, ilimiti all’uso del riconoscimento biometrico e soprattutto le prospettive e i limiti dell’utilizzo dell’intelligenza artificiale nel contrasto alla pandemia da Covid-19.

Per quanto riguarda il primo punto, il CESE ritiene che l’approccio basato sul rischio seguito nel Libro bianco vada riperimetrato per evitare disfunzioni. Seguendo la logica del Libro bianco, infatti, un’applicazione di IA ad alto rischio, utilizzata in un settore a basso rischio in linea di principio non sarà soggetta al quadro normativo. Il Comitato ha, quindi, rilevato che “gli effetti avversi indesiderabili dell’IA ad alto rischio in un settore a basso rischio potrebbero escludere dalla normativa taluni utilizzi o applicazioni di IA, offrendo una “finestra” per aggirare le regole” (si pensi alla pubblicità mirata, quindi un settore a basso rischio, che può avere effetti potenzialmente segregativi, discriminatori e divisivi, per esempio in periodo di elezioni o tramite prezzi personalizzati – utilizzo o effetto ad alto rischio). Per ovviare a questo problema, il CESE raccomanda di stilare un elenco delle caratteristiche comuni delle applicazioni o degli utilizzi dell’IA che si devono considerare intrinsecamente ad alto rischio, indipendentemente dal settore in cui tale tecnologia è impiegata.

Rispetto al riconoscimento biometrico, considerata un’applicazione intrinsecamente ad alto rischio, il Comitato consiglia di vietarlo ove serva per sorvegliare, seguire, valutare o classificare gli esseri umani oppure le emozioni e i comportamenti umani, e limitarlo drasticamente attraverso una stringente regolazione, negli altri casi. Il CESE, in particolare, raccomanda di consentire l’uso del riconoscimento biometrico solo qualora vi sia un effetto dimostrato scientificamente, in ambienti controllati, e a condizioni rigorose.

La parte più attuale del documento riguarda, infine, le relazioni, non sempre virtuose, tra intelligenza artificiale e pandemia.

Al riguardo, il CESE osserva come l’intelligenza artificiale possa essere un valido aiuto al contrasto del Covid-19 solo ove le tecniche utilizzate siano trasparenti e giustificabili e purché il loro utilizzo avvenga nel rispetto dei diritti umani, dei principi etici e della legislazione esistente. In particolare, gli strumenti di IA che incidono sulla sfera privata degli individui devono essere necessari, proporzionati, con effetti limitati nel tempo e non discriminatori.

  1. Una menzione particolare, nel documento, hanno gli strumenti di tracciamento e localizzazione (su cui si vedano su questo Osservatorio: B. Carotti, Pandemia e panopticon, nonché Le app, o degli Stati e della techne: quattro indicazioni; Macchia, Applicazioni di tracciamento e Stato di diritto; S. Del Gatto, Salute pubblica, tutela della privacy e influenza dei big tech nella disciplina americana sulle app di tracciamento; E. Schneider e P. Clarizia, “Immuni”, l’app del governo per il tracciamento del contagio da Covid-19). Queste applicazioni che “comportano una (parziale) sospensione di differenti libertà e diritti umani, in quanto incidono sulla libertà di associazione e sul diritto alla sicurezza, alla non discriminazione e alla vita privata” devono, secondo il Comitato, essere facoltative, e i dati raccolti non devono essere utilizzati per fini diversi (ad esempio di profilazione, valutazione dei rischi, classificazione o previsione) dal contrasto all’attuale pandemia. Il CESE in conclusione, riconosce e apprezza le potenzialità dell’intelligenza artificiale, ma ritiene indefettibile fissare dei limiti stringenti per i suoi utilizzi. Il ruolo della Commissione e dell’Unione in quest’ottica è centrale e va inteso correttamente: la regolazione è importante, non solo perché individua le modalità di utilizzo dell’IA e le necessarie garanzie, ma anche in quanto in alcuni casi, può vietare l’utilizzo stesso di tali strumenti. Non sempre infatti, l’individuazione o il rafforzamento di garanzie è sufficiente per la tutela dei diritti fondamentali.
  1. In alcuni casi, l’interferenza pubblica, per le specificità che presenta anche in relazione all’uso delle nuove tecnologie (è il caso dei software predittivi o dei sistemi di riconoscimento facciale, su cui si veda su questo Osservatorio: Del Gatto, Prove di regolazione del riconoscimento facciale e rischi di cattura del regolatore), dovrebbe incontrare, come avviene nel diritto penale e nel diritto processuale penale, un limite invalicabile rappresentato da quel nucleo intangibile di diritti che beneficia di una protezione tendenzialmente assoluta di fronte all’intrusione dell’autorità. La regolazione del potere algoritmico dovrebbe quindi, contemperare l’approccio statico a quello dinamico. Andrebbero introdotte garanzie legali tanto più intense quanto più intrusiva è la misura adottata. Il bilanciamento tra opposti interessi, come insegna la Corte costituzionale italiana, andrebbe condotto, sia in fase di elaborazione della disciplina, sia in fase di scrutinio sulla sua attuazione, secondo i criteri di ragionevolezza e proporzionalità, sulla base di un approccio che esclude una precostituita gerarchia tra valori. L’intrusione dei pubblici poteri, tuttavia, in alcuni casi, andrebbe scongiurata in radice, esclusa da ogni forma di bilanciamento e non rimessa ad una verifica ex post sul rispetto del principio di proporzionalità.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.