Un quadro giuridico per l’Intelligenza Artificiale affidabile

Come difenderci degli effetti dirompenti delle tecnologiche che abbiamo creato? Siamo pronti per una regolazione dei sistemi di intelligenza artificiale? Mentre negli Sati Uniti, l’Ufficio per la politica scientifica e tecnologica della Casa Bianca annuncia una “Bill of Rights” che individui garanzie e libertà che dovranno essere rispettate nell’utilizzo delle nuove tecnologie, il Parlamento europeo sta lavorando sulla proposta presentata dalla Commissione che si propone di trasformare l’Europa nel nuovo centro nevralgico dell’intelligenza artificiale affidabile.

L’utilizzo della tecnologia è oggi accompagnato dal diffondersi di un crescente timore sulla sua affidabilità e controllabilità. La pandemia da covid-19, che ha colpito ogni settore dell’attività umana, ha accelerato l’esigenza di poter disporre di soluzioni ad alto contenuto tecnologico, finanche predittive, per risolvere problemi inediti. In questo modo, tecnologie che prima sembravano svilupparsi in maniera indipendente, sono state tra loro interconnesse e potenziate con maggiori dati e informazioni sulla realtà che ci circonda, diventando sempre più invasive. Anche attorno al crescente utilizzo di intelligenza artificiale (IA), sebbene questa sia comunemente riconosciuta come la spinta propulsiva per la prossima rivoluzione tecnologica, sono sorti interrogativi e dubbi connessi alla tutela dei diritti fondamentali e al rischio di uno sfruttamento improprio del suo potenziale dirompetene (ne abbiamo parlato QUI).

Non è una situazione estranea per una società che, fisiologicamente, si muove ad un ritmo più veloce di quello necessario ad adeguare il quadro normativo alle nuove esigenze. Non è un caso che, proprio recentemente, l’Ufficio per la politica scientifica e tecnologica dell’Amministrazione Biden, abbia aperto un dibattito pubblico finalizzato al riconoscimento giuridico della tutela da un utilizzo incontrollato dell’intelligenza artificiale. Tale consapevolezza dovrebbe condurre all’elaborazione di una carta dei diritti che, proprio al pari della “Bill of Rights”, individui garanzie e libertà che dovranno essere rispettate nell’utilizzo di tecnologie basate sull’IA.

Come negli Stati Uniti, anche in Europa si avverte la stessa consapevolezza su rischi e pericoli che possono derivare dall’utilizzo delle nuove tecnologie. Il Parlamento europeo sta già lavorando alla proposta di Regolamento presentata dalla Commissione il 21 aprile scorso, allo scopo di sviluppare e utilizzare le tecnologie all’interno di un quadro giuridico appropriato e con l’intento più generale di garantirne l’affidabilità. Tale iniziativa si colloca all’interno della Strategia europea per l’Intelligenza Artificiale, nel cui ambito era stata siglata nel 2018 una Dichiarazione di cooperazione tra 25 Stati membri, per valorizzare le opportunità di un progetto comunitario di utilizzo della tecnologia, a cui era seguita l’adozione, da parte della Commissione, del Libro Bianco sull’Intelligenza Artificiale.

La scelta di adottare un Regolamento (art. 114 TFUE), giustificata dalla necessità di assicurare un’applicazione diretta e uniforme delle nuove regole, rappresenta quindi l’ultima tappa di questo percorso, che vede l’Unione europea farsi promotrice di un approccio all’IA più orientato alla sicurezza e alla responsabilità, nel rispetto dei diritti fondamentali. La Commissione specifica chiaramente, infatti, di voler perseguire quattro obiettivi specifici:

  • assicurare che i sistemi di IA immessi nel mercato europeo siano sicuri e rispettino i valori la normativa vigente in materia di diritti fondamentali;
  • assicurare la certezza del diritto per facilitare gli investimenti e l’innovazione;
  • migliorare la governance e l’applicazione effettiva della normativa esistente in materia di diritti fondamentali e requisiti di sicurezza applicabili ai sistemi di IA;
  • facilitare lo sviluppo di un mercato unico per applicazioni di IA lecite, sicure e affidabili.

Anche l’Italia sta camminando in questa direzione. Già l’AgID, nel 2018, aveva pubblicato il Libro bianco “L’Intelligenza Artificiale al servizio del cittadino”, contenente delle prime raccomandazioni e indicazioni su come sfruttare al meglio le opportunità offerte dall’IA, per limitarne le criticità e sviluppare servizi sempre più a misura di cittadino. L’ultima accelerata sul tema è stata pianificata dal governo Draghi l’11 ottobre scorso, quando il Comitato interministeriale per la transizione digitale (Mise, Mur, Mitd) ha approvato una bozza del documento finale sulla strategia italiana per l’Intelligenza Artificiale 2022-2024, in cui è emerso, sia nei principi guida che tra gli obiettivi, il riferimento esplicito ad una IA centrata sull’uomo, affidabile e sostenibile. Si tratta di una scelta antropocentrica e in linea con la strategia europea che recepisce l’esigenza di disciplinare giuridicamente l’utilizzo delle tecnologie più invasive, nella consapevolezza della necessità delle stesse ma riconoscendone, al contempo, i pericoli e le minacce verso quei diritti individuali che l’autorità pubblica ha il dovere di difendere.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale