Un repository indipendente di incidents legati a sistemi di Intelligenza artificiale

La regolamentazione dell’Intelligenza artificiale rappresenta per i sistemi giuridici di tutto il mondo una sfida certamente avvincente e al contempo complessa per ragioni di natura tecnica, economica e geopolitica. Fioriscono, tuttavia, molteplici iniziative di organizzazioni private, centri di ricerca e Università che provano a dare il proprio contributo nell’acceso dibattito inerente alle grandi potenzialità e ai rischi che l’implementazione algoritmica e il ricorso a sistemi che sfruttano tali tecnologie comportano. Tra queste si segnala la creazione di un repository indipendente che raccoglie le esperienze e gli incidenti più interessanti legati al mondo dell’AI. 

 

L’AIAAIC (acronimo di “AI, Algorithmic and Automation Incidents and Controversies”) è un’iniziativa che si dichiara indipendente, apartitica e di interesse pubblico fondata nel 2019 sulla convinzione che l’Intelligenza artificiale, gli algoritmi e l’automazione, nonché le organizzazioni e gli individui coinvolti nella loro progettazione, sviluppo e implementazione, debbano essere trasparenti e onesti riguardo ai loro obiettivi e al modo in cui li perseguono.  

L’organizzazione ritiene che ogni cittadino, ogni operatore economico debba essere informato e ben conscio di essere sottoposto ad un trattamento automatizzato. Ogni interessato dovrebbe sapere come viene valutati o sollecitato da un sistema di IA, algoritmico o di automazione, capire cosa il sistema stia cercando di ottenere, come funziona, apprezzarne l’impatto ed essere in grado di prendere decisioni informate basate su informazioni chiare, concise, accurate, accessibili e tempestive. 

Il suo fondatore è Charlie Pownall un esperto consulente del mondo del digitale che da anni si occupa di tecnologia e del suo impatto sul business e sulla società. Pownall ha ricoperto diversi ruoli, tra cui quello di funzionario UE e da sempre è un attivo sostenitore dei “diritti digitali” e dell’uso di “tecnologie sicure, trasparenti e affidabili”. È membro della RSA Fellow, della European AI Alliance della Commissione europea e dell’organizzazione di difesa dei diritti digitali Open Rights Group 

Nella consapevolezza che la questione della trasparenza dei sistemi automatizzati, pur essendo spesso citata come principio fondamentale di un’IA che si dice etica, responsabile e affidabile, viene affrontata dagli stakeholder in modo parziale, frammentario o di reazione a problemi e incidenti, l’iniziativa di Pownall ha lanciato nell’ottobre 2021 il “Manifesto for real AI and algorithmic transparency” un insieme di principi che mirano a minimizzare il rischio legato all’implementazione algoritmica e al ricorso ai sistemi che usano tecniche di intelligenza artificiale. Secondo l’Organizzazione ogni soggetto che progetta, sviluppa o implementa sistemi di Intelligenza artificiale, algoritmici o di automazione dovrebbe adottare i seguenti quattro principi: essere meaningful, ossia essere chiari e precisi nel fornire informazioni accurate e tempestive sul sistema o sul suo funzionamento; Verifiable, ossia dare la possibilità a terze parti di verificare i dati, il codice sorgente e il processo seguito dal sistema nonché rendere pubblici i rapporti di audit dei terzi sui propri sistemi; Inclusive, includere i soggetti interessati nei processi di progettazione e sviluppo dei sistemi e fornire feedback pubblici di tali processi; Accessible, ossia permettere l’accesso alla tecnologia a tutti i cittadini inclusi anziani, disabili o soggetti in posizione di svantaggio.   

L’AIAAIC utilizza una varietà di metodologie e strumenti per portare avanti la propria mission di enforcement della trasparenza e apertura algoritmica dei sistemi di intelligenza artificiale. Tra i progetti più importanti vi è certamente la creazione un repository (qui in link), una guida pratica, accessibile ed estensibile dei rischi e dei danni causati da sistemi di intelligenza artificiale, algoritmica e automazione in tutto il mondo. Il Repository AIAAIC è stato avviato nel giugno 2019. Nato come un piccolo progetto privato professionale per comprendere meglio i rischi reputazionali dell’Intelligenza artificiale, si è evoluto in un’iniziativa sempre più completa che raccoglie, seziona, esamina e divulga un’ampia gamma di incidents legati all’implementazione algoritmica. Ora è una risorsa completa, dettagliata e molto aggiornata utilizzata da ricercatori, accademici, insegnanti, avvocati, giornalisti, responsabili politici ed esperti del settore in tutto il mondo che cercano di comprendere meglio la natura, i rischi e impatti di AI, algoritmi e automazione.  

Certamente uno strumento utile, che offre anche una dettagliata sezione dedicata alle esperienze di regolamentazione dell’intelligenza artificiale e alle fonti di soft law che nei veri ordinamenti giuridici di tutto il mondo cercano di guidare operatori e interpreti nella difficile sfida del diritto alle nuove tecnologie.   

 

 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale