«A.I. wanted, dead or alive»: aperta la stagione di caccia agli algoritmi “unfair”

«A bias bounty for AI will help to catch unfair algorithms faster». È questo il titolo di un recente articolo pubblicato sul MIT Technology Review ove si auspica, a fronte della proliferazione, spesso incontrollata, di algoritmi “anarchici” e non corretti, un deciso impulso allo sviluppo di un settore in piena espansione che si occupa di responsabilizzare i sistemi di intelligenza artificiale. Proprio con riferimento a tale obiettivo, un gruppo di esperti di IA e di machine learning ha lanciato un contest molto originale, una “BIAS bounty competition”, con lo scopo di accelerare il processo di individuazione degli algoritmi unfair e pregiudizievoli. Premi e onori saranno riservati al miglior cacciatore di taglie, ma sarà sufficiente per stanare l’algoritmo bandito? 

 

Il MIT Technology Review è molto chiaro sul punto: è necessario porre un freno agli algoritmi “sregolati”, ossia a quelle formule algoritmiche non corrette, incontrollabili e – soprattutto – non verificabili. Secondo Melissa Heikkilä (senior reporter del MIT Technology Review), la soluzione potrebbe essere (almeno da un punto di vista meramente tecnologico) più banale di quanto possa sembrare: fissare una “taglia”, alla western maniera, sulla testa virtuale degli algoritmi “fuorilegge”.  

Come noto, i sistemi di intelligenza artificiale sono ormai utilizzati in diversi ambiti e per ogni applicazione della quotidianità; tuttavia, possono passare mesi – o addirittura anni – prima che eventuali “distorsioni” algoritmiche siano rilevate dai tecnici competenti. La questione non è di poco conto: gli algoritmi, oggi, sono utilizzati pure in settori particolarmente sensibili (si pensi alla videosorveglianza ad esempio) per cui un sistema “unfair” potrebbe causare l’arresto di persone innocenti o addirittura negare ai cittadini alloggi, posti di lavoro e servizi di base (sugli algoritmi, si veda qui, qui, qui e qui). 

Con il preciso obiettivo di individuare ed eliminare gli algoritmi pregiudizievoli, un gruppo di esperti di I.A. ha lanciato il “BIAS bounty competition”, invitando i partecipanti a creare strumenti volti proprio alla identificazione e correzione/mitigazione degli errori algoritmici pregiudizievoli nei modelli di I.A. Il concorso, in particolare, si ispira ai celebri bug bounty della cybersecurity, ossia quelle iniziative, fortemente sponsorizzate da enti e aziende di tutto il mondo, che prevedono una ricompensa per la segnalazione di eventuali “vulnerabilità” malevole nei software e nei sistemi informativi. 

Nel dettaglio, il primo “bando” dei BIAS bounty – indetto dagli autoproclamati “Bias Buccaneers” – ha ad oggetto la caccia alle immagini distorte. I concorrenti, quindi, dovranno ideare e realizzare un modello di machine learning in grado di etichettare ogni immagine attraverso l’individuazione della tonalità della pelle, del sesso e della fascia d’età, in modo da rendere più facile il rilevamento e la correzione di errori nei set di dati.  

La risposta delle autorità di regolamentazione a tali iniziative è stata ovviamente molto positiva, in quanto detti sistemi di BIAS bounty ben si prestano a fungere da alti “responsabili” elettronici degli algoritmi, potenzialmente idonei a svolgere quel controllo “interno” – inter pares digitali – necessario al corretto utilizzo delle formule algoritmiche (si veda anche qui e qui).   

Non a caso, muovendo al dato normativo, il Digital Services Act dell’UE (i.e. il nuovo regolamento europeo sui servizi digitali, approvato il 05 luglio 2022, si veda qui e qui) ha espressamente imposto, sul punto, la trasparenza sul funzionamento delle piattaforme online, con obbligo, ex aliis, per i fornitori (i) di collaborare con le autorità e sottoporsi ad audit indipendenti; (ii) di fornire informazioni esplicite sulla moderazione dei contenuti e sull’uso degli algoritmi per i sistemi di raccomandazione dei contenuti; (iii)  di condividere i propri dati chiave e i propri algoritmi con le autorità e con i ricercatori autorizzati per comprendere l’evoluzione dei rischi online (trattasi di obbligo riferito alle piattaforme online e ai motori di ricerca di grandi dimensioni). 

Ancora sul piano normativo eurounitario, si pensi anche alla proposta di regolamento relativa all’Artificial Intelligence Act (si veda qui) ove si prescrivono audit annuali su formule matematiche e algoritmi utilizzati dai grandi fornitori di piattaforme online, con il precipuo obiettivo di garantire e preservare la tracciabilità e la trasparenza nella gestione dei dati degli users. 

E tuttavia, nell’imminente far west informatico sopra descritto, si evidenzia, nell’articolo in commento, quella che può essere definita un’emergenza di “bounty hunters”; in altri termini, non sembrerebbero arruolabili, allo stato, nuovi “pistoleri digitali”, in quanto pochi sono effettivamente indipendenti (da evidenziare con forza, requisito minimo obbligatorio e inderogabile per fungere da controllori della rete) o comunque disponibili a soddisfare la domanda di audit algoritmici. A ciò si aggiunga, poi, una generale riluttanza da parte delle imprese a fornire l’accesso – a terzi specialisti – ai propri sistemi informatici, abituate oggi a verifiche per lo più “istituzionali” (ossia generiche) e comunque effettuate in casa, direttamente dall’azienda stessa.     

Da qui, l’utilità pratica di concorsi come quelli dei BIAS bounty: individuare e incentivare la formazione di una nuova classe di professionisti, siano essi hacker o data scientists, a servizio della collettività, attraverso la realizzazione di programmi informatici capaci di intercettare e punire gli algoritmi indisciplinati, individuando le vulnerabilità digitali ed eliminandone gli effetti nocivi. 

Alla luce di quanto sopra, quindi, parafrasando briosamente il Biondo Eastwood, ben si potrà dire, in futuro, che “quando un uomo con l’algoritmo unfair incontra un uomo con il BIAS bounty, quello con l’algoritmo è un uomo morto”. 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale