Nuove sfide per i datori di lavoro di New York City per evitare discriminazioni nei processi di assunzione automatizzati

Una nuova legge di New York City che penalizza i datori di lavoro per le discriminazioni nei processi di assunzione attraverso strumenti d’intelligenza artificiale sta lasciando le società in difficoltà nel valutare i propri programmi AI prima che la legge entri in vigore a gennaio prossimo. Siffatta legge, che richiede ai datori di lavoro di condurre un controllo indipendente degli strumenti automatizzati che vengono adoperati, rappresenta la prima volta che i datori di lavoro statunitensi dovranno affrontare delle richieste di legge rafforzate qualora vogliano utilizzare gli strumenti automatizzati per il processo decisionale.  

 

Siffatti strumenti – che possono spaziare da algoritmi realizzati per ricercare i candidati ideali a software che esaminano il linguaggio del corpo – sono stati oggetto di un esame minuzioso negli ultimi anni a causa della possibilità che perpetuino discriminazioni nei confronti di gruppi protetti. Ma senza linee guida da New York City, ai datori di lavoro non è esattamente chiaro cosa ci si aspetti da essi e come doversi preparare. 

Soprattutto, la legge non definisce chi o cosa s’intenda per “controllo indipendente”: i datori di lavoro potrebbero probabilmente rivolgersi ad un’azienda legale o di consulenza, ma la legge non specifica chi dovrebbe effettuare il controllo, oltre ad essere indipendente. Per di più, gli strumenti automatizzati spesso adoperati dai datori di lavoro provengono da venditori terzi, non regolati dalla legge: ciò vuol dire che essi devono interfacciarsi sia con quei venditori che con controllori esterni per assicurare la conformità alla legge; avranno necessità di consultare sia esperti tecnici in grado di capire come gli strumenti funzionino, sia legali capaci d’individuare le potenziali doglianze per discriminazione. 

Sebbene sia la prima volta che i datori di lavoro statunitensi saranno soggetti a simili richieste, le leggi che regolano le discriminazioni dell’intelligenza artificiale nei processi di assunzione sono in crescita: infatti molti Stati e perfino il Governo Federale stanno compiendo passi in avanti per regolare questi strumenti. A novembre, il New York City Council ha approvato una legge locale – Int. No. 1894-A – che ha emendato il codice amministrativo della città per proteggere i lavoratori da discriminazioni illegali durante i processi di assunzione e promozione, qualora siano adoperati strumenti decisionali automatizzati. 

In aggiunta, la legge richiede ai datori di lavoro di rendere i risultati del controllo pubblicamente disponibili sui propri siti web, nonché di rendere noti i dati che lo strumento d’intelligenza artificiale raccoglie, che sia mediante pubblicazione o rispondendo ad una richiesta. 

Qualora considerino candidati residenti a New York City, i datori di lavoro hanno altresì l’obbligo di notificare almeno 10 giorni prima l’utilizzo di strumenti automatizzati includendo, tra le altre cose, gli alloggi che potrebbero essere disponibili. 

New York City non ha fornito linee guida su come ottemperare alla legge, ma i datori di lavoro potrebbero far riferimento alla Commissione statunitense per le pari opportunità nel lavoro per ricevere un documento di assistenza tecnica sugli strumenti di assunzione automatizzati. Le linee guida federali includono anche domande da porre ai venditori e come procurare alloggi adeguati, specialmente per lavoratori o candidati con disabilità. Al momento, non ci sono però risposte su quando saranno disponibili le linee guida di New York City. 

La legge di New York sarà rafforzata dall’Ufficio cittadino del Corporation Counsel, sebbene non sia chiaro come ciò avverrà. Molto probabilmente, New York City sarà a conoscenza di processi discriminatori soltanto attraverso segnalazioni.  

In particolare, la legge non prevede un diritto privato di azione avverso i processi discriminatori, ma c’è la possibilità di un’azione di classe davanti alla Corte federale se, ad esempio, New York City scopre che uno strumento automatizzato adoperato da un datore di lavoro era discriminatorio. 

I datori di lavoro che non si adegueranno alla legge saranno soggetti ad una sanzione di 500 dollari per la prima violazione e di 1500 dollari per ogni violazione successiva. Siffatte sanzioni sono moltiplicate per il numero di strumenti automatizzati utilizzati e per quello dei giorni che il datore di lavoro impiega per risolvere il problema. 

I datori di lavoro hanno ancora il tempo di adeguarsi prima di gennaio, ed è possibile che New York City fornirà qualche sorta di linee guida prima che la legge entri in vigore. Fintanto che gli standard applicativi sono chiari, la legge probabilmente non limiterà l’utilizzo degli strumenti automatizzati da parte dei datori di lavoro. Come per tutte le norme, sarà previsto un periodo di adeguamento. 

Sebbene la legge di New York sia la prima del suo genere negli USA, non sarà probabilmente l’ultima, considerando lo slancio sull’argomento: a livello federale, le linee guida di maggio dell’EEOC indirizzano i datori di lavoro a valutare i propri strumenti di intelligenza artificiale per potenziali discriminazioni contro i lavoratori disabili; esse non impongono alcuna richiesta in più o minaccia di sanzioni. 

I democratici del Congresso lo scorso anno hanno introdotto l’Atto di giustizia algoritmica e della piattaforma della trasparenza online, che dovrebbe stabilire un’indagine trasversale interna al Governo nel campo dei processi algoritmici discriminatori in molti settori, incluso l’impiego. L’atto deve ancora fare passi in avanti da quando è stato introdotto. 

A livello statale e locale, l’Illinois è stato il primo Stato a regolare gli strumenti automatizzati per l’impiego nel 2019, sebbene la sua legge sia più circoscritta e specificamente indirizzata agli strumenti che valutano le interviste video. L’Avvocato Generale del Distretto della Colombia ha introdotto lo scorso anno un atto – ancora in fase di revisione da parte del Consiglio cittadino – che potrebbe assomigliare alla legge di New York City, ponendo sui datori di lavoro l’onere di assicurare che gli strumenti automatizzati che usano non siano discriminatori verso alcuni candidati. Il Dipartimento per i diritti civili della California ha annunciato quest’anno di star stilando una regolazione che chiarisca che l’uso di strumenti decisionali automatizzati è soggetta alle leggi sulla discriminazione nel lavoro: la normativa proposta include richieste di archiviazione dati, atta a memorizzare tutti i dati di apprendimento automatico per quattro anni. 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale