Punti di vista – La regolazione dei sistemi di intelligenza artificiale tra tutela della riservatezza e tutela dell’ambiente

L’Osservatorio sullo Stato digitale propone un “punto di vista” sul tema della regolazione dei sistemi di intelligenza artificiale tra tutela della riservatezza degli utenti e questioni ambientali, alla luce delle Linee guida pubblicate dalla Commissione europea il 4 febbraio 2025, volte a garantire l’applicazione coerente, efficace e uniforme del Regolamento (UE) 2024/1689.

 

Le Linee guida forniscono un’interpretazione del divieto dei sistemi di intelligenza artificiale che presentano un livello di rischio inaccettabile, di cui all’articolo 5 del Regolamento, mirato alla tutela dei diritti fondamentali degli utenti da abusi che potrebbero ledere la dignità umana o causare danni significativi. Il rispetto dei divieti imposti dall’AI Act avrà un notevole impatto sulle aziende operanti nel settore dell’intelligenza artificiale, che saranno chiamate a svolgere valutazioni del rischio più rigorose e a investire in competenze tecniche. Sarà richiesto particolare impegno anche alle autorità nazionali che saranno designate per l’applicazione delle norme e l’irrogazione di sanzioni, dovendo rafforzare i meccanismi di collaborazione transfrontaliera e investire nella formazione del personale. Le Linee guida lasciano tuttavia aperti alcuni interrogativi relativi al coordinamento del Regolamento con il GDPR e il Digital Services Act.

Per quanto riguarda il rapporto tra sistemi di intelligenza artificiale a rischio inaccettabile e la riservatezza degli utenti, le Linee guida, nonostante forniscano importanti prescrizioni per salvaguardare i cittadini europei da alcuni impieghi particolarmente lesivi dell’IA, non risolvono in modo esaustivo ogni questione interpretativa sollevata dall’AI Act. Non fornirebbero infatti una definizione accurata dei limiti di legittimità dell’uso di immagini biometriche per l’addestramento dei modelli di IA, né chiarirebbero il regime delle deroghe all’impiego di sistemi di riconoscimento biometrico in tempo reale nelle attività di law enforcement per la prevenzione di gravi minacce alla sicurezza pubblica. Ulteriori incertezze derivano dal perimetro di applicazione del divieto di social scoring, che si riferisce esclusivamente ai sistemi che generano effetti negativi ingiustificati e sproporzionati in ambiti diversi da quelli in cui è stato originariamente calcolato il punteggio.

La regolazione europea sull’intelligenza artificiale solleva poi numerose sfide in relazione al bilanciamento fra transizione digitale e transizione verde, alla luce dell’enorme impatto ecologico dell’IA, da imputare ai datacenters che ne ospitano l’hardware. Il Regolamento sull’intelligenza artificiale, ai considerando 1 e 27, presenta alcune indicazioni di principio in merito al rapporto tra IA e benessere sociale e ambientale, ma affida la disciplina del delicato equilibrio tra tecnologia ed ecosistema ai singoli Stati membri. Rivela alcuni profili di criticità in merito alla protezione dell’ambiente dai potenziali effetti nocivi dell’IA e delle sue infrastrutture l’articolo 17 del Regolamento, che prevede per i soli produttori di IA ad alto rischio un sistema di gestione della qualità che dovrà comprendere anche le procedure relative alla segnalazione di un “incidente grave”, nonostante ogni sistema di IA possa causare gravi danni all’ambiente e agli ecosistemi naturali.

Per tentare di ricostruire in chiave critica tali aspetti, sono stati articolati tre post:

  1. La Commissione europea e il rischio inaccettabile (Gianluca Sgueo);
  2. Riservatezza e rischio inaccettabile, un fronte aperto (Giulia Taraborrelli);
  3.  Quantum of solace: intelligenza artificiale e ambiente (Gianluigi Delle Cave).

Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0