Intelligenza Artificiale e Protezione dei Dati: l’EDPB Fa Chiarezza sui Rischi per la Privacy

Immagine creata con DALL-E

 

L’Intelligenza Artificiale sta trasformando numerosi settori, ma solleva diverse questioni, anche in materia di privacy. Con l’Opinion n. 28/2024, l’European Data Protection Board (EDPB) analizza i rischi derivanti dall’uso di modelli IA, esaminando aspetti come l’anonimato dei dati, l’interesse legittimo come base giuridica e le misure di protezione per i diritti degli utenti. Il parere suggerisce metodi per garantire la conformità al GDPR, incluse tecniche come la pseudonimizzazione e il rispetto dei diritti fondamentali. In un contesto normativo in continua evoluzione, sarà davvero possibile garantire un utilizzo dell’Intelligenza Artificiale che rispetti i dati personali e adotti un approccio responsabile durante le fasi di sviluppo e impiego di questi modelli?

 

L’impiego dell’Intelligenza Artificiale (IA) nei più disparati ambiti applicativi è ormai una realtà consolidata (cfr. C. Ramotti, L’attività amministrativa algoritmica per principi: limiti e prospettive e A. Pardi, Le sfide dell’intelligenza artificiale: pubblicato il rapporto dell’Aspen Institute). La pervasività di tali tecnologie solleva, tuttavia, rilevanti interrogativi in merito ai rischi connessi alla privacy, alla cybersecurity e al copyright (cfr. A. Di Martino, L’intelligenza artificiale e la tutela della privacy dei dati neurali: un ulteriore passo avanti con la legge del Colorado). Inoltre, l’utilizzo dei modelli di IA pone questioni complesse relative a bias, opacità e, con riferimento ai sempre più diffusi foundation models (quali Llama, ChatGPT e DALL-E), anche al fenomeno delle allucinazioni, ovvero la generazione di informazioni inesatte o fuorvianti (cfr. C. Novelli, Generative AI in EU Law: Liability, Privacy, Intellectual Property, and Cybersecurity).

Alla luce di tali criticità e su impulso di una richiesta della Data Protection Commission irlandese, l’European Data Protection Board (EDPB) ha pubblicato, in data 17 dicembre 2024, l’Opinion n. 28/2024, affrontando uno dei temi più delicati nell’ambito della protezione dei dati personali: la gestione dei rischi derivanti dallo sviluppo (development) e dall’impiego (deployment) di modelli di IA. Prima di affrontare i punti salienti del Parere occorre anzitutto specificare che l’EDPB, ai fini dell’Opinion, adotta una definizione di “modello di IA” ristretta rispetto a quella contenuta nell’AI Act (e tratta, indirettamente, dal Recital 97). Si riferisce, quindi, al “sottoinsieme di modelli di IA che sono il risultato di un addestramento di tali modelli con dati personali”. Tra gli esempi che il Board include in questa categoria, vi sono anche i modelli di deep learning, inclusi i large language models (LLM).

Chiarite le coordinate entro cui si inserisce il Parere, è possibile ora analizzare i tre profili fondamentali su cui esso si focalizza.

Il primo aspetto riguarda i casi in cui un modello di IA possa essere considerato “anonimo nonostante sia stato addestrato utilizzando (anche) dati personali. Secondo l’EDPB, le Autorità di Protezione dei Dati debbono valutare l’anonimato di tali modelli caso per caso, esaminando principalmente due elementi: (i) la probabilità di estrarre direttamente dal modello i dati personali utilizzati per l’addestramento; e (ii) la probabilità di ottenere, intenzionalmente o meno, tali dati personali attraverso interrogazioni del modello (un fenomeno definito “regurgitation”). Affinché si possa parlare di modello anonimo, entrambe le probabilità devono essere “insignificanti”. Tra le strategie che l’EDPB indica per testare tale anonimato viene suggerita – tra le altre – la valutazione dell’impiego, in fase di progettazione, di dati anonimi e/o pseudonimizzati. Laddove tali misure non siano state impiegate, vanno comprese le ragioni di tale decisione, nonché le strategie e le tecniche di minimizzazione dei dati impiegate per limitare il volume di dati personali inclusi nel processo di formazione.

Quanto, poi, all’appropriatezza dell’interesse legittimo come base giuridica per processare dati personali nelle fasi di sviluppo e utilizzo dei modelli di IA, l’EDPB esordisce, anzitutto, ricordando che l’art. 6 del GDPR non crea alcuna gerarchia tra le diverse basi legali. Quindi, il Board procede fornendo una specifica metodologia per verificare se, effettivamente, l’interesse legittimo possa essere utilizzato come base legale in questo contesto. La metodologia in parola si compone di tre passaggi fondamentali: (1) indentificare l’interesse legittimo del titolare del trattamento o del terzo, che deve essere articolato in modo chiaro e preciso, nonché essere presente (non speculativo); (2) verificare la necessità di processare i dati personali alla luce dell’interesse legittimo individuato, accertandosi altresì che non esista un modo meno intrusivo per perseguire tale interesse (c.d. “necessity test”); (3) valutare che l’interesse legittimo (o gli interessi legittimi) non prevalga(no) sugli interessi o sui diritti e le libertà fondamentali degli interessati (c.d. “balancing test”).

Si segnala che, con riferimento al balancing test, l’Opinion suggerisce diverse misure di mitigazione relative tanto alla fase di addestramento quanto a quella di utilizzo dei modelli di IA. Quanto al primo caso, è interessante richiamare alcune delle misure tecniche individuate dall’EDPB, quali, ad esempio, la psuedonimizzazione oppure la sostituzione di dati personali con dati fittizi nel dataset utilizzato nella fase di addestramento, nonché una serie di misure per facilitare l’esercizio di diritti fondamentali, come consentire agli interessati di esercitare il diritto alla cancellazione anche qualora non si applichino i motivi specifici elencati nell’articolo 17, par 1, GDPR. Ancora più interessanti sono le misure che il Board suggerisce in caso di web scraping (cfr. C. Ramotti, Il Garante per la privacy italiano sanziona Clearview A.I.). In questo caso, infatti, viene suggerito di escludere la raccolta di dati personali sensibili reperibili in contenuti pubblicati online; evitare la raccolta di categorie di dati sensibili; rispettare l’obiezione al web scraping espressa tramite robot.txt o simili.

Da ultimo, il Parere si concentra sulle conseguenze che il trattamento illecito dei dati personali durante la fase di sviluppo di un modello di IA può avere sul successivo trattamento o funzionamento del modello. L’EDPB suggerisce alle Autorità di Sorveglianza di valutare la situazione caso per caso, sottolineando che, anche in assenza di una base legale per giustificare il trattamento iniziale, se i dati vengono successivamente anonimizzati, il GDPR non si applica più. Tuttavia, se i dati vengono trattati nuovamente durante la distribuzione (anche dopo l’anonimizzazione), il GDPR si applicherà ancora, ma la liceità del trattamento non dovrà essere influenzata dall’illegittimità iniziale.

L’Opinion n. 28/2024, inserendosi in un panorama normativo dinamico e multiforme, rappresenta un punto di riferimento essenziale per tutti gli attori coinvolti nello sviluppo e nell’implementazione dell’IA. Tuttavia, è importante sottolineare che gli esempi forniti nel Parere non intendono né possono essere considerati esaustivi, vista l’ampiezza dei quesiti posti dalla Data Protection Commission irlandese e, soprattutto, alla luce della rapidissima e costante evoluzione dei modelli di IA. Di conseguenza, le considerazioni contenute nel Parere devono essere intese come criteri interpretativi delle pertinenti disposizioni normative in materia di privacy, avendo sempre come punto di riferimento il principio di responsabilità sancito dall’articolo 5, paragrafo 2, del GDPR.

Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0