
Sinossi Gli Stati Uniti mirano a consolidare il loro primato nel campo dell’intelligenza artificiale attraverso una politica basata su ingenti investimenti e deregolamentazione. La revisione normativa funzionale all’innovazione, promessa dall’American’s AI Action Plan, potrebbe essere destinata a scontrarsi contro le criticità dovute alla mancanza di una regolamentazione federale organica e all’eterogeneità delle normative settoriali e statali.
Sul piano economico, le aziende americane simbolo dell’IA, come Nvidia, hanno raggiunto valutazioni record, superando i 4.000 miliardi di dollari. Negli ultimi tre anni l’MSCI World, indice delle azioni globali, è cresciuto del 59%. Ancora più significativo l’andamento dell’indice globale delle azioni legate all’intelligenza artificiale, che è più che raddoppiato (+131%). Nel 2024, gli investimenti privati in IA generativa hanno conosciuto un vero e proprio boom, hanno raggiunto 33,9 miliardi di dollari, pari a oltre il 20% del totale degli investimenti in intelligenza artificiale. Si tratta di una crescita del 18,7% rispetto al 2023. In totale, gli Stati Uniti hanno destinato 109,1 miliardi di dollari all’IA (Si veda AI index Stanford, 2025), staccando nettamente gli altri paesi. In un contesto geopolitico competitivo, gli Stati Uniti mantengono la leadership nell’intelligenza artificiale grazie a ingenti investimenti e a politiche di deregolamentazione, pur operando in un quadro normativo frammentato.
L’unica politica trasversale sull’AI intrapresa a livello federale è stata quella adottata con l’Executive Order sull’AI (si veda M. Fasan Stati Uniti d’America – Executive Order Removing Barriers to American Leadership in Artificial Intelligence: promuovere la leadership statunitense in materia di intelligenza artificiale) ritirato dal Presidente Trump con l’Executive Order 14179. Il documento era parzialmente vincolante e non integralmente fondato su impegni volontari da parte delle Big Tech. Indirizzava le agenzie governative a incentivare lo sviluppo della IA ma i concetti chiave restavano la “safety and security”. La sicurezza era garantita da standard tecnici, controlli preventivi e obblighi di notifica per le aziende. Mirava a favorire l’innovazione e la concorrenza, attirando talenti stranieri e sostenendo programmi di ricerca, con il supporto di agenzie federali su tematiche di ampio respiro sociale, come l’impatto sul lavoro. L’ordine disciplinava anche la tutela di diritti civili ed eguaglianza, imponendo misure contro usi discriminatori, la protezione dei consumatori, la privacy. L’obiettivo di rafforzare la leadership internazionale degli Stati Uniti passava tramite la definizione di standard globali condivisi (si veda quanto scritto per l’Osservatorio da M.B. Armiento, Regolare l’intelligenza artificiale a livello globale: dopo l’Europa, è la volta di Stati Uniti e Regno Unito? e D. Leone, Il memorandum d’intesa sull’IA tra USA e UK e le nuove prospettive di regolamentazione) e un piano di impegno con i partner esteri (Si veda S. Sulmicelli, Stati Uniti d’America – Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)
La visione “trumpiana” propone un cambio di rotta, con l’obiettivo di creare un quadro normativo che favorisca lo sviluppo delle nuove tecnologie. In quest’ottica, si incardina il piano Winning the Race: America’s AI Action Plan (23 luglio 2025) che si articola in tre pilastri (a cui si aggiungono 90 raccomandazioni). Il primo è accelerare l’innovazione dell’IA riducendo le normative, scoraggiando i controlli, fino a limitare i finanziamenti federali agli stati che adottano regolamentazioni restrittive. Viene data priorità ai modelli di IA open source e open-weight, in contrasto con la prassi statunitense che preferiva codici chiusi e proprietari ma più simile alla strategia cinese. Punta, inoltre a una sovranità digitale (Si veda quanto scritto per l’Osservatorio da L. Golisano, Punti di Vista sulla sovranità digitale – Non vi è un Re, senza uno Stato. Per governare le infrastrutture digitali bisogna prima realizzarle), con la costruzione di un’infrastruttura di IA statunitense. A tal fine semplifica le autorizzazioni per data center, semiconduttori ed energia, prevedendo esenzioni ambientali da un lato, mentre dall’altro garantisce il sostegno alla costruzione di data center per usi militari e di intelligence promuovendo la formazione di personale qualificato. Infine, mira a rafforzare la leadership nella diplomazia e sicurezza internazionale dell’IA. L’obiettivo è proteggere le tecnologie critiche e limitare l’influenza di potenze rivali, in particolare della Cina, con una strategia di controllo su chip e sistemi di produzione di semiconduttori. A completare la nuova policy vi sono tre ordini esecutivi (Prevenire l’IA woke nel governo federale, Accelerare l’autorizzazione federale per le infrastrutture dei data center e Promuovere l’esportazione dello stack tecnologico di IA americano). Questi contenuti non mirano solo a rimuovere ostacoli burocratici. Sembrano invece puntare a una progressiva erosione, se non alla totale eliminazione, di vincoli giuridici pensati non solo per regolamentare le attività economiche, ma anche per tutelare i diritti civili e l’ambiente. Ad esempio, le politiche di diversità, equità e inclusione sono ora descritte come ‘pervasive’ e ‘distruttive’, evidenziando una finalità politica che contrasta con i principi di tutela delle minoranze e di equità previsti dalla normativa europea nell’AI Act.
Negli Stati Uniti la regolamentazione dell’intelligenza artificiale è ancora frammentata (si veda L. Favarotto, Stati Uniti: chi detta le regole dell’IA) e in evoluzione. Dal 2016 al 2024, il numero di leggi statali sull’IA è passato da una a centotrentuno. La normativa federale esistente riguarda ambiti come difesa e aviazione. Parallelamente, sono state elaborate linee guida volontarie per un uso sicuro, equo e trasparente dell’IA. Gli enti regolatori come la FTC e la FCC applicano le leggi vigenti per analogia anche ai nuovi strumenti basati sull’intelligenza artificiale. Il Congresso ha avviato dibattiti e audizioni per future normative, con proposte come il SAFE Innovation AI Framework e l’AI Research Innovation and Accountability Act, volte a migliorare trasparenza, sicurezza e responsabilità. Le agenzie federali hanno un ruolo centrale nell’IA. Il NIST fornisce linee guida volontarie sui rischi, mentre il progetto NAIRR Pilot della NSF sostiene la ricerca democratica con 14 agenzie federali, 26 partner e numerosi progetti e workshop. La regolamentazione è settoriale: la FDA controlla i dispositivi medici IA, la NHTSA i veicoli autonomi e Fed e SEC monitorano l’uso dell’IA nel settore finanziario senza regole uniformi. Non può essere non ricordato l’One Big Beautiful Bill Act (4 luglio 2025) che prevedeva una moratoria decennale sulle normative statali e locali in materia di IA. Con questa si sarebbe raggiunto il culmine delle istanze deregolatorie in materia di intelligenza artificiale. La moratoria introdotta da tale provvedimento mirava a instaurare, per un periodo decennale, un contesto normativo assimilabile a un “vuoto regolatorio” a livello sia federale che nazionale, sospendendo ogni iniziativa legislativa o regolamentare in materia di intelligenza artificiale. Tuttavia, il Senato ha deciso di rimuoverla, giudicandola potenzialmente rischiosa per la protezione dei consumatori e la sicurezza online dei minori. Il riassetto delle politiche sull’IA si manifesta anche attraverso scelte semantiche: ad esempio, il Dipartimento del Commercio che ha recentemente annunciato la rinomina del suo Istituto per la Sicurezza dell’IA in Center for AI Standards and Innovation (Si veda A. Robertson, US removes ‘safety’ from AI Safety Institute). Si può osservare uno spostamento di focus dall’attenzione generale alla sicurezza verso una gestione dei rischi per la sicurezza nazionale.
La policy statunitense, come si è visto, è complessa, basandosi su una mancanza di regole a livello federale. Le normative settoriali e statali cercano di sopperire al vuoto regolatorio, secondo una filosofia socioeconomia che predilige l’innovazione. Qui si osserva una decisa controtendenza al modello europeo, basato su una normativa estesa e sulla valutazione dei rischi (si veda quanto scritto per l’Osservatorio da E. Schneider, IA Act e i sistemi di rischio: lungimiranza o nostalgia?).
Negli Stati Uniti, infatti, si ritiene che la mancanza di vincoli normativi possa incentivare questa tecnologia. Sebbene le grandi aziende tecnologiche (Google, Microsoft e IBM) abbiano adottato linee guida interne per un uso responsabile dell’IA, (Si veda Un confronto comparato tra la regolamentazione dell’IA negli Stati Uniti ed in Europa) l’assenza di obblighi vincolanti limita l’efficacia di tali misure nella protezione dei consumatori e dei diritti fondamentali, con la conseguente esposizione a potenziali impieghi impropri o discriminatori dei sistemi di intelligenza artificiale.
Tuttavia, il vero sostegno è dato dagli ingenti investimenti, partenariati pubblico-privati e una strategia su energia, semiconduttori e chip, che completano il piano d’azione volto a mantenere la leadership. L’attuale indirizzo politico degli Stati Uniti, infatti, in materia di intelligenza artificiale si concretizza principalmente in progetti e allocazione di investimenti infrastrutturali. Queste misure mirano a soddisfare le esigenze di ricerca e sviluppo dell’IA su scala nazionale. In questo contesto, lo Stato assume il ruolo di facilitatore dello sviluppo dell’innovazione, congiuntamente all’obiettivo di garantire sicurezza e competitività economica nazionale.
Il modello statunitense presenta, naturalmente, diverse criticità. A differenza del modello regolatorio europeo, che si ispira a principi etici e a fonti di soft law, i riferimenti ai valori contenuti nell’American AI Action Plan non possono essere considerati criteri ermeneutici sufficienti a riequilibrare il sistema normativo. In questo modo, il piano non assicura una tutela più ampia dei diritti fondamentali. Negli Stati Uniti, per favorire le grandi imprese tecnologiche, la tutela dei diritti è stata spesso sacrificata, con una normativa centrale quasi inesistente e senza valutazioni sistematiche dei rischi, fatta eccezione per quelli legati alla sicurezza nazionale. La responsabilità della regolazione è così lasciata alle singole aziende. Le iniziative statali o settoriali frammentate possono risultare controproducenti: da un lato rischiano di generare un caos giuridico, dall’altro, se non esistesse una sensibilità uniforme tra gli Stati, potrebbero diventare del tutto irrilevanti, aprendo la strada a fenomeni di regulatory dumping nel settore dell’AI. In generale, l’amministrazione centrale scoraggia fortemente qualsiasi intervento regolatorio significativo. Ne consegue che, quando la leadership tecnologica e la competitività diventano priorità strategiche, le norme settoriali vengono intese come barriere regolatorie: di conseguenza, vengono sistematicamente ridotte e le imprese sono sostenute da misure di favore. Ciò comporta, però, il rischio di allentare i diritti dei singoli e, di converso, di favorire la formazione di assetti oligopolistici nel mercato.
Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0