“Orizzonti”: gli Editoriali dell’OSD. Numero 1, aprile 2024

Esce “Orizzonti“, serie di Editoriali scelti per l’Osservatorio sullo Stato Digitale, recentemente rinnovato.

Con questo primo numero, si propone una conversazione che ha preso il via da due presupposti. Il primo è la recente riorganizzazione dei ruoli nell’Osservatorio sullo Stato Digitale, con Bruno Carotti nel ruolo di direttore e Gianluca Sgueo di coordinatore dell’area intelligenza artificiale. Il secondo è la divergenza delle opinioni sul tema dei due autori. Siamo partiti dall’idea di un editoriale a quattro mani e siamo arrivati a dibattere su temi generali che partono e ruotano attorno all’AI Act, a testimonianza dell’alta temperatura del tema della cd. “intelligenza” artificiale.

Bruno Carotti (BC): L’approvazione dell’IA Act (o legge sull’intelligenza artificiale) da parte del Parlamento europeo e del Consiglio è un punto di rottura. Se ne parla a livello mondiale e viene considerato un grande passo in avanti. Ricorda quanto avvenuto con il Gdpr, considerato uno standard globale. Nel complesso, l’intervento è di grande importanza: è la presa di coscienza del legislatore su questo tema, ancora oscuro per molti. Ma, a parte che non è il solo (anche gli USA si stanno muovendo con diversi interventi, e da tempo), vi sono ancora molti nodi irrisolti. Sebbene sia ancora presto per dare un giudizio, temi come l’uso di strumenti di riconoscimento alle frontiere, eccezioni previste e consentite (anche per applicazioni ad alto ricasco), tutela di alcuni diritti sembrano ancora irrisolti. Per non parlare della strategia economica per cui, come è stato brillantemente osservato, l’Unione fa da arbitro ma non crea propri competitori globali. Guarda le opportunità ma, in fondo, non si posiziona.

Gianluca Sgueo (GS): I primi commenti all’AI Act europeo hanno messo in luce alcune criticità. Tra queste, anche quelle che sollevi tu: la tutela dei diritti individuali e soprattutto la conciliabilità tra un’evidente ambizione europea alla primazia regolatoria (sul punto ho trovato illuminante la lettura dell’ultimo volume di Anu Bradford, Digital Empires) a fronte dell’evidente incapacità di competere e innovare al ritmo dei nostri principali competitori: il Nord America e la Cina.

Questo punto è dirimente. Provo a illustrarlo con due dati, che trovo entrambi eclatanti. Il primo lo prendo dal Global AI Talent Tracker (che monitora il mercato globale delle competenze nel campo dell’intelligenza artificiale). Ebbene: il 28% dei migliori talenti nel campo dell’IA si forma negli Stati Uniti. Il 26% in Cina. Tra i Paesi europei, gli unici Stati rilevanti sono Francia (con una quota del 5%) e Germania (4%). Attenzione: gli Stati Uniti non producono solamente la quota maggiore di talenti. Sono anche i primi per capacità di “attrazione”: il 57% dei più bravi nel campo dell’IA lavora proprio negli States. Il 12% in Cina. Per Francia e Germania la quota scende a 4%.

Secondo dato (che riassume in modo eccellente questo editoriale del Financial Times di febbraio): tra il 2023 e l’inizio di quest’anno, Microsoft ha licenziato 8,000 lavoratori, Meta 20,000 e Google circa 12,000. In Europa, Nokia, SAP ed Ericsson hanno annunciato piani di riduzione del personale. L’attuazione di questi piani non si concluderà prima di fine 2026, in ragione delle legislazioni giuslavoristiche in vigore in Germania, Francia e Finlandia.

In sostanza l’Europa non compete perché non forma un numero adeguato di persone, quando le forma le perde perché non può garantire loro condizioni salariali e di crescita paragonabili a quelle d’oltreoceano e in quei rari casi in cui riesce a coltivare eccellenze nel campo dell’innovazione, rischia che vengano acquisite da altri (penso a Microsoft che negozia l’acquisto della francese Mistral).

Eppure, secondo il mio punto di vista, la questione non è tanto – come suggerisci tu – il non voler scegliere da parte dell’Europa, ma il non poter scegliere, se non produrre norme, scommettendo sulla possibilità che possano diventare standard globali (com’è accaduto in passato nel settore della sicurezza alimentare o in quello della riservatezza delle informazioni). Lo trovo un gioco pericoloso. Ti giro allora la domanda: quale costo, in termini di tutele individuali e collettive, è lecito pagare, e l’Europa è disposta a pagare, per approfittare dei benefici di questa frontiera tecnologica?

BC: Credo che la ricerca di essere dominanti a livello globale (tra cui gli standard) debba essere affinata.

Se ricordiamo, lontano nel tempo, le origini di Internet e il metodo “dal basso” (che ha fatto tanto sperare in termini di libertà, quasi con capacità liberatorie) e, poi, vediamo com’è andata a finire, la prospettiva appare drasticamente mutata. La rete delle reti è stata letteralmente “fatta a pezzi” (in merito, segnalo il volume di S. Quintarelli e V. Bertola). In questo difficile scenario, l’Unione non deve aver di mira la “conquista” (passami il termine) globale, ma un proprio posizionamento regionale. Una posizione che serva anche a fronteggiare i “tecno-poteri” che la popolano, che spingono a interrogarsi sulla loro natura e sul rapporto con i poteri “tradizionali”, come ricorda L. Torchia, che è anche la fondatrice del nostro Osservatorio, nella recente lettura per Il Mulino. È qui che vedo una carenza. Che non è nuova e verte anche su altre politiche, per troppa cautela e poco carattere. Un esempio? Il Gdpr, considerato standard globale ma attuato male (il caso Schrems II è palese in tal senso). Un’amministrazione debole, che non ha tutelato interessi sanciti legislativamente rendendo necessario il ricorso al giudice. Anche le sentenze della Corte sono state attuate male e poco (sic!) – anche se qualcosa inizia a muoversi con maggior forza (è il caso dell’uso di Office 365, sempre da parte della Commissione).

Interessanti i dati che proponi. Ho provato uno degli ultimi “ritrovati” della tecnica e ho trovato errori lapalissiani. Sono persino andato a controllare la fonte: la fonte era corretta, l’elaborazione del LLM no. Un campanello d’allarme, se ancora ce ne fosse bisogno. La Rivista Science ricorda come Marvin Minsky, nel 1970, prometteva una intelligenza “generale” al massimo in otto anni…

L’Europa deve costruire, finanziare, separarsi: in una parola, avere più coraggio. Regolando il mercato, non sottostando a esso in ogni condizione. Ne ho scritto altrove: continuerà a farsi scegliere, o finalmente sceglierà, per citare De André?

Come agiremo sul lavoro? Come risponderemo alla – vera – crisi indicata nell’“Atlante” di Kate Crawford? Se l’Europa non proietta una propria visione, è destinata a perdere. Può costare, ma potrebbe perdere solo in tattica, per guadagnare in strategia.

GS: Abbiamo aperto molti fronti. Provo a districarmi, iniziando dal caso di “allucinazione” che hai subìto da parte dell’IA generativa cui hai posto una domanda. Hai ragione: non c’è solo un problema di correttezza dell’informazione, ma anche di completezza. Eppure proprio il fatto che tu stesso hai sottolineato – cioè che si tratta sostanzialmente di inferenza statistica e non di intelligenza (a proposito: secondo la comunità di esperti in forecasting Metacalculus, l’anno di arrivo della prima forma di intelligenza artificiale generale è il 2040) – ci dice che i margini di errore o incapacità di fornire una risposta esaustiva sono inevitabilmente destinati a ridursi. Per essere ancora più chiaro: a dicembre 2024 GPT-4 garantiva una memoria di circa 150,000 token (unità di misura equivalente a circa 750 parole di lingua inglese). Il suo predecessore, GPT-3, a gennaio 2020 offriva agli utenti una memoria di poco superiore ai 1000 token.

Smettere di avvalersi di questi strumenti sostenendo che sono imprecisi, come fanno alcuni, è una scelta miope. A proposito, tu sostieni anche un’altra cosa: cioè che una progressione tecnologica così decisa come quella dell’intelligenza artificiale, ad oggi di pertinenza di poche aziende, dovrebbe spingere l’Europa a dare nuove regole ai mercati. Più ci penso, più questa opzione non mi convince.

Per tre motivi.

Il primo lo hai citato tu stesso parlando di Gdpr: buone regole prive di un’applicazione convinta, cessano di essere tali. Vedo lo stesso rischio con le leggi sui mercati e i servizi digitali.

Il secondo motivo fa capo alla Crawford (che anche hai citato) e al nutrito movimento d’opinione che esprime preoccupazioni in merito all’impatto delle macchine sulla quantità di lavoro e qualità delle mansioni. Sono preoccupazioni corroborate da dati preoccupanti, è innegabile. Eppure, guardando alla storia, la trasformazione del lavoro sembrerebbe essere una conseguenza naturale di qualsiasi sviluppo tecnologico. Daron Acemoglu e Simon Johnson nel loro ultimo libro (Power and Progress) hanno ripercorso gli ultimi mille anni di storia per dimostrare che la relazione tra sviluppo tecnologico e prosperità diffusa genera impoverimento e disuguaglianze solamente quando non si riducono i monopoli (e comunque raramente nel lungo periodo). Ecco una sfida per la contemporaneità digitale.

La questione della qualità del lavoro poi a me pare contraddittoria. Guardiamo, talora con ammirazione (penso agli scritti di Domenico De Masi, come “La felicità negata”) gli esperimenti sociali di quei Paesi che riconoscono un sostegno economico ai cittadini, in base alla cittadinanza, considerandoli forme progredite di convivenza sociale, dimenticando che il punto di arrivo di quelle formule progredite di convivenza è proprio l’eliminazione della gran parte delle attività manuali, anche grazie all’automazione. Al che mi chiedo: se quello è il modello, dobbiamo preoccuparci del ridimensionamento delle attività lavorative umane o cogliere l’occasione?

Il terzo motivo che rende ai miei occhi poco convincente l’idea di una regolazione dei mercati come chiave di un nuovo predominio europeo sul fronte tecnologico è che l’Europa si è appena dotata di regole pertinenti a tutti i profili più delicati, inclusa l’IA. La attendono ora scelte che non passano necessariamente o primariamente dalla regolazione. Oltre a quelle che ho citato prima, c’è l’investimento pubblico europeo in ricerca e sviluppo, tra i più alti al mondo, ma finora incapace di tradursi in performance industriale, come accade negli Stati Uniti. Un altro aspetto critico è l’elevata dipendenza dalle materie prime critiche per la transizione digitale, che rende il continente europeo incredibilmente debole rispetto agli shock geopolitici e alle interruzioni delle catene di approvvigionamento globali.

BC: Ho la sensazione che si sia generato un pregiudizio, per cui sgombro il campo da possibili fraintendimenti.

Primo, non affermo che dovremmo fermarci e rifiutare l’evoluzione tecnica, ma mitigarne gli effetti (anche tu, se parli di formazione, individui una carenza).

Secondo, la sostituzione di alcuni lavori è inevitabile: accadde con i recensori di libri di Amazon a fine anni Novanta e, un secolo fa, con la sostituzione dei lampioni a olio. “La trappola della tecnologia” di C.B. Frey, che è documentatissimo, lo testimonia. La speranza è che vi sia una trasformazione del lavoro, ma va correlata con apertura e mobilità sociale, altrimenti il neo feudalesimo sarà assoluto.

Terzo, non ritengo si debba solo regolare il mercato, ma svolgere un’azione di promozione. Hai ragione nel sottolineare i fondi usati male; ma non possiamo bloccare queste iniziative in nome della “mano invisibile”. Il mercato è un luogo relazionale e le istituzioni sono fondamentali: Internet, da cui tutto muove, è nata grazie a ingenti finanziamenti pubblici. Così tecnologie come il touch screen.

Quanto alle previsioni: parli del 2040, citi dati e rapporti, come sempre sei preparatissimo. Tuttavia, come ricorda Nello Cristianini nel suo volume “La scorciatoia”, nel giro di quattro anni – dal 1984 al 1988 – si è passati da una visione entusiastica a una di totale arresto, di “inverno dell’IA” (con la fine, peraltro, delle Lisp Machine). Qui va posta molta “attenzione”: attrazione degli investimenti, interessi aziendali, media e fari puntati creano “bolle” e bisogna rimanerne a distanza. Siamo anche oggi in mezzo alle turbolenze ed è facile commettere errori. E quando citi il problema dei monopoli e della evoluzione tecnologica, vieni in questa direzione.

Delle allucinazioni non può non tenersi conto, anche per smontare l’hype (collegata a una certa propaganda) mentre la la tokenizzazione non spaventa troppo, se si ricorda la storia che ne è alle spalle (con la rivoluzionaria intuizione di Jelinek). Nonostante i progressi, la statistica – che ne è alla base – non comprende il significato di quanto produce. Certo, le capacità sterminate (superiori alle capacità di lettura del più veloce degli uomini, moltiplicata per secoli) sfuggono a logiche conosciute, ma non siamo all’intelligenza generale, o forte. Fare previsioni, lo ripeto, risponde ad altre logiche.

Potremmo andare avanti a lungo, e sarebbe interessantissimo, ma penso che dovremmo restringere il campo: cosa attendi dall’applicazione dell’IA Act?

GS: hai ragione la stiamo prendendo alla larga e dovremmo concludere, se non altro per non annoiare chi ha avuto la pazienza di leggerci fino a qui. Devo anche dire a nostra difesa che è proprio questo che rende così affascinante un atto regolatorio complesso e ambizioso come l’AI Act. Puoi iniziare imponendo a te stesso di non sconfinare, di guardare alle norme, ma inevitabilmente ti ritrovi ad alzare lo sguardo su un panorama più ampio, che non include soltanto tutte le cose che abbiamo detto, ma anche molte altre che non abbiamo trattato.

Sforzo di sintesi, dunque. Credo che l’Unione abbia scelto il miglior approccio possibile tra quelli che aveva a disposizione: la valutazione e il contenimento del rischio. La tecnologia in generale, e l’IA in particolare, accelerano l’obsolescenza delle norme. Un’ottima motivazione per chi, giocando al ribasso, scegliesse di non regolare. L’opzione europea invece prova a non focalizzarsi direttamente sulla tecnologia, ma sugli utilizzi di questa (e i rischi che ne derivano). Questo mi piace. Di più: questo mi basta. La frontiera delle criticità adesso si sposta altrove, sui punti di cui abbiamo discusso. Rispetto a questi ultimi le nostre visioni qualche volta convergono e molto più spesso divergono. Eppure su una cosa siamo d’accordo: sono tutte aree critiche e prioritarie. Dovremmo darci appuntamento qui, tra qualche tempo, per vedere la direzione che hanno preso. Intanto grazie e a presto.

BC: su questi aspetti, mi trovi d’accordo su tutto. È un discorso che parte da premesse filosofiche, dal pensiero, dalla sua analisi. Condivido anche il tuo giudizio complessivo sulla legislazione appena approvata. Oltre ai limiti descritti, mi preoccupano comunque l’attuazione e l’apertura delle autorità che saranno chiamate a realizzarla. Serve apertura e sapere tecnico, innovazione anche nel pubblico, per non cadere in logiche stantie e rigide. Vedremo come saranno configurati gli uffici. L’Osservatorio ne riparlerà anche con post dedicati. Il nostro dialogo apre la tematica e la rincorreremo.

Grazie quindi a te per il fruttuoso scambio, e a presto per un nuovo appuntamento su queste pagine.

 

Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0