Nulla di nuovo sul fronte artificiale: ChatGPT e gli altri

Il dibattito è vivacissimo e sarà sempre più infuocato. Senza pretesa di esaustività (un’analisi completa è fuori dall’orbita consentita, ma lo è in generale), con questo post cerco di delineare alcuni tratti: i dati come fuoco ellittico, la βρις greca che torna nelle forme dell’hype, il mito e l’assenza di nuove forme di intelligenza, la imprescindibile ricerca di responsabilità dei produttori e dei decisori pubblici, la rincorsa affannosa nella tutela dei diritti. In questo quadro estremamente complesso, le sfide del diritto sono sistemiche, e non meramente puntuali.

 

Chat GPT (acronimo per Generative pre-trained transformer) ha già aperto innumerevoli discussioni. Dal suo rilascio al pubblico, a fine 2022, ha suscitato curiosità e attenzioni. L’ingresso della più evoluta GPT 4 non ha fatto che accrescere l’intensità della luce puntata sul fenomeno (o, se si vuole, della luce che questi sistemi puntano agli occhi degli utenti). Moltissimi esperti in materia di programmazione e di “intelligenza” artificiale hanno cercato di spiegare al vasto pubblico la portata dell’innovazione, dal funzionamento tecnico alla loro integrazione in browser e motori di ricerca (con effetti in grado di alterare il mercato e, dunque, con rilievo concorrenziale). Il provvedimento del Garante italiano per la privacy — con la limitazione al trattamento dei dati in assenza di adeguate misure tecniche e di una corretta informativa, che ha condotto al sostanziale blocco del servizio dagli IP italiani, poi superato a valle dell’assunzione di specifici impegni da parte della Società OpenAI — ne ha riportato alla luce i rischi e gli inevitabili conflitti con la tutela dei diritti riconosciuti – promuovendo, indirettamente, un’azione programmatica in seno all’Unione europea, con la costituzione di un apposito gruppo di lavoro.

In questo contributo per l’Osservatorio sullo Stato digitale, mi soffermerò brevemente, senza alcuna pretesa di esaustività, su questi aspetti: i dati come fuoco ellittico, l’hype come moderna βρις (hybris), il mito e la responsabilità, il governo del settore e la formazione, la tutela della riservatezza.

Il fuoco: i dati. È ormai noto che Chat GPT è un sistema statistico (altrimenti detto “intelligenza artificiale”) fondato da OPEN AI, società di diritto statunitense. Si tratta, nella specie, di un Large Language Model (LLM), ultima frontiera dell’utilizzo di un “linguaggio” da parte di un sistema di calcolo probabilistico e statistico. Si tratta del più recente sviluppo di strumenti non “supervisionati” (supervised), in grado di elaborare testi, quantomeno sul piano sintattico e grammaticale (mentre la ricerca di senso o di significato, e men che mai della dicotomia vero/falso, non appartiene a questi sistemi). Questi modelli, infatti, partono da lontano (dagli anni Ottanta, ma va ricordato quanto studiato in precedenza, a partire dal calcolo delle probabilità. Sono stati elaborati secondo il modello delle reti neurali, vale a dire il modello basato sulla riproduzione della rete dei neuroni umani e delle loro connessioni, per riprodurre forme di apprendimento o “addestramento”: per chi volesse approfondire, vanno ripercorsi gli studi di Alan Turing, la conferenza di Dartmouth del 1956, lo “scontro” teorico tra  – principalmente, ma non solo – Frank Rosenblatt e Marvin Minsky sul “percettrone”, dove il lavoro critico di quest’ultimo (con Seymour Papert), del 1969, ha determinato una sostanziale sospensione delle ricerche su queste reti, poi riemerse più di un decennio dopo, nel 1982 e affermatesi con forza. Questi sistemi hanno superato, allo stato, i sistemi supervisionati, e operano come strumenti di apprendimento “autonomo”, volto a comprendere e rielaborare un linguaggio “umano”, grazie a numeri estesissimi di dati, variabili e parametri costruiti al loro interno (per una definizione, si possono consultare i considerando 6 ss. della proposta di IA Act europea).

Questo aspetto ne mette in luce la prima necessità: l’enorme mole di dati richiesta per il suo funzionamento. La raccolta dei dati su vasta scala dura da anni, con un sistema “a strascico” (crawling) che trova la sua fonte direttamente in Internet. È facile intuire i primi risvolti sulla capacità di concentrare le informazioni e di assicurare, per converso, la tutela dei singoli.

Dalla βρις all’hype. Forse il problema più grande è quello di sfatare il mito. Va decisamente evitato di attribuire a questi sistemi statistici caratteristiche antropomorfiche. Non siamo di fronte a macchine in grado di operare secondo intelligenze autonome – sebbene costituiscano programmi di elevatissima capacità, frutto di ricerche pluridecennali sulle tecniche decisorie, sull’elaborazione dei significati, sul funzionamento delle reti neurali (modello antitetico ai sistemi simbolici, che si sono imposti nonostante l’intuizione di chi li aveva concepiti fosse stata bloccata da chi li aveva, ingiustamente, stroncati). La loro capacità di estrarre informazioni e giungere a risultati non predeterminati dai programmatori, in altri termini, pur testimoniando lo sforzo e il grado di complessità cui sono giunte la logica e l’informatica, non devono contribuire alla “superbia” dei sistemi. Non devono distogliere lo sguardo dall’epistème (per ricordare i primi passi della filosofia greca), quindi da ciò che sta, che insiste, che permane e che può aiutare a comprendere l’essenza della realtà. Una macchina con le caratteristiche odierne non è una intelligenza, non ha le capacità del pensiero umano.

I rischi di una intelligenza capace di soppiantare o sottomettere l’umanità, oltre che in film e libri di fantascienza, sono stati sì evidenziati dai maggiori esperti in materia (penso a Geoffrey Hinton, considerato uno dei padri dell’intelligenza artificiale, che ha lasciato Google, ma anche a chi ha proclamato la necessità di arrestare immediatamente il processo e non solo di sospenderlo per sei mesi); tuttavia, quello che è stato evidenziato vale pro futuro, come possibile evoluzione, e non come scenario attuale.

È importantissimo tenere conto di questo aspetto e del fatto che il dibattito attuale spesso oscura gli impatti Più devastanti, come quelli sul lavoro e ambientali. L’ottimo libro di Kate Crawford (recensito per l’Osservatorio) li ha messi in luce: questa consapevolezza non va dispersa, o per rincorrere gli ipotetici rischi futuri verranno nascosti i serissimi problemi attuali.

Rafforzare il falso discorso della loro potenzialità emulativa e celare la realtà sottostante è, ad oggi, una forma di βρις. In questo senso, la definizione di “pappagalli stocastici” di Timnit Gebru e di altri studiosi (Gebru è l’informatica licenziata da Google per aver mosso critiche ai sistemi allora oggetto di ricerca all’interno dell’azienda), è estremamente chiarificatrice. Come si legge nel loro interessantissimo paper, non vi sono esperienze autonome di comunicazione linguistica. La “macchina” non è “intelligente”; non comunica; non discrimina; non attribuisce significato; non fornisce – meno che mai – risposte vere (o false). Compie un calcolo statistico (molto articolato e complesso, questo sì), sulla base del quale rende il risultato in forma di frasi, periodi e pensieri di senso compiuto. Per questo, alcuni non parlano di intelligenza artificiale, ma di programmazione statistica.

Tutto questo ha profonde conseguenze giuridiche.

La responsabilità, perno della disciplina. Sfatando il mito di macchine autonome con una propria “coscienza”, emerge un primo problema giuridico, che è quello legato alla individuazione di responsabilità connesse alla diffusione e all’uso di tali sistemi. Nella cd. IA si tende a parlare di output come di prodotti propri della macchina (la canzone, il testo). In realtà, non vi sono prodotti “della” cd. “intelligenza”. Vi sono calcoli statistici – resi nella forma di un linguaggio, grazie, come visto, alla mole dei dati immessi e utilizzati. Questo avviene anche laddove si tratti di apprendimento profondo (vale a dire a uno stadio interiore delle reti neurali su cui si basa il sistema).

Dunque, la responsabilità va ricondotta a chi crea il sistema, a chi programma il software di elaborazione.

Sotto un diverso profilo, il tema dell’etica è molto presente nel dibattito e se ne trova traccia evidente anche in studi e documenti ufficiali stilati in materia (come si desume dai principi enunciati in ambito CEDU al lavoro del gruppo di esperti dell’Unione europea, per finire con la recente Dichiarazione sui diritti e i principi digitali per il decennio digitale): tuttavia, appare evidente un rischio sistemico, concettuale e realistico allo stesso tempo, vale a dire quello dell’inserimento di valutazioni etiche nel diritto (secondo quanto operato dai regimi più autoritari del Novecento, come noto). Di qui la grande cautela che va posta nell’uso dell'”etica”. Volendo assumere, con tutti i caveat, un’ottica positiva, va ricondotto a tale concetto lo studio degli effetti sociali di questi, per evitare conseguenze pregiudizievoli come la discriminazione, l’etichettatura, la predeterminazione di classi di persone, l’intralcio nella lotta al crimine o, infine, la possibile influenza sul procedimento legislativo, con effetti di ulteriore deterioramento dei meccanismi di lobbying.

È da tenere bene a mente, poi come ci sia è anche chi evidenzia che il discorso dell’etica sia un “sottoprodotto” culturale, ovvero un falso discorso, messo in campo da chi genera questi sistemi e chiede che altri risolvano i danni da loro causati (in altri termini, addossando le esternalità su terzi o sulla generalità dei consociati). Così facendo, si consolidano asimmetrie e posizioni di potere e si separa la messa in esercizio del sistema dalla chiara attribuzione dei suoi effetti.

Il terreno è scivolosissimo, ed è necessario che anche i giuristi vi si soffermino con attenzione, per innalzare il livello di guardia in tutti i campi in cui operano, dalla giustizia all’amministrazione, fino ai decisori politici. Questi ultimi, infatti, hanno (e vanno sempre più verso) una responsabilità ancora più grande, che affonda nello sviluppo della società del domani e del suo rapporto con la tecnologia più avanzata.

Il governo e la formazione (culturale, per favore). Il punto appena tratteggiato mi conduce a parlare del governo del settore: pilastro costante dei tentativi (sempre maggiori, auspicabilmente) di governare questo progresso tecnologico. Il tentativo di dettare una disciplina europea, non a caso, istituisce un comitato dedicato e si pone il problema della governance. In sintesi, e in via necessariamente generale, sembrerebbe opportuno definire un governo locale con vocazione e collegamenti internazionali, per non disperdere il valore della comunicazione e della collaborazione, senza comprimere scenari sociali e giuridici.

Si viene, quindi, al tema della formazione. È sempre più necessario creare le condizioni per una piena conoscenza di questi sistemi. Molto, come anticipato, è stato detto e scritto. La complessità di quanto ci sta avvolgendo deve essere costantemente studiata e chi se ne occupa ha il dovere di aggiornarsi, per parlare con competenza. Vietare sarebbe antistorico, ma formare all’uso è l’avanguardia.

La formazione non deve seguire logiche superficiali, ma favorire una conoscenza approfondita, perché i giovani, soprattutto, possano un domani comprenderne il funzionamento di base e, di conseguenza, governare o contribuire a governare il fenomeno,  non esserne governati. Un concetto di formazione aperto, in grado di incidere sui sistemi, come quello ben illustrato nel libro del Prof. Enrico Nardelli. Assicurare la trasparenza, in questo senso, non è sufficiente: una volta svelati gli strumenti, è necessario comprenderli. La trasparenza, del resto, implica notoriamente un onere maggiore, in specie per i poteri pubblici: deve fornire le informazioni in modo organizzato e comprensibile; in questo caso, deve permettere a chiunque di capire il funzionamento degli algoritmi utilizzati, la loro concatenazione, i loro effetti.

Va aggiunto che la capacità di elaborare testi di senso compiuto (sempre prodotti dal calcolo statistico sulla base dei dati raccolti in più di un decennio) può porre problemi in termini di plagio e di lotta allo stesso. Il Prof. Josh Blackman, negli Stati Uniti, ha da tempo rilevato il punto, mettendo in guardia sui rischi del fenomeno, che supera anche gli strumenti di contrasto al plagio (molto utilizzati presso le Università).

La tutela dei dati personali. Il citato provvedimento del Garante – dapprima monocratico, poi collegiale, con impegni da parte di Open AI – ha suscitato un dibattito infuocato. I rischi della raccolta dei dati sono evidenti, in quanto la sterminata raccolta “a strascico” va in contrasto con quanto previsto dal Gdpr e con il modello basato sul consenso (peraltro imperfetto, perché al consenso individuale andrebbe affiancato un modello di intervento generale, pena la solitudine del singolo in una relazione completamente asimmetrica).

Vorrei evidenziare, però, un altro aspetto: la reazione di chi ha ritenuto che tale intervento fosse un freno per lo sviluppo tecnologico (o un collo di bottiglia per le PMI che non potevano più utilizzare il sistema per le proprie attività di ricerca e sviluppo). La tutela dei diritti non è un ostacolo allo sviluppo tecnologico. La tutela dei diritti di fronte a poteri tecnologici di elevatissima capacità è un dovere della società organizzata, per non lasciare il singolo da solo in una lotta impari. La privacy (che risale alla intuizione di Warren e Brandeis, in tutt’altro contesto storico e concettuale) è entrata a far parte, proprio e ancor più nel mondo digitale, dei diritti fondamentali (come testimonia la copiosa giurisprudenza della Corte di giustizia in moltissimi casi, da Schrems I e II a La Quadrature du Net). Non si può tentare di incrinare simili diritti di fronte alla necessità di sviluppo: è un non argomento, un falso trade-off, che può celare interessi di diversa natura.

Come ricordato dal Garante europeo, il rispetto di tale diritto è un modo per giungere all’uso “civilizzato” di tali strumenti e non lasciarli. E il dibattito sollevato sul rispetto dei diritti sanciti dal Gdpr a fronte della mole dei dati usati da ChatGPT ne è la conferma. Sarebbe interessante, invece, spingersi oltre e, seguendo le indicazioni della FTC statunitense, arrivare non solo a bloccare l’utilizzo di dati illeciti, ma anche alla cancellazione di quanto già immagazzinato e utilizzato dagli algoritmi.

Chiudendo, per ora. La rete, che ci ha donato immense capacità e conoscenza, e ha costituito un beneficio per l’umanità, ha già in passato rivelato l’altra faccia della luna. È ora di prendere atto che la sua architettura (anche tecnica) va rivista, insieme al suo sistema di governo, per consentirne uno sviluppo armonico a favore di tutti i cittadini, e non di pochi (sebbene sia necessario rivedere il modello che si è sviluppato negli ultimi trent’anni, con l’equazione gratuità-dati-pubblicità, che ha generato polarizzazione e sradicamento).

Uno dei rischi maggiori è dato dall’insufficienza, se non dall’assenza, di una disciplina delle armi automatiche (in grado di attivarsi autonomamente di fronte a uno specifico bersaglio, quindi “decidendo” se sparare oppure no). La disciplina è carente, in primis, a livello internazionale, come rileva un corposo e recente studio.

I rischi sono in circolazione e sottolineano l’attenzione posta non è mai abbastanza. Come il proiettile vagante che conclude il tragico capolavoro di Remarque, recentemente e magistralmente adattato al grande schermo (pur con alcuni adattamenti), da cui ho preso spunto per il titolo.

La battaglia che si pone dinanzi è di ordine sociale, culturale, costituzionale e amministrativa. Occorre dotarsi degli strumenti creativi, concettuali e intellettuali per riportare il tutto a una vera dimensione umana: costruttiva, e non distruttiva.

 

 

Post scriptum. Desidero ringraziare la lista NEXA, per le interessantissime analisi svolte e la possibilità di apprendere nozioni di contenuto tecnico e sociale di elevato spessore – con un caldo invito a seguirla per la ricchezza e la profondità dei contenuti e la pluralità dei punti di vista.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale