E se una chatbot pubblica fosse progettata per condizionare gli utenti? Considerazioni a partire dal caso Goio

I sempre più diffusi servizi pubblici di assistenza virtuale mediante chatbots, oltre a costituire uno strumento di buona amministrazione, possono prestarsi a generare inedite forme di condizionamento dei cittadini-utenti verso opzioni ritenute preferibili dal decisore pubblico-programmatore. 

 

 

Pochi anni fa l’amministrazione dell’Isola di Tenerife, ha avviato il progetto Goio (www.webtenerife.co.uk/goio/), ossia un servizio di assistenza virtuale sotto forma di chatbot finalizzato a consentire ai turisti di poter scoprire l’Isola e le sue offerte. «Whatever you seek in Tenerife… Just ask Goio» è il motto della piattaforma. 

All’interno di Goio sono presentate varie scelte selezionabili, le quali conducono a determinati esiti predefiniti dal programmatore. Ad esempio, laddove ci si volesse informare su cosa mangiare a Tenerife, il servizio, davanti a una richiesta generica, indirizzerebbe di default verso i soli prodotti locali. Diversamente, laddove la richiesta fosse più specifica, Goio offrirebbe una più vasta gamma di prodotti, includendo, in tal caso, anche quelli non locali. 

L’esempio delle richieste sui prodotti alimentari può far sorgere la domanda se sia un caso che l’opzione di default (e dunque più comoda come insegnano gli studi sul nudging) sia perfettamente sincronizzata con l’interesse pubblico dell’amministrazione isolana di promuovere prodotti e attività locali. 

L’intento e la tecnica utilizzata sono evidentemente innocenti e ingenui. Tuttavia, anche l’esempio della chatbot di una piccola Isola dell’Oceano atlantico può suggerire come, dietro servizi apparentemente innocui, possano celarsi tecniche sottili che, in astratto, ben possano servire intenti meno innocenti rispetto alla promozione della gastronomia locale. 

Da ciò emerge come la digitalizzazione della pubblica amministrazione attuata tramite l’introduzione di chatbots risulti avere un doppio volto. 

Da un lato, la digitalizzazione della PA tramite chatbots avvicina l’amministrazione ai cittadini e migliora i servizi pubblici. Infatti, queste chatbots sono pensate come sviluppo dell’ufficio relazioni con il pubblico e sono progettate per ispirare negli utenti fiducia e familiarità mediante la simulazione di una conversazione in un normale sistema di messaggistica. Tali sistemi di assistenza virtuale hanno come obiettivo veicolare informazioni utili ai cittadini-utenti o consentire ai cittadini di far pervenire informazioni (anche rimostranze) alla PA. 

Al contempo, dal connubio tra transizione digitale e scienze comportamentali possono sorgere nuovi spazi per attuare forme di condizionamento dei cittadini-utenti verso opzioni ritenute preferibili dal decisore pubblico-programmatore del servizio digitale. 

Il tema dei servizi di assistenza virtuale si sta diffondendo in tutto il mondo ed è sempre più frequente anche in Italia nell’ambito dell’attuazione degli obiettivi di digitalizzazione (per indicazioni sullo stato di avanzamento della digitalizzazione nell’amministrazione italiana, L. Torchia, G. Sgueo, B. Carotti, Il “Chi è Chi” della tecnologia nell’amministrazione italiana, in OSD, 29 aprile, 2021). In alcuni casi la chatbot è inserita all’interno del sito di una pubblica amministrazione come avviene per il Ministero degli Esteri (www.esteri.it/it/servizi-consolari-e-visti/); in altri casi il servizio di assistenza virtuale è fornito dalle amministrazioni tramite sistemi di messaggistica automatica, mediante, ad esempio, la creazione di un canale Whatsapp o Telegram come è stato fatto dal comune di Milano (https://www.comune.milano.it/-/innovazione.-nuovi-servizi-per-l-assistente-virtuale-020202-su-whatsapp). 

Ad ogni modo, da un’analisi empirica delle chatbots attualmente esistenti emerge come queste siano essenzialmente basiche e i condizionamenti, laddove esistenti, siano ingenui e primordiali come testimonia il citato caso di Goio. 

Se la prassi non fornisce ancora esempi particolarmente problematici, ciò non toglie, però, che in futuro possano sorgere condizionamenti più opachi e sottili, con la conseguenza che sia comunque necessario porsi già da ora il problema della compatibilità di questi sistemi con i principi dello Stato di diritto e con il relativo sistema di limiti e controlli al potere pubblico. 

In questo senso, sono evidentemente da rigettare le chatbots programmate per essere manipolatorie, ossia per distorcere la realtà e omettere elementi rilevanti per scelte consapevoli: infatti tali ipotesi ingannano i cittadini e riducono le possibilità di scelta. 

Più complesso è, invece, valutare i condizionamenti i quali non annichiliscano la possibilità di scelta ma, al contempo, sfruttino elementi del contesto per suggerire determinate opzioni invece che altre: in questo caso il permanere della libertà di scelta può far propendere per l’astratta legittimità della tecnica, ma il problema si sposta, in primo luogo, sul controllo della decisione a monte del condizionamento e, in secondo luogo, su quanto il sistema digitale renda effettiva la libertà di scelta. 

In merito al primo problema, il condizionamento effettuato dalla chatbot si fonda su valutazioni e scelte dell’amministrazione programmatrice, ossia su interessi e obiettivi ritenuti prioritari e conseguenti opzioni da suggerire; di converso, dalle scelte consegue anche il potenziale sacrificio di altri beni giuridici connessi alle opzioni disincentivate. È, quindi, essenziale rendere conoscibili i criteri alla base della scelta degli obiettivi da suggerire, al fine di eliminare possibili discriminazioni e biases. 

In merito al secondo problema, la questione può ulteriormente complicarsi alla luce dell’impiego di sistemi di intelligenza artificiale avanzati: si consideri, ad esempio, l’ipotesi di una chatbot pubblica che utilizzasse sistemi di machine learning, magari accompagnato dall’analisi dei dati degli utenti e dalla profilazione di questi ultimi: il pericolo è che da ciò possa derivare un iper-condizionamento (c.d. hypernudging) idoneo a presentarsi come l’estrinsecazione pubblica di quello che, in ambito privato, è ben noto come capitalismo della sorveglianza (sull’impiego delle tecnologie anche in queste modalità, P. Rubechini, Editoriale 2- maggio 2024). 

In tal caso, oltre al problema del controllo di tali chatbots avanzate, rileva il fatto che il potere che l’amministrazione dovesse esercitare tramite condizionamenti basati su profilazione e machine learning sarebbe così penetrante da compromettere la libertà di scelta dei cittadini utenti. 

Sul punto anche l’attuale stadio della regolamentazione pare non completamente chiarificatore. 

Considerando che la profilazione finalizzata a un eventuale nudging può costituire attività idonea a «incidere in modo analogo significativamente sulla sua persona», ci si può chiedere fino a che punto le funzioni di interesse pubblico possano essere una base giuridica adeguata a superare il dovere di consenso preliminare alla profilazione ai sensi dell’art. 22, §1 del GDPR. Inoltre, il regolamento UE 2024/1689 in materia di intelligenza artificiale vieta in generale qualsiasi pratica di intelligenza artificiale che utilizzi «tecniche subliminali che agiscono senza che una persona ne sia consapevole al fine di distorcerne materialmente il comportamento in un modo che provochi o possa provocare a tale persona o a un’altra persona un danno fisico o psicologico» (art. 5, §1 del regolamento UE 2024/1689). Ebbene, ci si può domandare se condizionare un comportamento virtuoso costituisca un comportamento vietato e, in caso affermativo, se ciò integri un danno: sul punto, se la tecnica fosse così invasiva da cancellare la possibilità di scegliere una delle opzioni, allora potrebbe ritenersi sussistente una menomazione della libertà tale da integrare un danno. Resta il fatto che, per tutti i casi consentiti dalla normativa in materia, risulta essenziale una riserva di umanità sullo sviluppo dell’algoritmo alla base del condizionamento della chatbot. 

Da quanto si è osservato emerge la necessità di continuare a monitorare gli sviluppi delle forme di condizionamento che dovessero essere perpetrate tramite sistemi di assistenza virtuale, al fine di verificarne la riconducibilità ai principi dello Stato di diritto. 

 

 

Osservatorio sullo Stato Digitale by Irpa is licensed under CC BY-NC-ND 4.0