Slaughterbots e il futuro della guerra automatizzata

Le applicazioni dell’Intelligenza artificiale al settore militare sembrano molto ampie e, secondo numerosi esperti, la miniaturizzazione delle tecnologie esistenti (guida automatica, analisi dei dati, riconoscimento facciale, ecc.) sarebbe in grado di permettere interventi mirati con armi autonome, in grado di intervenire senza un’attività umana. L’avvento di “armi autonome”, però, lascia emergere alcuni interrogativi giuridici che lo Stato è chiamato a risolvere.

Il settore della difesa e dello sviluppo degli armamenti è da sempre altamente remunerativo e in grado di incentivare e sfruttare i più recenti ritrovati tecnologici.

Da tale assunto non sfugge neppure l’Intelligenza artificiale, rispetto alla quale, tra le tante e diverse applicazioni (si vedano, ad esempio, gli usi in ambito medico), sta emergendo anche quello di sviluppo bellico, attraverso l’utilizzo di droni (o altre forme di strumenti meccanizzati) con finalità di eliminazione di bersagli individuati in via autonoma. Senza, perciò, l’intervento di un essere umano sul pilotaggio o sulla materiale utilizzazione dell’arma da fuoco. Il tema è emerso nel dibattito pubblico ad opera di una serie di organizzazioni no profit interessate a sensibilizzare la popolazione sul tema. Il principale scopo di tali campagne è di ottenere un divieto delle “armi autonome” o “autonomous weapon” (da non confondere con le armi automatiche, tecnicamente diverse – da spiegare la differenza). Tra le modalità divulgative utilizzate, una delle più suggestive è quella di alcuni brevi cortometraggi in cui si prospettano dei futuri più o meno distopici, in cui dei droni miniaturizzati – “Slaughterbots” – risultano in grado di eliminare numerosi bersagli in via autonoma, con derive deleterie per la vita umana, lo stato di diritto e la tenuta della democrazia.

Si tratta di un tema, in realtà, che coinvolge il dibattito pubblico ogniqualvolta emerga un nuovo strumento tecnologico con applicazioni belliche o, comunque, militari. Sul punto, in realtà, non si assiste ad un’uniformità di vedute: se da un lato, infatti, si osservano i pericoli di un utilizzo criminale di questi strumenti (difficoltà di intercettazione e prevenzione, eliminazione sistematica di alcuni gruppi etnici, escalation militare, pericolo di errore tecnico, ecc.), dall’altro si evidenziano le capacità deterrenti, nonché preventive, dell’IA in ambito bellico.

Si pensi, ad esempio, alla possibilità di impedire stragi o, più semplicemente, all’eliminazione di quella componente irrazionale e, delle volte, criminale che può infettare le attività militari, soprattutto in contesti di alta tensione bellica o di esasperazione psicologica degli individui.

Partendo dall’assunto, cinico ma terribilmente realista, dell’inevitabilità (quantomeno nel breve periodo) dello sviluppo di nuovi conflitti (su scala micro, come su scala macro) o della prosecuzione di quelli attualmente in atto, simili robot potrebbero essere programmati per la protezione strategica di alcune zone (quali scuole o ospedali) o in interventi in cui la necessità di una precisione millimetrica, quasi “chirurgica”, impedisce molto spesso operazioni di polizia (si pensi ad esempio contesti con degli ostaggi umani, o in zone in cui un ampio conflitto a fuoco potrebbe avere conseguenze devastanti). Occorre altresì riflettere sul risparmio di vite umane che si otterrebbe evitando l’intervento di forze fisiche militari o di polizie “umane” sui campi di scontro. Contemporaneamente, però, la disponibilità di strumenti simili agli “Slaughterbots” per gruppi terroristico o eserciti “mercenari” lascia emergere delle visioni distopiche e molto preoccupanti.

Certo, simili valutazioni possono svolgersi su qualsiasi strumento con finalità militari o “di difesa” in senso lato. La storia, infatti, è ricca di utilizzi delle armi in entrambe le direzioni, per il semplice motivo che la tecnica (quale che sia la sua natura) ha una funzione moralmente neutra, le cui conseguenze sono rimesse all’utilizzatore.

Nel caso delle armi automatizzate, inoltre, non sembrerebbe rientrarsi neppure in quei contesti di armi puramente distruttive, disumane o volte semplicemente (o in via maggioritaria) alla distruzione o alla provocazione del dolore. Non sembrerebbero, quindi, paragonabili alle armi chimiche, batteriologiche o non convenzionali i cui potenziali distruttivi superano grandemente le applicazioni “benefiche” (in certi casi sostanzialmente inesistenti).

Nel caso di specie, dunque, l’attenzione andrebbe posta sul rafforzamento degli “anticorpiistituzionali in tema di garanzie costituzionali, in grado di limitare l’utilizzo di tali armi a finalità positive per la società e di difesa, evitando inammissibili derive autoritarie o devianze dallo stato di diritto dei soggetti militari. Non si tratta, quindi, di vietare tout court l’utilizzo dell’AI, quanto di impedire che di questa ne vengano fatti usi distorti. Un percorso, naturalmente, difficile e irto di ostacoli, che richiederebbe un monitoraggio continuo e una capacità di enforcement particolarmente efficace.

Le conseguenze strettamente giuridiche appaiono, invece, diverse.

Sul punto – al di là delle difficoltà tecniche che coinvolgono la regolamentazione etica di strumenti automatizzati, o sulla loro effettiva efficacia in contesti in cui la distinzione tra civili e belligeranti risulta molto sfumata e di difficile comprensione (si pensi, ad esempio, a conflitti di guerriglia) – due sono le principali criticità che coinvolgono le armi automatizzate: 1) la valutazione di proporzionalità della risposta bellica; 2) la responsabilità giuridica in caso di errore della macchina.

Sotto il primo profilo, il problema della proporzionalità si pone di complessa risoluzione, in primis perché i droni automatici eliminerebbero in principio lo scontro, intervenendo direttamente sull’eliminazione del bersaglio. Nei fatti, dunque, la proporzionalità verrebbe esclusa in radice. Anche laddove si volesse predisporre il bot come strumento di mera risposta ad un’offesa, si incorrerebbero in difficoltà sulla definizione di parametri oggettivi di proporzionalità, valutabili ex ante e conseguentemente inseribili in un algoritmo. Il secondo ordine di problemi, invece, riguarda l’impossibilità di ritenere responsabile una macchina, ogni qualvolta questa compia un errore e colpisca vittime innocenti.

Tali criticità, dunque, parrebbero risolvibili con due tecniche, un divieto tassativo – come richiesto da alcune organizzazioni non governative – o una regolazione sul loro utilizzo.

Quest’ultima opzione potrebbe portare alla riconduzione della scelta finale sull’eliminazione del bersaglio in capo ad un essere umano. Se si propendesse per questa via, in caso di erroneo intervento del drone, potrebbe essere chiamato a rispondere il programmatore (o il “meccanico”, a seconda del contesto) in caso di malfunzionamento dello strumento, oppure l’essere umano che materialmente ha “premuto il grilletto”. Non si avrebbe, però, una vera e propria arma autonoma, ma solo una parzialmente autonoma – con varie forme di indipendenza a seconda che si tratti di un contesto difensivo o offensivo.

Il panorama, dunque, risulta vario e fortemente differenziato a seconda della specificità dello strumento. Quale che sia l’opzione preferibile, comunque, è necessario un intervento regolatorio e di valutazione preventiva del decisore politico. Un ritardo, di contro, potrebbe provocare effetti devastanti sia in termini di vite umane, che di tenuta delle democrazie (come in caso di mancato controllo sulla distribuzione di alcune forme di tecnologiche). Altresì, demonizzarne di principio qualsiasi utilizzo potrebbe provocare dei gap rispetto ad altri attori internazionali (statuali o non) difficilmente colmabile senza enormi perdite – economiche e di vite umane.

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione – Non commerciale – Non opere derivate 4.0 Internazionale.