diritto internazionale pubblico

“Laws… of Humanity?”. Un resoconto (critico) del primo Gruppo di esperti sulle armi autonome

Diego Mauri, Università di Palermo/Università Cattolica del Sacro Cuore

1. Tra il 13 e il 17 novembre u.s si è svolta a Ginevra, nel quadro della Conferenza degli Stati parte alla Convenzione sulle armi convenzionali (d’ora in avanti CCW), la prima riunione del Gruppo di esperti governativi (GGE) sulle tecnologie emergenti nell’area dei sistemi d’arma autonomi letali (Lethal Autonomous Weapons Systems o, secondo l’acronimo inglese, LAWS). Presieduto dall’ambasciatore indiano Singh Gill (che ha pubblicato, a pochi giorni dall’inizio dei lavori, questo articolo), l’evento – che rappresenta lo sviluppo più recente di un dibattito iniziato, per il vero, nel 2013 in seno al Consiglio dei Diritti Umani, e approdato, nel 2014, alla Conferenza degli Stati parte alla CCW (nella cornice dei Meeting di Esperti del 2014, 2015 e 2016) – è stato anche l’occasione per la pubblicazione di uno “Zoom-in” su QIL (Questions of International Law). In attesa degli imminenti lavori del GGE («Coming soon», per citarne il titolo) si sono puntati i riflettori, forse per la prima volta in modo organico su una rivista italiana, su una delle questioni più spinose del diritto internazionale umanitario e dei diritti umani alla prova delle nuove tecnologie.

Carattere saliente dei LAWS è l’inedita combinazione di due aspetti: da un lato, l’autonomia dell’arma/macchina nello svolgimento di determinate funzioni, da intendersi come indipendenza da un operatore umano; dall’altro lato, la possibilità che, tra le funzioni lasciate all’autonomia di cui sopra, rientrino anche quelle cd. “critiche”, segnatamente la selezione e l’ingaggio di obiettivi, anche umani. In estrema sintesi, ai LAWS potrà – anche se alcuni si dicono scettici al proposito – essere affidata la singola decisione di esercitare forza (anche) letale (di qui l’attributo «Lethal») contro un obiettivo umano in assenza di un intervento umano in tale singolo processo decisionale (di qui «Autonomous»).

In questa sede vorrei soffermarmi brevemente sui risultati (e i limiti) del dibattito maturato in seno al GGE, rimandando il lettore particolarmente interessato ai contributi (ormai non pochi, ma per lo più stranieri) che, da diverse prospettive, hanno affrontato il tema (Schmitt; Kastan; Chengeta).

2. Protagonista indiscusso, sul suggestivo palcoscenico offerto dal Palais des Nations, è stata una disposizione di diritto pattizio che ha acquisito natura consuetudinaria, l’art. 36 del Primo Protocollo Addizionale alle Convenzioni di Ginevra del 1949, all’indirizzo del quale pressoché tutte le Delegazioni hanno levato un plauso convinto.

L’argomento può essere riassunto come segue: in quanto «armi» (pur innovative quanto si vuole) a tutti gli effetti, i LAWS non possono che essere trattati al pari di qualsiasi altro armamento. Pertanto, se impiegati in un conflitto armato – ambito in cui trova applicazione il diritto internazionale umanitario –, la parte che ne fa uso è tenuta al rispetto degli obblighi derivanti da tale sub-sistema di diritto internazionale, segnatamente quello di assicurare che il suo impiego non sia vietato, in talune o in ogni circostanza, dalle disposizioni del Protocollo o, comunque, di qualsiasi norma internazionale applicabile alla parte. Ad esempio, l’uso dei LAWS sarebbe vietato se ad esso conseguissero «superfluous injury» o «unnecessary suffering» (cfr. art. 35 par. 2 del Protocollo, ritenuto pacificamente corrispondente al diritto consuetudinario e riproduttivo, in modo pressoché pedissequo, dell’art. 23, lett. e, del Regolamento allegato alla IV Convenzione de L’Aja). È con riferimento a questa norma che negli anni successivi sono state state vietate, ad esempio, armi il cui effetto primario sia quello di ferire l’obiettivo con frammenti non rilevabili con raggi (Protocollo I alla CCW), o «trappole» esplosive (le c.d. «booby traps» – Protocollo II emendato alla CCW). Allo stato, dunque, anche per i LAWS si dovrà valutare se dal loro utilizzo possano derivare le conseguenze di cui sopra, il che – su ciò vi è unanimità – appare poco plausibile.

Ancora, l’art. 36 prevede che si sottopongano al meccanismo di review non solo gli armamenti, ma anche il loro normale utilizzo da parte dei belligeranti («methods of warfare»): in questo senso si suole rinviare alle norme che regolano il c.d. targeting process, cioè il procedimento di individuazione e selezione dell’obiettivo militare e l’impiego di forza letale nei suoi confronti. Gli obblighi giuridici sono indirizzati direttamente a quanti operano «sul campo»: il comandante, il soldato semplice, l’operatore e tutti quanti siano tenuti, tra le altre cose, a rispettare i principi di distinzione, proporzionalità e precauzione nella pianificazione e conduzione degli attacchi. Anche in questo caso, occorre domandarsi se, e a quali condizioni, l’impiego di LAWS sul campo di battaglia sia compatibile con i principi appena menzionati (su cui v. amplius Meier): un LAWS che non sappia distinguere correttamente tra combattente legittimo e persona protetta (ad es. il soldato c.d. hors de combat, nonché il civile) – come facilmente può accadere nei conflitti armati di carattere non-internazionale, dove, ad esempio, normalmente una parte belligerante non indossa un’uniforme identificabile – difficilmente potrà essere impiegato in contesti di guerriglia urbana. Questo solleva, a mio avviso, un’obiezione: quid, però, se, in un futuro più o meno remoto, la macchina arrivasse a garantire – grazie all’evoluzione dell’Intelligenza Artificiale, che già oggi compie progressi sino a una manciata di anni fa inimmaginabili (qui i rimandi sarebbero innumerevoli; basti un rapido sguardo qui e qui) – un livello di affidabilità e di performance pari o superiore a quello di un soldato umano? Il loro impiego potrebbe addirittura considerarsi doveroso (anche solo moralmente), non solo in vista del risparmio di vite dei «propri» soldati (il quale, per inciso, costituisce una tra le preoccupazioni più avvertite dalle democrazie odierne) ma anche del contenimento del numero delle vittime dell’altra parte belligerante (non più esposte, non fosse altro, al rischio di… crimini di guerra, che una macchina, vincolata al rispetto delle proprie regole, non potrebbe commettere; v. ex multis Crootof; Ohlin).

È proprio in considerazione di questi sviluppi che, oggi, la proposta di adottare uno strumento giuridicamente vincolante che vieti lo sviluppo e l’impiego di LAWS non entra nell’orizzonte, se non del «fattibile», nemmeno dell’«efficace» (per una serie di contributi, v. in calce a questo articolo). Stati Uniti, Regno Unito, Francia, Cina, Russia, e molti altri Stati hanno espresso, tanto al GGE quanto nelle occasioni precedenti, il loro rifiuto di sottoscrivere un tale trattato, considerando, anzi, una mossa tanto radicale prematura in un momento in cui il progresso tecnologico, come si diceva, potrebbe realizzare, anche sul versante civile, numerose promesse (una circolazione stradale più sicura; un’assistenza medica più efficiente; una guerra più…umana). Ammetto di aver dovuto vincere una certa riluttanza a scrivere le tre parole che precedono l’inizio di questa frase; riluttanza che, però, viene felicemente condivisa anche da (sempre più) numerose Delegazioni partecipanti al GGE (in primis i membri del Movimento dei Non Allineati; ma anche Austria, Brasile, Costa Rica).

3. Altro protagonista del dibattito al GGE è stato il concetto di «controllo umano» sull’arma (su cui v. amplius Chengeta; Sharkey): non riferibile, se non indirettamente, ad alcuna norma di diritto internazionale umanitario (forse perché, sino ad oggi, non si era mai posta la possibilità di impiegare armi in grado di selezionare e ingaggiare da sole obiettivi umani), esso è stato ritenuto, da tutti i partecipanti, un elemento imprescindibile per le discussioni future e, su un piano più tecnico, per lo sviluppo di questa tecnologia.

Un problema, però, c’è, ed è emerso in modo lampante durante il GGE: nessuno è in grado di dire in cosa consista effettivamente tale nozione di «controllo umano». Si è detto che il tratto saliente dei LAWS consiste nella possibilità che la singola decisione letale sia presa dalla macchina senza l’intervento di un operatore umano, il quale: a) potrebbe non essere nemmeno incluso nel decision-making della macchina; b) potrebbe esservi incluso, ma non avere il tempo fisico per intervenire; c) potrebbe comunque intervenire, con il rischio, spesso segnalato, di un c.d. bias (letteralmente, di «fidarsi troppo» della macchina e accettare di silenziare una propria intuizione in favore della decisione della macchina, ritenuta migliore poiché più efficiente e performante).

Ecco che allora molti hanno insistito per il mantenimento, da parte dell’operatore umano, di un controllo «significativo» («Meaningful Human Control», o MHC), ribadendo l’importanza che una forma di supervisione umana sull’operato dei LAWS, con possibilità di intervento in tempo reale, sia assicurata nella maggior parte dei contesti di utilizzo (cfr. anche il Working Paper di Human Rights Watch e dell’International Human Rights Clinic di Havard); molti Stati, tra cui quelli facenti parte del Movimento dei Non-Allineati (NAM), hanno condiviso tale «stretta» impostazione. Il Regno Unito, similmente, usa l’espressione «appropriate level of human judgement», che potrebbe interpretarsi quasi come una forma più incisiva di presenza umana, che investe il «giudizio» sul target individuato (v. qui per una lettura critica). I Paesi Bassi invece, intercettando probabilmente il trend che molti Stati dell’Occidente globale inseguono, hanno invece proposto di declinare il concetto di MHC sul c.d. «wider loop», cioè sul circuito decisionale inteso in senso lato: non si dovrebbe pensare a un rapporto uomo/macchina di 1:1 (tecnologicamente fattibile ma strategicamente sub-efficiente), ma a un controllo «generale» dell’attività di diversi LAWS sul campo, con funzioni essenzialmente di monitoraggio, che consenta all’operatore di intervenire per modificare l’obiettivo della singola missione o, in casi di emergenza (es. malfunzionamento improvviso), di annullarla.

In breve: in principio le Delegazioni erano sì in accordo sulla necessità di ritenere una qualche forma di controllo dell’uomo sulla macchina; quello su cui non sono state in grado di intendersi era quale forma di detto controllo ritenere. Nelle Conclusioni del GGE, adottate per consensus, non si dice altro che «[t]he human element in the use of lethal force should be further considered» (§ 16 lett. c). Una conclusione certamente al ribasso, che ha infatti lasciato insoddisfatte molte Delegazioni (soprattutto quelle appartenenti al NAM). Per tornare al paragone teatrale, si potrebbe dire che hanno tutti assistito alla performance dell’attore senza… capirla fino in fondo: gli applausi sono stati, dopo qualche momento di imbarazzo, molto forzati.

4. L’esigenza di mantenere un controllo umano di un qualche tipo sull’uso di forza letale da parte di una macchina si collega, come anche è emerso dalla discussione al GGE, alla necessità di assicurare che vi sia qualcuno a rispondere in caso di azioni impreviste e, soprattutto, indesiderate della macchina.

Ipotizziamo che, in un certo futuro, venga inviata sul campo di battaglia una squadra di LAWS, con l’obiettivo di eliminare tutti gli obiettivi ostili in un’area determinata, ad esempio un compound alla periferia di una grande città asiatica. Ad un certo punto, per un problema di natura tecnica (es. interferenze nelle comunicazioni), l’operatore perde il contatto con la squadra e, recuperatolo pochi minuti dopo, scopre che i LAWS hanno aperto il fuoco non solo contro obiettivi consentiti (i soldati nemici), ma anche contro alcuni civili, la cui presenza non era stata rilevata in anticipo, provocandone la morte. Di chi (e di che genere: penale, civile, internazionale) è la responsabilità in un simile scenario? Potranno essere chiamati a rispondere, se del caso: i) coloro che dovevano occuparsi dei canali di comunicazione per garantirne il funzionamento; ii) coloro che avrebbero dovuto occuparsi di segnalare la presenza di civili (se, conosciuta tale informazione, non si sarebbe fatto ricorso ai LAWS); iii) i programmatori dei LAWS, laddove si scoprisse che, ad un’attenta analisi, gli algoritmi non erano sufficienti ad assicurare una corretta individuazione degli obiettivi consentiti; iv) tutti i precedenti, se il risultato illecito è stato conseguenza dell’insieme dei contributi individuali.

La presenza di un controllo umano dovrebbe quindi garantire che non si generi alcun accountability gap – ovvero vuoti di responsabilità in sede penale, civile o internazionale (cfr. Chengeta; McCormick-McFarland; Reitinger). Ma l’esigenza di mantenere il controllo umano sopra (il funzionamento del) l’arma potrebbe essere letta sotto una diversa prospettiva: è possibile, ad oggi, affermare che esista una norma di diritto internazionale umanitario che imponga, per ogni singolo uso di forza letale contro obiettivi umani, la presenza (e se sì, di che tipo?) di un operatore umano nel circolo decisionale della macchina? Se così fosse, il problema della compatibilità dei LAWS col diritto internazionale umanitario si estenderebbe considerevolmente, perché non soltanto il momento patologico del loro impiego (i.e. l’uccisione di civili; la sproporzione tra vantaggio militare e perdite civili; l’errata pianificazione di un attacco) costituirebbe una ragione per la loro proibizione, ma anche – e a monte – il loro impiego fisiologico (i.e. l’abbattimento del target legittimo).

5. È possibile arrivare a una tale conclusione? Una via, talora indicata da quanti sostengono tale posizione (di recente Sparrow; ancora Human Rights Watch, nel suo primo Working Paper, Losing Humanity), è quella offerta dalla Clausola Martens che, inserita per la prima volta nel Preambolo della II Convenzione de L’Aja del 1899 e poi riprodotta nella maggior parte degli strumenti di diritto internazionale umanitario, codifica il c.d. principio di umanità. La Clausola stabilisce che, anche in mancanza di una norma applicabile ad una determinata situazione (ad es., l’assenza di una disposizione che proibisca una certa arma), civili e combattenti rimangano comunque sotto la protezione dei principi di diritto internazionale, le leggi d’umanitàlaws of humanity») e i dettami della pubblica coscienza dictates of public conscience»). Sono proprio tali «considerazioni elementari di umanità» (secondo l’espressione adottata dalla Corte Internazionale di Giustizia, nel 1949, nel caso Canale di Corfù, p. 22) a precedere ogni codificazione (ogni diritto scritto?), di modo che prima di verificare se un armamento (o un metodo o strumento di guerra) sia compatibile con norme pattizie e consuetudinarie, bisognerebbe, a monte, domandarsi se essa sia accettabile a partire da un concetto di umanità (cfr. Ticehurst).

Si potrebbe, a questo punto, obiettare: tale ultimo concetto è così generico, vago, intriso di moralità, opinabile, soggettivo… (cfr. l’analisi di Evans) da non poter assurgere a fonte di diritto al pari di convenzioni, consuetudini, o anche solo principi generali. Vi è poi chi ha aggiunto a fortiori che, storicamente, nessun’arma è stata ritenuta vietata sulla sola base della Clausola, ma è sempre stata necessaria l’adozione di uno strumento vincolante (così Cassese). In breve: se anche fosse ipotizzabile che l’impiego dei LAWS sia contrario a tali esigenze di umanità (circostanza che, comunque, molti escludono: cfr. Sassoli, Anderson-Waxman), ciò solo non basterebbe per proibirne lo sviluppo e l’uso, in quanto occorrerebbe una qualche manifestazione di diritto positivo.

Va anche però precisato che: a) l’assenza di un precedente storico non è in sé argomento dirimente, quando si tratti di una tecnologia – quale quella dei LAWS – suscettibile di rivoluzionare il modo di condurre le ostilità (per la già citata assenza della componente umana nella singola decisione letale); b) nel principio di umanità di diritto internazionale umanitario si trova riflesso il concetto di «dignità umana» che, da anni, costituisce il cuore del diritto internazionale dei diritti umani  (sui rapporti tra i due corpora iuris, si è espressa, pur con ambiguità, la Corte internazionale di giustizia nel caso relativo alla Liceità delle armi nucleari, § 25): se un determinato comportamento «X» è ritenuto lesivo della dignità umana al di fuori di un conflitto armato, e tale dignità, com’è naturale, non muta a seconda delle circostanze, coerenza impone che il suddetto comportamento sia ritenuto parimenti lesivo all’interno di un conflitto armato. E infatti vi è chi sostiene (Heyns, O’Connell) che affidare a una macchina una decisione (anche potenzialmente) letale nei confronti di un individuo umano lede irrimediabilmente la dignità di quest’ultimo, ridotto a una sequenza di «0» e «1», a un dato rielaborato dalla macchina in un procedimento algoritmico avente quale esito «spara» o «non sparare».

Ancora più nel profondo, quindi, la presenza umana non assicura solo la presenza di un individuo la cui responsabilità possa essere fatta valere in caso di illecito, ma anche – e innanzitutto – di un individuo che possa comprendere la gravità della propria azione e gli effetti di essa nei confronti di un «altro» con cui condivida la medesima umanità (così Lambert, analizzando il pensiero di Levinas). Vi sarà chi obietterà che, così argomentando, si è pericolosamente fuoriusciti dal perimetro del giuridico per entrare in quello della morale e dell’etica; e, in quest’ultimo, la partita si giocherebbe tra deontologisti (un’azione è giusta o sbagliata in sé) e consequenzialisti (un’azione è giusta o sbagliata a seconda delle conseguenze che produce). Ma mi chiedo: si può forse negare che, in definitiva, una connessione tra diritto e morale sia connaturata al diritto internazionale umanitario (cfr. Moodrick-Even Khen)? Non è forse nello spirito di formulazioni vaghe e imprecise, quali quelle, da un lato, della Clausola Martens e, dall’altro lato, del concetto di dignità umana, mantenere aperta una finestra sulla morale, e quindi favorire un contatto tra la stessa e il diritto? Si badi che tra le funzioni del concetto di dignità umana vi è quella di fornire una base, più o meno solida, per fondare il rifiuto di determinati trattamenti (su questo, v. amplius la recentissima pubblicazione di Brehm, in particolare pp. 56 ss., e passim).

Una soluzione «mediana», allora, potrebbe essere quella di impiegare la Clausola Martens e, alla base di essa, il concetto di dignità umana in una prospettiva de jure condendo: stante l’insufficienza degli elementi in forza dei quali ritenere i LAWS ex se proibiti dal diritto internazionale umanitario, si dovrebbe auspicare che i suddetti principi ispirino un futuro strumento vincolante finalizzato a proibirli (cfr. Amoroso). Una tale soluzione si scontra però con la realtà dei fatti: molti Stati non sono disposti nemmeno a sottoscrivere una Dichiarazione politica (atto di soft law), quindi l’ipotesi di un trattato è forse ancora più remota…dell’impiego dei LAWS stessi! Anche codesta soluzione potrebbe risultare, alla prova dei fatti, del tutto inadeguata per scongiurare lo sviluppo e la diffusione dei LAWS. Se così è, in definitiva, mi pare a fortiori imprescindibile chiarire, in via preliminare rispetto a ogni altro discorso, quale valore giuridico abbia la Clausola Martens nel diritto internazionale umanitario, a fronte della possibile introduzione di una tecnologia in grado di affidare – per la prima volta – una decisione letale a un decisore non-umano. Sino ad ora, di tale questione non si è curata pressoché alcuna Delegazione; ciò rende ancora più opportuna una riflessione da parte della dottrina, innanzitutto internazionalistica.

6. Riassumendo, del discorso che precede in termini di «dignità umana» non vi è traccia nel dibattito del GGE. Qui la stessa Clausola Martens non ha occupato la scena se non come comparsa fugace, citata – talora quasi come orpello retorico – da diversi paesi occidentali, nonché – questa volta con maggior determinazione – dal NAM (soprattutto Panama e Cile). Volendo riassumere in poche battute, si potrebbe dire che si sia dato come per scontato l’impiego, in un futuro più o meno prossimo, dei LAWS, e si sia quindi indirizzata la discussione sulla compatibilità di tale tecnologia con il diritto internazionale umanitario a valle, cioè a partire dalle norme che regolano la scelta di mezzi e metodi di guerra e il processo di targeting (ecco spiegato il notevole apprezzamento della norma relativa alla legal review delle nuove armi); non ci si è invece domandati (se non grazie a qualche Panelist, tra cui il già citato Lambert, e alcune Delegazioni, tra cui spicca, per chiarezza e coerenza di posizione, quella della Santa Sede), a monte, se il solo fatto di affidare a una macchina decisioni letali non sia problematico dal punto di vista del rispetto profondo di quel ramo del diritto (e di altri, e forse di tutto il diritto): ecco spiegata, invece, la tiepida accoglienza nei confronti del concetto di «controllo umano» e il ruolo del tutto marginale del principio di umanità.

Forse quest’ultima questione non rientrava nel mandato di lavoro del GGE? Se così fosse, apparirebbe davvero provvidenziale che, nelle Conclusioni del GGE (cfr. § 16 lett. a), si sia riconosciuto che tale organismo è solo «una» delle cornici in cui trattare la questione, lasciando naturalmente aperta la discussione in altre sedi. Su altri palcoscenici, dove forse questioni tanto decisive potranno guadagnare il centro della scena.

Previous post

The Right to Life in Armed Conflict: Reflections on the Human Rights Committee’s Draft General Comment 36

Next post

Incontro al limite

The Author

Diego Mauri

Diego Mauri

No Comment

Leave a reply

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *