La regolamentazione delle armi autonome: letteratura o diritto?

  • Andrea Spagnolo
Parole chiave: Armi intelligenti, robot, Asimov, guerra, intelligenza artificiale, armi autonome, missili autonomi

Abstract

1) Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno.

Quando nel 1950 Isaac Asimov elaborò le tre leggi della robotica, intorno alle quali scrisse i racconti dedicati al rapporto tra gli umani e l’intelligenza artificiale (inclusi nella celebre raccolta Io, Robot), mai avrebbe pensato che 70 anni dopo quelle leggi sarebbero rimaste l’unico tentativo di regolamentare l’uso delle armi autonome. È ormai divenuto realtà, infatti, l’impiego, durante i conflitti armati, di armi in grado di agire autonomamente o che, comunque, prevedono l’intervento umano solo per introdurre input molto generali o per, eventualmente, interrompere una condotta.

Vi è chi sostiene che le prime tracce di impiego di armi autonome durante i conflitti armati siano rappresentate dalle mine antiuomo, che una volta posizionate si attivano senza ulteriori interventi umani. Chiaramente l’autonomia di cui si discute oggi non è (solo) quella di cui godono le mine. In una prospettiva diacronica, l’esempio che aiuta a meglio comprendere il fenomeno è dato dal ricorso ai droni per operazioni di guerra o di contrasto al terrorismo internazionale. Il termine ‘drone’ è comunemente utilizzato per identificare velivoli pilotati da remoto che vengono utilizzati per operazioni di ricognizione e per vere e proprie ‘esecuzioni mirate’. L’assenza di un pilota presente sul velivolo non rende il drone un’arma del tutto autonoma, considerato che le decisioni relative all’uso della forza, come ad esempio quella di colpire un determinato obiettivo, spetta comunque agli operatori che comandano il velivolo da remoto e che sono costantemente in grado di monitorarne le azioni.

L’impiego dei droni durante i conflitti armati rappresenta però solo una tappa del percorso di evoluzione degli armamenti. Gli stati tecnologicamente più evoluti, infatti, stanno puntando all’impiego di armi con un maggiore grado di autonomia, che siano dunque in grado di interagire senza l’intervento umano. È prova di tale tendenza la Sea Hunter: una nave anti-sommergibile elaborata e messa a disposizione dalla Defence Advance Research Projects Agency (DARPA) alla Marina degli Stati Uniti. Nella descrizione con cui la DARPA ha accompagnato il recente varo della Sea Hunter, si evince che tale nave sia dotata di caratteristiche e tecnologie idonee a rendere possibile una: “autonomous compliance with maritime laws and conventions for safe navigation, autonomous system management for operational reliability, and autonomous interactions with an intelligent adversary“, cioè il rispetto delle leggi e delle convenzioni marittime e la gestione autonoma dell’affidabilità operativa e delle interazioni con il nemico. Tali caratteristiche sono comuni alla maggior parte delle armi autonome di cui si ha diretta conoscenza o il cui sviluppo è noto ed è utile sottolineare che la ratio dello sviluppo dell’intelligenza artificiale in relazione agli armamenti risiede proprio nella possibilità, per uno stato, di gestire conflitti armati senza dispiegare propri soldati, con un risparmio evidente in termini di costi umani e politici.

Sea Hunter, la prima nave senza equipaggio.  Fonte: DARPA.

Questo è l’argomento principale che permea le posizioni di alcuni stati nel corso delle sessioni del Gruppo di lavoro degli esperti governativi sulle armi autonome riunitosi nell’ambito della Convention on Certain Conventional Weapons (CCW), entrata in vigore nel 1983 con lo scopo di limitare l’utilizzo di certe armi durante i conflitti armati. La decisione di includere le armi autonome nell’agenda di un gruppo di lavoro dedicato è stata adottata dagli stati parte della CCW nel 2016, a seguito di forti pressioni da parte della società civile. Non è un caso che il primo incontro informale di esperti sulle armi autonome si sia tenuto nel 2013, anno in cui veniva lanciata la campagna Stop Killer Robots da parte di varie organizzazioni non governative, tra cui Human Rights Watch e Article36.

La campagna Stop Killer Robots. Fonte: stopkillerrobots.org

Il Gruppo di lavoro degli esperti sulle armi autonome ha finora tenuto due sessioni, l’ultima delle quali nell’aprile del 2018. Come anticipato, alcuni stati (in particolare USA e Regno Unito) sostengono che la discussione debba valorizzare i vantaggi che l’introduzione delle armi autonome porteranno nell’economia dei conflitti armati in termini di riduzione di costi umani, perché l’automazione consente un “matematico” rispetto delle norme di diritto internazionale umanitario, che diventerebbero dunque una questione di semplici – e infallibili? – variabili algoritmiche. Un secondo gruppo di stati (Brasile, su tutti) ritiene, al contrario, che le armi autonome non siano idonee a rispettare le norme fondamentali di diritto internazionale umanitario, la cui applicazione nell’ambito di un’operazione militare necessita sempre di essere giudicata e valorizzata dagli esseri umani; di conseguenza, questi stati propongono la redazione di un atto giuridico internazionale vincolante che regoli l’uso delle armi autonome nel senso di prevedere sempre la possibilità di un intervento umano. Tale posizione è altresì sostenuta dalla società civile chiamata a intervenire durante i lavori del Gruppo degli esperti; le organizzazioni partecipanti, infatti, hanno fin da subito ritenuto necessario indurre gli stati a introdurre una regolamentazione delle armi autonome fondata sul cosiddetto Meaningful Human Control (MHC), cioè una regolamentazione volta a proibire l’uso di armi che non prevedano in alcun modo l’intervento umano. Una posizione intermedia è sostenuta dagli stati che come Francia e Germania ritengono sufficiente che l’utilizzo delle armi autonome venga regolato dalle norme esistenti, in particolare l’Articolo 36 del Primo Protocollo aggiuntivo del 1977 alle Convenzioni di Ginevra del 1949 che obbliga gli stati parte a denunciare l’acquisizione di nuove armi, specialmente quando il loro utilizzo sia potenzialmente incompatibile con le norme che regolano l’uso della forza nei conflitti armati.

La polarizzazione delle tre posizioni è direttamente proporzionale agli interessi degli stati che stanno investendo (o hanno investito) maggiormente in tecnologia militare, in questo replicando le logiche dei negoziati dei trattati sui programmi nucleare. È dunque difficile prevedere oggi quale potrà essere l’esito dei lavori del Gruppo degli esperti. La posta in gioco è però molto alta. Le armi autonome, se definitivamente sganciate dall’intervento umano, consentiranno a una macchina di decidere se usare la forza letale solo sulla base di un algoritmo e dei dati che la stessa macchina sarà chiamata a raccogliere, setacciare ed elaborare. Che l’intelligenza artificiale sia in grado di rispettare i principi cardine del diritto umanitario – distinzione, proporzionalità, umanità – è tutto da dimostrare ed è particolarmente dubbio che una macchina sia in grado di “calcolare” la gravità dei danni collaterali di un’operazione in proporzione al vantaggio militare previsto senza che questo calcolo sia mediato e interpretato da un essere umano. Più di tutto, a lasciare perplessi è lo scenario in cui il soldato del futuro – un robot? – sia completamente sganciato da forme di responsabilità giuridica per le sue azioni. A oggi, è difficile prevedere la possibilità di processare un robot ed è altrettanto complesso ipotizzare l’applicazione del principio della responsabilità di comando, dal momento che l’intelligenza artificiale è in grado di assumere decisioni autonomamente; non è nemmeno da escludersi che il robot possa violare regole giuridiche poiché malfunzionante, ma la responsabilità del costruttore è un tema ancora più spinoso.

Il vero rischio connesso all’utilizzo delle armi autonome, dunque, è che il loro impiego conduca a una de-responsabilizzazione giuridica, prima, ed etica, poi, degli stati nella condotta delle ostilità, che rischia inevitabilmente di rendere meno costoso e, in ultima istanza, più semplice ipotizzare l’avvio di un conflitto armato. La “corsa all’arma autonoma”, quindi, sebbene sia pensata per ridurre i costi (umani e politici) della guerra, rischierebbe di diventare una minaccia alla pace e alla stabilità internazionale.

Resta da sperare che le discussioni del Gruppo di lavoro degli esperti proseguano e che le posizioni si allineino nel senso di introdurre una forma di regolamentazione dell’autonomia nelle armi. È incoraggiante il position paper presentato dalla Cina durante la sessione di aprile 2018, dove si esortano gli stati parte della CCW a definire il grado e le modalità di coinvolgimento e intervento umano nel processo decisionale legato all’utilizzo delle armi autonome, dando per scontato che tale intervento (umano) sia necessario. È altresì incoraggiante, e interessante, notare come Google abbia deciso di non rinnovare il suo contratto con il Dipartimento di Difesa statunitense per proseguire il progetto Maven, nell’ambito del quale l’azienda di Mountain View forniva al Pentagono supporto tecnologico per lo sviluppo di armi in grado di decidere in completa autonomia. Se uno stato che si accinge a investire massicciamente in tecnologia (la Cina) e una delle più importanti aziende di servizi tecnologici online (Google) decidono di prendere le distanze dall’impiego di armi autonome, c’è ragione di credere che una regolamentazione internazionale sia realmente utile e necessaria.

Sullo sfondo dei lavori del Gruppo degli esperti, però, si stagliano nubi diverse e non meno preoccupanti. Il Gruppo di lavoro, infatti, ha come mandato l’utilizzo delle armi autonome durante i conflitti armati. Gli stati tecnologicamente più evoluti, tuttavia, stanno trasferendo la tecnologia militare dalla difesa agli interni, preparando la strada all’utilizzo di armi autonome per attività di polizia. Uno scenario più serio del precedente che chiama in causa ragionamenti fondati sul rispetto dei diritti umani, di cui gli stati parte della CCW non si stanno interessando. I diritti umani impongono allo stato di rendere intelligibili le proprie condotte e di provvedere a rimedi effettivi in caso di violazioni.

Al momento, non vi è traccia di una discussione sulla compatibilità delle armi autonome con i diritti umani; ciononostante, in un futuro prossimo, il poliziotto robot di Dubai che raccoglie informazioni sul traffico potrebbe non rimanere un’esperienza isolata, così come il drone semi-autonomo che sorveglia la frontiera tra le due Coree. È auspicabile che stati e società civile si concentrino anche sugli usi civili delle armi autonome ed elaborino un quadro normativo di riferimento che ne limiti l’utilizzo o, comunque, lo subordini ai diritti umani.

I tempi sono maturi perché le tre leggi della robotica non rimangano una suggestione letteraria.

Per saperne di più:

Amoroso, D. e Tamburrini, G. (2018) “The Ethical and Legal Case against Autonomy in Weapon Systems”, Global Jurist 18, pp. 1-20. Disponibile su: https://www.degruyter.com/view/j/gj.ahead-of-print/gj-2017-0012/gj-2017-0012.xml

Brehm, M. (2017) “Defending the Boundary. Constraints and Requirements on the Use of Autonomous Weapon Systems under International Humanitarian and Human Rights Law”, Geneva Academy of International Humanitarian Law and Human Rights. Briefing No. 9. Disponibile su: https://www.geneva-academy.ch/joomlatools-files/docman-files/Briefing9_interactif.pdf

Spagnolo, A. (2017) “Human rights implications of autonomous weapon systems in domestic law enforcement: sci-fi reflections on a lo-fi reality”, Questions of International Law 43, pp. 33-58. Disponibile su: http://www.qil-qdi.org/human-rights-implications-autonomous-weapon-systems-domestic-law-enforcement-sci-fi-reflections-lo-fi-reality/

 

Published in:
Pubblicato
2019-07-29