Sullo scenario internazionale c’è una contrapposizione tra Stati decisamente contrari a queste “super-armi” e quelli che invece ne propongono un uso in qualche modo regolamentato dal diritto internazionale
Una macchina non può agire come un essere umano, e di conseguenza anche le sue decisioni, per quanto autonomo sia l’automa, sfuggono a ‘normali’ logiche. Il robot killer pone questioni pratiche, quali il controllo e la responsabilità per ciò che può fare.
Per questo il Parlamento Europeo ha approvato una risoluzione che chiede la messa a bando, a livello internazionale, dei robot killer, l’ultima frontiera dell’industria della difesa.
I robot killer, le AI in grado di uccidere autonomamente senza l’intervento di un essere umano, comprendono ad oggi una vasta gamma di congegni, che spaziano da missili capaci di mirare selettivamente a macchine per l’apprendimento con abilità cognitive, e rappresentano l’ultimo stadio evolutivo di quelle tecnologie varate con le ‘bombe intelligenti’, gli ordigni di alta precisione concepiti per raggiungere determinati obiettivi mirati.
L’intervento del Parlamento Europeo
Mentre Stati Uniti, Israele, Corea del Sud e Russia sono da tempo al lavoro per fabbricare i nuovi super-soldati, l’Europa tenta di guidare la resistenza a programmi industriali e militari che a detta del Parlamento Europeo devono restare fuori dall’agenda comune e da quelle internazionali.
Emblematico ma indicativo l’intervento di apertura dell’Alta Commissaria con delega PESC Federica Mogherini: “So che questo potrebbe sembrare un dibattito su cose che riguardano un futuro distante o la fantascienza. Non è così.”
L’Aula riunita a Strasburgo, lo scorso 12 settembre, si è espressa in modo chiaro su questo tema, approvando la risoluzione con 566 voti a favore, 47 contrari e 73 astensioni. Oltre i tre quarti degli europarlamenti hanno di fatto chiesto all’Alta rappresentante per la politica estera e di sicurezza, Federica Mogherini, e agli Stati membri, di spendersi per una messa al bando mondiale di questi “Terminator”.
La risoluzione approvata dal Parlamento Europeo fa inoltre esplicita richiesta di escludere dai programmi comunitari il finanziamento per lo sviluppo di simili tecnologie, autonome per l’apprendimento e con abilità cognitive per decidere chi, quando e dove combattere.
La risoluzione UE
Nel testo della risoluzione si richiede al Vicepresidente della Commissione, all’Alto Rappresentante e agli Stati membri, di produrre e adottare una posizione comune sui sistemi bellici autonomi con una scadenza fissata ad ottobre 2019, periodo in cui si dovrebbe tenere l’incontro trai membri della Convention on Certain Conventional Weapons. Posizione comune che si dovrà basare sull’assunto che ogni sistema bellico autonomo abbia sempre e comunque una forma di controllo da parte dell’uomo.
Inoltre, Consiglio, Vicepresidente della Commissione, Alto Rappresentante e Stati Membri sono chiamati a lavorare per prevenire lo sviluppo e la diffusione di armi autonome sprovviste di controllo umano nelle fasi più critiche.
Il testo menziona esplicitamente la scelta dei bersagli e, quindi, l’apertura del fuoco.
La risoluzione anticipa, come citato, i negoziati in programma alle Nazioni Unite a novembre, dove si spera che si possa raggiungere un accordo su un divieto internazionale.
Il testo della Risoluzione del Parlamento europeo del 12 settembre 2018 sui sistemi d’arma autonomi (2018/2752(RSP)) è disponibile Online.
Quali difficoltà?
Durante il dibattito parlamentare a Bruxelles non sono inoltre mancate diverse osservazioni critiche.
Il fondo europeo per la difesa, Horizon2020, Cosme e tutti i contenitori del bilancio a dodici stelle, avranno quindi divieto di erogare risorse a favore dei robot killer. Questo non fermerà tuttavia i singoli Stati membri da investimenti squisitamente nazionali.
Un problema di sicurezza, sottolineano alcuni europarlamentari, che nasce da un eventuale recepimento asimmetrico di un simile divieto, con Paesi – magari alcuni di quelli occidentali più attenti alla questione – che si privano della possibilità di utilizzare strumenti di guerra di questa categoria, e altri che ignoreranno il problema ponendosi in notevole vantaggio tecnologico in caso di conflitto.
Alcuni europarlamentari, inoltre, temono che una risoluzione come quella che è stata approvata possa limitare il progresso scientifico nel campo delle intelligenze artificiali.
Un dibattito conosciuto
La trattativa per una misura analoga era fallita non troppo tempo fa in seno alla sesta riunione della Convenzione ONU sulle armi convenzionali (CCW) convocata per discutere di sistemi di armi autonome letali dal 27 al 31 agosto 2018. Il mese scorso, infatti, esperti di vari paesi si sono incontrati nella sede delle Nazioni Unite a Ginevra per discutere come definire e gestire le armi controllate da computer.
La CCW opera con norme procedurali di consenso, così ogni singolo Stato può opporsi e potenzialmente bloccare una proposta per avviare negoziati. Le gravi sfide legali, operative, morali, tecniche e di proliferazione sollevate dalle armi letali completamente autonome hanno acquisito ampia attenzione sin dal primo incontro del CCW sul tema nel maggio 2014. Tuttavia dopo tutto questo tempo gli Stati non avevano ancora concordato la risposta normativa necessaria per affrontare il problema umanitario e le sfide di sicurezza internazionale sollevate dai Killer Robots.
I colloqui con le Nazioni Unite non sono riusciti a raggiungere un consenso sulla questione, in quanto alcuni paesi affermavano che i benefici delle armi autonome dovrebbero essere esplorati mentre, altri, hanno ritenuto opportuno prendere ulteriore tempo per approfondire gli eventuali benefici di una simile tecnologia.
Durante questo incontro Israele, Russia, Regno Unito e Stati Uniti hanno esplicitamente rifiutato di iniziare negoziati verso una nuova legge internazionale sulle armi completamente autonome. Queste e altre potenze militari stanno infatti investendo ingenti fondi in droni armati e altri sistemi d’armamento con livelli decrescenti di controllo umano.
“Stop killer Robots”, la campagna che si schiera per il no
Sullo scenario internazionale c’è una contrapposizione tra Stati decisamente contrari a queste “super-armi” e quelli che invece ne propongono un uso in qualche modo regolamentato dal diritto internazionale.
Anche la società civile internazionale si occupa da tempo della questione, in particolare tramite la Campagna internazionale “Stop Killer Robots” una coalizione globale di organizzazioni non governative lanciata nell’aprile 2013 a Londra che sta lavora per vietare preventivamente la produzione e l’utilizzo delle armi completamente autonome “FAWS” (note anche come sistemi d’arma autonomi letali “LAWS”).
La campagna fondamentalmente si oppone al fatto che sia permesso a delle macchine di disporre della vita umana sul campo di battaglia o negli interventi di polizia, nel controllo delle frontiere e in altre circostanze similari, e per questo sollecita gli Stati partecipanti agli incontri internazionali sui sistemi letali di armi autonome (LAWS) a votare un esplicito mandato negoziale verso una tale norma internazionale di divieto.
Armi dotate di intelligenza artificiale capaci di strategie belliche basate su algoritmi e ordigni con nuove potenzialità che in un futuro prossimo potrebbero sfuggire al controllo umano, questo è il timore di esperti informatici, diplomatici e rappresentanti della Campagna internazionale “Stop Killer Robots” secondo il quale ci troviamo di fronte a nuovi sistemi di armi letali, con prototipi già operativi anche in maniera autonoma in base ad input umani.
StopKillerRobots è anche responsabile di una campagna di richiesta di supporto che è giunta agli onori della ribalta grazie ad un filmato, divenuto virale, dove percorre uno scenario futuribile e distopico, ma che già sarebbe applicabile con le conoscenze che abbiamo ad oggi.
Necessaria una presa di posizione
Si moltiplicano le voci della società civile e del mondo della ricerca affinché gli Stati membri delle Nazioni Unite decidano l’inizio di negoziati verso un Trattato che proibisca sistemi d’armi che, una volta attivati, avrebbero la capacità di selezionare e attaccare obiettivi senza intervento umano.
Sempre più emerge la convergenza sulla necessità di norme internazionali a riguardo, in risposta alle preoccupazioni di esperti come Frank Slijper, del Transnational institute Pax- Netherlands. «Se pensiamo ai droni armati e al loro crescente uso nei conflitti, ci rendiamo conto di come la tecnologia ha cambiato e sempre di più sta cambiando il modo di combattere la guerra, ad esmpio in Yemen, Pakistan, Senegal» ha detto Slijper «Questi nuovi strumenti dotati di intelligenza robotica, dovrebbero essere usati secondo una precisa normativa. Oltre quattromila scienziati hanno firmato un documento contro le armi autonome».
“È sempre più evidente che l’opinione pubblica si oppone fortemente all’idea che sia permesso a delle macchine di selezionare bersagli e utilizzare forza letale senza alcun controllo umano significativo. Permettere una tale evoluzione sarebbe aberrante, immorale, e un affronto al concetto di dignità umana e ai principi di umanità”, ha dichiarato Jody Williams, premio Nobel per la pace nel 1997 e presidente della Nobel Women’s Initiative. “È arrivato il tempo per i Governi di ascoltare le crescenti richieste per una nuova norma internazionale che proibisca i cosiddetti Killer Robots”.
La preoccupazione della società civile internazionale è che progressi tecnologici nell’intelligenza artificiale rendano sempre più pratico progettare sistemi di armi capaci di operare senza alcun controllo umano significativo, nel tentativo, di fatto, di disumanizzare l’uso della forza.
Se la tendenza verso l’autonomia continuerà con il ritmo attuale, a breve l’intervento umano inizierà a svanire dal ciclo decisionale per alcune azioni militari, forse mantenendo solo un ruolo di supervisione limitato o semplicemente impostando parametri ampi per ciascuna missione.
E se il robot compie una strage, di chi è la colpa?