Nella guerra russo-ucraina, la Russia potrebbe impiegare, per la prima volta, gli Uran-9, i robot carrarmato con mitragliatrice e razzi anticarro, strumenti utilizzati per scenari ad alto rischio, in modo da minimizzare le perdite umane. Si tratta dei robot-killer, sistemi automatizzati o pilotati da remoto con capacità offensiva, che verranno impiegati esclusivamente per scopi di ricerca. Vediamo meglio cosa sono e quali sono i risvolti etici.
Cosa sono i robot killer o lethal autonomous weapons
I robot killer, o anche LAWS, acronimo di “lethal autonomous weapon systems”, sistema di armi letali autonome, come ben spiegato già dal nome, sono armi in grado di selezionare in maniera autonoma il bersaglio di attacco senza che vi sia un controllo umano. Ovviamente l’utilizzo di questo tipo di armi crea, di conseguenza, un nuovo tipo di conflitto, una rivoluzione nel campo, come già successo in passato con l’introduzione della polvere da sparo e della bomba atomica. L’autonomia nell’individuare l’obiettivo vittima di attacco, attualmente in fase di sviluppo, può essere applicata a varie piattaforme, un carro armato, un jet di combattimento o una nave. Importante non confondere i robot killer con i droni armati o con i terminator, in quanto nel primo caso esiste ancora il controllo umano nella scelta dell’obiettivo da colpire e nell’azione stessa dell’attacco, nel secondo caso siamo ancora su un piano fantascientifico.
Robot killer: caratteristiche e come funzionano
Come già anticipato, questi sistemi di armi autonome sono in fase di sviluppo e saranno operativi molto probabilmente nei prossimi anni, ma al momento abbiamo a disposizione armi che presentano la tendenza all’autonomia nell’attacco e che possono essere considerati dei precursori dei robot-killer.
(Foto: Wikimedia)
SGR-A1
Un robot non mobile, dotato di una mitragliatrice e un lanciafiamme, che attraverso sensori a infrarossi e software di riconoscimento di schemi individua gli esseri umani e ha la possibilità di sparare contro di loro. Sviluppato da Samsung Techwin (ora Hanwha Aerospace) e la Korea University per assistere le truppe in Corea del Sud nella Korean Demilitarized Zone.
(Foto: Wikimedia)
Harpy
Un missile “vagante” che può essere lanciato da un veicolo terrestre e che può volare alla ricerca di segnali radar nemici e attacca i suoi emettitori via aria fino a farlo esplodere.
(Foto: Wikipedia Marina Militare Usa)
Seahunter
Attualmente in via di sviluppo, è una nave progettata per attaccare sottomarini nemici che opera per 2-3 mesi senza il controllo umano, ma che al momento usa la forza letale offensiva tramite essere umano.
(Foto: AnalisiDifesa.it)
Neuron
Aereo da combattimento, anch’esso senza equipaggio, capace di attaccare in maniera automatizzata, oltre a regolare il bersaglio e comunicare con altri sistemi.
Robot killer: perché dobbiamo preoccuparci
Armi letali autonome, con applicazioni di robotica e intelligenza artificiale, sicuramente fanno temere per la sicurezza internazionale, per lo scoppio di guerre accidentali e conseguenze non poco disastrose che possono provocare, oltre al fattore dell’imprevedibilità, in particolare nell’interazione con altri sistemi autonomi, se possiedono un sistema di autoapprendimento.
Dall’imprevedibilità, altro fattore che preoccupa è la loro rapida diffusione per la semplicità di riproduzione e i costi contenuti. Questi sono vantaggi a breve termine, che se in mani sbagliate, possono, nel lungo termine, arrivare ad essere sfruttati contro la popolazione militare e civile.
Inoltre, non è trascurabile la distinzione tra civile e soldato che i robot-killer si trovano a dover fare, dato che non può essere una distinzione netta, ma varia di paese in paese, basti pensare alla possibilità in alcuni paesi che un civile possa possedere un’arma per motivi cerimoniali o per proteggere il bestiame e quindi è evidente che la macchina potrà confondere un civile per un soldato. Va da sé che il diritto internazionale non può essere applicato, in quanto è fondamentale l’interpretazione del contesto.
Video RaiNews24 2021
La regolamentazione dei lethal autonomous weapons system
A differenza di quanto indica l’acronimo LAWS, “leggi” in inglese, questi sistemi di armi autonome a livello internazionale non sono regolamentati da nessuna legge o politica. Al momento, come qualsiasi arma, seguono le leggi di guerra e l’uso della forza, secondo cui nessuna arma può uccidere civili in maniera indiscriminata o senza un obiettivo militare ben definito.
Affidare a una macchina la vita o la morte di essere umani, e quindi a un algoritmo, va contro il principio della dignità umana e del diritto alla vita e la stessa decisione viene svalutata e “disumanizzata”.
La Russia ha fatto sapere, tramite un suo delegato a The Telegraph, che la comunità globale non necessita di nuove regole: “L’alto livello di autonomia di queste armi consente [loro] di operare all’interno di una situazione di conflitto dinamico e in vari ambienti mantenendo un livello appropriato di selettività e precisione […] Di conseguenza, garantisce il rispetto delle norme [esistenti] del diritto internazionale umanitario”. Mosca sostiene inoltre che gli algoritmi di intelligenza artificiale alla guida dei LAWS sono già sufficientemente avanzati per poter distinguere amici, nemici e civili e quindi possono agire autonomamente.
Dal 2014 la Convenzione delle Nazioni Unite su alcune armi convenzionali (CCW) di Ginevra si occupa di trattare di questioni multilaterali, come esaminare le armi “che sono giudicate eccessivamente ingiuriose o avere effetti indiscriminati”, per cui anche l’impiego di questo tipo di nuove armi autonome. Nel 2016 è stato istituito un gruppo di esperti governativi delle Nazioni Unite per stilare regole e principi da applicare ai nuovi tipi di armi emergenti.
Da diversi paesi è arrivata la richiesta di vietare l’uso di questi sistemi di armi autonome, in particolare Austria, Brasile e Cile hanno chiesto al CCW di bandire armi senza controllo umano significativo e 160 organizzazioni non governative di oltre 65 paesi del mondo hanno aderito alla coalizione “Campaign to Stop Killer Robots”, supportata da 4.500 esperti di AI, Nazioni Unite e Parlamento Europeo, per promuovere iniziative che vietino armi autonome.
Video Euronews
Stati Uniti, Cina e Regno Unito, nonostante abbiano già sviluppato robot militari autonomi, sono comunque schierati contro la Russia per avere maggiori garanzie sull’attendibilità dell’autonomia di scelta e d’azione di queste armi.