In una scena che ricorda un gioco di guerra per computer, tre soldati affaticati dalla battaglia, vestiti con una mimetica bianca come la neve, emergono da un vicolo devastato dalla guerra con le mani alzate sopra la testa.
Si accovacciano, seguendo gli ordini che vengono lanciati contro di loro, paura e shock impressi sui loro volti mentre fissano la canna di una mitragliatrice montata su un cosiddetto robot di terra.
Storie consigliate
elenco di 4 elementifine dell’elenco
Si dice che questo filmato, pubblicato a gennaio dalla società di difesa ucraina DevDroid, mostri il momento in cui i soldati russi vengono catturati da un robot ucraino che utilizza l’intelligenza artificiale.
Ad aprile, il presidente ucraino Volodymyr Zelenskyy ha affermato che, per “la prima volta nella storia di questa guerra, una posizione nemica è stata presa esclusivamente da piattaforme senza pilota – sistemi di terra e droni”.
“I sistemi robotici di terra hanno già effettuato più di 22.000 missioni sul fronte in soli tre mesi”, ha scritto in un post su X, insieme a immagini di macchine verdi con cingoli di carri armati e armi montate sulla parte superiore.
Ma per gli analisti che hanno studiato l’intersezione tra intelligenza artificiale (AI) e guerra, il filmato riflette un’evoluzione attesa – che si svilupperà ben oltre le linee del fronte in Ucraina mentre il mondo lotta con le implicazioni etiche del controllo del paese.
UAV, droni navali e cani robot
Per anni, le forze armate hanno utilizzato robot terrestri principalmente per l’eliminazione delle bombe e la ricognizione.
Ma in Ucraina, il loro ruolo si è ampliato rapidamente, con alcune brigate che riferiscono che fino al 70% dei rifornimenti in prima linea vengono ora consegnati da sistemi robotici anziché da soldati.
Queste macchine trasportano munizioni, cibo e forniture mediche ed evacuano le truppe ferite da posizioni pericolose.
Eppure la vista di sistemi robotici che si muovono sul campo di battaglia è parte di un cambiamento molto più ampio nella guerra, che si sta sviluppando da decenni.
Il dibattito moderno sull’intelligenza artificiale in guerra è stato in gran parte guidato dall’aumento delle operazioni di veicoli aerei senza pilota (UAV) statunitensi nei primi anni 2000.
Nel 2002, il drone MQ-1 Predator fu utilizzato dagli Stati Uniti per effettuare uno dei primi attacchi aerei mirati in Afghanistan, segnando un punto di svolta nel modo in cui le guerre potevano essere combattute a distanza.
Il suo utilizzo si è espanso rapidamente nel corso degli anni 2000 e ha raggiunto il picco tra la fine degli anni 2000 e la metà degli anni 2010, in particolare in Pakistan, Yemen e Somalia.
Con l’avanzare dell’intelligenza artificiale, il dibattito si è spostato oltre le operazioni di controllo remoto.
L’attenzione si è spostata verso sistemi che possono aiutare a identificare obiettivi, dare priorità agli attacchi e guidare le decisioni sul campo di battaglia, sollevando domande più profonde su quanta autonomia dovrebbe essere delegata alle macchine.
Gli analisti sostengono che la questione dell’autonomia deve rimanere centrale, anziché essere messa in ombra dai rapidi sviluppi tecnologici, per quanto sorprendente possa essere la vista di macchine sempre più antropomorfe sul campo di battaglia.
“Queste tecnologie sono qui per restare”, ha detto ad Oltre La Linea Toby Walsh, un esperto di intelligenza artificiale presso l’Università del Nuovo Galles del Sud. Ha descritto le operazioni militari guidate dall’intelligenza artificiale come “la terza rivoluzione della guerra”.
La trasformazione si sta estendendo anche oltre gli obiettivi terrestri.
I droni navali pieni di esplosivi hanno già rimodellato le battaglie nel Mar Nero, mentre si stanno sviluppando sistemi sottomarini autonomi per missioni di sorveglianza, sminamento e sabotaggio da parte degli eserciti di tutto il mondo.
I cani robotici, nel frattempo, sono già in fase di test per missioni di sorveglianza, ricognizione e artificieri, con alcune versioni sperimentali anche dotate di armi.
Coinvolgimento umano
Negli ultimi anni, l’emergere di droni completamente autonomi o dei cosiddetti “robot killer” ha innescato un acceso dibattito dopo che un rapporto delle Nazioni Unite ha suggerito che i droni armati Kargu-2 di fabbricazione turca, operanti in modalità completamente autonoma, avevano identificato e attaccato combattenti in Libia nel 2020.
L’incidente ha suscitato intense discussioni tra esperti, attivisti e diplomatici di tutto il mondo, alle prese con le implicazioni morali ed etiche di una macchina che prende – ed esegue – la decisione di togliere una vita umana.
Tuttavia, è necessario concentrarsi maggiormente sul dibattito normativo sull’uso di sistemi d’arma semi-autonomi, “dove gli esseri umani sono ancora cosiddetti nel giro”, ha detto ad Oltre La Linea Anna Nadibaidze, ricercatrice post-dottorato in politica internazionale presso il Centro per gli studi sulla guerra, Università della Danimarca meridionale.
Una delle principali preoccupazioni, ha affermato, è se “abbastanza tempo e spazio” vengono concessi all’“esercizio del giudizio umano necessario nel contesto della guerra”.
La portata del coinvolgimento umano è spesso qualcosa su cui gli osservatori devono prendere in parola i militari; un compito difficile quando le loro azioni lasciano scarseggiare la fiducia, ha affermato Toby Walsh.
Nel caso della robotica di terra in Ucraina, finora un operatore umano ha mantenuto il controllo, dirigendo le macchine che possono ancora essere fermate da ostacoli come il terreno irregolare.
Tuttavia, quando l’intelligenza artificiale è coinvolta nel processo decisionale, come nel caso degli attacchi israeliani a Gaza e nella regione più ampia, la portata degli attacchi che hanno provocato “enormi danni collaterali e vittime civili per un piccolo numero di obiettivi militari” sfida le regole del diritto umanitario internazionale e, in particolare, l’idea di proporzionalità, ha affermato Walsh.
Il problema, ha detto Nadibaidze, è che è difficile far rispettare le regole sull’uso dell’intelligenza artificiale in guerra poiché è essenzialmente “una questione che spetta a ciascun militare decidere quale considera essere un ruolo di cittadinanza per l’essere umano, e non c’è abbastanza dibattito internazionale su questo”.
Un rapporto di aprile dello Stockholm International Peace Research Institute ha avvertito che anche la catena di fornitura dell’IA è frammentata, globale e fortemente dipendente dalle tecnologie civili, il che complica ulteriormente gli sforzi per governare o controllare gli usi militari dell’IA.
Il Dipartimento della Difesa degli Stati Uniti e il Pentagono incorporano costantemente sistemi software sviluppati privatamente nei loro apparati bellici.
A metà dello scorso anno, il Dipartimento della Difesa ha assegnato a OpenAI un contratto da 200 milioni di dollari per implementare l’intelligenza artificiale generativa nelle forze armate statunitensi, insieme a contratti da 200 milioni di dollari per xAI e Anthropic.
“Se non stiamo attenti, la guerra sarà molto più terribile, molto più mortale, una cosa molto più veloce, molto più veloce a cui gli esseri umani non potranno più partecipare, perché gli esseri umani non avranno la velocità, non avranno la precisione o la capacità di rispondere”, ha avvertito Walsh.
L’Ucraina come banco di prova
La tecnologia e l’intelligenza artificiale non sono intrinsecamente dannose, dicono gli esperti: ciò che conta è il modo in cui vengono utilizzate.
In Ucraina, i sistemi robotici terrestri sono stati utilizzati anche per salvare i civili e fornire supporto logistico in condizioni pericolose e pesantemente minate.
Tuttavia, ciò che si sta svolgendo in prima linea è, per molti versi, un banco di prova, e la comunità internazionale dovrà guardare avanti a come queste tecnologie potrebbero essere applicate e regolate nei conflitti futuri.
C’è spazio anche per un cauto ottimismo. Nonostante il “fallimento morale” delle azioni di Israele a Gaza, ha detto Walsh, c’è un riconoscimento nella comunità internazionale che questi problemi devono essere affrontati, inclusa una serie di incontri delle Nazioni Unite incentrati sulla regolamentazione dei sistemi di armi letali autonome.
L’Istituto delle Nazioni Unite per la ricerca sul disarmo (UNIDIR), un organismo autonomo all’interno delle Nazioni Unite che conduce ricerche indipendenti sul disarmo e la sicurezza internazionale, si incontrerà a giugno per esaminare le implicazioni dell’intelligenza artificiale per la pace e la sicurezza internazionale.
Non è la prima volta che le nuove tecnologie legate alle armi minacciano di sovvertire l’ordine basato sulle regole, ha affermato Walsh, indicando come esempio le armi chimiche. Sebbene imperfetti, alla fine furono messi in atto accordi internazionali per tenere questi soggetti sotto un certo livello di controllo.
“Ci sono molti attori con sede nel Sud del mondo che vogliono una regolamentazione, quindi potrebbero nascere iniziative regionali”, ha affermato Nadibaidze, aggiungendo che anche se tali sforzi non includeranno inizialmente le grandi potenze o i principali sviluppatori tecnologici, potrebbero comunque aiutare a modellare le norme emergenti.




