Abbonati alla rivista

Nazione Futura Rivista

Abbonati alla rivista

FLYING BASKET FLYINGBASKET STARTUP SVILUPPO E PRODUZIONE DRONE COMMERCIALE DRONI COMMERCIALI CARGO AEROMOBILI A PILOTAGGIO REMOTO

Lo scorso ottobre il Parlamento Europeo e il Consiglio dell’Unione Europea, gli organismi responsabili per l’adozione di legislazioni a livello europeo, comprese le politiche relative alla difesa e alla sicurezza, hanno approvato il regolamento n° 2023/2418 che istituisce lo strumento per il rafforzamento dell’industria europea della difesa mediante appalti comuni (EDIRPA).

In particolare il regolamento stabilisce un meccanismo di finanziamento per supportare gli appalti congiunti al fine di rafforzare la Base Tecnologica e Industriale Europea di Difesa (EDTIB), soprattutto in risposta alle esigenze urgenti e critiche, come quelle evidenziate dal conflitto in Ucraina. Lo strumento è dotato di un finanziamento di 300 milioni di euro, valido fino al 31 dicembre 2025. Sono stati definiti criteri specifici di ammissibilità per gli appalti e requisiti per la partecipazione in conformità con le normative e le leggi dell’UE.

In particolare, l’articolo 8 comma 2 lettera b stabilisce che: (non sono ammissibili) azioni per appalti comuni di armi autonome letali che non consentono un significativo controllo umano su decisioni di selezione e di ingaggio nello sferrare offensive contro esseri umani. L’articolo del regolamento fa riferimento a quelle armi che i tecnici conoscono come Lethal Autonomous Weapons (LAWs) appartenenti alla più ampia famiglia dei Robotics and Autonomous Systems (RAS) annoverati dalle maggiori dottrine militare quali Emerging Disruptive Technologies.

La NATO adotta un approccio leggermente diverso rispetto all’UE, distinguendo il concetto in tecnologie “emerging” e “disruptive”, definendo le prime come quelle che raggiungeranno la maturità nel periodo 2020-2040, e le seconde come quelle che avranno un impatto importante, persino rivoluzionario, sulle funzioni di difesa e sicurezza). Il problema è che, mentre l’Unione Europea si confronta con “questioni morali” riguardo l’utilizzo di certe armi, queste ultime sono ampiamente impiegate nei conflitti moderni, incluso nell’ambito NATO. Questo sottolinea una discrepanza tra gli ideali etici dell’UE e la realtà pratica dell’uso di armi nei conflitti contemporanei.

Senza menzionare specificamente la guerra in Ucraina, possiamo citare l’impiego in Libia del Kargu-2, un drone quadricottero prodotto dall’azienda turca STM con “algoritmi di apprendimento automatico incorporati nella piattaforma” che gli consentono di operare sia autonomamente sia in modalità controllata manualmente. A differenza del Bayraktar TB2 o del munizionamento Harpy israeliano, il Kargu-2 è progettato come un’arma per colpire esseri umani con capacità di selezionare e ingaggiare obiettivi umani sulla base della classificazione degli oggetti tramite apprendimento automatico. Sebbene siano disponibili varie opzioni di munizioni, il drone d’attacco Kargu-2 fa detonare una carica esplosiva vicino al bersaglio, minimizzando il raggio dei danni collaterali. In un rapporto delle Nazioni Unite (S/2021/229) relativo alla Libia si legge (paragrafo 63) che i Kargu-2 “erano programmati per attaccare obiettivi senza richiedere una connettività dati tra l’operatore e il munizionamento” (The lethal autonomous weapons systems were programmed to attack targets without requiring data connectivity between the operator and the munition: in effect, a true “fire, forget and find” capability).

Nel caso specifico il problema etico-morale che l’occidente si pone è relativo alla capacità del drone di distinguere obiettivi militari legittimi da quelli civili. Le armi che non sono in grado di fare questa distinzione o di limitare gli effetti dei loro attacchi sono già proibite dal diritto internazionale consuetudinario. In generale è dunque corretto escludere questa tipologia di armamenti dai finanziamenti europei in favore della difesa. Però c’è da chiedersi se altri paesi avranno la stessa sensibilità.