Le notizie sul targeting guidato dall’IA in Iran portano impatti concreti alle Nazioni Unite
Mentre gli Stati discutono di armi autonome a Ginevra, l’uso dell’IA per l’individuazione dei bersagli in Iran domina l’attenzione: siamo ad uno snodo cruciale, i Governi devono tracciare linee giuridiche ed etiche per sottrarre l’umanità alla pericolosa deriva verso l’omicidio automatizzato su cui ci troviamo
Dal 2 al 6 marzo, gli Stati del Mondo si sono riuniti a Ginevra per discutere dei sistemi d’arma autonomi. Si trattava della prima riunione del 2026 del Gruppo di esperti governativi (GGE) sulle armi letali autonome (LAWS), nell’ambito della Convenzione su certe armi convenzionali (CCW) — il forum multilaterale che attualmente affronta il tema dell’autonomia nei sistemi d’arma. Mentre gli Stati deliberavano modifiche al cosiddetto «testo in evoluzione» (rolling text), eventi al di fuori della sala hanno dimostrato che un controllo umano effettivo sull’uso della forza è già in corso di indebolimento, con devastanti conseguenze umanitarie.
Sabato 28 febbraio, appena due giorni prima di questo incontro all’ONU, il Wall Street Journal ha riferito che gli Stati Uniti avevano utilizzato il modello linguistico Claude di Anthropic per supportare le raccomandazioni di targeting negli attacchi contro l’Iran. Secondo quanto riportato, nelle prime 24 ore sono stati colpiti oltre 1.000 obiettivi negli attacchi congiunti USA-Israele. Come con i database di IA Lavender e Gospel — sistemi di supporto decisionale impiegati da Israele a Gaza — Claude è stato utilizzato per analizzare enormi masse di dati e generare bersagli in tempi rapidi. Pur non essendo un modello linguistico come Claude, i bersagli generati dal sistema Lavender venivano esaminati in pochi secondi dal personale militare, che dava poi autorizzazione a colpirli sulla base di queste raccomandazioni generate dall’IA. La disumanizzazione digitale è intrinseca al targeting guidato dall’IA: gli esseri umani vengono ridotti a semplici punti dati, classificati e valutati per essere inseriti in profili di bersaglio ed eliminati. I tentativi di normalizzare questa disumanizzazione digitale su larga scala sono inaccettabili. Continuano ad emergere informazioni su come esattamente Claude abbia assistito gli attacchi e su quale livello di revisione umana abbia preceduto l’autorizzazione ai raid. Ciò che è chiaro è che il confine tra un sistema che raccomanda un bersaglio con un coinvolgimento umano minimo e uno che sceglie i bersagli ed esegue gli attacchi senza un controllo umano effettivo — vale a dire, un’arma autonoma — si sta assottigliando pericolosamente.
Nella settimana precedente la riunione del GGE, è emersa con chiarezza anche la pressione esercitata sull’industria tecnologica affinché abbandoni le proprie salvaguardie per consentire una letalità di massa guidata dall’IA. Anthropic, cui era stato assegnato un contratto da 200 milioni di dollari con il Pentagono per l’uso delle sue tecnologie in applicazioni militari, è stata recentemente classificata dal governo degli Stati Uniti come un «rischio per la catena di approvvigionamento» dopo aver rifiutato di permettere che le proprie tecnologie fossero impiegate in armi autonome e strumenti di sorveglianza di massa nel territorio nazionale. L’azienda ha dichiarato che la propria tecnologia non poteva essere utilizzata in modo sicuro o affidabile per nessuno dei due scopi.
In seguito a questa classificazione, tutte le agenzie federali hanno ricevuto l’ordine di cessare l’uso degli strumenti di Anthropic. Il principale concorrente di Anthropic, OpenAI, ha quindi rilevato il contratto, dichiarando che avrebbe autorizzato il Pentagono a utilizzare i propri strumenti per «tutti gli scopi leciti»: una formula talmente vaga da non offrire garanzie concrete di rispetto delle leggi di guerra e da non dimostrare alcun impegno effettivo per la protezione dei civili. Questa sequenza di eventi rivela la straordinaria pressione cui i governi sottopongono le aziende di IA, e la straordinaria rapidità con cui le salvaguardie possono essere abbandonate o trasferite quando gli interessi commerciali e militari si allineano.
Nel frattempo, alle Nazioni Unite, la discussione del GGE sulle armi autonome è proseguita. Gli Stati hanno discusso modifiche letterali al «testo in evoluzione» del Presidente del GGE, il documento che potrebbe costituire la base per negoziati su un trattato sulle armi autonome. Dopo che oltre 40 Stati avevano espresso il proprio sostegno all’avvio di negoziati sulla base del rolling text lo scorso anno, questa settimana un numero ancora maggiore di paesi si è unito a tale richiesta — tra cui un gruppo di Stati africani — portando il totale a oltre 70. Stop Killer Robots ha organizzato a metà settimana un evento collaterale dal titolo «Punto di svolta alla CCW: agire su un decennio di lavoro». L’evento e il relativo documento di analisi hanno fatto il punto sugli ultimi dieci anni di lavoro nell’ambito del forum sulle armi autonome, formulando una serie di raccomandazioni tra cui, in primo luogo, l’avvio di negoziati per uno strumento giuridicamente vincolante volto a regolamentare e vietare le armi autonome.
Il mandato attuale della CCW per discutere le armi autonome si conclude quest’anno e, come ha affermato il Presidente del GGE al termine della riunione di questa settimana, la conclusione del mandato triennale «eleva le aspettative». Le decisioni sui prossimi passi da compiere saranno adottate alla Conferenza di revisione della CCW del novembre 2026, in cui potrebbero essere avviati negoziati su un Trattato sulle armi autonome. Persone innocenti stanno già pagando il prezzo della disumanizzazione digitale guidata dall’IA in Iran e a Gaza, così come nel campo del controllo delle frontiere e dell’ordine pubblico. Gli Stati non devono limitarsi a considerare il rolling text del Presidente — che ha svolto un ruolo utile nel strutturare le discussioni e nel costruire il consenso su cui si regge questo forum diplomatico — ma devono anche tener conto degli impatti reali e in corso dell’accresciuta autonomia e degli strumenti militari guidati dall’IA.
L’urgenza di disciplinare questi sistemi non è mai stata così evidente. Il Belgio ha richiamato un decennio di discussioni alla CCW, affermando che «il mondo intorno a noi è cambiato significativamente. Gli sviluppi tecnologici hanno trasformato in realtà odierna ciò che un tempo era dominio della fantascienza… Non dobbiamo dimenticare che, mentre parliamo, persone vengono attaccate da sistemi autonomi guidati dall’IA… A un certo punto, questa bolla che abbiamo costruito deve produrre qualcosa che si connetta con il mondo reale e abbia un impatto reale».
Siamo a un momento cruciale, un cambiamento di paradigma che si sta svolgendo sotto i nostri occhi. Accettiamo davvero un mondo in cui gli esseri umani vengono ridotti a punti dati, elaborati dalle macchine e poi uccisi? Se permettiamo che ciò accada senza opporre resistenza, avremo accettato uno spostamento fondamentale: la tecnologia dispiegata non a beneficio dell’umanità, ma per la nostra oppressione, il nostro controllo e la nostra morte. È giunto il momento che i nostri Governi traccino linee giuridiche ed etiche per sottrarre l’umanità alla pericolosa deriva verso l’omicidio automatizzato su cui ci troviamo.
