Stop Killer Robots risponde allo scontro Anthropic-Pentagono: le macchine non possono decidere su vita e morte
È arrivato il momento di una regolamentazione internazionale sull’uso dell’Intelligenza Artificiale nella sfera militare e sullo sviluppo di armi completamente autonome.
La campagna Stop Killer Robots (coalizione globale di oltre 270 organizzazioni della società civile che chiede una nuova legge internazionale sulle armi autonome) di cui anche Rete Pace Disarmo fa parte ha risposto alle notizie secondo cui il Dipartimento della Difesa degli Stati Uniti avrebbe fatto pressione su Anthropic affinché modificasse le condizioni d’uso del suo modello linguistico avanzato, Claude. I termini attuali di Anthropic stabiliscono che il modello di IA non può essere utilizzato in sistemi d’arma completamente autonomi — macchine capaci di selezionare e colpire obiettivi senza controllo umano. L’azienda ha rifiutato di cedere alle richieste del Pentagono, sostenendo che “i sistemi di IA avanzati non sono semplicemente abbastanza affidabili per alimentare armi completamente autonome” e che i meccanismi di supervisione necessari per proteggere le vite dei civili e del personale militare “non esistono oggi”. Sebbene la disputa riguardi un sistema di IA basato su modello linguistico, le stesse riserve dovrebbero valere per tutti i sistemi di targeting che si servono dall’Intelligenza Artificiale.
Stop Killer Robots evidenzia come i dubbi sollevati da Anthropic sull’affidabilità dei propri modelli di IA avanzati siano un segnale che il mondo non può permettersi di ignorare. Si tratta di un’azienda tecnologica che dice al proprio Governo di non poter fornire responsabilmente ciò che le viene chiesto, perché la capacità di farlo in sicurezza non esiste, e non esistono nemmeno le salvaguardie per prevenire danni catastrofici nel caso in cui esistesse.
Se, come riconosce Anthropic, le salvaguardie non esistono per le armi autonome, lo stesso vale per i sistemi di supporto decisionale che si appoggiano all’Intelligenza Artificiale, rispetto ai quali l’azienda non ha tracciato alcun confine. La concentrazione sulle armi completamente autonome distoglie l’attenzione dalla realtà di come militari e aziende stanno già utilizzando le tecnologie di IA. I sistemi di supporto decisionale basati sull’IA, in cui gli esseri umani rimangono solo nominalmente nel processo decisionale, riducono le persone a semplici variabili — peso, genere, età, relazioni sociali, ecc. — elaborate da macchine per generare raccomandazioni di targeting. Nei casi in cui gli operatori si affidano a questi output o li accettano in tempi brevissimi, anziché esercitare un giudizio indipendente, il confine tra un sistema che raccomanda un attacco e uno che lo esegue diventa pericolosamente sottile. Il bias da automazione non è una preoccupazione teorica: è una realtà operativa che indebolisce il processo decisionale umano e l’accountability.
I negoziati diplomatici sulle armi autonome sono in corso da oltre un decennio. Nei prossimi mesi, alla Conferenza di Revisione della Convenzione sulle Armi Convenzionali (CCW) delle Nazioni Unite a Ginevra, gli Stati avranno un’opportunità concreta di agire, introdurre salvaguardie sui sistemi d’arma autonomi e di avviare negoziati per una nuova norma internazionale. Questa opportunità non deve essere sprecata. La grande maggioranza degli Stati ha ora esplicitamente espresso il proprio sostegno a un nuovo strumento giuridicamente vincolante, e l’urgenza di andare avanti non può essere sopravvalutata.
È inoltre essenziale che vi sia una forte risposta internazionale all’integrazione dell’IA nell’uso della forza in tutte le sue forme. Qualsiasi risposta meno decisa lascerà i sviluppi più pericolosi privi di governance e le persone più vulnerabili senza protezione.
Nicole Van Rooijen, Direttrice Esecutiva di Stop Killer Robots, ha dichiarato: “Siamo a un momento cruciale per l’umanità. Quando le stesse aziende che sviluppano queste tecnologie si rifiutano di distribuirle per ragioni di sicurezza, questo deve far scattare un campanello d’allarme per i governi e i cittadini di tutto il mondo. Gli standard che Anthropic ha scelto di mantenere rappresentano un minimo indispensabile di condotta responsabile, non un motivo di celebrazione. Eppure anche questi standard minimi sono già sotto pressione da parte del più potente esercito del mondo.”
“Il ritmo dello sviluppo tecnologico non aspetterà che la diplomazia trovi la sua strada. Ogni anno senza una legge internazionale vincolante, il divario tra ciò che questi sistemi possono fare e la nostra capacità di governarli si allarga. Chi pagherà il prezzo sono le persone comuni: i civili nelle zone di conflitto e i cittadini degli Stati autoritari e democratici, che si troveranno di fronte a queste tecnologie disumanizzanti man mano che il loro utilizzo si normalizzerà e i diritti umani e i valori democratici verranno erosi. Questo momento richiede una leadership politica e morale del più alto livello. Gli Stati devono venire al tavolo quest’anno non solo per parlare, ma per agire. Il tempo della procrastinazione è finito, il momento è arrivato e ciò che serve ora è una nuova legge internazionale“.
Rete Pace Disarmo è partner italiana della campagna internazionale Stop Killer Robots, che sostiene lo sviluppo di norme giuridiche e di altro tipo che garantiscano un controllo umano significativo sull’uso della forza, contrastino la disumanizzazione digitale e riducano i danni causati dall’automazione.
