Killer robots: cosa sono e perché ci devono preoccupare

Killer robots: cosa sono e perché ci devono preoccupare

I ROBOT KILLER SONO SISTEMI DI ARMA IN GRADO DI SELEZIONARE OBIETTIVI DI ATTACCO SENZA UN SIGNIFICATIVO CONTROLLO UMANO.

Ciò equivale a dire che la decisione di dispiegare la forza letale sarebbe delegata a una macchina. Questo sviluppo di così vasta portata cambierebbe radicalmente il modo in cui la guerra viene condotta ed è stata chiamata la terza rivoluzione nell’ambito dei conflitti, dopo la polvere da sparo e la bomba atomica. La funzione di selezionare e attaccare autonomamente i bersagli potrebbe essere applicata a varie piattaforme, per esempio un carro armato, un jet da combattimento o una nave. Un altro termine usato per descrivere queste armi è un sistema di armi letali autonome (LAWS- lethal autonomus weapon systems).

UN EQUIVOCO COMUNE È CREDERE CHE I ROBOT KILLER SIANO DRONI O TERMINATOR.
I droni armati oggi hanno ancora un operatore umano che controlla il sistema di arma a distanza ed è responsabile per la selezione e l’identificazione degli obiettivi così come di tirare il grilletto. Il problema non riguarda i Terminator. È improbabile che questo concetto di fantascienza diventi una realtà nei prossimi decenni. Il problema riguarda la rimozione del controllo umano dalle funzioni critiche di selezione e attacco degli obiettivi; alcuni di questi sistemi potrebbero essere attualmente in fase di sviluppo e potrebbero diventare operativi nei prossimi anni.

DOVREBBE SEMPRE RIMANERE SIGNIFICATIVO IL CONTROLLO UMANO SULLA SELEZIONE E SULL’ATTACCO DI OBIETTIVI INDIVIDUALI.

L’operatore umano deve essere sempre in grado di considerare attentamente sia gli aspetti legali, sia le valutazioni etiche, con informazioni sufficienti sulla situazione sul campo ed avere tempo sufficiente per prendere una decisione ponderata e informata. Il desiderio di mantenere una qualche forma di controllo umano è al centro del dibattito su sistemi di armi autonome letali. Quale dovrebbe essere il livello e la natura del controllo umano necessario per rendere un sistema d’arma legalmente ed eticamente accettabile? Come possiamo garantire che questo controllo sia efficace, giusto e significativo?

ESISTONO GIA’I KILLER ROBOTS?

A meno che non vengano messi dei vincoli, le armi letali autonome saranno operative entro i prossimi anni piuttosto che nei prossimi decenni. Diversi precursori di tali armi dimostrano, senza alcun dubbio, la tendenza a sistemi di armi sempre più autonome.

 

A CAUSA DELLE SERIE IMPLICAZIONI LEGALI, DI SICUREZZA ED ETICHE, LA CAMPAGNA STOP KILLER ROBOTS CHIEDE LA MESSA AL BANDO DELLO SVILUPPO, PRODUZIONE E UTILIZZO DEI KILLER ROBOTS.

 

ETICA

Una macchina non dovrebbe mai essere autorizzata a prendere decisioni sulla la vita e la morte di essere umani. Tali decisioni non dovrebbero essere ridotte ad un algoritmo. Questo va contro il principio della dignità umana e del diritto alla vita. Un robot non è in grado di capire o rispettare il valore della vita umana. Ciò significa che un robot non sarà in grado di prendere una “decisione di uccidere” che tenga conto, implicitamente o esplicitamente della dignità umana. Una macchina, semplicemente, completa il compito per cui è stata programmata. Questo svaluta e disumanizza la decisione, e non rispetta il valore che noi essere umani diamo alla vita.

PROLIFERAZIONE

Una volta sviluppate, possono essere armi letali autonome relativamente economiche da produrre e semplici da copiare. Questo aumenta la probabilità della loro proliferazione su larga scala anche da una varietà di attori quali dittatori ed attori non statali. I fautori si concentrano spesso sui vantaggi a breve termine dell’impiego di armi letali autonome, ma trascurano la prospettiva a lungo termine che queste armi possano essere utilizzate contro la loro popolazione militare e civile.

LEGALITÀ

È improbabile che i robot assassini siano in grado di aderire ai principi fondamentali dettati dalla legge umanitaria internazionale, come la distinzione tra un civile e un soldato. Un soldato non può semplicemente essere definito come un umano con un’arma. In alcuni paesi un civile può portare un’arma per motivi cerimoniali durante un matrimonio e i pastori possono essere armati per proteggere il loro bestiame e se stessi. Ancora più difficile è la valutazione della proporzionalità di un danno arrecato ad un civile in relazione al vantaggio militare. E’impossibile applicare semplicemente il diritto internazionale, poiché dipende sempre dall’interpretazione del contesto.

SI ABASSA LA SOGLIA DELA GUERRA

Alcuni ipotizzano che le armi letali autonome potrebbero portare a meno vittime tra le forze in campo. Tuttavia questo potrebbe anche portare ad un aumento dei conflitti abbassando la soglia per lo scoppio di una guerra. Inoltre, se esistono meno rischi per la sicurezza di un soldato, può essere più facile impiegare la forza letale. Una percezione di guerra priva di rischi può portare a una preferenza per le soluzioni militari piuttosto che politiche.

RESPONSABILITÀ

Le armi autonome letali creano un vuoto di responsabilità riguardo a chi sarebbe responsabile di un atto illecito. Chi sarebbe responsabile: il produttore, il programmatore, il comandante militare oppure lo stesso robot?

CORSA AGLI ARMAMENTI

Rapidi sviluppi in robotica e intelligenza artificiale applicati alla tecnologia militare potrebbero portare a una corsa internazionale agli armamenti, con effetti politicamente destabilizzanti minacciando la pace e la sicurezza internazionali.

IMPREVEDIBILITA’

Lo spiegamento di armi autonome letali potrebbe portare a guerre accidentali e rapida escalation di conflitti, come ad altre conseguenze non intenzionali, ma pericolose. Non è chiaro come le armi letali autonome, progettate e schierate da forze militare opposte reagiranno e interagiranno tra loro. Queste armi potrebbero essere altamente imprevedibili, soprattutto nelle loro interazioni con altri sistemi autonomi se fornite di un sistema di autoapprendimento.