I 5 motivi per cui i “killer robots” sono un problema di diritti umani

I 5 motivi per cui i “killer robots” sono un problema di diritti umani

1. Disumanizzazione digitale

Lo sviluppo di macchine che possono usare la forza contro le persone senza un controllo umano significativo è un chiaro esempio di disumanizzazione digitale. Questa riduzione delle persone a dati, e il danno automatico che ne deriva, si sta verificando in tutta la società: dalla sanità alla polizia, spesso con conseguenze dirette sui nostri diritti umani.

Le armi autonome elaborano automaticamente il vostro peso, la vostra impronta termica, i tratti del viso o altri indicatori per poi decidere se usare la forza contro di voi. Dal punto di vista delle norme internazionali sui Diritti Umani ridurre una persona a schemi di codice, a degli 1 e degli 0, ostacola il diritto alla dignità e il divieto di trattamenti inumani e degradanti.

 

2. Privacy e dati

Lo sviluppo e l’uso di armi autonome si baserebbe sulla raccolta massiccia di dati, compresi quelli anagrafici e la posizione delle persone nel caso di sistemi progettati per colpire gli esseri umani. Ciò aumenterebbe la capacità di organizzazioni e governi di sorvegliare, intercettare e raccogliere i nostri dati, sollevando serie preoccupazioni sul diritto alla privacy.

 

3. Pregiudizi e discriminazioni

Le armi autonome in grado di colpire le persone aggraverebbero le strutture di disuguaglianza esistenti. Le ricerche di Joy Buolamwini, Timnit Gebru, Ruha Benjamin, Safiya Noble e altri hanno dimostrato come i pregiudizi razziali, di genere e altri algoritmi permeino i sistemi di intelligenza artificiale. I pregiudizi possono essere introdotti nell’apprendimento automatico, anche attraverso la raccolta dei dati e l’addestramento dei modelli algoritmici, e il danno può essere amplificato dalle connessioni tra razza, genere e altri marcatori di identità, come l’età e l’abilità.
L’uso dell’intelligenza artificiale nell’elaborazione dei dati nella vita quotidiana ha dimostrato che le popolazioni storicamente emarginate sono danneggiate in modo sproporzionato dall’automazione dei processi decisionali. Purtroppo la storia dimostra che anche le nuove tecnologie problematiche vengono spesso testate e utilizzate per prime sulle comunità emarginate.

 

4. Applicazione della legge e controllo dell’immigrazione

L’anno scorso il Dipartimento di polizia di New York ha impiegato cani robot a comando umano, un esempio evidente del crescente uso di tecnologie problematiche da parte delle forze dell’ordine nazionali, spesso con conseguenze sproporzionate per le persone di razza e le comunità emarginate.
Le frontiere vengono ora utilizzate come terreno di sperimentazione per tecnologie automatizzate e disumanizzanti che vengono poi impiegate altrove. Tendayi Achiume, Relatrice Speciale ONU sulle forme contemporanee di razzismo, discriminazione razziale, xenofobia e intolleranza, ha rilevato la necessità cruciale che gli Stati “tengano conto e combattano gli impatti sproporzionati di natura razziale, etnica e di origine nazionale che le armi completamente autonome avrebbero sui gruppi vulnerabili, in particolare sui rifugiati, i migranti, i richiedenti asilo, gli apolidi e i gruppi affini”.

 

5. Sfide al diritto vigente

Secondo il Diritto internazionale dei Diritti Umani (IHRL) la privazione della vita e l’uso della violenza sono consentiti solo se esiste una base giuridica sufficiente, laddove l’uso della forza letale richiederebbe il rispetto dei principi di necessità e proporzionalità. Ciò richiede giudizi umani complessi e processi decisionali delicati per garantire il rispetto della legge. Le armi letali autonome (i cosiddetti “killer robots”) automatizzerebbero l’applicazione della forza violenta sulla base dell’elaborazione dei dati dei sensori e non rispetterebbero i processi legali o i giudizi richiesti dalla legge esistente sui diritti umani e sui conflitti.

Sicuramente siamo tutti d’accordo sul fatto che è ora di tracciare una linea per garantire un controllo umano significativo nell’uso della forza e per contrastare questo tipo di disumanizzazione digitale.