I robot armati di domani: veri 007, con licenza di uccidere
Il rapporto, di 38 pagine, “Mind the Gap: The Lack of Accountability for Killer Robots,” mostra in dettaglio i significativi ostacoli esistenti all’attribuzione della responsabilità personale per le azioni dei sistemi automatizzati di armi sia nel diritto civile che in quello penale. Getta luce, inoltre, sulle conseguenze dell’omissione nell’imputare la responsabilità legale. Il rapporto è stato pubblicato congiuntamente da Human Rights Watch e la Harvard Law School’s International Human Rights Clinic.
“Omettere di attribuire le responsabilità civili e penali per un determinato tipo di uccisione significa non fornire un deterrente per i crimini futuri, nessuna retribuzione per le vittime, nessuna condanna sociale dei responsabili,” ha affermato Bonnie Docherty , ricercatrice senior della divisione Armi alla Human Rights Watch e principale autrice del rapporto. “I molti ostacoli alla giustizia per le vittime potenziali dimostrano il perché sia urgente proibire i sistemi automatizzati di armi”.
I sistemi automatizzati di armi andrebbero oltre i droni controllati a distanza già esistenti, in quanto sarebbero in grado di selezionare e mirare ad un target senza il bisogno di un significativo controllo umano. Benché non esistano ancora, la rapida evoluzione della tecnologia in questa direzione ha attratto l’attenzione e la preoccupazione internazionali.
Human Rights Watch è co-promotrice della Campagna per Fermare i Robot Killer di cui è anche coordinatrice.
La coalizione internazionale di oltre 50 organismi non governativi richiede un veto preventivo sullo sviluppo, la produzione e l’uso dei sistemi automatizzati di armi.
Il rapporto sarà distribuito in occasione di un’importante riunione internazionale sui “sistemi automatizzati letali di armi” alle Nazioni Unite a Ginevra dal 13 al 17 Aprile 2015. Si prevede che molti dei 120 paesi che hanno partecipato alla Convention sulle armi convenzionali siano presenti all’incontro con gli esperti sull’argomento, i quali porteranno avanti le disamine iniziate durante un primo incontro che ha avuto luogo a maggio 2014.
Human Rights Watch è convinta che gli accordi al fine di lavorare su queste armi durante il forum della Convention sulle Armi Convenzionali potrebbe finalmente condurre a nuove leggi che proibiscano le armi completamente automatizzate. Nel 1995 la Convention sulle Armi Convenzionali ha proibito, come misura preventiva, l’utilizzo di laser accecanti.
Una delle preoccupazioni maggiori riguardo i sistemi di armi automatizzate è che potrebbero causare delle vittime tra i civili, in violazione della legislazione umanitaria internazionale e della legge sui diritti umani. La mancanza di un significativo controllo umano, che caratterizza questo tipo di armi, renderebbe difficile incriminare penalmente chiunque si rendesse responsabile di tali azioni illegali.
I comandanti militari o gli esecutori materiali potrebbero essere ritenuti colpevoli se concepissero un sistema automatizzato di armi al fine di commettere un crimine, afferma Human Rights Watch. Ma, molto probabilmente, sfuggirebbero alla giustizia nell’evenienza, più comune, nella quale non potessero prevedere un attacco da parte di un robot automatizzato e/o non potessero impedirlo.
“Un sistema automatizzato di armi potrebbe commettere atti che aumenterebbero il numero dei “crimini di guerra”, se fosse una persona a compierli; ma ci potrebbe essere nessun colpevole punito per questi crimini,” asserisce Docherty, che insegna anche alla Harvard Law School clinic.”Chiamare tali atti “incidenti” o “intoppi” banalizzerebbe il danno letale che potrebbero causare.”
Gli ostacoli alla responsabilità penale sarebbero altrettanto difficili da superare nell’ambito del diritto civile, dichiara Human Rights Watch. La responsabilità civile sarebbe praticamente impossibile, almeno negli Stati Uniti, a causa dell’immunità garantita dalla legge alle forze militari ed ai loro appaltatori e gli ostacoli probatori nei processi per la responsabilità civile. Molti altri paesi hanno sistemi simili di immunità sovrana.
Anche in caso di vittoria, un processo civile avrebbe efficacia limitata come strumento di responsabilità. L’obiettivo primario delle sanzioni civili è quello di risarcire le vittime, non quello di punire i colpevoli. Per quanto un risarcimento monetario possa essere di beneficio alle vittime, non può sostituire la responsabilità penale in quanto deterrente.
Potremmo immaginare delle leggi che consentano alle vittime di ricevere un compenso senza che sia provata una colpevolezza specifica davanti ad un tribunale; ma non risolverebbe la mancanza di responsabilità personale e, comunque, la maggior parte dei governi sarebbe poco incline ad adottare un tale sistema di compensazione, afferma Human Rights Watch.
Il buco legislativo nella responsabilità penale è solo uno di una serie di preoccupazioni suscitate dai sistemi automatizzati di armi. In altre pubblicazioni, Human Rights Watch ha studiato le difficoltà che l’uso di queste armi costituirebbe nel rispettare la legge umanitaria internazionale e la legge sui diritti umani. Ha inoltre posto l’accento sulla possibilità di una corsa agli armamenti, la prospettiva della loro proliferazione, e si è interrogata su quanto possa essere etico che delle macchine prendano decisioni di vita o di morte sul campo di battaglia.
“La mancanza di responsabilità è un motivo che si somma a quelli legali, morali e tecnologici contro l’uso di sistemi automatizzati di armi per rinforzare, sul piano del Diritto, gli appelli di vietare totalmente questi sistemi,” afferma Docherty.
articolo (© 2015) di Russell Christian di Human Rights Watch, traduttrice Carmela Palombi
Articoli correlati
- Le Nazioni Unite ospitano colloqui diplomatici a Ginevra dal 2017
Sui robot killer opposizione degli Stati Uniti all'ONU a un accordo vincolante
Washington ha rifiutato l'idea di regolamentarne l'uso attraverso uno "strumento giuridicamente vincolante" proponendo invece un "codice di condotta non vincolante". Un certo numero di paesi hanno chiesto il divieto totale di qualsiasi arma che potrebbe usare la forza letale senza una supervisione.Redazione PeaceLink - I casi di Google, Amazon, KAIST
La sfida fra le grandi potenze mondiali per la supremazia tecnologica. Oltre la guerra commerciale e militare
“sistemi di apprendimento autonomo, processi decisionali collaborativi uomo-macchina, operazioni umane assistite, operazioni avanzate con sistemi senza equipaggio e reti di armi autonome”3 maggio 2018 - Rossana De Simone - C'è un buco legislativo rispetto ai ‘Robot Killer’
I robot armati di domani: veri 007, con licenza di uccidere
La prossima generazione di armi negli arsenali militari potrebbe essere costituita da “robot killer”, macchine che selezionerebbero e distruggerebbero un target specifico senza bisogno dell’intervento umano. Ma se un robot infrangesse la legge, chi ne sarebbe ritenuto responsabile? Bisognerebbe mandare davanti ad un tribunale il programmatore, il produttore, il comandante militare o... il robot?11 aprile 2015 - Russell Christian (HRW), traduzione di Carmela Palombi
Sociale.network