Un controverso rapporto, quello tra cittadini americani, armi e forze di polizia, che nei suoi alti a bassi spesso drammatici riaccende a fasi alterne il dibattito etico anche sull’uso di nuove tecnologie.

Il dibattito

Aveva fatto scalpore, infatti, la decisone della Polizia di San Francisco di dotarsi di robot killer, tecnologia non umana con “licenza d’uccidere”, da utilizzare in casi particolari come attentati suicidi o sparatorie. La decisione iniziale di consentirne l’uso era stata accolta tra le proteste durissime di gruppi per i diritti civili, pronti a denunciare una nuova ondata di militarizzazione delle forze di polizia statunitensi.

La polizia locale e alcune frange della politica locale avevano difeso a spada tratta il provvedimento, precisando che l’utilizzo di robot armati di esplosivi sarebbe stato limitato a casi in cui “il rischio di morte per il pubblico o per ufficiali è imminente e supera qualsiasi altra opzione di forza disponibile” e che comunque sarebbe stato limitato agli ufficiali di alto rango, gli unici a poterne fare uso. Alcune forze di polizia negli Stati Uniti utilizzano attualmente robot armati di bombe per intervenire; nel 2016, la polizia di Dallas ha utilizzato un robot che trasportava bombe per uccidere un sospetto in quello che gli esperti hanno definito un momento “senza precedenti”.

Il passo indietro di San Francisco

Alcune settimane fa, dopo che il caso aveva suscitato l’indignazione nazionale, il consiglio cittadino di San Francisco ha scelto poi di ritirare la proposta. Il dibattito, tuttavia, non si è fermato lì e lascia aperta una voragine su inquietanti scenari futuribili. L’introduzione di robot killer danneggerebbe attivamente anche la capacità delle forze di polizia di interagire con la comunità in altri modi e nel frattempo, altri delicati scenari in cui i robot sono ampiamente usati, come il passaggio di telefoni e altri oggetti nelle negoziazioni di ostaggi, ad esempio, rischierebbero di fallire, per via del sospetto che un robot possa in realtà essere armato.

A questo si aggiunge che le minoranze potrebbero essere maggiormente esposte all’utilizzo indiscriminato di questo tipi di intelligenza artificiale. Scegliere individui da uccidere basandosi solo sui dati dei sensori, in particolare attraverso il riconoscimento facciale o altre informazioni biometriche, introduce il rischio di un targeting selettivo di gruppi in base all’età percepita, al sesso, alla razza, all’etnia o all’abbigliamento religioso. Se si combina questo con il rischio di proliferazione, le armi autonome potrebbero aumentare notevolmente il rischio di violenza mirata contro classi specifiche di individui, di cui pulizie etniche e genocidi si nutrono.

Il conflitto in Ucraina

Questo tipo di tecnologia, ovvero strumenti di tipo offensivo installati su sistemi non pilotati da umani, trova ampie applicazioni anche nel warfare. Anche nella guerra russo-ucraina, uno dei timori principali dei primissimi mesi era che la Russia potesse impiegare, per la prima volta, gli Uran-9, i robots carri armato, con mitragliatrice e razzi anticarro, strumenti utilizzati per scenari ad alto rischio, in modo da minimizzare le perdite umane.

Gli Uran-9 UCGV, sono realizzati dalla 766ma “Impresa di Produzione e Tecnologia” a Nakhabino, vicino Mosca. L’Uran-9 è un drone di terra progettato per compiti di ricognizione e fuoco di supporto in scenaria di guerra urbana, controllati da remoto. Entrati in attività nel 2016, possono montare due cannoni automatici Shipunov 2A72, una mitragliatrice, missili anticarro Ataka e fino a 12 lanciarazzi termobarici Shmel-M. L’Uran-9 finora aveva deluso gli esperti nei test sul campo in Siria. Mosca ne aveva annunciato spesso il ritorno nel corso del 2022, senza, tuttavia, comparire nello scenario ucraino.

La specificità del conflitto in Ucraina sta proprio nel fatto che, rispetto alle ultime guerre in Iraq, Afghanistan e Siria, entrambi gli schieramenti stanno impiegando droni d’assalto con tecnologie simili: da febbraio scorso sono stati lanciati contro il nemico attacchi dal cielo con droni autonomi, o inviate macchine blindate per supporto alla fanteria a terra. In molti casi si tratta di veri e proprie sperimentazioni sul campo, poichè alcuni robot non sono mai stati impiegati prima in territorio di guerra.

Cosa sono le Lethal autonomous weapons

In gergo, il mare magnum di queste tecnologie si definisce Lethal autonomous weapons (LAWs). Si tratta di una tipologia di sistemi militari autonomi in grado di cercare e ingaggiare bersagli in modo indipendente sulla base di una programmazione di dati. Possono operare in aria, a terra, in acqua, sott’acqua o nello spazio. Mentre nel caso dei droni militari senza pilota la decisione di uccidere o colpire viene presa a distanza da un operatore umano, nel caso delle letali armi autonome la decisione viene presa solo dagli algoritmi.

I cosiddetti slaughterbot sono infatti pre-programmati per uccidere uno specifico “profilo bersaglio”. L’arma viene quindi schierata in un ambiente in cui la sua intelligenza artificiale cerca quel “profilo bersaglio” utilizzando i dati del sensore, come il riconoscimento facciale. Quando l’arma incontra qualcuno che l’algoritmo percepisce corrispondere al suo profilo bersaglio, spara e uccide.

Finora è certo che Israele, Russia, Corea del Sud e Turchia hanno dispiegato armi con capacità autonome, sebbene sia controverso con che tipo di modalità attiva; mentre Australia, Gran Bretagna, Cina e Stati Uniti stanno investendo molto nello sviluppo di queste tecnologie, con un gamma in continua espansione in fatto di dimensioni e capacità.

Il dibattito etico

I pericoli all’orizzonte sono facilmente intuibili, così come gli interrogativi etici: gli algoritmi non sono in grado di comprendere il valore della vita umana, e quindi non dovrebbero mai avere il potere di decidere chi vive e chi muore tanto da indurre Stati e gruppi di cittadini a richiederne il bando da parte del diritto internazionale. Ma, al di là delle questioni morali, i pericoli immediati sono legati alla proliferazione nonché all’imprevedibilità circa il loro utilizzo.

Negli ultimi anni, questo tipo di tecnologie sono state considerate mitiche quasi come lo Yeti. La loro fabbricazione giace a metà tra la propaganda di guerra e la minaccia del loro utilizzo, e la loro applicazione pratica non è affatto semplice da rintracciare. Un rapporto del 2021 del gruppo di esperti delle Nazioni Unite sulla Libia, per la prima volta ha documentato l’uso di un letale sistema d’arma autonomo che dà la caccia alle forze in ritirata. Da allora, ci sono state numerose segnalazioni di sciami e altri sistemi d’arma autonomi utilizzati sui campi di battaglia di tutto il mondo. Il tasso di accelerazione di questi casi d’uso è un chiaro avvertimento che stiamo transitando in una nuova fase del warfare contemporaneo.

Attualmente, i Paesi in prima linea nello sviluppo delle LAWs sono impermeabili a qualsiasi richiesta di divieto. Il governo degli Stati Uniti sostiene che le norme del diritto umanitario esistenti sono sufficienti per gestirne l’uso; la politica del dipartimento della Difesa degli Stati Uniti sostiene che questi sistemi devono essere progettati per garantire “livelli adeguati di giudizio umano sull’uso della forza”. La Cina resta ambigua sul tema, affermando l’importanza della piena considerazione dell’applicabilità delle norme legali generali pur insistendo su una definizione ristretta di robot killer. La Russia, nel frattempo, si rifiuta persino di prendere in considerazione la questione, utilizzando strumenti procedurali diplomatici per temporeggiare, ignorando il dibattito presso le Nazioni Unite, in particolar modo dallo scoppio del conflitto in Ucraina in poi.

Dacci ancora un minuto del tuo tempo!

Se l’articolo che hai appena letto ti è piaciuto, domandati: se non l’avessi letto qui, avrei potuto leggerlo altrove? Se non ci fosse InsideOver, quante guerre dimenticate dai media rimarrebbero tali? Quante riflessioni sul mondo che ti circonda non potresti fare? Lavoriamo tutti i giorni per fornirti reportage e approfondimenti di qualità in maniera totalmente gratuita. Ma il tipo di giornalismo che facciamo è tutt’altro che “a buon mercato”. Se pensi che valga la pena di incoraggiarci e sostenerci, fallo ora.