Attenzione! Questo articolo è stato scritto più di un anno fa!
!
Esclusiva

Febbraio 4 2023.
 
Ultimo aggiornamento: Febbraio 1 2023
Sistemi d’arma autonomi: vita o morte?

Armi militari e intelligenza artificiale: pro e contro, aspetti etici, legali e regolamentazione internazionale, implicazioni su vita umana e guerra

Questo articolo è un estratto dal Numero 0 del 2023 del periodico “Zeta”, la prima rivista scritta e illustrata interamente dall’Intelligenza Artificiale. Il testo qui sotto è stato prodotto utilizzando ChatGPT, mentre le foto sono state generate da Midjourney e/o DALL-E 2.

Cliccando qui potete sfogliare il nostro periodico “Esperimento”. Cliccando qui, invece, potete scoprire di più sul progetto.

È possibile che in futuro le armi siano dotate di intelligenza artificiale, il cui utilizzo in applicazioni militari, come i sistemi di armi autonome, rappresenta un’area attiva di ricerca e sviluppo. Tuttavia, lo sviluppo e l’impiego di tali armi solleva una serie di problemi etici e legali ed è oggetto di un dibattito continuo tra gli esperti del settore. Le maggiori problematiche riguardano la responsabilità, la conformità al diritto umanitario internazionale e la mancanza di supervisione umana. 

È importante considerare queste preoccupazioni etiche e legali quando si sviluppano e si dispiegano armi militari dotate di intelligenza artificiale per garantire che questi sistemi siano progettati e utilizzati in modo coerente con il diritto internazionale e i diritti umani. Su questo è in corso un dibattito tra esperti, organizzazioni internazionali e organismi governativi particolarmente complesso, in quanto sono diversi gli approcci per regolamentare l’uso di sistemi d’arma autonomi e qualsiasi normativa dovrebbe essere sviluppata con il contributo di un’ampia gamma di parti interessate. 

Vale la pena notare che attualmente non esistono accordi internazionali completi sulle armi autonome e lo sviluppo di tali regolamenti potrebbe richiedere del tempo e non essendo un evento unico, ma piuttosto un processo, è importante valutare continuamente i sistemi d’arma e le loro azioni. La Convenzione delle Nazioni Unite su alcune armi convenzionali (CCW) discute la questione delle armi autonome dal 2013 e ha recentemente creato un Gruppo di esperti governativi (GGE) per approfondire la questione. 

Esistono diversi modi in cui l’intelligenza artificiale potrebbe essere utilizzata per sviluppare nuove armi militari. Esempi sono i sistemi d’arma autonomi, le munizioni intelligenti e le armi informatiche. In generale tutte queste tipologie funzionano senza l’intervento umano, utilizzando algoritmi di intelligenza artificiale per identificare e ingaggiare i bersagli. 

Sistemi d'arma autonomi: vita o morte?

Alcuni sostengono che queste armi potrebbero migliorare significativamente l’efficacia e l’efficienza delle operazioni militari. Sicuramente ci sarebbe un impatto positivo sulla velocità e la precisione delle armi “intelligenti”, che sarebbero più letali di quelle controllate dall’uomo. D’altro canto, si sostiene anche che i sistemi d’arma autonomi potrebbero avere la capacità di ridurre al minimo i danni collaterali e le vittime civili, in quanto potrebbero essere programmati per seguire i principi del diritto internazionale umanitario. 

I sistemi d’arma autonomi potrebbero anche portare a una diminuzione del numero di soldati in pericolo, riducendo così il costo umano della guerra. Inoltre l’uso di sistemi d’arma autonomi potrebbe potenzialmente ridurre il numero di soldati esposti a eventi traumatici, che a loro volta potrebbero ridurre l’incidenza del disturbo da stress post-traumatico (PTSD) tra i soldati. Tuttavia, vale la pena notare che l’uso di sistemi d’arma autonomi potrebbe anche aumentare il rischio di PTSD tra i soldati in determinate situazioni aumentando il rischio di lesioni morali, una forma di trauma psicologico che può derivare dalla partecipazione o dall’assistere ad atti che violano le proprie convinzioni morali o etiche. 

L’uso di sistemi d’arma autonomi potrebbe potenzialmente sollevare i soldati dal senso di colpa per le uccisioni in alcune situazioni in cui i soldati non sono direttamente coinvolti nel processo decisionale o nell’esecuzione di un attacco, sentendosi meno in colpa o responsabile per le morti che ne derivano. Inoltre, se il sistema d’arma è progettato per ridurre al minimo i danni collaterali e le vittime civili, i soldati potrebbero sentirsi meno in colpa per i potenziali danni causati dalle loro azioni.

La questione dell’innocenza dei soldati se è il sistema d’arma autonomo a uccidere durante le guerre è una questione etica complessa, attualmente dibattuta dagli esperti. È importante considerare che l’impiego di sistemi d’arma autonomi può cambiare la natura della guerra e il ruolo del soldato, in modi che rendono difficile attribuire responsabilità o colpe. Ad esempio, i soldati potrebbero sentirsi scollegati dalle azioni del sistema d’arma, il che potrebbe portare a un senso di distacco o di colpa.

Sistemi d'arma autonomi: vita o morte?