Il
campo di battaglia
percepito sempre più distante
, dominato da
algoritmi
e
droni
più che da esseri umani,
tecnologie militari
controllate dall'intelligenza artificiale
capaci di
accelerare
i tempi di un attacco e la prospettiva, ancora controversa, che le
armi autonome
in realtà
siano tali solo in pochissimi casi
: è così che
l'IA sta trasformando la guerra
, sollevando domande e soprattutto spingendo a chiedere regole.
"Il
rapido sviluppo tecnologico
sta superando la
lentezza delle discussioni internazionali
", afferma
sul sito della rivista Nature
il politologo Michael Horowitz dell'Università della Pennsylvania a Philadelphia. Sempre su Nature l'esperto di tecnologie militari Craig Jones, dell'Università britannica di Newcastle, rileva che "l'
attuale incapacità
di
regolamentare la guerra basata sull'intelligenza artificiale
, o di
sospenderne l'uso
fino a quando non si raggiunga un accordo su un utilizzo legittimo, sembra suggerire che la
potenziale proliferazione
della guerra basata sull'intelligenza artificiale sia
imminente
". Il Pentagono, per esempio, stima che
entro
il
2035
circa il
70%
della
forza aerea statunitense
potrebbe essere costituito da
sistemi senza pilota
, osserva il matematico Alfio Quarteroni, accademico dei Lincei.
Che siano
i pochi droni già capaci di individuare in modo autonomo un bersaglio
, o
quelli più tradizionali
che hanno comunque bisogno di una guida, o ancora gli
sciami di droni potenzialmente capaci di riconoscimento facciale
, una delle novità portate dall'IA nella guerra è che queste "
contribuiscono
anche ad
aumentare
la
distanza psicologica dal campo di battaglia
", dice Quarteroni.
"L'
uso crescente
di droni e sistemi d'arma automatizzati
riduce il contatto diretto con la violenza
,
attenuando l'impatto sensoriale e morale
dell'
uso della forza letale
. Storicamente - prosegue - i soldati hanno sempre dovuto superare una naturale avversione all'uccisione", ma "le nuove tecnologie rischiano di rendere questo passaggio sempre meno evidente. Il fenomeno è stato definito '
scarico cognitivo
'". Vale a dire che lo
sforzo di analisi
viene
delegato ai sistemi automatici
, mentre gli
esseri umani rischiano di sentirsi più distaccati dalle conseguenze
delle decisioni prese. Algoritmi e dati diventano i protagonisti sul campo di battaglia, dal quale gli esseri umani che controllano le armi sono lontani anche
emotivamente
, e si comincia a temere il
rischio
di una
delega di responsabilità
dagli esseri umani alle macchine
, considerate a torto infallibili.
"Secondo alcune ricostruzioni - dice ancora il matematico -
un altro rischio
è che
si accorci
la cosiddetta
kill chain
, cioè la
sequenza di passaggi
che va
dall'identificazione di un obiettivo
fino
all'autorizzazione
e
all'esecuzione dell'attacco
" Si parla di '
compressione decisionale
': "operazioni militari che in passato richiedevano giorni o settimane di pianificazione, oggi possono essere preparate in minuti o persino in secondi" e
si comincia a temere
che "i
decisori umani
possano finire per
limitarsi a ratificare
automaticamente
raccomandazioni generate dalle macchine
".
© RIPRODUZIONE RISERVATA