Quando l’intelligenza artificiale diventa il cuore della strategia militare, le decisioni su chi vive e chi muore vengono spersonalizzate e disumanizzate. Una recente inchiesta del Washington Post ha riportato l’attenzione sull’uso su larga scala, da parte delle Forze di Difesa Israeliane (IDF) nel recente conflitto con Hamas, di sistemi avanzati di machine learning per pianificare, eseguire e adattare le operazioni militari, trasformando l’Unità 8200, già rinomata come uno degli hub d’eccellenza nell’intelligence globale, in una vera e propria “fabbrica di IA” per scopi bellici. Questa evoluzione potrebbe ridefinire il modo in cui saranno combattuti i conflitti, sollevando domande sulla precisione, la responsabilità e le implicazioni etiche di decisioni sempre più affidate alle macchine.
Con strumenti come “Habsora” (“Vangelo”) e “Lavender“, Israele ha implementato piattaforme che combinano dati satellitari, intercettazioni, analisi comportamentali e algoritmi predittivi, permettendo di generare in tempo reale nuovi obiettivi militari. Dopo l’attacco di Hamas del 7 ottobre 2023, i bombardamenti su Gaza hanno raggiunto un’intensità senza precedenti, in parte grazie a tali capacità di calcolo. Ma ciò che viene descritto come un trionfo tecnologico coincide anche con un’inevitabile espansione dei danni collaterali e dell’aumento delle vittime civili.
Come l’IA ridisegna la guerra
La piattaforma “Habsora”, cuore pulsante della strategia tecnologica dell’IDF, utilizza tecnologie di analisi dati su larga scala per elaborare informazioni raccolte da droni, satelliti e intercettazioni. Il risultato è la generazione di coordinate geografiche di obiettivi classificati per priorità militari, con una velocità irraggiungibile per gli analisti umani. A supporto vi è “Lavender”, specializzata nell’attribuire probabilità di affiliazione a gruppi estremisti attraverso tratti comportamentali, come frequenti cambi di residenza o interazioni online con sospetti estremisti. Il vantaggio operativo è evidente: processi che un tempo richiedevano giorni o settimane possono ora essere completati in pochi minuti.
Tuttavia, ridurre la complessità del comportamento umano a percentuali basate su input algoritmici apre la strada a errori potenzialmente catastrofici. Nel contesto di Gaza, è stato sufficiente che gli algoritmi classificassero una persona come sospetta affiliata a un gruppo armato per richiedere un attacco, suscitando critiche crescenti sul livello effettivo di supervisione e discernimento umano. Alcuni ufficiali dell’IDF hanno messo in discussione la qualità e l’affidabilità delle informazioni generate, poiché le piattaforme non distinguono sufficientemente tra dati derivati da algoritmi e input provenienti da fonti umane, rendendo opachi i criteri su cui si basano decisioni cruciali.
Efficienza sì, ma a quale costo?
Sebbene l’efficienza dei sistemi di IA sia innegabile, i costi umani associati all’automazione del processo decisionale sono difficili da ignorare. Secondo rapporti interni, riportati dall’articolo del Washington Post, le campagne militari israeliane condotte durante il recente conflitto hanno segnato un cambiamento notevole nella valutazione del rapporto tra vittime civili e obiettivi nemici. Mentre nel 2014 si considerava accettabile un rapporto di circa un civile ucciso per ogni obiettivo militare di alto livello colpito, oggi – secondo le fonti dell’inchiesta – la media è arrivata a quindici civili uccisi per ogni combattente di basso rango neutralizzato. Il numero, fra l’altro, non è ufficiale e dipende dalle fonti, dove il New York Times addirittura parla di venti civili ogni combattente. Ad ogni modo, questo cambiamento riflette una pericolosa trasformazione nella strategia e nella percezione dell’accettabilità etica del danno collaterale.
A ciò si aggiungono significative limitazioni tecniche. Gli algoritmi utilizzati, per quanto avanzati, non sono immuni da errori. Come spesso accade nei contesti operativi, i pregiudizi nei dataset e i malintesi nelle sfumature culturali possono portare a fraintendimenti linguistici o a identificazioni errate. Nel caos del conflitto, un piccolo errore tecnico può tradursi in perdite umane su larga scala.
La perdita del controllo umano
Un problema centrale emerso dall’impiego di questi strumenti è il progressivo distacco della supervisione umana dal processo decisionale. Gli strumenti di IA, concepiti come supporto, stanno diventando sempre più dominanti nelle scelte strategiche, spesso a scapito dell’esperienza e del giudizio critico umano. Alcuni ufficiali e analisti interni dell’IDF attribuiscono alla dipendenza tecnologica una mancata capacità previsionale, che avrebbe contribuito all’impreparazione di Israele di fronte agli attacchi del 7 ottobre 2023, avvenuti nonostante analisti esperti avessero individuato segnali preoccupanti.
Nel campo di battaglia, questa tendenza a ridurre la responsabilità umana evidenzia aspetti etici e giuridici irrisolti. Una domanda fondamentale rimane senza risposta: chi è responsabile quando un sistema di IA commette un errore? L’opacità delle decisioni algoritmiche rende difficile non solo attribuire responsabilità, ma anche valutare appieno se queste soluzioni siano davvero più efficaci rispetto al giudizio umano. E mentre alcuni sostengono che l’IA riduca i danni collaterali migliorando la precisione, i dati sul campo a Gaza mettono in discussione questa narrazione.
Prove tecniche di conflitti futuri
La proliferazione di IA belliche, come dimostrato dall’IDF, rappresenta un banco di prova per conflitti futuri sempre più automatizzati. Tuttavia, la rapidità della trasformazione tecnologica supera di gran lunga la capacità di regolamentazione e di riflessione etica. L’elevata automazione e la semplificazione dei dati umani in schemi algoritmici amplificano il rischio di decisioni “disumanizzate”, dove il costo sociale e morale cede il passo all’imperativo della velocità e dell’efficienza.
Ma la questione non è tanto se l’IA debba essere utilizzata – poiché è ormai evidente che lo sarà – ma quali limiti debbano essere posti per garantire un equilibrio tra efficienza tecnologica, responsabilità e rispetto dei valori umani. Come si configura il mondo degli esseri umani quando le decisioni di vita e di morte vengono affidate a un algoritmo?
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link