La principale capacità strategica dei conflitti risiede ora esclusivamente nella capacità di integrare simultaneamente, intelligenza artificiale, robotica, cyber power e data science a tutti i livelli delle operazioni militari
di Aniello Fasano
Agli occhi dell’opinione pubblica l’intelligenza artificiale (IA) avrà enormi sviluppi soprattutto sugli aspetti ricreativi, modificando la vita di ognuno di noi senza neppure riuscire ad immaginare quanto. Tutto diventa molto più serio e preoccupante al solo pensiero di poter applicare la nuova tecnologia per la conduzione delle guerre. D’altra parte l’IA viene già ampiamente utilizzata sia in Ucraina che a Gaza dove, i conflitti in corso, hanno portato sul campo di battaglia strumenti e programmi in continua evoluzione e perfezionamento. Molte decisioni “cruciali” sarebbero già prese in base all’applicazione di algoritmi generati con l’IA, sollevando tanti dubbi su etica, moralità e legittimità dell’utilizzo di certe tecnologie negli scenari bellici. Ed è, realisticamente, una strada che sarà percorsa da tutti gli eserciti nel breve tempo. In pratica l’algoritmo acquisisce dati che successivamente vengono miscelati ad una miriade di altre informazioni ottenute da droni, telecamere e sistemi di sorveglianza. Il risultato di questo “intelligente” intreccio di informazioni sono liste di possibili bersagli da colpire.
Qualche mese fa queste notizie diventarono di dominio pubblico attraverso l’inchiesta condotta da +972 Magazine e Local Call, secondo cui l’Israel Defense Force (l’IDF) avrebbe sviluppato e impiegato un programma basato sull’IA, chiamato Lavender, per individuare e colpire i bersagli palestinesi, in particolare nelle prime fasi della guerra. Le forze israeliane ne hanno negato l’utilizzo. L’esercito israeliano avrebbe sfruttato l’intelligenza artificiale per identificare i potenziali obiettivi a Gaza per poi bombardarli. A rivelare la possibile esistenza di questa “macchina bellica avanzata” sarebbero stati alcuni funzionari dell’Intelligence israeliana che, come riporta il magazine indipendente israelo-palestinese, “hanno prestato servizio nell’esercito durante la guerra a Gaza e sono stati coinvolti in prima persona nell’uso dell’IA per individuare i target da colpire”. Queste notizie, qualora confermate, fornirebbero preziose spiegazioni sull’alto numero di vittime di civili a Gaza e rappresenterebbero la prova del passaggio ad una guerra moderna che si affida quasi totalmente all’applicazione di algoritmi generato da IA.
Nulla di nuovo alla fine, il Computer nacque “nella guerra e dalla guerra”. Il Colossus fu costruito nel 1944 per decifrare i codici nazisti. Il recente progresso esponenziale dell’intelligenza artificiale, consente sorprendenti imprese nel riconoscimento degli oggetti e nella risoluzione di problemi di ordine superiore. Oggi con chip piccolissimi ed economici si guidano i droni verso i loro obiettivi, ampliando una tecnologia un tempo limitata ai missili di una superpotenza. Ogni anno i vertici internazionali si incontrano per discutere su un uso militare responsabile dell’IA, stimolando una discussione etica sulle preoccupazioni riguardanti l’avvento di tale tecnologia e sul suo utilizzo nel corso dei conflitti armati.
Come riporta l’Economist, la tecnologia sta rivoluzionando soprattutto il Comando e Controllo delle guerre. I droni rappresentano solo l’ultimo e più drammatico anello della catena di uccisione, dell’insieme dei passaggi che iniziano con la ricerca del bersaglio e terminano con la sua distruzione. L’IA seleziona ed elabora i dati ad una velocità sovrumana, può individuare con precisione un serbatoio da migliaia di immagini satellitari o interpretare la luce, il calore, il suono e le onde radio. È probabile che i sistemi di intelligenza artificiale, abbinati a robot autonomi su terra, mare e aria, trovino e distruggano obiettivi a una velocità senza precedenti e su vasta scala.
Se, tragicamente, dovesse scoppiare la prima guerra alimentata dall’intelligenza artificiale, è probabile che il diritto internazionale venga messo rapidamente ai margini. Un motivo in più per pensare oggi a come limitare la distruzione totale del pianeta. La Cina, ad esempio, dovrebbe prestare maggior ascolto alla richiesta statunitense di escludere il controllo dell’intelligenza artificiale sulle armi nucleari. Sistemi di intelligenza artificiale progettati per massimizzare il vantaggio militare dovrebbero essere codificati con valori e restrizioni che i comandanti umani danno ingenuamente per scontati, attribuendo un valore implicito alla vita umana. Stabilire quanti civili è accettabile uccidere per perseguire un obiettivo di alto valore non è solo un fatto etico, ma di sopravvivenza.
Le incertezze sono profonde mentre l’unica cosa certa è che il cambiamento guidato dall’intelligenza artificiale è ormai realtà. Probabilmente prevarranno gli eserciti che anticiperanno e padroneggeranno i progressi tecnologici per primi e nel modo più efficace.
Il sistema Lavender
Lavender, secondo un approfonfimento del Post, è stato sviluppato dalla divisione d’élite delle Forze di Difesa israeliane (IDF), l’Unità 8200, in modo da migliorare le strategie di attacco sulla popolazione nella Striscia di Gaza. Prima di impiegare Lavender la scelta del bersaglio umano era limitata sono ad un un membro di alto livello dell’ala militare di Hamas.
Dopo il 7 ottobre, l’esercito ha deciso di indicare come possibile obiettivo umano tutti gli operatori dell’ala militare di Hamas indipendentemente dal loro livello di importanza. Il problema tecnico di individuare un alto numero di bersagli in poco tempo è stato risolto con Lavender, utilizzato per sistematizzare l’individuazione di individui che potessero essere ritenuti militanti di Hamas.
Il software Lavender analizza le informazioni raccolte dal sistema di sorveglianza di massa attivo nella Striscia e assegna un punteggio da 1 a 100 a quasi ogni singolo palestinese, valutando il tasso di probabilità che sia un militante. Lavender è stato istruito per distinguere le caratteristiche degli operativi di Hamas, quindi ha imparato a trovare le stesse caratteristiche nella popolazione in generale. Una persona con più caratteristiche affini riceve un punteggio elevato ed è automaticamente un potenziale bersaglio.
Con Lavender gli obiettivi non li individua l’umano ma l’intelligenza artificiale che ha svolto la maggior parte del lavoro, talvolta commettendo errori e identificando come bersagli anche lavoratori della polizia, parenti di militanti o residenti che avevano un nome e un soprannome identici a quelli dei militanti.
Alcune fonti dell’esercito israeliano hanno spiegato il funzionamento delle “tolleranze pre-autorizzate” sul numero di civili che potrebbero essere uccisi in un attacco contro gli obiettivi identificati da Lavender. Nelle prime settimane di guerra era consentito ammazzare 15 o 20 civili per poter uccidere militanti di basso rango, mentre il limite si alzava a 100 per militanti di alto rango. Questo spiegherebbe l’alto numero di civili uccisi fino ad oggi nella Striscia di Gaza.
Subscribe to our newsletter!