Ora comprendiamo il significato di conflitto nell’era dell’Intelligenza Artificiale.

Ora comprendiamo il significato di conflitto nell'era dell'Intelligenza Artificiale. 1

Bambini giocano vicino a un missile caduto vicino all’aeroporto internazionale di Qamishli, vicino al confine turco nel distretto di Qamishli di Hasakah, in Siria, il 4 marzo 2026. 

Rimane un interrogativo. Un solo interrogativo riguardo al missile che sabato 28 febbraio ha colpito una scuola iraniana, causando la morte di 165 persone. Quasi tutte bambine. Perché se i video diffusi ieri hanno rivelato che a precipitare sull’edificio è stato un Tomahawk, un missile statunitense, resta da chiarire se quella scuola sia stata designata come obiettivo militare a causa di un errore di calcolo di un’Intelligenza artificiale. Nessuna dichiarazione ufficiale. Nessuna conferma. Ma una certezza esiste.

In Iran si sta svolgendo la prima guerra “Ai-first” mai combattuta. Un cambiamento storico. Avvenuto molto prima di quanto si potesse prevedere. Ora l’IA è presente ovunque. Dalla pianificazione degli attacchi alla propaganda. Dai droni militari alle immagini di guerra che sono diventate contenuti virali sui social. Bombe e Macarena.

L’IA non indossa l’elmetto ma pianifica, organizza,

Adesso è evidente. Chi credeva che l’IA avrebbe assunto il ruolo di protagonista nei conflitti futuri sotto forma di robot assassini o droni inafferrabili si sbagliava. L’IA in guerra non indossa l’elmetto. Ma analizza dati, esamina immagini satellitari, simula scenari, gestisce la logistica e pianifica gli attacchi. E lo fa a una velocità inimmaginabile per un essere umano. L’IA riduce i tempi di esecuzione delle operazioni militari. Identifica obiettivi. Lo fa con la freddezza matematica di un algoritmo. E con l’ingenuità di chi può confondere una scuola con un complesso militare.

L’operazione “Epic Fury” avviata dagli Stati Uniti contro l’Iran non sarebbe stata realizzabile senza l’impiego dell’Intelligenza artificiale. Non con quella intensità offensiva. 900 attacchi mirati solo nelle prime 12 ore dall’inizio dell’operazione. 3.000 nei primi tre giorni. Numeri inimmaginabili senza software. L’IA è entrata nel processo decisionale dei vertici militari. Lo ha fatto in vari modi. Se in passato un analista doveva visionare ore di video e leggere centinaia di report per identificare un obiettivo, oggi l’IA effettua analisi dei dati in tempo reale. Basta una richiesta e l’IA fornisce una risposta. Un militare può chiedere di localizzare tutti i sistemi anti aerei in una specifica area di una mappa e li ottiene con un clic. L’IA è addestrata con ogni report, ogni aerea, ogni fonte di intelligence. È un po’ come utilizzare . Ma per uccidere.

La Kill chain della guerra: Palantir, Anthropic, Anduril

Sia gli Stati Uniti che Israele non hanno mai discusso apertamente di come stiano impiegando l’IA nel conflitto in Iran. Tuttavia, è sufficiente osservare ciò che sta accadendo in questi giorni per farsi un’idea piuttosto chiara. Il Pentagono collabora con decine di aziende americane che sviluppano IA e missili intelligenti. Ognuna di queste è entrata a far parte del meccanismo della macchina militare statunitense.

La “Kill chain” la definiscono, la catena di attacco in una traduzione italiana decisamente meno aggressiva dell’originale. Alcuni esempi. Palantir, l’azienda fondata da Peter Thiel, icona della Silicon Valley repubblicana, è un po’ il sistema nervoso centrale di tutte le operazioni condotte con l’IA. Analizza dati, immagini satellitari, video di droni e intercettazioni in tempo reale. Palantir è l’infrastruttura che garantisce il funzionamento di tutto. Per farlo deve integrarsi con modelli di IA come Anthropic e OpenAi, che trasformano dati in decisioni, calcoli in linguaggio umano.

Claude, il modello di intelligenza artificiale sviluppato da Anthropic, è probabilmente quello utilizzato dagli Stati Uniti negli attacchi del 28 febbraio. È il motore che ha elaborato dati per classificare gli obiettivi suggerendo l’ordine di attacco. Questione che è al centro di una grande controversia tra l’azienda e il Pentagono. I suoi contratti, infatti, erano stati recentemente annullati perché l’azienda si era opposta all’impiego di Claude per la sorveglianza di massa interna e per sistemi d’arma autonomi capaci di uccidere persone senza intervento umano. Cosa che poi è avvenuta. Il Pentagono ha dichiarato Anthropic un pericolo per la sicurezza della catena di approvvigionamento militare americana.

Infradito, hawaiane e armi letali

Anthropic, guidata dall’italo-americano Dario Amodei, ha fatto causa al Pentagono. Ma altre aziende producono sensori militari. Missili intelligenti come quelli realizzati a Long Beach, California, da Anduril. Il suo amministratore, Palmer Luckey, è uno dei simboli della conversione della Silicon Valley verso la ragione e la sicurezza. Aria spensierata da imprenditore tech, camicia hawaiana e infradito di rito, è il capo di una delle aziende che produce le armi più letali al mondo. Il braccio armato delle riflessioni e dei calcoli che fanno le altre aziende.

Sistema nervoso centrale, ragionamento, braccia. L’IA nella guerra americana è presente in ogni fase. L’Iran e “Epic Fury” rappresentano la sua fase matura. Ma le prove generali gli Stati Uniti le hanno effettuate il mese scorso a Caracas. L’IA è stata l’architetto strategico della cattura di Nicolas Maduro. Anche in quel caso si sarebbe utilizzato Palantir con l’elaborazione di Anthropic. Combinazione che ha orchestrato in tempo reale le manovre di 150 velivoli e l’infiltrazione dei militari in modo preciso, raccontano le cronache. Riducendo i tempi di pianificazione. Questo è ciò che fa l’IA.

Non cattura Maduro. Non bombarda l’Iran. Ma fornisce vantaggio informativo e velocità di esecuzione. Informazioni. A una velocità senza precedenti in guerra. E qui si cela il più grande dei pericoli. Perché una mente umana non è in grado di gestire la quantità di informazioni generate dall’IA. In caso di pericolo imminente, il rischio maggiore è quello di affidarsi. Che nel dubbio si faccia clic perché lo ha suggerito la macchina. Un confine sottile. E siamo già su quel confine. Il più pericoloso di tutti. Il rischio attuale non è tanto che la macchina diventi malvagia. Ma che l’uomo diventi indolente. L’IA non è solo uno strumento tattico. Ma rappresenta una sfida etica.

Il ruolo della Cina: tecnologia come fondamenta per la risposta iraniana

La velocità è il parametro attorno al quale ruota tutto. L’esercito israeliano è stato tra i pionieri nell’uso dell’IA. Algoritmi analizzano dati e immagini per identificare minacce prima che si concretizzino. Attraverso l’IA monitora aree sotto il suo controllo o interesse. La Silicon Wadi, l’ecosistema di startup tecnologiche israeliane, fornisce tecnologie militari all’avanguardia. L’impiego in campo militare è lo stesso di quello adottato dagli Stati Uniti.

L’IA è uno strumento di calcolo. E in ambito militare il calcolo è fondamentale. L’Iran non può competere dal punto di vista tecnologico con i modelli americani e israeliani. Non può nemmeno accedere ai modelli di punta come Claude o ChatGpt. Ma ha una strategia. E passa per Pechino. Teheran utilizza modelli IA liberamente accessibili online. Li adatta su propri hardware e li fa funzionare. Il ruolo della Cina è cruciale. A partire dallo scorso anno gli iraniani sono potuti tornare sul mercato internazionale. E si sono rivolti alla Cina. Pechino ha fornito una rete digitale avanzata. Ha dato all’Iran la possibilità di utilizzare BeiDou, l’equivalente cinese del Gps (global positioning system, americano, il sistema satellitare che consente di calcolare posizioni precise di dispositivi, aerei e mezzi su scala globale).

Sono giunti i modelli di intelligenza artificiale aperta di DeepSeek e Qwen. La Cina da tempo esporta tecnologia e equipaggiamenti militari a Teheran. Fornisce al regime le fondamenta tecnologiche per difendersi. Su queste basi l’Iran costruisce droni e algoritmi d’attacco. Un sistema che sta dimostrando la sua efficacia. Per quanto a basso costo e assemblato in emergenza, regge. E gli ingegneri iraniani si sono dimostrati piuttosto abili ad adattarsi. La breve storia dell’IA ha già dimostrato che il vantaggio competitivo acquisito con un’innovazione dura poco. Tutto può cambiare in un attimo. È necessario muoversi su più fronti. Compreso quello interno. E anche qui l’IA offre supporto.

Missili e Macarena. Sangue e Mortal Kombat

Poco dopo l’inizio del conflitto, i canali social delle principali istituzioni americane, inclusa la Casa Bianca, hanno cominciato a diffondere video virali delle operazioni militari in corso in Iran. Video autentici e artefatti assemblati, immagini generate dall’IA unite a riprese di guerra reali.

Sangue reale e pixel. Musiche leggere come la Macarena o colonne sonore di film d’azione come Mortal Kombat mescolate con il suono delle esplosioni. Video d’impatto, dal tono epico. Un messaggio con due obiettivi. Uno esterno, per intimorire. Uno interno, per rafforzare il consenso alle operazioni militari. Anche sul fronte comunicativo, l’IA sta svolgendo un ruolo. Più legato alla propaganda che alle battaglie sul campo. Ma comunque significativo in questa fase. Mai come in questa guerra si è vista la rete invasa di contenuti falsi generati dall’IA.

Creator da tutto il mondo stanno producendo video falsi che mostrano edifici in fiamme, come il Burj Khalifa di Dubai, o di Tehran bombardata a tappeto. Video falsi. Di eventi mai accaduti. Ma capaci di generare centinaia di milioni di visualizzazioni. Tutto è cambiato. E anche la comunicazione politica si è adattata. Difficile prevedere quale sarà l’effetto di questa continua commistione di piani. Realtà e finzione. Verità e propaganda. Un’altra sfida.

@arcangelo.rociola

I commenti sono chiusi.