Ora comprendiamo il significato di conflitto nell’era dell’Intelligenza Artificiale.

Ora comprendiamo il significato di conflitto nell'era dell'Intelligenza Artificiale. 1

Bambini giocano vicino a un missile caduto vicino all’aeroporto internazionale di Qamishli, vicino al confine turco nel distretto di Qamishli di Hasakah, in Siria, il 4 marzo 2026. 

Rimane un interrogativo. Un solo interrogativo riguardo al missile che sabato 28 febbraio ha colpito una scuola iraniana, causando la morte di 165 persone. Quasi tutte bambine. Perché, se i video diffusi ieri hanno rivelato che a precipitare sull’edificio è stato un Tomahawk, un missile statunitense, resta da chiarire se quella scuola sia stata designata come obiettivo militare a causa di un errore di calcolo effettuato da un’Intelligenza artificiale. Nessun commento ufficiale è stato rilasciato. Nessuna conferma. Tuttavia, una certezza esiste.

In Iran si sta svolgendo la prima guerra “Ai-first” mai combattuta. Un cambiamento storico. È avvenuto molto prima di quanto si potesse prevedere. Ora l’IA è presente ovunque. Dalla pianificazione degli attacchi alla propaganda. Dai droni militari alle immagini di guerra che sono diventate contenuti virali sui social media. Bombe e Macarena.

L’IA non indossa l’elmetto ma pianifica, organizza,

Adesso è evidente. Chi credeva che l’IA avrebbe assunto il ruolo di protagonista nelle guerre future sotto forma di robot assassini o droni inafferrabili si sbagliava. L’IA in guerra non indossa l’elmetto. Analizza dati, esamina immagini satellitari, simula scenari, gestisce la logistica e pianifica gli attacchi. E lo fa a una velocità inimmaginabile per un essere umano. L’IA riduce i tempi di esecuzione delle operazioni militari. Identifica obiettivi. Lo fa con la freddezza matematica di un algoritmo. E con l’ingenuità di chi può confondere una scuola con un complesso militare.

L’operazione “Epic Fury” avviata dagli Stati Uniti contro l’Iran non sarebbe stata realizzabile senza l’impiego dell’Intelligenza artificiale. Non con quella intensità offensiva. 900 attacchi mirati solo nelle prime 12 ore dall’inizio dell’operazione. 3.000 nei primi tre giorni. Numeri inimmaginabili senza software. L’IA è entrata nel processo decisionale dei vertici militari. Lo ha fatto in vari modi. Se in passato un analista doveva visionare ore di video e leggere centinaia di report per identificare un obiettivo, oggi l’IA esegue analisi dei dati in tempo reale. È sufficiente porre una domanda e l’IA fornisce una risposta. Un militare può richiedere di localizzare tutti i sistemi anti aerei in una specifica area di una mappa e li ottiene con un semplice clic. L’IA è addestrata con ogni report, ogni aerea, ogni fonte di intelligence. È un po’ come utilizzare . Ma per uccidere.

La Kill chain della guerra: Palantir, Anthropic, Anduril

Sia gli Stati Uniti che Israele non hanno mai discusso apertamente di come stiano utilizzando l’IA nel conflitto in Iran. Tuttavia, basta osservare ciò che sta accadendo in questi giorni per avere un quadro piuttosto chiaro. Il Pentagono collabora con decine di aziende americane che sviluppano IA e missili intelligenti. Ognuna di queste è entrata a far parte del meccanismo della macchina militare statunitense.

La “Kill chain” è il termine utilizzato, la catena di attacco in una traduzione italiana decisamente meno aggressiva dell’originale. Alcuni esempi. Palantir, l’azienda fondata da Peter Thiel, icona della Silicon Valley repubblicana, è in qualche modo il sistema nervoso centrale di tutte le operazioni condotte con l’IA. Analizza dati, immagini satellitari, video di droni e intercettazioni in tempo reale. Palantir è l’infrastruttura che garantisce il funzionamento di tutto. Per farlo deve integrarsi con modelli di IA come Anthropic e OpenAi, che trasformano dati in decisioni, calcoli in linguaggio umano.

Claude, il modello di intelligenza artificiale sviluppato da Anthropic, è probabilmente quello utilizzato dagli Stati Uniti negli attacchi del 28 febbraio. È il motore che ha elaborato dati per classificare gli obiettivi suggerendo l’ordine di attacco. Questa questione è al centro di una grande controversia tra l’azienda e il Pentagono. I suoi contratti, infatti, erano stati recentemente annullati perché l’azienda si è opposta all’uso di Claude per la sorveglianza di massa interna e per sistemi d’arma autonomi capaci di uccidere senza intervento umano. Cosa che poi è effettivamente accaduta. Il Pentagono ha dichiarato Anthropic un pericolo per la sicurezza della catena di approvvigionamento militare americana.

Infradito, hawaiane e armi letali

Anthropic, guidata dall’italo-americano Dario Amodei, ha intentato causa contro il Pentagono. Tuttavia, altre aziende producono sensori militari. Missili intelligenti come quelli fabbricati a Long Beach, California, da Anduril. Il suo amministratore, Palmer Luckey, è uno dei simboli della conversione della Silicon Valley verso la ragione e la sicurezza. Con un’aria disinvolta da imprenditore tecnologico, camicia hawaiana e infradito di rito, è il capo di una delle aziende che produce le armi più letali al mondo. Il braccio armato delle riflessioni e dei calcoli delle altre aziende.

Sistema nervoso centrale, ragionamento, braccia. L’IA nella guerra americana è presente ovunque. In ogni fase. L’Iran e “Epic Fury” rappresentano la sua fase matura. Tuttavia, le prove generali gli Stati Uniti le hanno effettuate il mese scorso a Caracas. L’IA è stata l’architetto strategico della cattura di Nicolas Maduro. Anche in quel caso si sarebbe utilizzato Palantir con l’elaborazione di Anthropic. Questa combinazione ha orchestrato in tempo reale le manovre di 150 velivoli e l’infiltrazione dei militari in modo preciso, come riportano le cronache. Riducendo i tempi di pianificazione. Questo è ciò che fa l’IA.

Non cattura Maduro. Non bombarda l’Iran. Ma fornisce vantaggio informativo e rapidità di esecuzione. Informazioni. A una velocità senza precedenti in guerra. E qui si cela il più grande dei pericoli. Perché una mente umana non è in grado di gestire la quantità di informazioni generate dall’IA. In caso di pericolo imminente, il rischio maggiore è quello di affidarsi. Che nel dubbio si prema il pulsante perché lo ha suggerito la macchina. Un confine sottile. E ci troviamo già su quel confine. Il più pericoloso di tutti. Il rischio attuale non è tanto che la macchina diventi malvagia. Ma che l’uomo diventi indolente. L’IA non è solo uno strumento tattico. Ma rappresenta una sfida etica.

Il ruolo della Cina: tecnologia come fondamenta per la risposta iraniana

La velocità è il parametro attorno al quale ruota tutto. L’esercito israeliano è stato tra i pionieri nell’utilizzo dell’IA. Algoritmi analizzano dati e immagini per identificare minacce prima che si manifestino. Attraverso l’IA monitora aree sotto il suo controllo o interesse. La Silicon Wadi, l’ecosistema di startup tecnologiche israeliane, fornisce tecnologie militari all’avanguardia. L’impiego in ambito militare è analogo a quello adottato dagli Stati Uniti.

L’IA è uno strumento di calcolo. E in ambito militare il calcolo è fondamentale. L’Iran non può competere dal punto di vista tecnologico con i modelli americani e israeliani. Non può nemmeno accedere ai modelli più avanzati come Claude o ChatGpt. Tuttavia, ha una strategia. E questa passa per Pechino. Teheran utilizza modelli di IA liberamente accessibili online. Li adatta su hardware propri e li fa funzionare. Il ruolo della Cina è cruciale. A partire dallo scorso anno, gli iraniani sono riusciti a tornare sul mercato internazionale. E si sono rivolti alla Cina. Pechino ha fornito una rete digitale avanzata. Ha dato all’Iran la possibilità di utilizzare BeiDou, l’equivalente cinese del Gps (global positioning system, americano, il sistema satellitare che consente di calcolare posizioni precise di dispositivi, aerei e mezzi su scala globale).

Sono giunti i modelli di intelligenza artificiale aperta di DeepSeek e Qwen. La Cina da tempo esporta tecnologia e attrezzature militari a Teheran. Fornisce al regime le basi tecnologiche per difendersi. Su queste basi l’Iran costruisce droni e algoritmi d’attacco. Un sistema che sta dimostrando la sua efficacia. Sebbene a basso costo e assemblato in emergenza, regge. E gli ingegneri iraniani si sono dimostrati piuttosto abili nell’adattarsi. La breve storia dell’IA ha già dimostrato che il vantaggio competitivo ottenuto con un’innovazione dura poco. Tutto può cambiare da un momento all’altro. È necessario muoversi su più fronti. Compreso quello interno. E anche qui l’IA offre supporto.

Missili e Macarena. Sangue e Mortal Kombat

Poco dopo l’inizio del conflitto, i canali social delle principali istituzioni americane, inclusa la Casa Bianca, hanno iniziato a diffondere video virali delle operazioni militari in corso in Iran. Video autentici e artefatti assemblati, immagini generate dall’IA unite a quelle di guerra reale.

Sangue reale e pixel. Musiche leggere come la Macarena o colonne sonore di film d’azione come Mortal Kombat mescolate agli scoppi delle bombe. Video d’impatto, dal tono epico. Un messaggio con due obiettivi. Uno rivolto all’esterno, per intimidire. Uno all’interno, per rafforzare il consenso alle operazioni militari. Anche sul fronte comunicativo, l’IA sta svolgendo un ruolo. Più legato alla propaganda che alle battaglie sul campo. Ma comunque significativo in questa fase. Mai come in questa guerra si è assistito a una rete invasa di contenuti falsi generati dall’IA.

Creator da tutto il mondo stanno producendo video falsi che mostrano edifici in fiamme, come il Burj Khalifa di Dubai, o di Teheran bombardata a tappeto. Video falsi. Di eventi mai accaduti. Ma capaci di generare centinaia di milioni di visualizzazioni. Tutto è cambiato. E anche la comunicazione politica si è adattata. È difficile immaginare quale sarà l’effetto di questa costante mescolanza di piani. Realtà e finzione. Verità e propaganda. Un’altra sfida.

@arcangelo.rociola

I commenti sono chiusi.