La guerra digitale e l’etica smarrita

Quando la velocità delle macchine supera la coscienza umana

C’è un momento, nelle guerre, in cui la tecnologia smette di essere un semplice strumento e diventa una trasformazione del modo stesso di combattere.
All’inizio sembra solo un supporto tecnico, qualcosa che aiuta a vedere meglio, a calcolare prima, a coordinare più rapidamente. Poi, quasi all’improvviso, cambia il ritmo della guerra. Ed è forse questo il punto che oggi merita di essere osservato con più attenzione: non tanto il fatto che l’intelligenza artificiale entri nel teatro bellico, quanto il fatto che stia entrando nel tempo della guerra, comprimendolo, accelerandolo, rendendolo sempre meno umano nella sua scansione decisionale.

Le ricostruzioni emerse nelle ultime ore raccontano che nella recente campagna contro l’Iran sistemi avanzati di analisi basati su AI sarebbero stati utilizzati per identificare, selezionare e prioritizzare centinaia di bersagli, contribuendo a sostenere una sequenza di attacchi impressionante per rapidità e volume.
Ma il punto non è soltanto quantitativo. Non è il numero degli obiettivi a colpire davvero. È il fatto che ciò che fino a ieri richiedeva giorni, settimane, catene di analisi, verifiche, comparazioni, oggi possa essere compresso in un tempo quasi reale.
Il sistema Maven, sviluppato da Palantir, aggrega dati provenienti da satelliti, sensori, sorveglianza e intelligence; integrato con modelli generativi, può suggerire target, attribuire priorità, restituire coordinate, accelerare il lavoro di valutazione.
In altre parole, la macchina non sostituisce ancora del tutto il decisore, ma ne riduce drasticamente il tempo di riflessione. E quando in guerra il tempo si contrae, cambia anche la natura del potere.

Come l’intelligenza artificiale entra nel ciclo operativo della guerra

Negli ultimi anni diversi eserciti stanno integrando sistemi di intelligenza artificiale nei processi di analisi e pianificazione militare.

Uno degli esempi più avanzati è il sistema Maven, sviluppato per il Dipartimento della Difesa degli Stati Uniti.

Il sistema aggrega dati provenienti da numerose fonti:

  • satelliti
  • droni
  • sensori radar
  • sistemi di sorveglianza
  • intelligence elettronica e umana

Gli algoritmi analizzano queste informazioni per:

  • identificare obiettivi
  • riconoscere pattern operativi
  • suggerire possibili bersagli
  • stabilire priorità strategiche

In questo modo l’intelligenza artificiale accelera il ciclo decisionale militare noto come OODA Loop: osservare, orientarsi, decidere, agire.

Chi riesce a percorrere questo ciclo più velocemente dell’avversario ottiene un vantaggio strategico decisivo.

Nella teoria militare esiste da decenni un concetto semplice e micidiale: vince chi entra nel ciclo decisionale dell’avversario e lo percorre più velocemente. Osservare, orientarsi, decidere, agire. Il famoso OODA Loop.
Se l’intelligenza artificiale consente a uno Stato di completare questo ciclo alla velocità delle macchine, mentre l’avversario resta ancora vincolato ai tempi biologici, burocratici e cognitivi dell’umano, allora non siamo davanti a un semplice upgrade tecnologico. Siamo davanti a un mutamento di fase. È un po’ ciò che accadde quando, nella guerra di trincea, apparve il carro armato. Non vinse da solo il conflitto, ma rese improvvisamente obsoleto un equilibrio che sembrava immobile. Ogni epoca ha il suo carro armato. Il nostro, probabilmente, non ha cingoli. Ha algoritmi.

Ma la trasformazione non riguarda solo la velocità. Riguarda anche l’economia della guerra.
Negli ultimi anni, da Ucraina al Mar Rosso, fino al Golfo, abbiamo visto crescere una dinamica sempre più evidente: l’asimmetria dei costi. Armi relativamente economiche, droni low cost, sciami, vettori d’attacco accessibili, costringono sistemi difensivi immensamente più costosi a intervenire.
Un drone che costa poche migliaia di dollari può obbligare a lanciare intercettori da centinaia di migliaia o milioni. È una sproporzione che logora, usura, dissangua.
E se a questa asimmetria materiale si aggiunge una nuova asimmetria cognitiva, cioè la capacità di un attore di processare il campo di battaglia più rapidamente grazie all’AI, allora il problema si fa ancora più serio.
Perché la guerra non diventa solo più veloce. Diventa più sbilanciata. Più imprevedibile. Più difficile da contenere dentro i vecchi parametri della deterrenza.

Il paradosso etico della guerra accelerata

Il problema etico dell’intelligenza artificiale in guerra non riguarda soltanto le armi autonome.

Riguarda soprattutto la velocità del sistema decisionale.

Perché una decisione etica sia possibile servono almeno tre condizioni:

  • tempo per riflettere
  • responsabilità chiaramente attribuibile
  • possibilità di valutare le conseguenze

L’integrazione dell’AI nei sistemi militari rischia di erodere tutte e tre.

Quando decisioni e analisi sono distribuite tra algoritmi, analisti, operatori e comandanti, la responsabilità si diluisce e la guerra viene sempre più mediata da modelli, mappe digitali e interfacce informatiche.

Il paradosso è che l’intelligenza artificiale può rendere la guerra più precisa tecnicamente, ma allo stesso tempo più distante moralmente.

Quando la velocità operativa supera la velocità della coscienza umana, l’etica non scompare: diventa semplicemente più difficile da esercitare.

Qui entra in gioco il vero paradosso.
Più cresce la quantità di dati, più si diffonde l’illusione che cresca anche la chiarezza.
Ma la guerra non è un foglio Excel. Non è una dashboard. Non è un videogame, anche se certe interfacce sembrano ormai suggerire proprio questo immaginario.
Clausewitz parlava di nebbia della guerra ( fog of war) per descrivere l’incertezza strutturale del conflitto, l’impossibilità di vedere davvero tutto, di sapere davvero tutto, di controllare davvero tutto. L’intelligenza artificiale promette di diradare quella nebbia.
In parte lo fa. Ma nello stesso tempo rischia di renderla più insidiosa, perché la velocità dell’elaborazione può produrre una nuova forma di opacità: non quella della mancanza di informazioni, ma quella dell’eccesso di fiducia nella macchina.
E quando il decisore umano inizia a fidarsi troppo della sintesi algoritmica, il rischio non è solo l’errore tecnico. È l’errore ontologico: scambiare il modello per la realtà, la correlazione per comprensione, la probabilità per verità.

Per questo il nodo non è semplicemente tecnologico. È politico, etico, perfino antropologico.
Quando si dice che “l’uomo deve restare nel loop”, si enuncia un principio giusto ma sempre più fragile. Perché se la velocità diventa essa stessa arma, il decisore sarà spinto inevitabilmente a delegare sempre di più.
Non per ideologia, ma per necessità operativa. La macchina vede prima, suggerisce prima, calcola prima, avverte prima. L’umano rischia così di restare formalmente sovrano ma sostanzialmente trascinato dal ritmo della macchina. E questo è forse il passaggio più delicato: non la sostituzione dell’uomo, ma la sua subordinazione temporale.

Alla fine, la vera lezione non riguarda soltanto l’Iran né questa specifica campagna militare.
Riguarda il futuro del conflitto.
Riguarda il fatto che la guerra, come spesso accade, stia anticipando ciò che poi diventerà paradigma più generale.
Prima arrivano i laboratori militari, poi arrivano le dottrine, poi arrivano le normalizzazioni culturali. E così, quasi senza accorgercene, ci ritroviamo dentro una soglia storica in cui l’intelligenza artificiale non è più soltanto uno strumento di supporto, ma un acceleratore del fuoco, del comando, della selezione, della priorità, della risposta.

Forse è qui che torna utile Sun Tzu, quando scriveva che la suprema arte della guerra consiste nel piegare il nemico senza combattere.
Oggi quella massima suona diversa, perché piegare il nemico significa anche entrare nel suo tempo, superarlo, saturarlo, costringerlo a reagire in ritardo. L’AI, sotto questo profilo, non è solo una nuova tecnologia. È una nuova forma di vantaggio strategico. Ma proprio per questo impone una domanda inquietante: cosa accade quando la guerra corre più veloce della coscienza di chi la combatte?

La risposta, forse, è già davanti ai nostri occhi. La nebbia della guerra non scompare. Cambia forma. Non è più soltanto il buio dell’incertezza. Può diventare anche l’abbaglio della troppa velocità.
E quando accade, il rischio più grande non è che le macchine prendano il posto dell’uomo.
È che l’uomo continui a premere il pulsante senza avere più il tempo interiore per capire davvero che cosa sta facendo.


Questa riflessione fa parte della categoria “Nuove dimensioni della sicurezza & difesa, uno spazio di riflessione dedicato alle trasformazioni del conflitto nel XXI secolo. Dalla guerra algoritmica all’asimmetria dei costi tra attacco e difesa, dall’uso dei droni alle implicazioni etiche dell’intelligenza artificiale nei processi decisionali militari, questi contributi cercano di leggere i segnali di un cambiamento profondo: quello di una sicurezza sempre più intrecciata con la tecnologia, la velocità dell’informazione e la capacità di interpretare scenari complessi. Chi vuole approfondire queste dinamiche può esplorare gli altri articoli della categoria, dove queste trasformazioni vengono analizzate da prospettive storiche, strategiche e culturali.
https://vittoriodublinoblog.org/category/nuove-dimensioni-sicurezza-difesa/

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑