Ascoltando Mariarosaria Taddeo mi è sembrato chiaro che il punto non fosse soltanto la guerra, ma il modo in cui la guerra sta cambiando forma sotto i nostri occhi.
Oggi il conflitto non passa solo dai missili o dai bombardamenti. Passa anche dai dati, dagli algoritmi, dai droni, dai sistemi di selezione dei bersagli, dalle immagini che vediamo e da quelle che non riusciamo più a distinguere del tutto dal falso. Il drone, in questo scenario, è solo la punta visibile di una trasformazione più ampia.
È qui che ritorna anche il tema del Dual Use che ho affrontato in altri pezzi. Perché le stesse tecnologie che possono servire a monitorare un territorio, coordinare soccorsi o proteggere popolazioni, possono anche essere impiegate per controllare, colpire, destabilizzare. Il confine tra civile e militare, nel mondo connesso, è sempre più poroso.
Ma c’è di più. Come avevo già intuito parlando dell’Ucraina come laboratorio e dell’armamento sbagliato, il salto in corso non riguarda solo le armi. Riguarda il sistema che le connette, le reti che le guidano e l’ambiente informativo che le rende efficaci.
E proprio mentre cresce l’automazione, torna centrale anche il fattore umano: la mente, il giudizio, la capacità di interpretare il contesto. La domanda allora non è solo quali armi useremo. La domanda è che cosa accade quando i sistemi automatici, sostenuti dall’AI, non si limitano più ad assistere l’azione, ma iniziano a strutturare il modo stesso in cui il bersaglio viene visto, selezionato e colpito. È lì che la guerra cambia grammatica: quando la distanza tecnologica rischia di trasformare il giudizio in ratifica e la responsabilità in procedura.
⟶ Continua a leggere: la trasformazione informazionale del conflitto
C’è un’immagine storica che aiuta a capire il presente. Nella Prima guerra mondiale il carro armato spezzò un equilibrio: superò la trincea, incrinò la staticità del fronte e rese improvvisamente vecchie dottrine militari che fino a poco prima sembravano ancora valide. Oggi, però, il salto non sembra più incarnato da un singolo mezzo rivoluzionario. Nel conflitto russo-ucraino, e ora anche nell’evoluzione del confronto con l’Iran, ciò che emerge è qualcosa di diverso. Non un’arma sola che cambia la guerra, ma un ecosistema di sistemi fatto di droni in massa, sensori diffusi, guerra elettronica, reti di dati, attacchi di precisione, adattamento rapidissimo e pressione infrastrutturale.
In fondo, questa trasformazione l’avevo già intravista leggendo l’Ucraina come laboratorio: non più una guerra fatta soltanto di piattaforme, ma un ambiente sperimentale in cui nuove tecnologie, nuove dottrine e nuove vulnerabilità prendevano forma sotto pressione. Lì si vedeva già che la sesta generazione non sarebbe stata semplicemente un nuovo mezzo, ma un sistema di sistemi. E si intravedeva già anche un’altra cosa: che il digitale non era solo un moltiplicatore di potenza, ma anche una fragilità strutturale.
Se la guerra in Ucraina ha mostrato il salto, il conflitto con l’Iran ne sta offrendo una conferma ulteriore. Il drone non è più soltanto un supporto tattico. Diventa strumento di saturazione, logoramento economico, pressione psicologica, minaccia marittima e coercizione infrastrutturale. Non è più solo una piattaforma: è parte di una grammatica del conflitto che unisce costo ridotto, ripetizione, adattabilità, visione persistente e pressione sulle soglie di tenuta dell’avversario.
Per questo il paragone con il 1917 va maneggiato con attenzione. Allora un nuovo mezzo ruppe la staticità del fronte. Oggi, paradossalmente, il nuovo sistema tecnico tende spesso a produrre una nuova staticità sorvegliata: un campo di battaglia quasi trasparente, osservato dall’alto e dallo spettro elettromagnetico, dove concentrare forze, far avanzare mezzi pesanti o nascondere logistica diventa sempre più difficile. Non è la fine del carro armato in assoluto. È però la fine dell’illusione che il carro armato basti ancora da solo come chiave della manovra.
Era già il segnale di ciò che avevo definito l’armamento sbagliato: continuare a pensare alla guerra come se il centro del problema fosse ancora soltanto la piattaforma visibile, mentre il conflitto reale si stava già spostando nelle reti, nei dati, nello spettro elettromagnetico, nelle infrastrutture e nella fiducia. Continuiamo spesso a prepararci contro la guerra che vediamo, mentre la guerra che conta di più ha già imparato a passare attraverso ciò che connette, alimenta, coordina e rende possibile la vita ordinaria delle società complesse.
È qui che la riflessione di Mariarosaria Taddeo diventa particolarmente utile. Nei suoi lavori, la guerra informazionale non coincide semplicemente con la cyberwar in senso stretto. Non è solo malware, hackeraggio o sabotaggio digitale. È qualcosa di più ampio: un ambiente in cui cyber attacchi, armi robotiche o semi-autonome, sistemi di comando e controllo, superiorità informativa e gestione dei flussi comunicativi appartengono alla stessa trasformazione. In altre parole, l’informazione non è un accessorio della guerra: ne diventa il mezzo, il bersaglio, l’ambiente e, sempre più spesso, la condizione stessa di possibilità.
Taddeo definisce questa trasformazione con una parola decisiva: trasversale.
La guerra informazionale, nella sua formulazione più ampia, è l’uso delle tecnologie dell’informazione e della comunicazione per intrudere, disturbare o controllare le risorse dell’avversario; ma, nel suo sviluppo più maturo, essa finisce per ridefinire la guerra come fenomeno trasversale rispetto all’ambiente in cui si svolge, ai mezzi che impiega, allo statuto degli agenti coinvolti e persino alla natura dei bersagli. È trasversale perché attraversa il fisico e il non fisico, il militare e il civile, l’umano e il macchinico, la distruzione materiale e la perturbazione sistemica.
Questa parola, trasversale, spiega più di tante etichette ciò che sta accadendo.
La guerra contemporanea non si muove più soltanto da un esercito a un altro esercito, da un corpo armato a un altro corpo armato. Può partire da una rete e produrre effetti sul terreno. Può usare sensori, software, immagini, classificazioni automatiche, piattaforme digitali, profili di target e poi tradursi in un colpo reale. Può restare “soft” solo in apparenza e tuttavia destabilizzare in profondità una società. Può perfino colpire senza sembrare, a prima vista, guerra.
In questo scenario il drone è soltanto la parte più visibile di una filiera molto più complessa. È l’oggetto simbolico che vediamo, ma dietro c’è un’intera infrastruttura di raccolta dati, trasmissione, coordinamento, visione, targeting, analisi, catena di comando e decisione. Ed è proprio qui che il discorso si fa più delicato. Perché, se la guerra si appoggia sempre di più su procedure tecniche, interfacce, feed, mappe, immagini e tempi di validazione compressi, allora il confine tra decisione morale e procedura operativa rischia di assottigliarsi.
Qui il punto non è tecnofobico. Nessuno sostiene seriamente che la tecnica in sé sia il male. Il punto è un altro: la decisione di ingaggiare un bersaglio non è una decisione solo tecnica. È una decisione che implica responsabilità, giudizio, valutazione del rischio, distinzione tra legittimo e illegittimo.
Nei lavori di Mariarosaria Taddeo il lessico non è ancora quello, oggi molto diffuso, dell’“AI warfare” in senso stretto. Ma il nodo teorico è già chiarissimo. Già in Information Warfare: A Philosophical Perspective e poi in Just Information Warfare, la filosofa mostra che la guerra informazionale non riguarda soltanto cyber attacchi o sabotaggi digitali, ma anche sistemi robotici o semi-autonomi capaci di raccogliere, elaborare e utilizzare informazione dentro la filiera operativa del conflitto.
Il punto decisivo, allora, non è immaginare una macchina che “decide da sola” in senso cinematografico. Il punto è più sottile, e proprio per questo più insidioso: la guerra cambia già quando i sistemi automatici entrano nella catena che porta all’ingaggio, cioè quando osservano, classificano, segnalano anomalie, ordinano priorità, suggeriscono un target o accelerano il processo di validazione. Anche le armi semi-autonome operano attraverso la raccolta e l’elaborazione dell’informazione, ed è proprio questo che le colloca pienamente dentro la trasformazione informazionale del conflitto.
In questo scenario, la formula “uomo nel loop” può diventare rassicurante solo in apparenza. Perché la presenza dell’essere umano non coincide automaticamente con un controllo umano effettivo. Se il sistema ha già filtrato il campo visivo, selezionato le opzioni rilevanti e compresso il tempo della decisione, il rischio è che il giudizio si riduca a una ratifica rapida di un processo già strutturato dalla macchina.
È qui che il problema smette di essere soltanto tecnico. Diventa morale, giuridico e politico. Anche da una prospettiva attenta al DIU, il nodo non riguarda solo chi colpisce, ma come si costruisce la possibilità stessa del colpo: come vengono distribuite la responsabilità, la trasparenza e perfino la percezione del danno. E cambia anche il modo in cui il bersaglio viene visto: non più solo come presenza concreta in un contesto umano, ma come esito di una catena di dati, correlazioni, soglie di rischio e criteri automatici.
Per questo la questione non è soltanto se l’AI possa essere usata in guerra. La questione è quale spazio reale resti al giudizio umano quando i sistemi automatici iniziano a strutturare il modo stesso in cui il bersaglio viene individuato, selezionato e reso colpibile.
E tuttavia, proprio mentre cresce la filiera automatizzata del targeting, non scompare il fattore umano. Rientra da un’altra porta: quella della percezione, dell’interpretazione, della cultura strategica, della capacità di leggere il contesto oltre il dato. Perché anche in una guerra che parla sempre più il linguaggio dei droni e degli algoritmi, il vero punto critico resta ancora la mente umana. È una soglia che avevo già provato a mettere a fuoco altrove: il problema non è soltanto quanto la macchina sappia fare, ma quanto l’essere umano sappia ancora comprendere ciò che sta delegando, interpretare il contesto e assumersi il peso della decisione.
Non a caso la stessa Taddeo sostiene che la tradizione della Just War Theory resta necessaria ma non più sufficiente: il quadro etico costruito per guerre pensate come sanguinarie, fisiche e territorialmente leggibili fatica a misurarsi con un conflitto che colpisce anche database, reti, sistemi di controllo, infrastrutture informative e ambienti non fisici. Per questo, secondo lei, occorre integrarla con una riflessione etica capace di prendere sul serio il nuovo statuto dell’informazione, dei sistemi artificiali e delle infrastrutture connesse.
Su questo punto Taddeo non è sola. Le riflessioni più recenti sul controllo umano significativo, sulle armi autonome e sulla responsabilità mostrano tutte una stessa inquietudine: quando i sistemi automatici entrano nella filiera della visione, della selezione e dell’ingaggio, la questione non è più soltanto cosa la macchina sappia fare, ma quale spazio reale resti al giudizio umano, alla trasparenza della decisione e alla responsabilità politica, morale e giuridica del colpo.
Ed è qui che ritorna, con piena pertinenza, il tema che ho già elaborato altrove: il Dual Use.
Perché ciò che Taddeo chiama “sfumatura del confine tra civile e militare” è molto vicino, sul piano sostanziale, al paradigma del Dual Use. Non nel senso banale per cui una tecnologia può avere due usi. Ma nel senso più profondo per cui, nella società connessa, il confine tra infrastruttura civile e funzione strategica tende a farsi strutturalmente poroso. Le stesse reti, gli stessi sensori, gli stessi software, gli stessi sistemi di visione, gli stessi droni, gli stessi ambienti immersivi e gli stessi modelli di coordinamento possono servire alla protezione civile oppure al targeting, al monitoraggio territoriale oppure alla selezione di bersagli, alla prevenzione dei rischi oppure alla pressione strategica.
Nel conflitto con l’Iran questa dinamica appare in modo ancora più visibile. I droni non colpiscono solo basi o piattaforme militari: si muovono contro traffici marittimi, rotte energetiche, navi commerciali, nodi petroliferi e infrastrutture civili essenziali. In altre parole, il fronte entra sempre di più nella vita ordinaria delle società complesse. Non resta confinato al teatro visibile della battaglia: si estende a ciò che alimenta, connette e rende vivibile un sistema.
È qui che il Dual Use smette di essere una categoria tecnico-industriale e diventa un sintomo culturale. Rivela che la tecnologia, da sola, non possiede una destinazione morale univoca. Il suo senso dipende dalla filiera in cui viene inserita, dalla governance che la regola, dal controllo umano che la accompagna, dalla finalità politica che la orienta. Per questo la guerra informazionale non è solo un problema di armamenti. È un problema di civiltà tecnica.
Forse, allora, la questione vera non è se la guerra del futuro sarà fatta di droni, algoritmi e cyberattacchi. In parte lo è già. La questione è se sapremo riconoscere in tempo che il conflitto si è già spostato anche dentro ciò che usiamo ogni giorno per vivere, comunicare, coordinarci, proteggerci e persino immaginare il mondo. Perché quando la guerra entra nelle infrastrutture dell’ordinario, la differenza tra guerra di ieri e guerra di oggi non scompare, ma cambia grammatica. Non si tratta più solo di muovere uomini e mezzi sul terreno. Si tratta di vedere, collegare, selezionare, saturare, interrompere, disinformare, orientare.
Ed è lì che dovremmo fermarci a pensare. Prima che la distanza dallo schermo ci faccia credere che anche la responsabilità, come il bersaglio, sia diventata remota.
Lascia un commento