… quando la disinformazione si fa virale nella “memetic warfare“
C’è una scena in Homeland - Caccia alla Spia (sesta stagione, episodio sei: il cui tema portante è la disinformazione) che sembra più un atto istruttorio che una sceneggiatura.
Un tecnico della DARPA, volto anonimo e sguardo asciutto, siede davanti a Saul Berenson, vicedirettore della CIA, leggenda vivente dell’intelligence umana (in gergo Humint) .
Con voce neutra, senza teatralità, Clint illustra il funzionamento di un sistema per la diffusione di contenuti virali. Spiega come sia sufficiente attivare settantacinque bot, con l’aggiunta calibrata di alcuni account reali, per far sì che un meme venga intercettato dall’algoritmo delle piattaforme social e amplificato fino a diventare visibile, credibile, condiviso. Il cuore del trucco non è il contenuto in sé, ma la capacità di farlo apparire come qualcosa di scoperto spontaneamente, come se fosse l’opinione naturale di una comunità. “La gente ci crede perché sembra arrivare da loro”, dice. Ed è lì che si accende la scintilla narrativa.
Ma il vero protagonista, in quella scena, non è Clint. È Saul, nominato consigliere per la sicurezza nazionale. Uomo di spie e di codici morali, sopravvissuto alla Guerra Fredda e a innumerevoli equilibri geopolitici, Saul è l’incarnazione dell’intelligence classica: quella che si fonda sull’interazione diretta, sull’empatia strategica, sulla profondità culturale. È l’uomo che legge i gesti, che conosce il prezzo del silenzio, che ha appreso a distinguere la verità nella voce di un dissidente sotto torchio. Eppure, in quella stanza, Saul resta in silenzio. Non perché non capisca, ma perché capisce troppo bene. Capisce che sta guardando qualcosa che non padroneggia. L’arma non è più una microspia né un agente sotto copertura, ma un contenuto digitale che attraversa le menti senza essere fermato da nessun checkpoint logico. E Clint non è un genio del male, è semplicemente un tecnico. Uno che conosce gli algoritmi meglio dei sentimenti. Ma che sa perfettamente come indurre l’uno usando l’altro. In quel momento, Saul Berenson è l’immagine plastica del digital divide culturale nella sua forma più tragica: non l’ignoranza, ma la distanza.
La distanza tra ciò che si conosce e ciò che ormai agisce in modo invisibile, pervasivo, strutturale.
Quella scena non è una finzione. O, se lo è, è costruita sulla base di un impianto realistico che prende forma in un documento reale: il Memetics Compendium, sviluppato per il Dipartimento della Difesa degli Stati Uniti. È lì che la memetica diventa disciplina operativa. Quel meme che scorre su uno schermo, ripetuto da un bot e poi da un amico, non è solo un contenuto. È un’arma cognitiva, parte di una strategia di guerra che ha radici antiche ma strumenti nuovi: le PSYOPS, operazioni psicologiche, che vengono usate per influenzare il morale del nemico, orientare la percezione dei civili, creare consenso o disordine. Ma oggi non si usano più volantini lanciati da aerei né voci trasmesse in onde corte. Oggi le PSYOPS sono algoritmiche, silenziose, perfettamente mimetizzate nel nostro flusso quotidiano di contenuti. E i meme, opportunamente ingegnerizzati, sono le unità semiotiche che le rendono possibili.
Non colpiscono il corpo: abitano la mente.
Non più teoria evolutiva dell’informazione, ma architettura strategica dell’influenza.
I meme, definiti come agenti cognitivi replicanti, non sono più elementi folklorici della cultura di internet, ma schegge virali progettate per infettare sistemi narrativi. La loro efficacia non si misura in verità, ma in persistenza, propagazione e impatto. Un meme che resta, si diffonde e induce un cambiamento comportamentale è un meme di successo. Anche se è falso. Anche se è tossico.
Anzi: spesso lo è proprio perché lo è.
Come si crea un meme virale (e artificiale)
Non serve una folla. Serve un’illusione.
Clint (DARPA): “Usi circa settantacinque bot… account falsi. Li combini con alcuni account reali. Inietti artificialmente il contenuto affinché inizi a diventare di tendenza. Una volta che l’algoritmo lo intercetta, gli account reali lo amplificano: e sembra tutto organico.”
Saul Berenson (Capo sicurezza nazionale): “Quindi puoi controllare cosa diventa una notizia.”
Clint: “Fai credere alla gente di averlo scoperto da sola. Sembra spontaneo, ma è tutto ingegnerizzato.”
Nel dialogo tra Clint (DARPA) e Saul (in Homeland, S6E6), viene spiegato con cinica semplicità il funzionamento di una strategia memetica artificiale.
Ecco il meccanismo:

- Iniezione controllata
Si seleziona un contenuto, immagine, frase, slogan, progettato per colpire un’emozione precisa (indignazione, paura, sarcasmo, identificazione).
Questo contenuto viene “iniettato” nel sistema attraverso un numero selezionato di bot, ovvero account automatici coordinati per rilanciare lo stesso meme nello stesso intervallo temporale. - Amplificazione mascherata
Alcuni account reali (umani), già sensibili al tema o infiltrati nella strategia, lo rilanciano. Questo passaggio è cruciale: l’algoritmo della piattaforma percepisce una combinazione tra interazioni organiche e traffico intenso, e lo interpreta come contenuto “interessante”. - Segnalazione all’algoritmo
Il sistema automatico di ranking (Facebook, Twitter/X, Instagram, TikTok…) rileva il picco improvviso di attenzione e lo promuove nei feed di utenti simili. Il contenuto diventa “trend”. A questo punto, la macchina virale è in moto. - Replica virale e polarizzazione
Le persone lo vedono, lo condividono, ne discutono. Non perché sia vero, ma perché è già “ovunque”.
La percezione di popolarità diventa prova implicita di legittimità. - Effetto cognitivo
Il meme si insinua come frammento d’opinione diffusa. Diventa parte della conversazione.
Alcuni iniziano a crederci, altri si indignano, altri ancora lo ripropongono con ironia.
Ma ogni interazione lo rafforza. E la realtà che rappresenta, anche se falsa, inizia a contare più della verità che sostituisce.
(riprodotto esclusivamente per usi didattici)
Nel mondo reale, come nella finzione di Homeland, non occorre una massa sterminata di follower. Bastano pochi nodi strategici: account pilotati da intelligenze artificiali, bot camuffati da utenti reali, e una finestra temporale di lancio accuratamente scelta. L’obiettivo è ingannare l’algoritmo: far credere che il contenuto sia popolare. A quel punto entra in funzione il meccanismo automatico di amplificazione. Il meme viene mostrato, rilanciato, diventa visibile a chi non l’ha cercato. L’utente, ignaro, non sa che sta guardando una simulazione di popolarità. E proprio per questo, lo accetta.
Il Compendium lo spiega con una precisione inquietante. Il meme efficace è un vettore semiotico adattivo: cambia forma, si mimetizza, sfrutta il contesto per sopravvivere. La sua struttura è modellata per attivare risposte emotive rapide: indignazione, ironia, paura, tribalismo. Gli esempi non mancano. Alcuni slogan, apparentemente spontanei, sono in realtà il prodotto di vere e proprie officine cognitive: contenuti progettati per insinuarsi in ambienti culturali fragili o polarizzati. Memi costruiti per dividere, per esasperare le percezioni, per disintegrare il terreno comune.
Il documento distingue tra meme simbiotici e parassiti. I primi sono idee che costruiscono, che aiutano a elaborare conoscenza, cooperazione, visione critica. I secondi sono progettati per manipolare, sfruttare vulnerabilità cognitive, ridurre il pensiero complesso a una reazione immediata. Non devono convincere: devono circolare.
E in questa dinamica, l’algoritmo, che non ha etica, ma solo logica di engagement, diventa alleato involontario dei contenuti peggiori.
Il valore di quella scena di Homeland, e il motivo per cui torna utile oggi, è che non racconta semplicemente una tecnica. Racconta uno scarto generazionale e cognitivo. Racconta il momento in cui un’intera cultura strategica si rende conto di non essere più al centro del gioco. Gli analisti esperti, i veterani dell’intelligence analogica, si trovano davanti a un territorio nuovo dove non si combatte con la verità, ma con la verosimiglianza. Non si interroga un uomo: si interpreta un flusso. E il linguaggio della menzogna non è più quello del tradimento, ma quello del meme.
A questo punto, la questione non è più tecnica. È etica, educativa, culturale. Esiste un modo per difendersi da questa pervasività invisibile? Esiste una soglia oltre la quale possiamo riconoscere il contagio e non diventarne veicoli inconsapevoli? La risposta non è semplice, ma forse parte da una nuova forma di alfabetizzazione. Un’alfabetizzazione memetica che non insegni solo a “non condividere fake news”, ma a leggere la struttura del contenuto, a porsi la domanda più semplice e più pericolosa: perché questo contenuto mi ha colpito proprio adesso? Chi lo ha voluto? A chi giova?
Non esiste algoritmo neutro, come non esiste meme innocente. Ma esiste ancora forse la possibilità di essere testimoni consapevoli. Di vedere Clint per quello che è: non un villain, ma un nuovo tipo di architetto. Di riconoscere in Saul il nostro stesso smarrimento. E di scegliere, ogni volta che un meme ci attraversa, se diventare propagatori o anticorpi.
In fondo, il campo di battaglia è la mente. E la prima forma di resistenza nella cyberwarfare , attivata oramai da oriente ad occidente, è pensarci due volte.
Lascia un commento