L’intelligenza artificiale smette di rispondere e comincia ad agire

Quando la macchina smette di limitarsi al linguaggio e comincia a entrare nell’azione, il problema non è più soltanto tecnico: diventa etico, culturale e politico.

Per molto tempo l’intelligenza artificiale è sembrata soprattutto una macchina che risponde. Oggi, invece, comincia ad agire.
Ed è questo il vero passaggio da capire: quando l’AI entra nei processi, coordina azioni e restringe il margine umano, il dual use non è più un’eccezione. Diventa la regola di sfondo. È qui che il problema smette di essere solo tecnico e diventa etico, culturale e politico.

⟶ Continua a leggere l’analisi completa


Per molto tempo abbiamo pensato l’intelligenza artificiale come una macchina che risponde. Una voce sofisticata. Un assistente più rapido. Un’interfaccia capace di scrivere, tradurre, riassumere, suggerire. Già questo, in realtà, bastava a cambiare parecchie delle nostre abitudini cognitive. Ma ciò che stiamo vedendo adesso è un altro passaggio, più delicato e forse anche più difficile da mettere a fuoco: l’intelligenza artificiale non si limita più a rispondere. Comincia ad agire. E da quel momento il dual use smette di essere un’ipotesi laterale. Comincia a diventare il paesaggio normale in cui questa tecnologia prende forma.

A rileggerlo oggi, mi accorgo che non è neppure la prima volta che provo a orientarmi dentro questo problema. Nove anni fa usavo l’immaginario di Skynet e Matrix non per indulgere alla fantascienza, ma per iniziare a interrogarmi sull’evoluzione possibile dell’intelligenza artificiale. Era un modo, forse ingenuo ma non inutile, per cercare di capire dove stavamo andando servendomi di immagini che la cultura pop aveva già messo a disposizione. Allora cercavo soprattutto di intuire una direzione. Oggi, dopo anni in cui l’AI è entrata sempre di più nell’esperienza concreta degli utenti, quel tema mi appare meno visionario e molto più vicino. Quello che allora prendeva la forma della macchina che sfugge, oggi si presenta in modo più sobrio e più concreto: nella delega crescente di funzioni percettive, valutative e operative a sistemi artificiali.

Qualche giorno fa, ragionando su droni, guerra e automazione, avevo provato a sostenere che non stiamo assistendo soltanto a un cambiamento di strumenti, ma a un cambiamento di grammatica. Oggi mi sembra che quel ragionamento vada spinto un poco più avanti. Perché quando l’intelligenza artificiale smette di essere una tecnologia della risposta e diventa una tecnologia dell’azione, il dual use non è più un’eccezione. Diventa la regola di sfondo.





BOX 1 — Che cosa si intende per AI agente

Non tutta l’intelligenza artificiale funziona allo stesso modo.

La forma di AI che il grande pubblico ha conosciuto per prima è soprattutto reattiva: riceve una richiesta e restituisce una risposta. Scrive un testo, riassume un documento, traduce, suggerisce.

Un’AI agente, invece, va un passo oltre. Non si limita a rispondere: è progettata per perseguire uno scopo attraverso una sequenza di azioni. Può osservare un contesto, valutare diverse possibilità, scegliere dei passaggi, usare strumenti, verificare il risultato ottenuto e correggere il proprio comportamento.

Detto in modo molto semplice: un sistema conversazionale ti dice cosa potresti fare; un sistema agente comincia a farlo.

È proprio questo passaggio – dalla risposta all’azione – che rende l’AI agente particolarmente rilevante sul piano strategico, etico e politico.


A prima vista può sembrare una differenza tecnica. In realtà cambia il posto pubblico della tecnologia. Finché una macchina suggerisce, descrive o propone, il filtro umano resta ancora abbastanza largo. Ma quando entra in una catena operativa, quando agisce dentro un processo che produce effetti reali, allora il suo ruolo cambia. Non è più soltanto un supporto cognitivo. Diventa parte della filiera che legge la realtà, la ordina e interviene su di essa.

Molti continuano a pensare il dual use in modo quasi meccanico: prima una tecnologia nascerebbe in ambito civile, poi verrebbe adattata a fini militari. Questo schema esiste ancora, certo. Ma con l’intelligenza artificiale la questione è più radicale. Un sistema capace di riconoscere pattern, interpretare dati in tempo reale, muoversi in autonomia e coordinare più passaggi può servire a monitorare un incendio o a guidare un soccorso. Ma la stessa architettura logica può essere impiegata per ricognizione offensiva, targeting o sorveglianza avanzata. Il punto non è che l’AI diventa dual use quando entra nel militare. Il punto è che comincia a mostrarsi apertamente come dual use nel momento in cui acquisisce capacità agentiche.

BOX 2 — Il caso Anthropic: quando il dual use diventa visibile

Un esempio recente aiuta a capire perché il tema non è più teorico. Anthropic ha annunciato Project Glasswing, un’iniziativa che consente a un gruppo ristretto di partner di testare Claude Mythos Preview in ambito di cybersicurezza difensiva. Nella documentazione ufficiale, Anthropic presenta il modello come il proprio sistema più capace finora in questo ambito e chiarisce che l’accesso è limitato, non aperto al pubblico generale.

Il punto interessante non è soltanto la potenza del modello. È il tipo di capacità che vengono messe in gioco: analisi del codice, ricerca di falle, individuazione di vulnerabilità, supporto operativo alla messa in sicurezza. Nel post tecnico pubblicato dal team di sicurezza di Anthropic si parla esplicitamente di test su vulnerabilità zero-day e di un possibile “watershed moment for security”, cioè di un momento di svolta per la cybersicurezza.

Tutte queste funzioni hanno un valore difensivo evidente, ma mostrano anche con chiarezza quanto sottile sia il confine tra protezione e possibile impiego offensivo. È proprio in casi come questo che il dual use smette di apparire come una possibilità astratta e si presenta, invece, come una condizione strutturale delle AI più avanzate.

Riferimenti essenziali: Anthropic, Project Glasswing; Anthropic Frontier Red Team, Claude Mythos Preview


Ma il punto non riguarda soltanto Anthropic. Nel caso delle AI agenti, questo carattere dual use non dipende soltanto dall’uso finale. Dipende già dal tipo di capacità che questi sistemi sviluppano: osservare un contesto, interpretare dati, scegliere passaggi, coordinare azioni, adattarsi a un ambiente, correggersi in base al risultato ottenuto. Sono capacità che possono servire a proteggere, soccorrere, monitorare, ottimizzare. Ma la stessa struttura logica può essere impiegata per sorvegliare, colpire, penetrare, inseguire, saturare il tempo decisionale umano.

È questo il punto decisivo: l’ambivalenza non arriva alla fine del processo, come una deviazione occasionale. È inscritta nella natura stessa della tecnologia, nel momento in cui questa passa dalla risposta all’azione.

Ed è proprio questo che una parte dell’opinione pubblica continua a non vedere. Ci si spaventa per l’immagine finale, quella più cinematografica: il robot armato, il drone killer, la macchina che decide da sola chi colpire. Ma la questione vera comincia molto prima. Comincia quando porzioni sempre più ampie della percezione, della classificazione e della valutazione del contesto vengono delegate a sistemi automatici. Quando la macchina non ha ancora premuto il grilletto, ma ha già selezionato ciò che conta, ordinato priorità, ristretto il margine del dubbio, accelerato il tempo della decisione. Non conta soltanto il momento in cui una macchina spara. Conta quanto mondo è già stato filtrato da una logica artificiale prima di quel momento.

È la stessa incomprensione che abbiamo visto affiorare nel dibattito sui sistemi d’arma autonomi. Anche lì, troppo spesso, la discussione si è fermata sull’immagine estrema della macchina che decide da sola chi uccidere. Ma la realtà è più sfumata. E proprio per questo, forse, più inquietante. L’autonomia può insinuarsi nella filiera molto prima del colpo finale: nell’acquisizione dei dati, nel riconoscimento degli oggetti, nella segnalazione delle anomalie, nella selezione dei bersagli, nella gestione degli sciami, nella compressione dei tempi umani.

A questo punto non siamo più davanti a una questione soltanto tecnica. Perché quando una macchina entra nell’azione, il problema prima o poi arriva lì: etica, responsabilità, politica. Più l’intelligenza artificiale si sposta dalla risposta all’azione, più diventa necessario preservare uno spazio umano di dubbio, di deviazione, di responsabilità.

Non basta dire che l’umano resta nel loop se tutto ciò che precede la decisione finale è già stato selezionato da una macchina. E non basta neppure rivendicare una supervisione astratta se il tempo della decisione è stato compresso fino al punto da trasformare l’intervento umano in una ratifica quasi automatica.





BOX 3 — “Human in the loop” basta davvero?

Nel dibattito sull’autonomia delle macchine si sente spesso ripetere una formula rassicurante: “l’umano resta nel loop”. In teoria significa che la decisione finale spetta comunque a una persona. Ma questa garanzia, da sola, non basta.

Se infatti tutto ciò che precede quella decisione è già stato selezionato, filtrato, ordinato e reso plausibile da una macchina, il controllo umano rischia di diventare più formale che sostanziale. Ancora di più quando il tempo della decisione viene compresso: in quei casi l’intervento umano può ridursi a una ratifica quasi automatica di ciò che il sistema ha già preparato.

Il punto, allora, non è solo chiedersi se l’uomo sia ancora “dentro” il processo. Il punto è capire con quale margine reale di dubbio, verifica e responsabilità riesca ancora a intervenire.

Per questo la presenza umana nel loop non coincide automaticamente con un controllo umano credibile.


Non a caso, anche nel pezzo dedicato a Geoffrey Hinton, il punto non era soltanto celebrare il padrino dell’intelligenza artificiale, ma soffermarsi sul suo doppio avvertimento: da un lato le possibilità immense di questi sistemi, dall’altro i rischi, inclusi quelli militari e quelli legati alla difficoltà di governare uno sviluppo che corre più veloce della nostra capacità politica di regolarlo. Anche da lì arriva, in fondo, la stessa domanda: come si conserva un controllo umano credibile mentre cresce la forza operativa delle macchine?

BOX 4 — Il Decimo Uomo: perché il dubbio umano conta di più adesso

Più l’intelligenza artificiale diventa capace di analizzare, organizzare e agire, più cresce il rischio che il processo decisionale appaia razionale e inevitabile solo perché è stato costruito da una macchina.

È qui che torna utile la figura del Decimo Uomo: colui che, proprio quando tutti i dati sembrano puntare nella stessa direzione, mantiene il compito di dubitare, deviare, mettere in discussione, cercare ciò che non è stato visto.

Non è un tema nuovo. In una mia precedente riflessione, Decimo Uomo: l’Intelligenza Artificiale e la Salvaguardia dell’Irrazionalità Umana, avevo già provato a mettere a fuoco questo nodo: l’idea che la macchina possa analizzare, suggerire e razionalizzare, ma che resti umana la responsabilità di sfidare il quadro, leggere ciò che manca e tenere aperto lo spazio della decisione critica.

Nel rapporto con l’AI questo significa una cosa molto concreta: più aumenta la capacità operativa della macchina, più diventa importante preservare uno spazio umano di critica reale. Non per nostalgia dell’errore, ma perché senza questo margine di attrito il rischio non è solo delegare efficienza. È delegare anche il senso del possibile, del plausibile e del giusto.

Il dubbio umano, in questo scenario, non è un difetto del sistema. È una delle sue ultime garanzie.


Ed è qui che tutto torna a essere culturale prima ancora che tecnico. Perché il vero digital divide, oggi, non consiste soltanto nel saper usare o non usare certi strumenti. Consiste nel capire o non capire che cosa quegli strumenti stanno diventando. Una parte rilevante del pubblico continua a pensare l’AI come una comodità evoluta, una scorciatoia per scrivere meglio o cercare più in fretta. E intanto, nei laboratori, nelle filiere strategiche, nella cybersicurezza, nella robotica, nei sistemi dual use, la stessa tecnologia si sta spostando verso l’azione delegata.

Quando sistemi di questo tipo si diffondono, non distribuiscono soltanto efficienza. Distribuiscono anche asimmetria. Danno vantaggio a chi li possiede, a chi sa integrarli, a chi può addestrarli e governarli. Espongono chi resta fuori. Modificano i rapporti di forza. Per questo l’AI agente non apre soltanto una nuova stagione dell’automazione. Apre una nuova stagione della potenza.

Ed è forse qui che il ritardo culturale rischia di farsi più pericoloso. Perché mentre la tecnologia cambia forma, una parte del dibattito pubblico continua a leggerla con categorie vecchie. Continua a immaginare l’intelligenza artificiale come una macchina che parla, mentre essa si prepara già a essere una macchina che opera. Continua a discutere di droni, cybersicurezza, sistemi autonomi e AI come se si trattasse di compartimenti separati, mentre in realtà queste linee si stanno ricongiungendo sotto i nostri occhi.

La questione, allora, non è che le macchine diventino all’improvviso troppo intelligenti. La questione è che noi continuiamo a pensarle con un vocabolario troppo vecchio. Così, mentre le immaginiamo ancora come strumenti che rispondono, esse iniziano già a collocarsi nel campo dell’azione. È lì che il dual use diventa evidente. Ed è lì che il ritardo culturale rischia di trasformarsi, ancora una volta, in vulnerabilità strategica.

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑