Mentre il dibattito pubblico resta ipnotizzato dal fantasma della “bolla IA”, Paolo Benanti, in un recente intervento, sposta il fuoco dove fa davvero male: non sul rischio che la tecnologia fallisca, ma sul rischio opposto: che funzioni troppo bene, troppo in fretta, e costringa a riscrivere il contratto sociale prima ancora che ce ne accorgiamo.
Chi osserva da fuori può ancora parlare di hype.
Chi ha le mani in pasta da decenni vede altro: una continuità.
Dalle workstation Silicon Graphics degli anni ’90 alla CGI pionieristica, dalla trasformazione digitale ai Large Language Model, non stiamo assistendo a una rottura, ma all’ultima fase di un processo di esternalizzazione progressiva delle funzioni cognitive.
Non è la fine della competenza.
È la sua ricomposizione.
⟶ Continua a leggere l’analisi completa
La “calca” verso l’intelligenza agentica
Io questa traiettoria l’ho attraversata da dentro: nel 1995 lavoravo già nel digitale con workstation Silicon Graphics e CGI 3D, e nel programma Umanesimo & Tecnologia studiavo il dialogo operativo tra pensiero analogico umanistico e creatività tecnico-digitale. Oggi lavoro da anni con gli LLM: per questo, più che una rottura, vedo una continuità che accelera.
Paolo Benanti coglie un punto essenziale: mentre molti discutono di bolla speculativa, l’evidenza mostra una corsa strutturale all’integrazione dell’IA nei processi produttivi.
Non è più sperimentazione.
È infrastruttura.
Chi lavora quotidianamente con sistemi generativi sa bene che il cambiamento non è solo quantitativo ma qualitativo: non stiamo automatizzando solo compiti, ma parti del processo cognitivo.
Eppure, per chi ha attraversato davvero la storia del digitale, questa accelerazione non appare come un evento isolato.
Appare come la prosecuzione di una traiettoria lunga.
Questa lettura nasce da un percorso iniziato negli anni ’90 con il programma Umanesimo & Tecnologia, laboratorio di ricerca applicata sul passaggio dal pensiero analogico alla cultura digitale, e proseguito oggi nella riflessione su Umanesimo & Tecnologia 2.0, dove la questione diventa esplicitamente quella della mediazione tra codice, società e senso.
- L’IA non è un evento isolato ma una traiettoria lunga
- Non elimina la competenza: la ricompone
- Il rischio principale è la polarizzazione del lavoro cognitivo
- Il successo tecnologico pone una sfida etica più del fallimento
- La conoscenza diventa capacità di orchestrazione
Le mani in pasta: cosa vede chi ha attraversato il digitale
Quando negli anni ’90 le workstation Silicon Graphics costavano quanto un appartamento e la CGI era un territorio senza automatismi, ogni immagine era il risultato di un dialogo diretto tra mente e macchina.
Poi sono arrivati gli strumenti, le interfacce, le pipeline.
Poi la trasformazione digitale dei processi.
Oggi i Large Language Model.
Guardata da dentro, la storia appare chiara:
- prima abbiamo digitalizzato la rappresentazione
- poi i processi
- oggi le funzioni cognitive
Non è una rottura. È una progressione.
Non sostituzione, ma ricomposizione del valore
Qui il dibattito pubblico spesso si inceppa.
La storia delle tecnologie cognitive mostra un pattern costante:
la stampa non ha eliminato gli studiosi → ha cambiato il loro ruolo
il CAD non ha eliminato gli ingegneri → ha alzato il livello medio
la CGI non ha eliminato gli artisti → li ha trasformati in registi di processo
L’IA sta facendo lo stesso.
Il rischio reale non è la scomparsa della competenza.
È la polarizzazione.
Pochi super-esperti con produttività amplificata.
Molti professionisti intermedi sotto pressione.
È un fenomeno già visibile.
Il collo di bottiglia della realtà fisica
Un altro passaggio lucido della riflessione di Benanti riguarda la materialità dell’IA.
Dietro l’apparente immaterialità del software ci sono energia, materie prime, infrastrutture.
Quando i grandi attori tecnologici chiedono gigawatt di potenza o garantiscono forniture strategiche di materiali, diventa evidente che l’intelligenza artificiale non è solo un fatto digitale: è un fatto industriale e geopolitico.
Questo ricorda una verità semplice: ogni rivoluzione cognitiva ha sempre un costo fisico.
Il vero rischio non è il fallimento ma il successo
Forse la frase più potente è proprio questa: la sfida etica non è che la tecnologia fallisca, ma che funzioni troppo bene.
Perché se la produttività cresce più velocemente della capacità sociale di adattamento, si apre una frattura.
Non tra uomo e macchina.
Ma tra chi sa lavorare con sistemi intelligenti e chi no.
È qui che si gioca il nuovo contratto sociale.
Dalla conoscenza come possesso alla conoscenza come orchestrazione
Se guardiamo in profondità, ciò che sta cambiando è il modo in cui attribuiamo valore al sapere.
Per secoli la conoscenza è stata accumulo.
Oggi diventa capacità di orchestrazione.
Non sapere tutto, ma saper dialogare con sistemi complessi.
Chi ha attraversato la storia del digitale riconosce questo passaggio come la naturale evoluzione di un processo iniziato molto prima dell’IA generativa.
Una continuità sotto la discontinuità
Il dibattito sull’intelligenza artificiale è spesso dominato dalla percezione della rottura.
Ma chi ha vissuto dall’interno le trasformazioni tecnologiche vede soprattutto la continuità: la progressiva esternalizzazione delle funzioni cognitive verso strumenti sempre più sofisticati.
In questo senso, l’IA non segna la fine di un percorso, ma la sua fase più avanzata finora visibile.
La domanda non è “l’IA ci toglierà lavoro?”.
La domanda è più scomoda: chi decide, e con quali criteri, dove finisce l’automazione e dove inizia la dignità?
Perché quando te ne accorgi da spettatore, di solito la partita è già iniziata.
Decimo Uomo
Lascia un commento