Umanesimo & Tecnologia 2.0: chi media il codice?

Da intuizione a necessità,  il ritorno del Mediatore della Cultura Digitale

Più di due libri, un nuovo Papa e una consapevolezza coltivata da decenni.
Negli ultimi anni, filosofi, sociologi, informatici e attivisti hanno iniziato a riflettere, ciascuno dal proprio punto di osservazione, sull’impatto profondo degli algoritmi nella vita sociale. Cathy O’Neil, Evgeny Morozov, Luciano Floridi, David Beer: solo alcuni tra coloro che hanno acceso fari critici su una trasformazione ancora in corso.
Nel frattempo, un Papa appena eletto richiama con forza la Rerum Novarum, l’enciclica che a fine Ottocento affrontò il trauma sociale dell’industrializzazione.
Non è un richiamo simbolico: è un’allerta culturale.

Anche oggi, nel cuore della transizione algoritmica, si apre una nuova questione sociale.
E qualcuno, già vent’anni fa, ne aveva intravisto le premesse.
Con il programma Umanesimo & Tecnologia, introdotto con il supporto delle Istituzioni e dell’Università, proponemmo per la prima volta in Italia la figura del Mediatore della Cultura Digitale.
Allora il digital divide sembrava solo una questione di megabit. Ma già si intuiva che il vero problema sarebbe stato di senso: accompagnare la società nell’impatto crescente tra saperi umanistici e linguaggi digitali.

Il digital divide, già allora, non era soltanto un problema di accesso alla rete.
Era, e resta, una frattura di senso.

Intuivamo che il vero nodo non sarebbe stato tecnico, ma culturale.
Quella figura, visionaria e spesso incompresa, oggi rivela tutta la sua attualità.
Anzi: ciò che un tempo era utile, oggi è diventato indispensabile.
Questa nuova fase, che chiamiamo Umanesimo & Tecnologia 2.0, non è un aggiornamento del sistema: è una presa di posizione.
La transizione algoritmica, iniziata con i social, accelerata dall’intelligenza artificiale e già proiettata verso la computazione quantistica, impone l’urgenza di nuovi strumenti critici, narrativi e simbolici.

In questo scenario, il mediatore della cultura digitale diventa interprete del codice e custode del significato, affinché la potenza di calcolo non soppianti la profondità del senso.
Nel testo che segue, questa intuizione si fa di nuovo proposta.
Una proposta che rifiuta tanto le retoriche tecnofobiche quanto quelle tecnofile, per costruire un nuovo patto tra cittadinanza e automazione.
Un patto fondato non sulla nostalgia, ma sulla co-creazione del senso.

Perché la tecnologia, se resta muta, non emancipa: confonde.
E solo chi sa raccontarla può davvero governarla.



Perché un umanesimo algoritmico contro il digital divide culturale

Verso un nuovo patto tra senso, tecnica e cittadinanza

C’era un tempo in cui il digital divide si misurava in megabit. Bastava sapere chi era connesso e chi no, chi abitava un territorio coperto dalla fibra e chi restava ancorato all’ADSL. Ma oggi, in un’Italia dove quasi nove cittadini su dieci navigano da smartphone, il problema non è più il cavo: è il codice. O meglio, il senso del codice.

Secondo l’Istat, oltre il 40% degli italiani non sa spiegare come i social selezionino i contenuti del proprio feed. La logica della personalizzazione resta un mistero. Nelle scuole, appena un insegnante su tre si dichiara preparato a parlare di intelligenza artificiale, secondo i dati INDIRE 2023. Il paradosso è evidente: siamo immersi nei sistemi algoritmici, ma li attraversiamo da passeggeri ignari.

Ne deriva una nuova disuguaglianza, che non riguarda più l’accesso alla tecnologia, ma la sua comprensione. Un divario semiotico: chi conosce i codici può negoziarli, chi non li decifra li subisce. Così si indebolisce la partecipazione pubblica, e con essa la fiducia. Il cittadino connesso rischia di diventare uno spettatore muto.

L’algoritmo, di per sé, non è né buono né cattivo: è una forma di intenzione solidificata, come osserva Frank Pasquale. Ma quando l’intenzione è opaca, si genera una tirannia mite, fatta di automatismi silenziosi e gerarchie invisibili.

Un’intuizione che, forse non casualmente, troviamo anche nel pensiero di Rudolf Steiner, che nel 1917 metteva in guardia dal rischio di una scienza ridotta a potere esteriore, svuotata di spirito critico e trasformata in dogma: quasi a riecheggiare, da una prospettiva laica e spiritualista, le preoccupazioni sociali già espresse dalla Rerum Novarum.
Un monito che oggi prende forma nei filtri social che decidono cosa possiamo vedere, nei modelli predittivi applicati alla sanità, nei punteggi di credito che definiscono chi è “meritevole” di fiducia.

Emblematico il caso di COMPAS, software adottato nei tribunali statunitensi per valutare il rischio di recidiva. Ritenuto a lungo “neutrale”, ha mostrato bias sistemici che penalizzano soprattutto persone nere, come denunciato da un’inchiesta di ProPublica e successivamente analizzato da Cathy O’Neil in Weapons of Math Destruction.

Qui l’automazione non corregge l’ingiustizia: la amplifica. E la cristallizza in protocollo.

Abitare la tecnica, oggi, significa prima di tutto prendersene cura. Non adorare il codice né respingerlo, ma riconoscerlo come parte dell’ambiente umano. Un ambiente che deve essere aerato, reso leggibile e rimodellabile.

Non siamo di fronte a un mostro impersonale, ma a un’architettura sociale costruita su scelte, esclusioni, priorità. Come ricorda Evgeny Morozov, ogni tecnologia incarna una visione del mondo e porta con sé una promessa da interrogare.

È da qui che nasce la proposta di un umanesimo algoritmico.
Se il Rinascimento pose l’uomo al centro della prospettiva pittorica, oggi è tempo di rimettere la relazione e il senso al centro del codice. Non si tratta di umanizzare la macchina, ma di rium-anizzare l’interazione tra calcolo, simbolo e vita sociale.


Una visione antropologica per l’era algoritmica

Quella che qui si propone è una visione antropologica dell’umano nell’epoca degli algoritmi.
Una visione che non riduce l’identità a funzione o dato, ma la riconosce come spazio di convergenza tra razionalità, coscienza simbolica e apertura al sacro.

Nel lungo cammino della civiltà occidentale, il rapporto tra umanesimo, scienza e sacro è stato il cuore di una tensione creativa: a volte conflittuale, a volte feconda.
L’Umanesimo ha ridato centralità all’uomo; la scienza ne ha potenziato la capacità di conoscere, ma spesso ha alimentato l’illusione di poter ridurre tutto a calcolo, tutto a formula.
Eppure, il sacro, in senso laico o spirituale, non è scomparso.

Continua a riemergere ogni volta che l’essere umano si confronta con l’irriducibile: il mistero della coscienza, il senso dell’origine, la meraviglia di fronte all’infinito. Oggi, in un mondo governato da algoritmi, intelligenze artificiali e metriche, serve un nuovo paradigma. Non un ritorno nostalgico al passato, ma un salto di visione.
Un pensiero capace di tenere insieme intelligenza e significato, calcolo e coscienza, sapere e mistero.
Un umanesimo che non fugge la tecnica, ma ne custodisce il limite. Che non cerca risposte assolute, ma spazi di domanda. Che non separa il logos dal pathos, ma li mette in ascolto reciproco.

Chiamiamo questo orizzonte Umanesimo Algoritmico.

Non è la fusione tra umanesimo e tecnologia, ma la possibilità di riconciliare l’umano con il proprio potere creativo e simbolico in un tempo dominato dal codice.
Un umanesimo che riconosce la potenza della scienza, ma ne interroga i presupposti; che non elimina il sacro, ma lo riconosce come grammatica dell’invisibile; che riscopre nell’interdipendenza la cifra evolutiva dell’oggi.

In questa prospettiva, il Mediatore della Cultura Digitale diventa una figura chiave: non solo un facilitatore, ma uno strumento concreto di antropologia applicata per comprendere, decifrare e rinegoziare i significati della nostra vita digitale.
Un traduttore tra mondi: tra algoritmi e immaginari, tra codice e cultura, tra automazione e dignità.

Anche la fisica quantistica, con il suo rovesciamento del paradigma meccanicista, contribuisce a questo passaggio: ci mostra un universo di possibilità, relazioni, interferenze.
Non ci offre risposte teologiche in senso stretto, ma ci suggerisce intuizioni profonde, aprendo crepe epistemologiche: lì dove si fa spazio l’indeterminato, può riemergere il mistero.
Ed è forse proprio in questa instabilità feconda che si gioca il prossimo passo dell’evoluzione umana.:
non un’accelerazione, ma una riconciliazione.
Tra l’algoritmo e l’anima.


Una prospettiva condivisa anche da Luciano Floridi, che sottolinea la necessità di un’etica dell’intelligenza artificiale capace di tenere insieme efficienza e giustizia, funzionalità e responsabilità.
Per Floridi, ciò che conta non è solo cosa può fare una macchina, ma in quale ecosistema di senso la sua azione si inserisce.
È un’etica dell’informazione che riconosce l’umano non solo come utilizzatore della tecnologia, ma come agente morale immerso in una rete di relazioni ontologiche.

In questo nuovo sguardo critico, ogni algoritmo diventa una domanda: quale realtà costruisce? Quali alternative silenzia? Quali storie lascia ai margini della misurazione?
Le metriche non sono mai innocue: sono griglie che includono ed escludono, modellano la percezione del mondo.

Come ricordano Venturini e Munk nel loro lavoro sulla mappatura delle controversie, è fondamentale rendere visibili le dinamiche di potere e negoziazione che abitano le infrastrutture digitali.

Più che adattarsi al pensiero algoritmico, serve sviluppare una competenza critica che sappia metterne a fuoco le tensioni culturali e simboliche.
Lo mostra bene David Beer nel suo lavoro sull’algorithmic thinking, dove evidenzia come l’automazione non sia mai neutra, ma attraversata da conflitti profondi da esplorare, più che da accettare.


Nel suo libro The Tensions of Algorithmic Thinking: Automation, Intelligence, and the Politics of Knowing (Bristol University Press, 2023), David Beer ci invita a guardare oltre l’apparenza lineare e neutra delle tecnologie algoritmiche. Lontano dall’essere strumenti trasparenti e prevedibili, gli algoritmi sono in realtà attraversati da tensioni profonde: culturali, politiche, epistemologiche.
Beer costruisce la sua analisi attorno a due assi principali: la tensione tra umano e disumanizzazione, e quella tra conosciuto e ignoto. L’algoritmo, scrive, nasce spesso come tentativo di eliminare l’errore umano, di affidare la decisione a un’intelligenza oggettiva.
Ma l’umano non scompare: resta presente, spesso invisibile, nei dati, nelle architetture decisionali, nella progettazione stessa. È una presenza negata eppure costitutiva, tanto più problematica quanto più viene nascosta dietro la promessa di automazione totale. La seconda grande tensione riguarda invece la conoscenza. Le tecnologie algoritmiche – soprattutto quelle basate su machine learning – espandono il confine di ciò che è conoscibile. Riescono a individuare pattern, connessioni, previsioni che sfuggono alla mente umana. Tuttavia, proprio in questa espansione, generano nuove zone di opacità: conoscenze non spiegabili, decisioni automatiche non giustificabili, forme di sapere che rinunciano alla comprensione in nome dell’efficacia. A partire da questi due assi, Beer analizza diversi esempi concreti, dal blockchain nel mercato dell’arte alla fiducia automatizzata nella finanza, e mostra come le strategie di “controllo dell’automazione” (cioè la presenza calibrata di interventi umani per garantire fiducia) siano spesso parte integrante dell’architettura algoritmica. Il paradosso, allora, è che più automatizziamo, più dobbiamo fingere che l’umano sia ancora lì, attivo, presente. Ma il cuore del libro sta in una provocazione di fondo: che tipo di umano presuppongono queste tecnologie?
Chi è l’essere umano che può essere “superato”, sostituito, normalizzato dal codice? E chi resta invisibile – come le forme di lavoro umano che continuano a sostenere le infrastrutture dell’automazione? Beer propone infine di vedere l’automazione non come un destino inevitabile, ma come un processo aperto, costellato di scelte, soglie, ambivalenze. È nostro compito – etico e politico – rendere queste tensioni visibili, interrogarle pubblicamente, proporre alternative.
L’algoritmicità, dice, non è mai neutra: è una forma di pensiero, un modo di conoscere il mondo, e va trattata con la stessa cura critica che riserviamo alle forme più potenti della cultura


Per compiere questo salto serve una figura nuova: il mediatore della cultura digitale. Una figura ibrida, capace di muoversi tra dataset e metafore, tra intelligenza artificiale e intelligenza narrativa.
Non è un tecnico né un comunicatore generico: è un interprete, un facilitatore, un artigiano del senso.
È, per dirla con Simondon, colui che restituisce all’oggetto tecnico la sua dimensione relazionale, reinserendolo nel contesto culturale e simbolico da cui proviene.

È lui che può smontare, insieme agli studenti, il feed di un social network e spiegare passo per passo perché quel contenuto è apparso proprio lì.
È lui che può guidare una comunità in un audit simbolico, per analizzare l’impatto di un algoritmo sull’identità di un territorio.
È lui che può progettare canvas di cura algoritmica, strumenti visuali per aiutare cittadini, docenti e amministratori a comprendere, rimodellare, le logiche nascoste nei servizi digitali.

Il mediatore, in fondo, è un traduttore di immaginari.
Restituisce umanità alle tracce digitali. Fa emergere ciò che l’ottimizzazione cancella.
Tiene insieme il numero e il nome, il dato e la vita.

Per rendere questa trasformazione concreta, proponiamo un percorso operativo che parte dall’esperienza, non dalla teoria.
Una serie di moduli destinati a scuole, enti pubblici, terzo settore e piccole imprese: corsi brevi, incontri narrativi, comunità auto-organizzate, momenti pubblici di restituzione.
Ogni tappa è pensata per misurare, comprendere e, soprattutto, agire sulla propria relazione con la tecnologia.

Tutto può cominciare da un gesto semplice: cinque domande per una prima autodiagnosi, una presa di coscienza sulla propria salute algoritmica.
Da lì, la proposta: chiamare un mediatore, attivare un laboratorio, creare uno spazio dove il codice non sia più oscuro, ma condiviso.

Perché, come ricorda Federico Faggin, anche l’intelligenza più artificiale resta vuota se non è attraversata dall’immaginazione, dalla coscienza e dal dubbio.

Questo testo non è un manifesto nostalgico, né un atto d’accusa contro la tecnica. È una proposta: costruire un nuovo patto tra cittadinanza e automazione, dove calcolo e significato possano finalmente coesistere.

Solo così il digital divide, che sempre più si fa culturale e cognitivo, potrà diventare ponte: da frattura a connessione, da passività a creatività collettiva.

In fondo, le grandi rivoluzioni tecnologiche non sono mai solo una questione di strumenti. Sono sempre una questione di senso.
Lo mostrò la Rerum Novarum nel cuore della prima rivoluzione industriale. Lo ricorda oggi Leone XIV, nell’era dell’intelligenza artificiale: ogni salto tecnico porta con sé un turbamento sociale, un vuoto simbolico, una nuova forma di analfabetismo: allora economico, oggi algoritmico.

Nel mio articolo precedente, Dal vapore all’algoritmo, ho messo in luce una continuità storica: il progresso incontrollato produce, in epoche diverse, effetti simili.
Collasso. Disuguaglianza. Perdita di orientamento.
E, come allora, anche oggi la vera minaccia non è la macchina. È la nostra rinuncia a comprenderla, governarla, riumanizzarla.

È qui che il Mediatore della Cultura Digitale acquista un nuovo senso storico.
Non è più soltanto un facilitatore.
Se la Rerum Novarum richiamava i governi ad affrontare la questione sociale dell’epoca industriale, oggi -nel mezzo della transizione algoritmica- proponiamo il Mediatore della Cultura Digitale come uno degli strumenti possibili per affrontare le nuove disuguaglianze cognitive e simboliche. Forse un giorno, in una futura enciclica, questa necessità sarà riconosciuta come parte essenziale della dignità umana nell’era dell’automazione. Perchè una figura capace di decifrare il codice non per adattarsi ad esso, ma per restituirgli spessore umano.
Un interprete che agisce là dove oggi si apre una nuova questione sociale: tra chi il codice lo legge, e chi lo subisce. Oggi come allora, la posta in gioco è la dignità.
Non più solo quella del lavoro manuale: è la dignità della coscienza, della conoscenza, della relazione. È il diritto di comprendere il mondo in cui si vive.
Se ieri serviva alfabetizzare alla fabbrica, oggi occorre alfabetizzare alla logica algoritmica.

Perché, come ci ricorda Jared Diamond, ogni civiltà che abdica alla comprensione delle proprie macchine non viene sconfitta da un nemico esterno, ma dalla propria cecità sistemica.

Ecco Umanesimo & Tecnologia 2.0: non è un progetto tecnico. È un dispositivo culturale per la sopravvivenza democratica.
Un modo per abitare la trasformazione senza diventarne ostaggi.
Perché, in un mondo che rischia il collasso non per mancanza di potenza, ma per assenza di senso,
chi media il codice non è solo un esperto: è un custode del futuro.


altri temi/recensioni in questo blog : >> 

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑