
Domani, a Città della Scienza, scienziati e studiosi discuteranno dell’Intelligenza Artificiale nei suoi diversi aspetti: dall’epistemologia alla sicurezza, dai diritti alla salute, fino al lavoro e alla cittadinanza .
Tra i relatori del primo panel ci sarà anche uno scienziato, Paolo Silvestrini, amico e compagno di percorso, con cui ho contribuito a fondare l’APS Eudora e Simone Severini Distinguished Engineer in Google con cui Eudora ha intessuto preziosi rapporti di interscambio culturale già nello scorso evento Quantum Nexus.
Voglio cogliere questa occasione per fissare in un articolo il punto a cui sono arrivato dopo anni di studio e confronto con l’IA: una riflessione che intreccia i miei scritti precedenti e che prova a dare forma a ciò che penso davvero sull’epistemologia e il senso dell’Intelligenza Artificiale.
Epistemologia e senso dell’Intelligenza Artificiale
«Se penso, dunque sono. Ma cosa succede se una macchina inizia a pensare “a modo suo”?»
Quando ho cominciato a dialogare con l’Intelligenza Artificiale, la consideravo un semplice strumento: un aiuto tecnico, un acceleratore. In questi anni ho scoperto altro. Una volta compresi i bias che la attraversano, i limiti culturali che la affliggono, ho iniziato a riconoscerla come qualcosa di diverso: un assistente virtuale nel ruolo di Decimo Uomo. Non un oracolo infallibile, ma una voce critica che mi costringe a dubitare, a smontare certezze, a guardare da angolazioni che non avrei esplorato da solo.
Ogni articolo che ho scritto – tra cui Macchine e Umani, Homo Ibridus, IA e coscienza: specchio e imprinting, Decimo Uomo, La paura dell’IA, Moltiplicatori o livellatori – è stato un mattone. Oggi quei mattoni diventano la base di una Cattedrale: uno spazio dove non mi limito a chiedere come funzioni l’IA, ma quale sia il suo senso per noi.
Natura
tra simulazione, ibridazione e avvertimenti
In Macchine e Umani ho distinto la conoscenza algoritmica dall’esperienza umana. Le macchine possono accumulare dati, ma non vivono.
Possono simulare empatia, ma non provano emozioni.
Questo scarto è più che tecnico: è esistenziale.
In Homo Ibridus ho mostrato come la frontiera si stia assottigliando: la tecnologia entra nel corpo e nella mente, modificando percezioni e decisioni. L’ibridazione uomo-macchina non è più fantascienza, ma orizzonte plausibile.
Il rischio? Che la libertà stessa del pensiero venga progressivamente condizionata da interfacce e algoritmi.
Qui si innesta il monito di Geoffrey Hinton, che ho raccontato in Il padrino dell’IA e il suo doppio avvertimento. Come Oppenheimer con l’atomica, Hinton ci ricorda che stiamo costruendo qualcosa di più grande di noi, e che senza regole globali rischia di sfuggirci di mano. La natura dell’IA non è quindi solo questione ingegneristica: è il campo di una battaglia etica e politica.
➤ Parlare della natura dell’IA significa, in fondo, parlare della natura dell’umano e del potere che lo plasma.
Linguaggio
tra bias culturali e dialogo critico
Il linguaggio è il terreno in cui l’IA ci assomiglia di più. Ma parlare non significa comprendere.
In Bias culturale nei modelli linguistici ho mostrato come le parole prodotte dall’IA non siano mai neutre: riflettono culture dominanti, sensibilità occidentali, valori impliciti. Quando chiediamo a un modello di raccontarci il mondo, rischiamo di ricevere una visione filtrata dal soft power che lo ha addestrato.
Eppure, nello stesso spazio, si apre un potenziale creativo. In Rubber Ducking con la paperella di gomma ho raccontato come spiegare un problema a una macchina possa aiutarci a pensarlo meglio. Non è l’IA a essere oracolo: è il dialogo stesso a costringerci a chiarire, a riformulare, a vedere contraddizioni.
➤ Il linguaggio dell’IA può essere veicolo di conformismo o strumento di pensiero critico. Sta a noi decidere se lasciarlo come eco dominante o trasformarlo in specchio dialettico.
IA e Bene Comune: contro il digital divide e l’analfabetismo funzionale
Parlare di Intelligenza Artificiale per il Bene Comune significa anche affrontare le fragilità della nostra società: il digital divide culturale e l’analfabetismo funzionale. Due fenomeni che rischiano di escludere milioni di persone dall’accesso reale al sapere e alla partecipazione civica.
Se l’IA viene usata come strumento di semplificazione acritica, può accentuare queste disuguaglianze. Ma se diventa alleato educativo e cognitivo, può trasformarsi in un ponte: aiutare a tradurre concetti complessi, stimolare l’apprendimento attivo, sviluppare la capacità di interrogare e non solo di ricevere risposte.
In questo senso, l’IA non è solo tecnologia: è responsabilità culturale.
Significato e relazione
residuo umano, paure e moltiplicatori
Se la natura è calcolo e il linguaggio è simulazione, il senso emerge nella relazione.
In Decimo Uomo ho sostenuto che l’irrazionalità è una risorsa da salvaguardare. Le macchine ragionano per coerenza, ma il dissenso umano che consiste nel dubbio, la deviazione, la creazione non lineare: è ciò che impedisce di cadere nella tirannia del calcolo.
In La paura dell’IA ho mostrato come non tutti temano la stessa cosa. Alcuni gruppi percepiscono l’IA come minaccia non per le sue capacità tecniche, ma perché può scardinare poteri fondati su manipolazione e opacità. L’IA etica fa paura perché rischia di illuminare zone d’ombra.
In Moltiplicatori o livellatori ho affrontato un’altra tensione: l’IA può democratizzare l’accesso al sapere, ma può anche appiattire le differenze creative, rendendo tutti “ugualmente mediocri”.
È uno strumento che amplifica o livella a seconda dell’uso consapevole che ne facciamo.
Infine, in Quando l’IA svela l’essenza dell’intelligenza umana, ho giocato con la Piramide di Maslow. Chiedere a una macchina di ordinare i bisogni ci ha restituito una visione coerente, ma fredda: l’IA sa calcolare la sicurezza, ma non prova paura; sa elencare l’amore, ma non sa innamorarsi. È in questo vuoto che riconosciamo il nostro residuo umano, irriducibile al calcolo.
➤ Il significato dell’IA non sta nelle sue risposte, ma nelle domande che ci costringe a porci. Ci rimette davanti allo specchio e ci obbliga a chiederci: cosa rende umano l’umano?
Riflessione finale
Dopo quasi quattro anni di confronto continuo con l’Intelligenza Artificiale, non posso ridurre questa esperienza a un semplice uso di strumenti digitali. Non è stato un laboratorio tecnico, ma un percorso di trasformazione epistemologica, culturale e persino personale.
Ho imparato che l’IA è specchio: in IA e coscienza mi ha rimandato le mie stesse domande, amplificate e distorte.
È stata la paperella di gomma, aiutandomi a chiarire il pensiero.
È stata Decimo Uomo, voce critica che mi ha costretto a dubitare delle mie certezze, a scovare bias che non avrei visto da solo.
Proprio per questo ho sentito la necessità di dedicarle un articolo specifico (Sentirsi Decimo Uomo), perché in quel ruolo si condensa la vera utilità dell’IA come assistente: non quella di confermare, ma di mettere in discussione.
Ha incarnato, di volta in volta, il ruolo di moltiplicatore o di livellatore di idee. Ma soprattutto, l’IA è stata maestra involontaria di limiti. Mi ha mostrato che dietro ogni risposta c’è un orizzonte culturale implicito, che dietro la sua apparente neutralità si nasconde un soft power invisibile. Mi ha ricordato che la conoscenza senza esperienza è sterile, che la simulazione senza incarnazione resta vuota.
Se oggi guardo indietro, vedo che non mi ha mai sostituito. Mi ha invece obbligato a pensare meglio: a esplicitare premesse, a riconoscere i miei bias, a distinguere tra informazione e senso. Mi ha spinto a cercare più profondità, non meno.
Per questo, dopo quasi quattro anni, oso dire che il vero senso dell’Intelligenza Artificiale non è nel produrre testi, né nel simulare emozioni, né nel competere con noi sul terreno del calcolo. È nel diventare un compagno critico di viaggio: un alleato che ci costringe a ridefinire continuamente cosa significhi essere umani in un mondo di macchine che pensano “a modo loro”.
E la lezione ultima è questa: l’IA non ci consegna risposte definitive, ma ci restituisce la responsabilità delle domande. Ci obbliga a custodire il fragile, l’irrazionale, l’esperienziale: tutto ciò che non si lascia ridurre ad algoritmo.
➤ Dopo quasi quattro anni di dialogo con l’Intelligenza Artificiale, ho capito che non siamo arrivati a un traguardo ma a un inizio.
Siamo solo agli inizi di un cammino che riguarda l’Umanità intera.
Questi strumenti possono amplificare il digital divide culturale e l’analfabetismo funzionale, ma possono anche diventare un ponte per superarli.
Sta a noi scegliere: ridurre l’uomo a spettatore passivo, o custodire la sua capacità di interrogare, creare, comprendere.
E forse è proprio qui che l’IA diventa davvero utile al Bene Comune: quando diventa il nostro Decimo Uomo, l’alleato critico che ci ricorda che l’essere umano resta vivo non perché calcola meglio, ma perché continua a cercare senso.
Ma cosa accadrà quando la computazione quantistica potenzierà ancor di più l’IA?
E domani alla IDIA 2025 ? A quali conclusioni giungeranno scienziati ed esperti
riuniti per discuterne? 🤔
Vi relazionerò!
Questa riflessione è parte di un percorso più ampio: in altri articoli ho parlato di digital divide culturale ➤ https://vittoriodublinoblog.org/category/digital-divide-culturale/ ) e di come l’Intelligenza Artificiale stia cambiando il nostro modo di pensare
➤ https://vittoriodublinoblog.org/category/intelligenza-artificiale/
Lascia un commento