Comprendere prima di sapere, il caso della computazione quantistica
“A volte la comprensione viene prima della dimostrazione. Ma possiamo chiamarlo progresso?”
La storia della scienza è ricca di intuizioni premature, teorie apparentemente speculative che hanno anticipato conferme empiriche di anni — a volte decenni. Uno dei casi più affascinanti è quello della computazione quantistica: un’idea nata sulla carta, in un’epoca in cui la meccanica quantistica era ritenuta confinata al mondo microscopico. Eppure oggi, quella stessa idea si è incarnata in prototipi funzionanti, rivelando una comprensione reale che, fino a poco tempo fa, sembrava solo ipotesi. Ma possiamo affermare che quella fase preliminare – in cui non vi era ancora verifica empirica, ma solo coerenza teorica – fosse già un progresso scientifico? E se sì, in base a quale criterio?
Il modello noetico del progresso scientifico, proposto da Finnur Dellsén, offre una risposta alternativa a quella classica. Secondo questo approccio, non è necessario che una teoria sia confermata e “vera” per essere considerata progressiva. È sufficiente che essa aumenti la nostra comprensione, cioè la capacità di spiegare e prevedere fenomeni, anche solo ipotetici. Nel caso della computazione quantistica, già a partire dagli anni ’80 e ’90 si inziava a disporre di modelli teorici rigorosi (Feynman, Deutsch), si immaginava la possibilità di sfruttare entanglement e sovrapposizione quantistica per elaborare informazione, si prevedeva un superamento radicale della computazione classica. Per il modello epistemico – che identifica il progresso con l’accumulo di conoscenza giustificata e vera – non si trattava ancora di progresso: mancava la conferma empirica. Per l’account noetico, invece, quella visione era già progresso, perché ampliava la nostra capacità di pensare il reale, anche prima della verifica.
Dall’intuizione alla conferma
Richard Feynman (1981), con il celebre intervento Simulating Physics with Computers, lancia un’idea rivoluzionaria: “La natura non è classica, e se volete simularla, dovete farlo con un computer quantistico.”
Feynman osserva che i sistemi quantistici non possono essere simulati in modo efficiente da computer classici. Da qui nasce l’intuizione che solo una macchina quantistica possa “parlare la lingua della natura”.
David Deutsch (1985), pochi anni dopo, propone un modello teorico compiuto: la macchina quantistica universale, estensione della macchina di Turing. Grazie alla sovrapposizione degli stati, un computer quantistico potrebbe elaborare un numero enorme di calcoli in parallelo. È il primo vero formalismo della computazione quantistica.
Vent’anni dopo le intuizioni di Feynman e Deutsch, il premio Nobel viene assegnato a Leggett per aver dimostrato che gli effetti quantistici — come la coerenza e la sovrapposizione degli stati — possono emergere anche su scala macroscopica, come nel caso del superfluido di elio-3. Attraverso il concetto di rottura spontanea della simmetria spin-orbitale, Leggett mostra che milioni di particelle possono comportarsi come un’unica entità quantistica coerente. Questa scoperta conferma che la meccanica quantistica non è confinata al microscopico, ma può diventare visibile e manipolabile: una conferma potente che il mondo quantistico non appartiene solo all’infinitamente piccolo, ma può governare anche fenomeni osservabili direttamente — un passaggio chiave verso la realizzabilità fisica della computazione quantistica.
La quantistica, dunque, non è solo un gioco teorico per particelle subatomiche: può agire su sistemi più grandi, aprendo la strada a reali dispositivi quantistici.
Insieme, queste tre figure tracciano un arco affascinante: l’intuizione di un limite (Feynman), la costruzione di un modello alternativo (Deutsch), la verifica nella realtà fisica (Leggett).
È il percorso stesso del pensiero scientifico: comprendere prima di sapere, e poi costruire le prove per ciò che si è osato immaginare.
Questo approccio valorizza un aspetto spesso trascurato: il progresso come apertura cognitiva.
Chi nel 2000 immaginava la realtà della computazione quantistica non possedeva ancora conoscenza verificata, ma stava elaborando strumenti concettuali per immaginare nuovi scenari del reale, anticipava mondi coerenti con la struttura teorica esistente (meccanica quantistica). In questa ottica, la comprensione ha un valore anche in assenza di conferma, se è formalmente coerente con il sapere precedente, consente deduzioni predittive, apre programmi di ricerca strutturati.
Ma il modello noetico – come ha evidenziato il filosofo Fabio Sterpetti nella sua pubblicazione The Noetic Account of Scientific Progress and the Factivity of Understanding – non è privo di rischi. Se la computazione quantistica non avesse mai trovato riscontro empirico, saremmo ancora giustificati nel chiamarla progresso?
Il pericolo è quello di attribuire valore di progresso a ogni teoria suggestiva e formalmente coerente, anche se poi si rivela falsa o irrealizzabile. Sterpetti pone una critica frontale a Dellsén, chiedendo: come possiamo distinguere la comprensione autentica dalla mera coerenza interna?
La posta in gioco è alta: senza questa distinzione, rischiamo di legittimare come “comprensione” qualunque costruzione teorica ben articolata, anche se del tutto scollegata dalla realtà empirica.
In assenza di criteri discriminanti, potremmo finire per considerare progresso ciò che in realtà è un vicolo cieco, ingannati dalla sola eleganza formale o dalla seduzione di modelli affascinanti ma infondati. Una scienza che non distingue tra ciò che illumina e ciò che abbaglia diventa vulnerabile all’illusione, e rischia di perdere la sua funzione critica ed emancipatrice. Questa distinzione è cruciale, perché molte teorie del passato erano formalmente eleganti ma del tutto scollegate dalla realtà osservabile. Se non riusciamo a discriminare ciò che è effettivamente comprensione da ciò che è solo costruzione teorica raffinata, rischiamo di travestire l’errore da progresso, e di deviare la ricerca scientifica in direzioni sterili.
E se due teorie incompatibili (come la meccanica quantistica e la relatività generale) forniscono entrambe una forma di comprensione, ma non possono essere entrambe vere, quale delle due rappresenta davvero un progresso?
Il modello noetico, sostiene Sterpetti, manca di criteri sufficienti per stabilire nel presente quando una comprensione è epistemicamente legittima.
Questa carenza ha conseguenze teoriche importanti: senza criteri operativi condivisi, il concetto di “progresso” diventa sfuggente, affidato più all’intuizione che alla valutazione razionale. Il rischio è un relativismo temporale: decidiamo solo dopo, col senno di poi, se un’intuizione era progresso o illusione.
Il caso della computazione quantistica suggerisce che il modello noetico ha valore euristico, ma necessita di rafforzamenti.
Servono criteri epistemici minimi che comprendano coerenza, rigore formale e predittività. Questi tre criteri sono fondamentali perché permettono di filtrare le teorie con potenziale euristico genuino da quelle che sono solo esercizi logici privi di riscontro. La coerenza garantisce compatibilità con il sapere consolidato; il rigore formale evita ambiguità e fallacie; la predittività consente una verifica indiretta anche in assenza di conferme sperimentali immediate. A questi si aggiunge il riconoscimento del contesto storico-scientifico in cui la comprensione emerge, e l’apertura a una valutazione dinamica. Ciò che oggi è comprensione potenziale, domani potrà diventare conoscenza, oppure cadere nell’oblio delle ipotesi superate.
Il progresso, in questa prospettiva, non è solo ciò che sappiamo essere vero, ma anche ciò che ci spinge a cercare nuove verità, purché il percorso sia strutturato e valutabile, e non semplicemente ispirato da coerenze interne non verificabili.
Il caso della computazione quantistica mostra come comprendere prima di sapere sia spesso ciò che consente alla scienza di progredire.
Il modello noetico, pur con i suoi limiti, invita a valorizzare la fase esplorativa del pensiero scientifico. Ma ci ricorda anche una lezione fondamentale: comprendere non basta.
Serve saper valutare quella comprensione con strumenti teorici adeguati, prima che la realtà lo faccia al posto nostro.
Per questa ragione, la proposta di una versione integrata del modello noetico: una visione che riconosce valore alla comprensione potenziale solo quando è parte di un programma coerente, formalizzabile e predittivo, inserito nel contesto di una comunità scientifica attiva.
Questa via intermedia rappresenta una soluzione praticabile perché combina il coraggio speculativo con l’autocontrollo epistemico: è capace di evitare sia l’arroganza dell’empirismo immediato sia l’ingenuità della coerenza autoreferenziale.
Una via per non dire mai … “Mai”.
E forse proprio la computazione quantistica, oggi divenuta realtà tecnica ma un tempo liquidata come esercizio teorico, ci prepara ad accogliere con maggiore apertura anche altre ipotesi che oggi sembrano appartenere alla fantascienza.
La comunicazione quantistica, le reti neurali quantistiche, l’idea che l’informazione sia la vera sostanza dell’universo, o che la coscienza possa essere descritta in termini di correlazioni quantistiche, tutte queste ipotesi restano per ora controintuitive, persino disturbanti per l’immaginario collettivo.
Ma lo era anche la relatività un secolo fa, e lo era la quantistica stessa agli albori del Novecento.
L’intuito umano, costruito sull’esperienza del mondo macroscopico, non è il miglior giudice della plausibilità scientifica.
Per questo è importante coltivare la capacità di immaginare e comprendere prima ancora di sapere, senza per questo cadere nell’ingenuità.
Non a caso, se volgiamo lo sguardo alla storia della letteratura, troviamo esempi straordinari di “comprensione immaginativa” ben prima della verifica empirica.
La sociologia della letteratura – che mi ha avviato trent’anni fa alla ricerca tra Umanesimo & Tecnologia per immaginare gli effetti futuri della trasformazione digitale – mi ha insegnato che opere come Frankenstein di Mary Shelley, i romanzi visionari di Jules Verne o H.G. Wells, e più tardi quelli di George Orwell, Aldous Huxley e Isaac Asimov, hanno svolto un effettivo ruolo anticipatore delle trasformazioni scientifiche e tecnologiche.
Pur non essendo scienziati, questi autori hanno fornito al pubblico un lessico, un immaginario e persino una grammatica emotiva per immaginare futuri possibili, talvolta auspicabili, talvolta distopici, ma sempre stimolanti.
Shelley, con la sua creatura di laboratorio, anticipava questioni oggi centrali nella bioetica e nell’intelligenza artificiale. Verne scriveva di viaggi sulla Luna e di sottomarini ben prima che la tecnologia li rendesse realizzabili. Orwell e Huxley hanno descritto scenari di sorveglianza e manipolazione dell’opinione pubblica che oggi troviamo inquietantemente vicini alla realtà. E Asimov, con le sue leggi della robotica, ha preparato intere generazioni a interrogarsi sul rapporto tra umanità e macchina.
Tutti questi autori hanno dimostrato che la comprensione può precedere la prova, e che l’immaginazione narrativa non solo può coesistere con la scienza, ma ne è spesso il preludio culturale.
In questo senso, la letteratura visionaria è una forma di comprensione noetica collettiva: ci aiuta a pensare il futuro prima ancora che esso arrivi, e prepara la coscienza sociale ad accoglierlo o contrastarlo.
Ciò che oggi è frontiera speculativa, se sostenuto da coerenza interna, rigore logico e apertura alla verifica, può diventare il pilastro della conoscenza futura.
Il vero progresso richiede anche il coraggio dell’incertezza e la disciplina del dubbio.
Curiosamente, anche una delle più recenti riflessioni nella filosofia della scienza sembra giungere, da un altro versante, a una conclusione molto vicina a quella che qui sto suggerendo.
Infatti, Fabio Sterpetti, analizzando criticamente il modello noetico di Finnur Dellsén, mostra che pretendere che ogni forma di comprensione sia fondata su verità pienamente accertate è insostenibile.
I dilemmi filosofici che emergono portano a una scelta netta: o si abbandona l’idea che la comprensione debba sempre essere legata alla verità, oppure si rinuncia a considerare il modello noetico come un modello realistico del progresso scientifico.
La strada suggerita da Sterpetti è quella di abbracciare una visione anti-realista della comprensione, in cui il valore di una teoria non dipende tanto dalla sua veridicità attuale, quanto dalla sua capacità di generare senso, orientare la ricerca, aprire orizzonti.
In altre parole: anche la filosofia della scienza, con il suo linguaggio preciso e concettualmente raffinato, ci dice che comprendere prima di sapere può essere un modo autentico di avanzare.
Ecco dunque che il nostro invito, rivolto al lettore curioso, si riconnette con quello del filosofo: non temere l’intuizione, non disprezzare il possibile solo perché non è ancora reale.
La scienza cresce quando il pensiero osa, e quando la cultura sa accompagnare quella sfida con immaginazione e spirito critico.
Correlati al tema della scienza quantistica e le connessioni invisibili
- Arriviamo preparati al Futuro Quantistico. L’indispensabile approccio interdisciplinare tra Umanesimo & Scienza per un prossimo futuro tecnologico equo e sostenibile
- Il Principio Antropico. Implicazioni e nuove direzioni nella ricerca Scientifica e Filosofica
- Fisica Sincronica: esplorando la connessione tra Fisica Quantistica e Coscienza
- Darwinismo quantico e meme: alla ricerca delle intersezioni concettuali e la connessione con la sincronicità
- La Coscienza variabile
- Bioinformatica quantistica, pensiero evolutivo e l’intelligenza non-umana
- Una riflessione sul Tempo. Tra l’unione della meccanica quantistica, la filosofia della scienza e le scienze cognitive
- Psicologia Transpersonale e Meccanica Quantistica: un nuovo modello integrato
- Cognizione quantistica
- Lo Zero e sincretismo tra informatica, misticismo e quantistica
- Oltre la Materia, Oltre l’Invisibile
- Un ponte tra Ordine Cosmico e Vita
- Verso una nuova Era Assiale: di trasformazione Scienza-Spiritualità
Lascia un commento