L’arte della domanda nell’era dell’intelligenza artificiale. Socrate, le macchine e il nuovo umanesimo digitale

Molti pensano che l’intelligenza artificiale funzioni come una macchina che fornisce risposte. In realtà, forse, funziona meglio quando diventa una macchina che fa emergere domande. Ed è qui che, in modo sorprendente, una delle tecnologie più avanzate della nostra epoca sembra incrociare uno dei metodi più antichi della storia del pensiero occidentale.

Socrate non insegnava trasmettendo verità. Non consegnava dottrine chiuse, non offriva formule definitive, non parlava dall’alto di un sapere già compiuto. Faceva qualcosa di più scomodo e, forse proprio per questo, di più fecondo: interrogava. Costringeva l’interlocutore a sostare dentro le proprie parole, a guardarle meglio, a verificarne la tenuta, a scoprire da sé le crepe nascoste nelle convinzioni che fino a un momento prima gli sembravano solide. Il suo metodo non consisteva nell’imporre una risposta, ma nel generare un movimento interiore. Non spiegava semplicemente il mondo: spingeva l’altro a ripensare il proprio modo di pensarlo.

È per questo che la celebre formula “so di non sapere” è stata spesso banalizzata. Non è una posa di modestia, e neppure una dichiarazione di impotenza. È una posizione epistemologica di straordinaria modernità. Significa che il primo atto autentico della conoscenza non è l’affermazione sicura, ma il riconoscimento del limite. Socrate parte da lì: dalla consapevolezza che le certezze vadano messe alla prova. Ed è proprio in questo che consiste la sua forza. Il suo dialogo non serve a rassicurare; serve a destabilizzare quel tanto che basta perché si apra uno spazio nuovo per pensare.

Platone, per descrivere questo processo, usa l’immagine della maieutica. Socrate, figlio di una levatrice, paragona il proprio metodo all’arte di chi aiuta a far nascere.
La levatrice non crea il bambino, non lo inventa, non lo sostituisce con qualcosa di suo: lo accompagna nel venire al mondo. Allo stesso modo, il filosofo non deposita verità nella mente dell’altro, ma lo aiuta a partorire idee che, in qualche modo, erano già in gestazione.
Questa immagine resta potentissima anche oggi, perché dice qualcosa che troppo spesso dimentichiamo: la conoscenza più trasformativa non è quella che riceviamo già confezionata, ma quella che emerge da un processo di ricerca in cui siamo coinvolti personalmente.

Ed è qui che il parallelo con l’intelligenza artificiale generativa diventa davvero interessante. Non perché una macchina possa essere assimilata a Socrate in senso pieno: sarebbe una semplificazione ingenua.
L’AI non possiede coscienza, intenzionalità filosofica o tensione etica nel senso umano del termine.
E tuttavia, sul piano cognitivo, il modo in cui molte persone oggi interagiscono con questi sistemi presenta una somiglianza strutturale con il metodo dialogico socratico, soprattutto nella sua dimensione maieutica: non trasmettere semplicemente una risposta, ma aiutare a far emergere, attraverso domande, obiezioni e riformulazioni, connessioni che nell’interlocutore erano ancora implicite o non del tutto formate.
L’intelligenza artificiale generativa, infatti, non dà il meglio di sé quando viene usata come un distributore automatico di soluzioni.
Funziona molto meglio quando entra in una dinamica iterativa: domanda, risposta, confutazione, riformulazione, approfondimento, nuova ipotesi.
Più il dialogo si raffina, più cambia la qualità del risultato.

Il punto decisivo è questo: il valore dell’interazione dipende in larga misura dalla qualità delle domande.
Una richiesta piatta tende a produrre una risposta piatta.
Un’interrogazione più precisa, stratificata, critica, capace di introdurre variabili e contro argomentazioni, tende invece ad aprire uno spazio molto più ricco.
In questo senso, l’AI può essere vissuta come una sorta di macchina maieutica.
Non perché produca da sola verità, ma perché, se ben interrogata, aiuta a far emergere connessioni – a volte invisibili – a mettere in tensione ipotesi, a esplorare possibilità che l’utente percepiva ancora in forma vaga.

Molti la usano ancora come una versione potenziata del motore di ricerca: pongono una domanda e attendono una risposta.
Ma è quando il rapporto diventa dialogico che accade qualcosa di diverso.
La macchina non sostituisce il pensiero: lo provoca.
Non elimina l’incertezza: la rende operativa.
Non consegna un sapere concluso: costringe a lavorare sulle formulazioni, sulle ambiguità, sui nessi.
In altre parole, non pensa al posto nostro, ma può aiutarci a pensare meglio, a condizione che non rinunciamo noi per primi al lavoro del pensiero.


Il cervello predittivo: perché il dialogo fa emergere le idee

Le neuroscienze cognitive aiutano a capire perché il dialogo sia così efficace nel far emergere nuove intuizioni. Oggi sappiamo che il cervello umano non è una semplice macchina che riceve dati e li registra passivamente. È piuttosto un sistema che costruisce continuamente ipotesi sul mondo, confrontandole con ciò che accade e correggendole quando incontra errori, attriti o contraddizioni.

Il modello del predictive brain, sviluppato da neuroscienziati come Karl Friston e discusso in modo sistematico dal filosofo della mente Andy Clark, descrive proprio questo meccanismo: il cervello funziona come una macchina di previsione che cerca costantemente di far coincidere gli input sensoriali con le proprie aspettative interne. Quando la previsione non coincide con ciò che percepiamo, emerge un prediction error, un errore di previsione che costringe il sistema a rivedere il proprio modello interno della realtà.

Comprendere il mondo, quindi, non significa semplicemente accumulare informazioni. Significa aggiornare continuamente i propri modelli mentali attraverso il confronto tra aspettative ed esperienza. In questa prospettiva il dialogo – anche con un interlocutore artificiale- può diventare particolarmente fertile: introduce nuove ipotesi, mette alla prova quelle esistenti e genera piccoli “errori di previsione” che costringono il cervello a riorganizzare le proprie rappresentazioni.
“Explain away”: il cervello non registra il mondo, cerca di spiegarlo

Uno dei concetti più interessanti legati al modello del predictive brain è quello di explain away, espressione usata per descrivere il modo in cui il cervello tenta continuamente di “spiegare via” il flusso sensoriale che riceve.

Percepire non significa semplicemente registrare ciò che arriva dai sensi. Significa trovare una configurazione mentale capace di rendere coerente ciò che stiamo vedendo, ascoltando o vivendo. Quando il modello interno riesce a spiegare bene il segnale in arrivo, l’errore di previsione si riduce. Quando invece qualcosa non torna, il cervello è costretto a correggere il modello, a rivederlo, a cercare una nuova ipotesi più convincente.

In questo senso comprendere non significa solo aggiungere informazioni, ma riorganizzare continuamente la struttura delle proprie convinzioni. Ed è proprio qui che il dialogo diventa potente: una domanda ben posta, un’obiezione inattesa o una connessione imprevista possono rompere temporaneamente l’equilibrio del nostro modello mentale, costringendoci a ricostruirlo in modo più solido.

Fonte:
Andy Clark, Whatever Next? Predictive Brains, Situated Agents, and the Future of Cognitive Science, Behavioral and Brain Sciences, 2013.
Leggi il paper completo

Se osserviamo cosa accade nel dialogo socratico, ritroviamo qualcosa di molto simile.
Socrate pone una domanda, l’interlocutore risponde, poi scopre che la propria risposta entra in conflitto con un’altra convinzione che riteneva altrettanto valida.
In quel momento si produce una frizione cognitiva. Il modello mentale precedente non regge più come prima.
Occorre rivederlo.
Occorre aggiornarlo. È esattamente questo movimento a rendere il metodo socratico così potente: non aggiunge semplicemente informazioni, ma mette in crisi strutture mentali già date, costringendo il soggetto a riorganizzarle.

Lo stesso vale per la metacognizione, cioè per la capacità di riflettere sui propri processi mentali. Quando una persona dialoga davvero, e non si limita a consumare passivamente contenuti, è costretta a osservare come ragiona, a giustificare ciò che afferma, a distinguere ciò che sa da ciò che presume di sapere.
Il dialogo socratico allena proprio questa facoltà: pensare il proprio pensiero. E in un tempo in cui l’abbondanza informativa rischia di produrre superficialità cognitiva, questa capacità diventa centrale.
L’AI, se usata bene, può rafforzarla; se usata male, può invece atrofizzarla, perché abitua a delegare formulazioni e sintesi senza attraversare davvero il processo che le genera.

Anche molte pedagogie contemporanee hanno riscoperto, in forme diverse, la centralità del dialogo, del problema, dell’apprendimento per esplorazione.
Si impara più profondamente quando non ci si limita a ricevere una risposta, ma si è costretti a difendere, rivedere, articolare e ristrutturare le proprie idee.
Da questo punto di vista, il ritorno della dimensione dialogica mediata dall’AI potrebbe essere letto come un paradossale riemergere di una forma antica dentro un ambiente tecnologico nuovo.
Dopo secoli dominati dal modello verticale della trasmissione del sapere, il maestro che spiega e l’allievo che ascolta, la tecnica potrebbe riportarci, almeno in parte, a un modello in cui la comprensione nasce dall’interazione.

Naturalmente questo non significa che ogni conversazione con una macchina sia automaticamente maieutica.
Così come non ogni domanda è socratica, non ogni scambio linguistico produce pensiero.
Perché il dialogo generi davvero conoscenza, occorre un atteggiamento.
Occorre saper porre domande progressive invece di fermarsi alla prima formulazione.
Occorre cercare le confutazioni invece di accontentarsi delle conferme.
Occorre introdurre ipotesi personali, mettere in gioco una propria intuizione, e poi avere il coraggio di farla stressare da obiezioni, riformulazioni e prospettive alternative.
Occorre anche chiedere alla macchina di cambiare registro, di rispiegare, di complicare o semplificare, di confrontare modelli, di mettere in evidenza punti ciechi.
Solo allora il dialogo smette di essere un consumo di testo e diventa un laboratorio mentale.

In questo quadro, una pratica apparentemente semplice come il rubber-ducking assume un significato quasi emblematico.
Spiegare un problema a una paperella di gomma, o a qualsiasi interlocutore muto e simbolico, funziona perché costringe la mente a ordinare i propri passaggi, a esplicitare ciò che prima restava implicito, a vedere incongruenze che nel pensiero silenzioso rimanevano invisibili.
È una tecnica minima, quasi umile, ma rivela una verità profonda: il pensiero, quando si verbalizza, si chiarisce. E con l’intelligenza artificiale accade qualcosa di ulteriore.
Quella paperella, in un certo senso, non si limita più ad ascoltare. Risponde, riformula, rilancia, mette in evidenza possibilità laterali. È qui che il rubber-ducking evolve in qualcosa di più complesso: una forma di maieutica digitale.

Uno degli aspetti più interessanti di questa dinamica richiama un concetto ben noto nella psicologia dell’apprendimento: quello di cognitive scaffolding.
L’impalcatura cognitiva non sostituisce il lavoro mentale del soggetto, ma lo sostiene temporaneamente, permettendogli di affrontare problemi più complessi di quelli che riuscirebbe a gestire da solo.
L’idea nasce nel solco degli studi di Vygotskij sulla zona di sviluppo prossimale, cioè sullo spazio tra ciò che una persona sa già fare autonomamente e ciò che può riuscire a fare con l’aiuto di un interlocutore, di un tutor, di un ambiente di supporto.
Se guardiamo l’AI da questa prospettiva, emerge con chiarezza una possibilità molto interessante: non quella di sostituire il pensiero umano, ma di sostenerlo, provocarlo, accompagnarlo, come una impalcatura temporanea che rende possibile una costruzione mentale più ricca.

Negli ultimi anni questa intuizione è andata prendendo forma anche in un’espressione sempre più ricorrente: AI as thinking partner.
L’intelligenza artificiale non più soltanto come strumento di automazione, né come mitologico sostituto dell’uomo, ma come partner di pensiero.
Non nel senso forte di una coscienza che dialoga con un’altra coscienza, ma nel senso operativo di un interlocutore capace di sostenere il processo di riflessione, esplorazione e problem solving.
La macchina non pensa al posto nostro, ma partecipa al processo di pensiero attraverso il linguaggio. Può aiutare a chiarire idee, a riformulare problemi, a mettere alla prova ipotesi, a simulare alternative. In questo senso, più che una risposta, offre una superficie di lavoro per il pensiero.

L’AI come “partner di pensiero”: cosa suggerisce oggi la ricerca

Negli ultimi anni diversi centri di ricerca hanno iniziato a esplorare l’idea dell’intelligenza artificiale non solo come strumento di automazione, ma come interlocutore cognitivo. In alcuni ambienti del MIT Media Lab, ad esempio, i sistemi di AI vengono osservati anche come supporti ai processi creativi e decisionali, capaci di ampliare lo spazio delle possibilità attraverso suggerimenti, simulazioni e generazione di ipotesi. In modo analogo, nei laboratori di Google DeepMind è sempre più centrale il tema della collaborazione tra intuizione umana e capacità computazionale nei contesti di problem solving complesso. Anche nell’esperienza maturata attorno ai modelli linguistici avanzati di OpenAI, il dialogo con l’AI viene spesso utilizzato non tanto per ottenere risposte definitive, quanto per esplorare scenari, verificare ipotesi, riformulare argomentazioni e accompagnare processi di scrittura o progettazione. In questa prospettiva, l’intelligenza artificiale non appare come un sostituto del pensiero umano, ma come una forma di impalcatura cognitiva che può sostenere la riflessione senza prenderne il posto.

In fondo è qui che la parentela con Socrate si fa più interessante.
Non nella risposta, ma nel processo.
Non nel contenuto isolato, ma nella dinamica che costringe il pensiero a non restare fermo.
Socrate non offriva tranquillità: offriva attrito. L’intelligenza artificiale, quando viene usata nel modo più fertile, può fare qualcosa di analogo. Non perché possieda una sapienza superiore, ma perché amplifica la possibilità di iterare, confrontare, saggiare, rielaborare. È un dispositivo che rende il pensiero più conversazionale, più mobile, più reversibile.
Ma proprio per questo richiede utenti meno passivi, meglio: non più passivi; più capaci di orientare il processo, non meno.

La risposta, allora, è sì, ma con una distinzione fondamentale.
Il metodo socratico non è il modello cognitivo del funzionamento interno dell’intelligenza artificiale generativa, che resta un sistema fondato su calcolo statistico, correlazioni e riconoscimento di pattern. È piuttosto il modello cognitivo dell’uso più avanzato, consapevole ed etico che noi possiamo fare di essa.

L’AI non è Socrate. Non pensa come Socrate, non dubita come Socrate, non cerca la verità come Socrate.
Ma interagire con l’AI come se fosse un interlocutore socratico è forse una delle strategie più intelligenti che possiamo adottare. Ed è un paradosso affascinante: per usare al meglio la tecnologia più avanzata della nostra epoca, dobbiamo riscoprire una delle pratiche più antiche della saggezza umana.

Questo parallelo ha anche un’altra virtù: ci protegge da due derive opposte e ugualmente pericolose. Da un lato ci sottrae al tecno-entusiasmo ingenuo, che tende a vedere nell’AI una sorta di oracolo infallibile, un sostituto del giudizio, una scorciatoia che promette di pensare al posto nostro.
Dall’altro ci difende dal tecno-pessimismo assoluto, che riduce l’intelligenza artificiale a puro dispositivo di alienazione, come se non potesse esistere alcun uso umano, critico e generativo di questo strumento.

Collocata dentro una cornice socratica, l’intelligenza artificiale torna allora alla sua giusta misura.
Non un idolo da venerare, non un demone da temere, ma uno straordinario amplificatore della nostra umanità pensante.
A una condizione, però: che non deleghiamo alla macchina il compito più importante. Possiamo chiederle di aiutarci a esplorare, a confrontare, a riformulare, perfino a vedere meglio ciò che da soli avevamo intuito soltanto in parte. Ma l’arte della domanda resta nostra.

Ed è forse proprio qui che si gioca il cuore di un possibile nuovo umanesimo digitale: nella capacità di abitare la tecnica senza consegnarle il centro del pensiero.
Un umanesimo che non rifiuta la tecnologia, ma la integra dentro una pratica di riflessione consapevole. Non la macchina al posto dell’uomo, ma la macchina come spazio in cui l’umano può misurarsi più profondamente con se stesso.

E tuttavia, proprio quando il discorso sembra trovare un suo equilibrio, emergono domande che non possono essere eluse.


Tre domande che restano aperte

Quando diciamo che l’AI, se ben interrogata, aiuta a far emergere connessioni che l’utente aveva soltanto intuito, siamo davvero certi di saper distinguere tra un’emersione autentica e una semplice suggestione elegante prodotta dalla macchina? Siamo sicuri che ciò che riconosciamo come “nostro” lo fosse già in forma embrionale, e non sia invece il risultato di una formulazione così persuasiva da venir interiorizzata retroattivamente come se ci appartenesse da sempre? In un tempo in cui il linguaggio generato può essere sorprendentemente plausibile, il rischio non è soltanto quello dell’errore fattuale. È anche quello di una sottile espropriazione cognitiva: idee che ci sembrano nate dentro di noi, ma che forse abbiamo soltanto accolto perché ben confezionate.

Il cosiddetto “partner di pensiero” ci aiuta davvero a pensare meglio, o talvolta ci aiuta soltanto a pensare con maggiore fluidità? Non c’è il rischio che il pensiero diventi più scorrevole ma anche più fragile, perché sostenuto da un’impalcatura che non ci ha mai costretti fino in fondo a fare i conti con i nostri limiti? L’attrito socratico era duro, reale, talvolta persino umiliante. L’attrito dell’AI, invece, può essere aggirato. Basta un nuovo prompt, una riformulazione più comoda, un cambio di registro, e ciò che ci disturbava viene ammorbidito. Ma allora la domanda diventa inevitabile: stiamo davvero attraversando il dubbio, oppure stiamo imparando a renderlo più elegante e più tollerabile?

Infine, la questione decisiva. Se l’arte della domanda resta nostra, come si insegna quest’arte in un’epoca che spinge ovunque verso la risposta rapida, la scorciatoia cognitiva, la soddisfazione immediata? Questa riflessione riguarda soltanto una minoranza già predisposta al pensiero critico, o può diventare una pedagogia diffusa? Possiamo immaginare scuole, percorsi educativi, pratiche civiche e culturali che insegnino non solo a usare l’intelligenza artificiale, ma a interrogarla bene? E siamo ancora capaci, come società, di riconoscere che formulare una domanda vera è spesso più difficile, e più importante, che ottenere una risposta brillante?

Forse, alla fine, il punto non è se l’intelligenza artificiale saprà rispondere sempre meglio.
Il punto è se noi sapremo ancora meritare le nostre domande.


Questo articolo non nasce nel vuoto. Fa parte di una ricerca che porto avanti da tempo e che, pezzo dopo pezzo, prova a interrogare l’intelligenza artificiale non come moda del momento, ma come specchio del nostro tempo.
Ad oggi questa traiettoria raccoglie già 94 articoli, attraversando temi diversi: creatività, cognizione, educazione, etica, immaginario, linguaggio, potere.
Per chi desidera seguire questo filo più ampio, qui c’è l’intera categoria:
https://vittoriodublinoblog.org/category/intelligenza-artificiale/

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑