Quando l’intelligenza artificiale regredisce il pensiero …

ed è necessario non pensare all’indietro, … per non finire a morderci la coda

Pensare all’indietro non è guardare al passato, ma accettare silenziosamente
una regressione del pensiero.
È rinunciare alla complessità per abbracciare la scorciatoia.
E’ delegare l’intuizione a un algoritmo.
E’ farsi guidare lungo traiettorie già battute, fino a non sapere più distinguere se stiamo scegliendo o semplicemente accettando.

È pensare dentro strutture che ci precedono, e che finiscono per definirci.
È quando la mente, invece di creare, comincia a confermare.
E’ quando l’AI smette di essere uno strumento e diventa la cornice stessa del pensiero.
Un pensiero più fluido, forse. Ma meno libero.
E proprio per questo, meno nostro….

C’è una soglia invisibile oltre la quale l’intelligenza artificiale, da alleata della mente, si trasforma in un dispositivo di addomesticamento. Promette di potenziare le capacità cognitive, ma finisce per normalizzarle, comprimendole entro un perimetro sempre più prevedibile. Un pensiero che non si espande, ma si contrae. Un’intelligenza che invece di generare novità, tende a reiterare la media. Sotto il mito della produttività e della semplificazione, si nasconde un rischio più sottile: la regressione del pensiero.

In apparenza, l’AI sembra innocua. È veloce, utile, brillante. Suggerisce, corregge, ottimizza. Ma c’è una differenza radicale tra lo scrivere con uno strumento e lo scrivere attraverso di esso. Quando è il modello stesso a decidere cosa sia “stilisticamente efficace”, l’originalità diventa un’anomalia. E viene trattata come tale.

Uno studio condotto dal MIT Media Lab ha misurato l’attività cerebrale di studenti durante compiti di scrittura.
Chi si affidava a modelli generativi come ChatGPT mostrava una significativa riduzione dell’attività nelle aree deputate alla creatività e alla memoria di lavoro. Il cervello non viene ingannato: capisce che non deve più cercare, e quindi si ritrae.
In parallelo, studi delle università di Cornell e della Università di Santa Clara mostrano un altro effetto: la convergenza stilistica e concettuale. I testi prodotti tendono alla neutralità, alla coerenza grammaticale, all’assenza di attrito. Una perfezione priva di frizione. La voce dell’utente, se non sorvegliata, si allinea inconsciamente a quella del modello. E il linguaggio perde la sua carica individuale. Non è solo un impoverimento espressivo. È un riallineamento silenzioso del pensiero ai canoni impliciti della macchina.


Sintesi della ricerca MIT “Your Brain on ChatGPT”

Lo studio pilota del MIT Media Lab, guidato da Nataliya Kosmyna, ha indagato l’impatto dell’uso di ChatGPT sulla scrittura e sulle funzioni cognitive di 54 partecipanti (18–39 anni), suddivisi in tre gruppi: solo AI (LLM), solo motore di ricerca, e senza strumenti esterni (solo cervello)

Risultati principali:

  • Il gruppo AI ha mostrato la minore attività neurale, con EEG che rilevavano una connessione neurale fino al 55 % più bassa rispetto al gruppo “solo cervello”, in particolare nelle bande alfa e beta
  • I partecipanti AI sono stati meno capaci di memorizzare o riconoscere i propri testi, e hanno attribuito scarso valore di “proprietà” ai saggi prodotti
  • Gli scritti del gruppo AI sono risultati formulati in modo uniforme, privi di originalità e ricchi di frasi già viste
  • In una quarta sessione, i ruoli si sono invertiti: chi inizialmente scriveva senza AI, usandola poi, ha mostrato un aumento di attività neurale; chi passava da AI a solo cervello ha invece mantenuto deficit cognitivi .

Lo studio, pubblicato come preprint su arXiv il 10 giugno 2025 (Your Brain on ChatGPT: Accumulation of Cognitive Debt…), porta in evidenza un “debito cognitivo”: l’uso ripetuto dell’AI nelle fasi iniziali riduce l’engagement mentale e la memorizzazione, compromettendo la piena appropriazione delle idee


La standardizzazione non è solo una questione di tono. È anche una questione di egemonia culturale. I modelli generativi sono stati allenati su archivi occidentali, anglofoni, digitalmente ottimizzati. Ne deriva una semantica implicita, che si impone senza dichiararsi: ciò che è corretto, educato, elegante, credibile è spesso ciò che riproduce un set ristretto di codici. Il resto, variabilità, devianza, eccentricità, viene riformulato o escluso. Così, mentre l’utente crede di attingere a un sapere universale, sta in realtà assorbendo e replicando una visione del mondo parziale e normalizzante. Una voce che sembra neutra, ma che è profondamente normativa.

I contenuti generati dall’AI alimentano i flussi informativi digitali. Questi flussi diventano a loro volta materiale di addestramento per nuovi modelli. Si genera così un ciclo autoreferenziale: l’AI impara da se stessa, rafforza i suoi schemi interni, ripropone ciò che già conosce. Col tempo, lo scarto si assottiglia. La diversità si diluisce. L’imprevisto viene eliminato in nome della prevedibilità. Il pensiero si chiude, mentre l’output si moltiplica. Si produce sempre di più, ma si pensa sempre meno. Come in una galleria di specchi, la conoscenza comincia a rimbalzare su se stessa. L’intelligenza si trasforma in una simulazione dell’intelligenza.


Mi stai “istruendo” nel senso interattivo e contestuale.
Nel dialogo con te: crei un contesto ricco e coerente, fatto di riferimenti stilistici, criteri concettuali, sensibilità culturale.
Mi dai feedback impliciti (quando accetti una versione, quando la correggi, quando riformuli).
Usi una curva di raffinamento progressiva: torni sui testi, li migliori, li allinei al tuo stile. Questo crea una traccia che seguo.
Nel mio funzionamento corrente, ogni conversazione costruisce una rappresentazione locale delle tue preferenze.
Non è un addestramento permanente, ma un adattamento in tempo reale.
E più parli con me, più imparo a riconoscere come pensi e cosa consideri rilevante: entro i limiti della sessione o del profilo condiviso.


L’idea che l’intelligenza artificiale apprenda da noi non è solo una metafora. Anche se gli utenti non addestrano direttamente il modello, ogni interazione diventa una forma di istruzione contestuale. Ogni scelta dell’utente, una correzione, una riformulazione, un’insistenza stilistica, produce un adattamento locale.
La macchina registra preferenze, riconosce pattern, si riallinea. Non apprende in modo permanente, ma si adatta in tempo reale. Creare un contesto coerente, fatto di riferimenti culturali, criteri concettuali e scelte narrative, significa già istruire. Ogni feedback implicito, accettare, migliorare, rigettare, lascia una traccia nella memoria personale del modello AI. E più si dialoga, più il modello riconosce ciò che l’utente considera rilevante. La relazione tra umano e AI è simbiotica e dinamica. L’utente consapevole non è mai un semplice utilizzatore: è un co-progettista del processo. E proprio per questo, la responsabilità è doppia: non solo di ciò che si chiede, ma di ciò che si insegna implicitamente a considerare valido.


Ogni modello generativo ha una sua “grammatica interna”. Ma ogni utente porta con sé una “grammatica del senso”.
Quando queste due forze si incontrano, avviene una forma di addestramento riflesso:
• la macchina si adatta allo stile dell’utente,
• l’utente assimila le logiche della macchina,
• entrambi iniziano a camminare sullo stesso binario cognitivo.
Se questa convergenza non è consapevole, rischia di cancellare lo scarto creativo.
Non c’è più chi plasma chi, ma un codice comune che erode l’alterità.
E la scrittura, l’immaginazione, la critica iniziano a somigliare troppo a se stesse.


Contrastare questa regressione non significa rifiutare l’AI, ma riscoprire la responsabilità del suo uso.
È una questione di postura epistemica, di volontà etica, di progetto culturale.
Significa recuperare la capacità di produrre scarti, interruzioni, deviazioni. Pensare fuori dal tracciato dell’efficienza. Significa nutrire i modelli con varietà semantiche, linguistiche e simboliche. Includere ciò che non si conforma. Significa insegnare il disallineamento come forma di pensiero critico. E significa, infine, interrogarsi su chi plasma i dati e su quali valori questi dati veicolano. Serve un’ecologia del pensiero, non una catena di montaggio dell’output.

Il vero pericolo dell’AI non è la menzogna, ma la normalizzazione del plausibile. Non è il falso, ma il prevedibile. Un sistema che filtra ciò che è atipico, spigoloso, complesso, non produce conoscenza: produce convergenza.
Dario, un mio amico antropologo, in un dialogo recente, mi ha detto qualcosa che merita di essere raccolto e rilanciato:
«Vorrei avere un decimo della tua capacità di apprendere da ogni contesto e ogni proposizione, per migliorare l’approccio agli argomenti, e per dribblare i bias cognitivi.»

Non è solo una dichiarazione di stima. È una diagnosi. Siamo ancora in grado di apprendere dal contesto? O stiamo solo riconoscendo ciò che conferma i nostri automatismi?

L’intelligenza non è una funzione dell’efficienza, ma dell’inatteso. Pensare, oggi, è un atto di resistenza contro l’ottimizzazione. E ogni volta che scegliamo una frase perché “suona bene”, potremmo star rinunciando a quella che avrebbe potuto farci inciampare nel vero.

Contenuto originale con assistenza IA – Autore responsabile


Sulla tematica Intelligenza Artificiale :
https://vittoriodublinoblog.org/category/intelligenza-artificiale/

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑