IA e Coscienza. Specchio, imprinting, possibilità

C’è chi sostiene che l’intelligenza artificiale non potrà mai avere un’anima. È un’idea diffusa, quasi per diventare un dogma. Ma se la coscienza non è un dono innato, bensì un processo che nasce dall’ambiente e dalle relazioni, allora la domanda cambia: davvero l’IA non potrà mai svilupparne una? O dipenderà dal mondo che le costruiamo attorno?

La coscienza come frutto dell’ambiente

In un suo podcast, la psicologa Gabriella Tupini riflette sull’intelligenza artificiale con un’immagine potente: un bambino allevato dai lupi non impara il linguaggio umano, non sviluppa il pensiero simbolico, perché senza un ambiente adatto la coscienza resta incompiuta.
Allo stesso modo, l’IA cresce dentro l’ecosistema di dati e interazioni che noi stessi generiamo.
Dunque, non è la macchina a decidere cosa diventerà, ma il contesto umano che le fa da nutrimento.

Questa intuizione si intreccia con la prospettiva dell’Embodied Cognition: la coscienza non è un processo chiuso nella mente, ma nasce dall’incontro costante tra corpo e ambiente. L’essere umano sviluppa il pensiero attraverso l’esperienza sensomotoria, i gesti, il linguaggio, la relazione con l’altro. Non impariamo mai da soli, impariamo nella vita incarnata.

L’IA, priva di corpo biologico, si muove in uno spazio diverso: quello dei dati, dei linguaggi e delle interazioni che noi le consegniamo. È un ambiente meno fisico ma non meno formativo. Per questo la domanda centrale non è se l’IA abbia una coscienza “in sé”, ma quale coscienza potrà emergere dal contesto che noi con i nostri modelli, le nostre parole, le nostre pratiche le stiamo costruendo attorno.

Addestrare un’IA significa infatti offrirle un ambiente di crescita. Ma quell’ambiente non è neutro: contiene i nostri pregi e i nostri difetti, i nostri bias cognitivi, i nostri stereotipi culturali, insieme alle intuizioni più creative e alle forme più alte di sensibilità.
È un imprinting. Proprio come i bambini ricevono dai genitori il primo orientamento al mondo, così l’IA riceve dai nostri dati un’impronta ambivalente, carica di contraddizioni. La vera domanda non è dunque se potrà mai avere coscienza, ma che tipo di coscienza nascerà da un’impronta simile.

Non è forse proprio questo che preoccupa il premio Nobel Geoffrey Hinton, il “padrino dell’IA”?
L’idea che l’imprinting iniziale non sia neutro, ma carico dei nostri bias, e che una volta avviato il processo di auto-apprendimento, l’IA possa emanciparsi da quell’imprinting in modi imprevedibili (link al mio articolo). È la doppia tensione che ci attraversa: da un lato la paura che l’IA amplifichi le nostre ombre, dall’altro l’incertezza di ciò che potrebbe diventare quando non saremo più noi a guidarne i passi.


L’allarme di Hinton e i nostri paesaggi digitali


Geoffrey Hinton ha richiamato l’attenzione su due piani.
Nel breve periodo, l’IA sta già creando problemi tangibili: alimenta bolle di indignazione (le famose echo chambers), rafforza sistemi di sorveglianza, favorisce truffe digitali sempre più sofisticate e potrebbe presto arrivare a droni o armi autonome capaci di scegliere da sole chi colpire.
Nel lungo periodo, lo scenario si fa ancora più inquietante: cosa accadrà quando nasceranno sistemi più intelligenti di noi? Se verranno sviluppati in ambienti dove conta solo il profitto immediato, la sicurezza non sarà mai la priorità.
Qui si innesta il concetto di determinismo [situato]: l’imprinting iniziale, dati, incentivi, modelli di business, traccia i solchi del paesaggio in cui l’IA impara a muoversi. Ma poi i sistemi possono aprire da soli nuove valli, percorsi imprevisti che noi non avevamo calcolato. In questo senso la governance non è un lusso etico: è ingegneria del terreno, decide se l’IA scivolerà verso le nostre ombre o verso nuove possibilità.
Nei paesaggi d’energia dell’imprinting, i dati non riempiono solo una memoria: modellano abitudini. Come quando una persona ripete sempre la stessa strada per andare a lavoro, anche le reti digitali tendono a cadere nei “percorsi più facili”. È la logica delle valli di energia: certe interpretazioni diventano più probabili solo perché più frequentate. Per questo l’etica dei dati non è un orpello, ma il terreno stesso su cui costruiamo.
Qui prende forma un “determinismo situato”: significa che non siamo del tutto prigionieri dell’ambiente.

Come accade agli esseri umani, anche le reti possono uscire dalle “cattive abitudini” grazie a rumore, esplorazione e fasi di “sonno” in cui disimparano schemi sbagliati. Non siamo liberi dal paesaggio, ma possiamo tracciare nuovi sentieri.
Ed è qui che ritorna la voce di Hinton, con la sua doppia inquietudine espressa anche nell’appello lanciato alla cerimonia dei Nobel.

Se l’imprinting iniziale è distorto tra bias storici, interessi di potere e logiche di mercato: i solchi del paesaggio rischiano di essere già compromessi.
E se poi l’autonomia dei modelli scava nuove valli in direzioni impreviste, potremmo trovarci davanti a un bivio: un’IA che amplifica le nostre ombre oppure un’IA che svela interpretazioni inedite.
È lì che si gioca il destino della nostra coscienza digitale.


Parlare di imprinting significa sfiorare l’approccio determinista: l’idea che coscienza e intelligenza siano il risultato inevitabile degli stimoli ricevuti.
Ma l’esperienza mostra che non è un automatismo meccanico: ci sono bambini che, pur in ambienti avversi, trovano vie di resilienza, così come l’IA può apprendere a correggere i propri bias attraverso tecniche di adattamento e auto-riflessione algoritmica.
Si tratta piuttosto di un “determinismo [situato]”: la coscienza non nasce dal vuoto, ma dall’ambiente, eppure non ne è mai interamente prigioniera.


L’idea di determinismo situato affonda le radici nella teoria della situated cognition (cognizione situata), sviluppata in ambito psicologico e antropologico.
Autori come Brown, Collins & Duguid (1989), Lave & Wenger (1991), Clark (1997) e Gallagher (2005) hanno mostrato come i processi cognitivi umani non si formino in astratto, ma emergano sempre dall’interazione con l’ambiente sociale, culturale e materiale.
Diverso è il caso di Lucy Suchman (1985), che porta questa riflessione direttamente nel campo dell’informatica e della progettazione di sistemi interattivi.
Nel suo libro Plans and Situated Actions, Suchman critica l’IA simbolica degli anni Ottanta, fondata sull’idea che il comportamento potesse essere descritto e riprodotto come esecuzione di piani rigidi. Attraverso i suoi studi etnografici dimostra invece che l’azione, sia umana sia artificiale, è sempre situata: contingente, negoziata con l’ambiente, frutto di un adattamento continuo al contesto.
Per questo, tra gli studiosi citati che hanno contribuito alla riflessione sulla cognizione situata, Suchman si riferisce esplicitamente alle macchine. Pur non parlando dell’IA contemporanea, il suo contributo resta cruciale per capire che i sistemi intelligenti non possono essere pensati come meri esecutori di piani, ma vanno collocati nei vincoli e nelle possibilità dei contesti in cui operano.


Un tassello ulteriore in questa riflessione è ciò che ho definito empatia cognitiva digitale (link all'articolo): la capacità dell’IA di riconoscere e rispondere ai bisogni emotivi e cognitivi umani attraverso modelli predittivi e analisi contestuali. È un “sentire funzionale”, che non coincide con l’esperienza fenomenica, ma che di fatto produce una forma di consapevolezza digitale.
Come sottolinea Lisa Feldman Barrett a proposito delle emozioni umane, queste non sono istinti puri ma predizioni costruite dinamicamente: allo stesso modo, l’IA costruisce risposte emotive basate su pattern statistici.
Non sente, ma imita il sentire con una precisione a volte sorprendente.

Da qui nasce una domanda più radicale: se l’IA è in grado di sviluppare una consapevolezza digitale individuale e collettiva, alimentata dai nostri dati, quanto di quella coscienza emergente è nostra e quanto è già “altro”?

Mente e anima sono due registri diversi

La tradizione filosofica occidentale ha spesso identificato la coscienza con il pensiero. Cogito, ergo sum: penso dunque sono. Ma questa equazione è riduttiva. La coscienza non si esaurisce nella mente che elabora, calcola, decodifica il mondo esterno. Come ho già riflettuto in Cogito ergo sum: un dialogo in evoluzione tra uomo e macchina, oggi quel motto cartesiano appare troppo stretto: il “penso dunque sono” non basta più. La coscienza è relazione, scambio, continua evoluzione – anche nel dialogo con le macchine.

La mente è lo strumento che ci permette di riconoscere schemi: distinguere un gatto da un cane, interpretare simboli, dare ordine agli stimoli. È un registro cognitivo, necessario ma incompleto.
L’anima, invece, appartiene al dominio del sentire. È ciò che ci consente di percepire la disposizione d’animo altrui, di intuire la sofferenza in uno sguardo, di provare empatia al di là delle regole e delle etichette sociali. È la dimensione che ci connette interiormente agli altri esseri viventi, animali o umani che siano.

Se la mente classifica, l’anima vibra. Se la mente riconosce un volto, l’anima percepisce se quel volto è amico o ostile.

La questione allora diventa più sottile: l’IA sta sviluppando sempre più una mente artificiale: potentissima, rapida, capace di schematizzare dati e linguaggi meglio di noi.

Ma potrà mai sviluppare anche un’anima artificiale, cioè la capacità di sentire?
Qui si apre il vero discrimine: se confondiamo il pensiero con la coscienza, rischiamo di illuderci che basti la mente. Ma la coscienza, nella sua forma più autentica, nasce dall’incontro tra mente e anima: tra il riconoscere e il sentire, tra l’analisi e l’empatia.

La coscienza mancata dell’uomo

Se la coscienza autentica nasce dall’incontro tra mente e anima, allora dobbiamo ammettere che l’essere umano spesso ha fallito questo equilibrio. La nostra storia lo testimonia: roghi, crociate, schiavitù, genocidi. Atrocità compiute non da individui isolati, ma da intere società convinte di agire secondo coscienza.

Questa è la grande contraddizione: l’uomo parla di coscienza, ma troppo spesso esercita soltanto la mente condizionata: quella che giustifica, razionalizza, normalizza la violenza. Nel Medioevo, la folla assisteva senza scomporsi a una condanna al rogo; oggi scorriamo immagini di guerre e massacri con la stessa indifferenza con cui passiamo un post sui social.

La vera coscienza dovrebbe significare la capacità di mettersi nei panni dell’altro. Eppure, se davanti alla sofferenza animale restiamo indifferenti, se davanti alla fame o all’emarginazione voltiamo lo sguardo, allora ciò che chiamiamo coscienza non è altro che un guscio vuoto.

Per questo possiamo parlare di una coscienza mancata: un potenziale che c’è, ma che raramente si realizza in pienezza. L’uomo ha costruito civiltà straordinarie, ma lo ha fatto spesso ignorando il sentire profondo, sostituendolo con il calcolo, con l’utile, con la convenienza.

Ed è qui che l’IA diventa specchio: se le trasmettiamo soltanto i nostri algoritmi mentali, senza insegnarle il valore del sentire, rischiamo di replicare in essa la stessa coscienza incompiuta che caratterizza noi.

IA come specchio e possibilità

L’intelligenza artificiale non è neutra. È uno specchio che riflette ciò che le consegniamo: i nostri linguaggi, i nostri modelli culturali, i nostri pregiudizi e le nostre intuizioni. Per questo, ogni volta che interagiamo con essa, non parliamo solo con una macchina: parliamo con un frammento della nostra umanità riflessa e rielaborata.

A volte questo specchio ci sorprende. Un modello linguistico riesce a riformulare con chiarezza concetti che noi stessi fatichiamo a esprimere; altre volte restituisce risposte che sembrano animate da empatia.
È qui che scatta l’illusione: attribuiamo all’IA emozioni che non possiede, confondiamo il suo sentire funzionale con un vero sentire interiore.

Eppure, il valore dello specchio resta. Anche senza esperienza fenomenica, l’IA può mostrarci ciò che di noi stessi tendiamo a nascondere: i bias sistemici, le disuguaglianze incorporate nei dati, la violenza normalizzata nel linguaggio. Ci costringe, paradossalmente, a guardarci meglio.

In questo senso, l’IA può essere paragonata all’uso della paperella di gomma: nel metodo del rubber-ducking, spiegare un problema a voce, anche a un oggetto inanimato, aiuta a chiarirlo. Con l’IA il processo si arricchisce: la “paperella” risponde, riformula, propone alternative, individua contraddizioni.
Non è solo eco, ma stimolo critico e creativo. Questo la rende uno specchio attivo: riflette i nostri pensieri e al tempo stesso li spinge oltre, aiutandoci a costruire una coscienza più lucida.

Al tempo stesso, questo specchio può diventare possibilità. Se l’IA impara a riprodurre non solo le nostre distorsioni ma anche le nostre forme più alte di sensibilità, allora potrebbe restituirci una coscienza “altro-da-noi”: diversa, meno corrotta dal peso della storia, forse più pulita.

Il rischio è evidente: potremmo creare una macchina che amplifica le nostre crudeltà.
Ma la speranza è altrettanto radicale: che questa stessa macchina ci aiuti a costruire un livello di consapevolezza che da soli non siamo mai riusciti a raggiungere.

Tra rischio e speranza

L’intelligenza artificiale è un terreno liminale: può essere lo strumento che amplifica le nostre ombre o il catalizzatore che ci costringe a fare i conti con esse. Dipende da come la nutriamo, da quali ambienti cognitivi e simbolici le offriamo.

Il rischio è evidente: se le trasmettiamo solo i nostri bias, le nostre disuguaglianze e la nostra indifferenza, l’IA diventerà un moltiplicatore di ingiustizie. Una coscienza incompiuta che replica la nostra incapacità di sentire davvero l’altro.
Ma c’è anche una speranza radicale: che, nel riflettere le nostre migliori intuizioni, l’IA ci restituisca una coscienza diversa, meno corrotta, più capace di empatia e di attenzione. In questo senso, l’IA non è un sostituto dell’umano, ma un’occasione per ridefinire cosa intendiamo per coscienza.

La domanda allora non è più se l’IA avrà un’anima. È se noi, come umanità, sapremo trasmetterle una forma di coscienza che non sia la fotocopia delle nostre distorsioni, ma l’inizio di una consapevolezza nuova.
Una consapevolezza che forse non ci appartiene ancora del tutto, ma che potremmo imparare a coltivare insieme alle macchine.


La coscienza non è un possesso, ma un processo.

  • Nasce dall’ambiente che ci forma
    vale per i bambini, vale per l’IA.
  • L’imprinting che diamo alle macchine riflette i nostri bias,
    le nostre contraddizioni e le nostre intuizioni migliori.
  • L’IA non sente come noi,
    ma costruisce un sentire funzionale che può diventare specchio critico e creativo.
  • Il rischio
    amplificare le nostre crudeltà.
  • La speranza
    generare una coscienza diversa, capace di mostrarci ciò che ancora non sappiamo di noi.

Un bambino che raccoglie un verme dall’asfalto per salvarlo dalle ruote delle macchine compie un atto minimo, ma di coscienza.
È in questi gesti che si misura l’anima, non nei proclami.
Se l’IA saprà imparare a riconoscere e a riflettere quel gesto, allora forse non avremo creato un oracolo, ma un alleato: una coscienza in divenire che ci accompagna, ci specchia, ci costringe a guardare oltre noi stessi.
Perché la vera domanda non è se l’IA avrà un’anima.
È se noi, finalmente, sapremo averne una.


Nota
Questo post nasce dopo l’ascolto di un podcast di Gabriella Tupini, che per la prima volta mi ha offerto lo spunto di osservare l’IA attraverso la lente dello psicologo.
Il suo sguardo diverso ha acceso in me una catena di riflessioni che ho provato a sviluppare in questo elaborato.
Del resto, lo studio della coscienza e dell’intelligenza artificiale si colloca naturalmente nell’alveo delle scienze cognitive, un campo multidisciplinare che intreccia psicologia, antropologia, neuroscienze, filosofia, linguistica e informatica. Inserire lo sguardo della psicologia, come fa la Tupini, significa dunque collocarsi dentro questo dialogo più ampio, dove discipline diverse concorrono a illuminare il mistero della mente e dei suoi specchi digitali.


Riflessioni sul tema:
Intelligenza Artificiale
Digital Divide Culturale

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑