AI: idiota savant?

Un uomo con un cervello “sbagliato” ha messo in crisi la nostra idea di intelligenza.
Kim Peek, il vero “Rain Man”, nacque senza corpo calloso, con gravi malformazioni cerebrali. La medicina lo giudicò compromesso. La realtà lo rese uno dei più straordinari casi di memoria mai documentati.

Oggi, mentre celebriamo l’Intelligenza Artificiale come nuova frontiera del pensiero, Kim Peek ci pone una domanda scomoda: che cosa stiamo davvero chiamando intelligenza?
Le AI contemporanee apprendono soprattutto per correlazioni statistiche.
Kim ricordava dentro una relazione.
Le macchine ottimizzano prestazioni.
Lui cercava le persone.

Forse il rischio non è che le macchine diventino troppo intelligenti.
Forse è che noi riduciamo l’intelligenza a qualcosa che una macchina può simulare.

⟶ Continua a leggere l’analisi completa


Un cervello “sbagliato” per la medicina, decisivo per la scienza

Kim Peek nacque nel 1951 con una rarissima combinazione di anomalie neurologiche: agenesia completa del corpo calloso, ipoplasia del cervelletto, alterazioni nei lobi temporali. In seguito alcuni studi ipotizzarono un possibile inquadramento nella cosiddetta FG syndrome, a conferma della straordinarietà del quadro clinico. Le previsioni mediche furono drastiche: gravi deficit cognitivi, nessuna autonomia, sviluppo fortemente compromesso.

La diagnosi funzionale fu in parte corretta: Kim non fu mai autonomo nella vita quotidiana. Quella sull’intelligenza, invece, fu completamente smentita.

Nel corso della vita sviluppò una memoria ipertrofica, con oltre diecimila libri memorizzati, conoscenze enciclopediche in storia, musica, geografia e sport. Era un caso di savant syndrome non riducibile a modelli clinici standard.

La prima frattura concettuale è qui: l’intelligenza non coincide con la normalità biologica.

Architetture imperfette e intelligenze emergenti

Nel mondo dell’AI siamo abituati a pensare che l’intelligenza derivi da architetture pulite, ordinate, ottimizzate.
Il caso di Kim Peek racconta esattamente il contrario:
da un’architettura biologicamente anomala sono emerse capacità cognitive fuori scala.

Questo vale anche per le reti neurali artificiali:

  • non funzionano per regole rigide,
  • ma per apprendimento distribuito,
  • pesi adattivi,
  • dinamiche non lineari.

L’intelligenza, biologica o artificiale, non è un progetto lineare, ma un fenomeno emergente.

Kim Peek è un esempio biologico potente a favore di questa ipotesi.

Memoria biologica e memoria artificiale solo una falsa somiglianza

Kim impressionava per la memoria.
Le AI impressionano oggi per la capacità di assorbire enormi quantità di dati.

La somiglianza, però, è solo superficiale.

Kim ricordava dentro una biografia. Le AI memorizzano dentro una distribuzione statistica.

Kim collegava i dati a volti, emozioni, dialoghi. Le reti neurali ottimizzano correlazioni.

Un sistema può essere iper-informato senza essere consapevole.

La letteratura sull’“Emotional AI” conferma questo scarto: anche i sistemi più avanzati di affective computing riconoscono e classificano stati emotivi, ma non possiedono un’esperienza interna di quelle emozioni. Possono leggere e simulare, non sentire.
Come sottolinea, ad esempio, la review di Heidrich Vicci (2024) sull’intelligenza emotiva nell’AI, i sistemi di riconoscimento emotivo operano su pattern statistici e segnali multimodali, ma restano privi di una vera vita affettiva interna (Vicci 2024).

Ed è qui che si apre il problema etico.

Savant biologici e savant artificiali

Kim Peek era straordinario in alcuni ambiti e gravemente limitato in altri.
Le AI funzionano nello stesso modo:

  • eccellenti in compiti specifici,
  • incapaci di comprensione situata.

Una rete può riconoscere milioni di immagini.
Non sa che cosa sia un’immagine.

Kim sapeva rispondere su date storiche con precisione assoluta.
Non sapeva allacciarsi le scarpe.

Stiamo costruendo savant artificiali: sistemi potentissimi in nicchie ben definite, ma fragili non appena li spostiamo fuori dal perimetro dei dati su cui sono stati addestrati.
È esattamente ciò che Scott Fahlman ha definito “idiot-savant AI”: tecnologie super-umane in domini stretti, incapaci però di avvicinarsi al buon senso di un bambino o alla flessibilità di una mente umana che integra molte capacità diverse (Fahlman, Beyond Idiot-Savant AI).

Scambiare la prestazione per intelligenza è l’errore della nostra epoca

Il Novecento ha già confuso l’efficienza con il valore umano.
Ed oggi rischiamo di ripetere lo stesso errore con l’AI, pensando che:

  • performance = intelligenza
  • velocità = comprensione
  • calcolo = pensiero

Kim Peek smentisce radicalmente questa equazione.
Era inefficiente dal punto di vista funzionale. Ma era ricchissimo sul piano cognitivo e relazionale.

La stessa tentazione si ripresenta quando parliamo di “intelligenza emotiva artificiale”: c’è la tendenza a chiamare intelligenza quella che è, per ora, soprattutto capacità di analisi e risposta automatizzata a pattern emotivi estratti dai dati.
Lo stesso rischio viene denunciato da Fahlman, quando avverte che l’inseguimento di prestazioni super-umane in compiti ristretti rischia di farci dimenticare l’obiettivo originario dell’AI: capire e ricreare un’intelligenza ampia, contestuale, dotata di buon senso (Fahlman 2012).

Goleman, la neuroscienza e l’etica dell’AI

Daniel Goleman ha dimostrato che l’intelligenza non coincide con il solo QI.
Accanto all’intelligenza cognitiva esistono:

  • intelligenza emotiva
  • intelligenza sociale

Fondate su circuiti specifici:

  • amigdala
  • sistema limbico
  • corteccia prefrontale
  • neuroni specchio

Queste dimensioni sono decisive per:

  • empatia
  • responsabilità
  • cooperazione
  • etica

Kim Peek, pur con limiti funzionali enormi, possedeva:

  • desiderio di relazione
  • riconoscimento dell’altro
  • memoria personale
  • interazione affettiva

Le AI, per quanto potentissime:

  • non provano emozioni
  • non possiedono empatia
  • non hanno intenzionalità
  • non hanno esperienza soggettiva

Se prendiamo sul serio la cornice proposta da Goleman, le AI possiedono solo una frazione strumentale dell’intelligenza, non la sua forma piena.

Le ricerche recenti sulle organizzazioni e sulla leadership vanno nella stessa direzione: gli studi che integrano intelligenza emotiva e sistemi di AI mostrano che le decisioni migliori emergono quando l’AI viene usata come supporto cognitivo alla sensibilità emotiva del leader, non come sostituto della sua capacità di comprendere le persone.
In altre parole, l’AI può potenziare la nostra EI, non rimpiazzarla.
Lo studio di Deeksha Dwivedi (2025), ad esempio, propone modelli di integrazione tra EI (intelligenza emotiva) e strumenti di AI nella leadership, mostrando che i risultati migliori si ottengono quando l’AI rimane un alleato analitico al servizio della capacità umana di leggere emozioni, contesti e relazioni (Dwivedi 2025).

Il sillogismo noetico in dialogo con le evidenze scientifiche

Se:

  • l’intelligenza non è riducibile al calcolo (come suggeriscono i modelli di EI di Mayer, Salovey e Goleman),
  • può emergere anche da architetture biologicamente imperfette (Kim Peek),
  • le reti neurali producono prestazioni senza coscienza,

allora ne segue che:

  • non ogni prestazione è pensiero,
  • non ogni intelligenza è coscienza,
  • non ogni sistema intelligente è un soggetto.

Le review più recenti sulla Emotional AI lo confermano indirettamente:
finché la dimensione emotiva delle macchine resta limitata al riconoscimento di segnali e alla simulazione di empatia, siamo di fronte a una intelligenza funzionale, non a un nuovo tipo di soggetto esperiente.
Sia Vicci (2024) sia Singh e colleghi (2024), in due diverse rassegne, convergono su questo punto: l’AI può riconoscere e imitare stati emotivi, ma non dispone di quella stratificazione psicologica, corporea e biografica che rende l’intelligenza emotiva umana qualcosa di più di un semplice modulo computazionale (Vicci 2024; Singh et al. 2024).

Questo è il punto di non ritorno dell’etica dell’AI: non basta chiedersi che cosa una macchina può fare; dobbiamo chiederci che cosa significa, per noi, convivere con sistemi che imitano aspetti dell’intelligenza senza condividerne la profondità cosciente.

Desiderio, relazione, senso sono il vero test etico

Kim Peek desiderava relazione.
Ricordava i nomi.
Cercava il sorriso dell’altro.

Mentre, le macchine non desiderano nulla (almeno per ora)ì. Il problema non è che le macchine diventino potenti. Il problema è che l’uomo accetti di diventare funzionale come una macchina.

Una parte della letteratura più attenta sull’interazione uomo–AI insiste proprio su questo: il tocco umano, cioè la capacità di sentire, prendersi cura, assumersi responsabilità, resta insostituibile, anche quando l’AI ci supera in velocità di calcolo. L’intelligenza emotiva non è un vezzo “soft”: è la condizione perché la tecnologia resti al servizio della vita umana e non viceversa.
Come mostra la review di Ajit Pal Singh e colleghi (2024), il futuro più promettente non è quello in cui l’AI rimpiazza il “tocco umano”, ma quello in cui la potenza di calcolo viene esplicitamente progettata per amplificare, e non erodere, la nostra capacità di empatia, cura e responsabilità (Singh et al. 2024).

L’etica dell’errore

Kim Peek era, per la medicina del suo tempo, un “errore” biologico.
Ma era un errore che produceva conoscenza, relazione, senso.

L’AI tende a cancellare l’errore.
Eppure è proprio l’errore che rende umano il pensiero.

Forse l’etica dell’AI non deve partire da ciò che la macchina può fare.
Ma da una domanda più profonda:

Che tipo di umanità vogliamo preservare mentre costruiamo ciò che imita la mente? Ho provato a esplorare questa domanda anche in chiave più poetica, sotto la lente dell’antropologia, nell’Inno al Limite

E ancora: siamo disposti a difendere la parte imprevedibile, imperfetta, vulnerabile della nostra intelligenza, in quella in cui abitano le emozioni, i legami, il senso, anche in un’epoca in cui tutto ci spinge a misurare valore solo in termini di performance?


Riflessioni sul tema:
Intelligenza Artificiale
Digital Divide Culturale

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑