Episodio 1 – Scorciatoie di silicio.

Quando l’algoritmo sbaglia come noi

Che cosa significa davvero quando un algoritmo comincia a sbagliare in modi che ci risultano stranamente familiari?

Ci piace pensare che le macchine siano più razionali di noi.
Che non sbaglino per fretta, intuizione o pregiudizio.
Che non cadano nelle trappole mentali che caratterizzano il pensiero umano.

E invece non è così. Anche gli algoritmi, in certi contesti, sembrano prendere scorciatoie. Rispondono troppo in fretta, si lasciano guidare dal contesto, cadono in errori che, a guardarli bene, ci sono sorprendentemente familiari.
Non perché abbiano una mente come la nostra, ma perché il loro comportamento, sempre più spesso, assomiglia al nostro modo di sbagliare.

Per decenni l’immaginario tecnologico si è retto su un’idea quasi ovvia: le macchine sono razionali, gli esseri umani no. Noi siamo soggetti a errori, bias, scorciatoie cognitive. Loro, invece, calcolano, ottimizzano, non si distraggono, non si confondono.

È una narrazione potente. Ma oggi, di fronte ai modelli linguistici avanzati, comincia a incrinarsi. Non perché le macchine siano diventate irrazionali nel senso umano del termine, ma perché, osservando il loro comportamento, iniziamo a riconoscere qualcosa di familiare: pattern di errore che ricordano le nostre scorciatoie mentali.

In psicologia cognitiva esiste un esperimento molto noto.

Una mazza e una palla costano insieme 1 euro e 10 centesimi. La mazza costa 1 euro in più della palla. Quanto costa la palla?
La risposta intuitiva è 10 centesimi. Ed è sbagliata.
La soluzione corretta è 5 centesimi: se la palla costa x, la mazza costa x+1, e la somma è 2x+1 = 1,10, quindi x = 0,05.


Questo tipo di errore nasce da una scorciatoia cognitiva: una risposta veloce, plausibile, ma non verificata. Per anni abbiamo considerato questo meccanismo come una firma dell’umano. Oggi succede qualcosa di diverso. Anche i modelli linguistici, in certe condizioni, danno la risposta intuitiva sbagliata. Non sempre, non nello stesso modo, ma abbastanza spesso da rendere la somiglianza impossibile da ignorare.

Ma il punto non è fermarsi alla somiglianza. Il punto è capire da dove arrivano questi errori nella macchina. Ed è qui che il quadro si complica. Se si sottopone un modello linguistico a una variante del celebre test di framing elaborato da Amos Tversky e Daniel Kahneman, emerge un aspetto interessante. In questo esperimento classico della psicologia cognitiva, la stessa situazione viene presentata in due formulazioni diverse – una in termini di guadagno, l’altra in termini di perdita – per osservare se la scelta cambia nonostante l’equivalenza logica delle opzioni. Studi recenti hanno adattato questo tipo di prova anche ai modelli linguistici, trattandoli come soggetti di test psicologici.

Quando il framing viene testato nei modelli linguistici

Nel celebre esperimento di framing di Tversky e Kahneman, due problemi logicamente equivalenti vengono presentati in modo diverso: una volta come guadagno, un’altra come perdita. Negli esseri umani, questo semplice cambio di cornice basta spesso a modificare la scelta..

Ricerche più recenti hanno adattato questo schema anche ai modelli linguistici, sottoponendo sistemi come ChatGPT 3.5 e 4 a test ispirati proprio agli esperimenti di Kahneman e Tversky. I risultati mostrano che bias come availability, representativeness e soprattutto framing compaiono anche nelle risposte dei modelli. In particolare, il framing emerge in modo piuttosto stabile: a parità di struttura logica, una diversa formulazione del problema può orientare la risposta del sistema in direzioni diverse. Gli autori osservano inoltre che molte risposte dei modelli risultano “non-human-like”, cioè meno vicine alla variabilità tipica del comportamento umano, ma comunque chiaramente influenzate dalla cornice linguistica della domanda.

Questo non significa che un modello reagisca sempre allo stesso modo, né che “provi” qualcosa nel senso umano del termine. In altri casi, infatti, un sistema linguistico può riconoscere il meccanismo del test, spiegarlo e correggere esplicitamente il bias. Ed è proprio qui che il fenomeno diventa più interessante: non siamo davanti a un errore fisso e meccanico, ma a una variabilità comportamentale che, in certe condizioni, ricorda da vicino l’oscillazione umana tra risposta intuitiva e risposta analitica.

Il punto, allora, non è sostenere che il modello sbagli sempre come noi. Il punto è osservare che può farlo e che, quando accade, il suo comportamento appare coerente con pattern cognitivi ben noti nella psicologia umana. Questo suggerisce che almeno una parte di tali dinamiche non sia stata programmata in modo esplicito, ma emerga dall’apprendimento su dati e feedback di origine umana.

Le ricerche più recenti confermano che questa non è un’eccezione. I bias cognitivi entrano nei sistemi di intelligenza artificiale attraverso dati non rappresentativi, scelte di progetto e decisioni umane. Uno studio recente sottolinea che confirmation bias, anchoring bias e automation bias emergono concretamente in ambiti sensibili come giustizia, sanità e selezione del personale, e che il problema non può essere affrontato solo sul piano tecnico, ma richiede trasparenza, audit e collaborazione interdisciplinare.

Un altro lavoro propone di leggere l’AI come un sistema socio-tecnico e non come un oggetto puramente tecnico, mostrando come euristiche umane come rappresentatività, disponibilità, ancoraggio e perfino affettività si intreccino con i bias algoritmici lungo l’intero ciclo di vita dell’AI, dalla raccolta dei dati alla progettazione, fino all’uso concreto. La loro tesi è netta: le scorciatoie cognitive non restano fuori dalla macchina. Migrano dentro di essa attraverso le azioni, le scelte e i criteri con cui viene costruita.

In altre parole, le euristiche non scompaiono quando costruiamo algoritmi. Si trasformano. Una scorciatoia mentale può diventare una scelta di dataset, un’intuizione un criterio di selezione, una preferenza una regola implicita del sistema.

In questo senso, l’algoritmo non sbaglia come una macchina. Sbaglia come un essere umano che ha imparato a imitarsi.

Alcuni studi, del resto, hanno già iniziato a trattare i modelli linguistici come soggetti di test psicologici, sottoponendoli agli stessi esperimenti usati per studiare i bias umani. Non è più solo una suggestione teorica: esiste già una letteratura che prova a misurare questi fenomeni.





Evidenze scientifiche sui bias nei modelli AI

Studi recenti mostrano che i modelli linguistici (LLM) possono manifestare bias cognitivi analoghi a quelli umani, come:
  • Availability heuristic: giudizi influenzati dalle informazioni più salienti o immediatamente disponibili
  • Representativeness heuristic: associazioni stereotipiche o inferenze basate sulla somiglianza
  • Framing effect: risposte influenzate dalla forma in cui una domanda viene posta
Queste distorsioni possono emergere attraverso:
  • dati di addestramento di origine umana
  • processi di selezione, annotazione e filtraggio
  • feedback umano nei sistemi di apprendimento
In alcuni casi, tali bias risultano persino più stabili e sistematici rispetto al comportamento umano, mostrando come l’AI possa non solo riflettere, ma anche amplificare pattern cognitivi già presenti.

Non siamo quindi davanti a un’impressione aneddotica, ma a un comportamento osservabile e ripetuto. Ed è proprio questo che cambia la prospettiva.

Per anni abbiamo immaginato l’intelligenza artificiale come un modo per superare i limiti umani: una razionalità più pura, più fredda, più affidabile. Ma ciò che emerge è diverso. Non stiamo costruendo un’alternativa all’umano. Stiamo costruendo uno specchio amplificato. Un sistema che prende le nostre scorciatoie, le nostre semplificazioni, le nostre distorsioni e le rende ripetibili, scalabili, sistematiche. Dove l’essere umano è incoerente, l’algoritmo è coerente. Ma è una coerenza costruita sull’errore.

La questione, allora, non è dire banalmente che anche le macchine sbagliano. Il punto è capire come sbagliano, e riconoscere che questi errori non nascono dal nulla. Affondano nelle strutture cognitive e culturali da cui i modelli apprendono.

Questo tema si collega a una riflessione che ho sviluppato in precedenza sui bias culturali nei modelli linguistici: il fatto che i sistemi non apprendano solo informazioni, ma anche visioni del mondo, gerarchie implicite e schemi interpretativi che derivano dai dati su cui sono stati addestrati.

Qui entra in gioco una conseguenza più scomoda: se l’AI eredita distorsioni dai dati, dalle procedure e dalle preferenze umane, allora non possiamo continuare a pensare che basti aumentare la potenza computazionale per ottenere sistemi più giusti o più intelligenti. La macchina non corregge automaticamente il mondo da cui nasce. Può invece assorbirne gli squilibri e restituirli in forma più efficiente.

Ed è da qui che la domanda di questa serie diventa concreta: se un sistema artificiale cade in scorciatoie simili alle nostre, è influenzato dal contesto e produce errori sistematici osservabili, ha senso iniziare a descriverlo anche con gli strumenti della psicologia? Non per attribuirgli una mente, né per cedere all’antropomorfismo facile, ma per capire meglio il suo comportamento. E forse, attraverso questo, anche il nostro.

Perché il punto decisivo, in fondo, è questo: le macchine non pensano come noi, ma cominciano a sbagliare in modi che riconosciamo. Ed è forse proprio lì, nella struttura dell’errore, che una forma di mente artificiale smette di apparire come pura metafora e comincia a diventare un problema serio di osservazione.

Nel prossimo episodio esploreremo un’altra frontiera instabile: quando un modello linguistico assume ruoli diversi, cambia tono, adotta maschere contraddittorie. Possiamo parlare di personalità multiple dell’algoritmo? E cosa ci dice questo sulla nostra idea di sé e di coerenza?

Riferimenti scientifici e studi citati

Le riflessioni sviluppate in questo articolo si appoggiano a una linea di ricerca che analizza il rapporto tra bias cognitivi umani e comportamento dei sistemi di intelligenza artificiale.

  • Bias cognitivi nei sistemi AI
    Cognitive Biases: Understanding and Designing Fair AI Systems for Software Development
    Il paper mostra come bias quali confirmation bias, anchoring bias e automation bias possano entrare nei sistemi AI attraverso dati non rappresentativi, scelte di progetto e decisioni umane, con effetti concreti in ambiti sensibili come giustizia, sanità e selezione del personale.

  • AI come sistema socio-tecnico
    Rolling in the deep of cognitive and AI biases
    Questo lavoro propone di leggere l’AI non come un oggetto puramente tecnico, ma come un sistema socio-tecnico nel quale euristiche umane come rappresentatività, disponibilità, ancoraggio e affettività migrano nei bias algoritmici lungo l’intero ciclo di vita dei modelli.

  • Bias cognitivi negli LLM osservati empiricamente
    Examining Cognitive Biases in ChatGPT 3.5 and 4 through Human Evaluation and Linguistic Comparison
    Lo studio confronta i modelli con soggetti umani su availability, representativeness e framing. I bias risultano presenti in entrambi i modelli; il framing emerge in modo molto stabile, mentre GPT-4 mostra prestazioni migliori soprattutto sul versante dell’availability heuristic.
Questi studi convergono su un punto: i modelli di intelligenza artificiale non sono sistemi neutrali, ma riflettono – e in alcuni casi amplificano – le strutture cognitive e culturali da cui apprendono.

In altre parole: l’AI non introduce il problema. Lo rende visibile.

Questo articolo è il primo episodio della serie “Psicologia per robot”, inaugurata dall’Episodio Zero, “Psicologia per robot: la domanda non è più assurda”:
https://vittoriodublinoblog.org/2026/03/25/psicologia-per-robot-la-domanda-non-e-piu-assurda/

Dopo aver posto la domanda di metodo – ha senso osservare i modelli linguistici anche con categorie psicologiche? – questo episodio entra nel primo campo concreto di osservazione: le scorciatoie cognitive.
Il punto non è dire che l’AI pensi come noi, ma osservare che alcuni suoi errori, alcune sue approssimazioni e alcune sue risposte troppo rapide possono ricordare, per effetto, le scorciatoie con cui anche la mente umana semplifica la realtà.

Nel prossimo episodio, “Personalità multiple dell’algoritmo”, il discorso si sposterà su un altro aspetto: la capacità dei modelli linguistici di cambiare registro, postura e apparente personalità in base al contesto, al ruolo e alla cornice della conversazione:
https://vittoriodublinoblog.org/2026/03/26/episodio-2-personalita-multiple-dellalgoritmo/

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑