Episodio 1 – Scorciatoie di silicio.

Quando l’algoritmo sbaglia come noi

Ci piace pensare che le macchine siano più razionali di noi.
Che non sbaglino per fretta, intuizione o pregiudizio.
Che non cadano nelle trappole mentali che caratterizzano il pensiero umano.
E invece non è così. Anche gli algoritmi, in certi contesti, sembrano prendere scorciatoie. Rispondono troppo in fretta, si lasciano guidare dal contesto, cadono in errori che, a guardarli bene, ci sono sorprendentemente familiari.
Non perché abbiano una mente come la nostra, ma perché il loro comportamento, sempre più spesso, assomiglia al nostro modo di sbagliare.

Se c’è un’idea che ha accompagnato l’immaginario tecnologico per decenni è questa: le macchine sono razionali, gli esseri umani no. Noi siamo soggetti a errori, bias, scorciatoie cognitive. Loro, invece, calcolano, ottimizzano, non si distraggono, non si confondono.
È una narrazione potente. Ma oggi, di fronte ai modelli linguistici avanzati, comincia a incrinarsi. Non perché le macchine siano diventate irrazionali nel senso umano del termine, ma perché, osservando il loro comportamento, iniziamo a riconoscere qualcosa di familiare: pattern di errore che ricordano le nostre scorciatoie mentali.

In psicologia cognitiva esiste un esperimento molto noto.

Una mazza e una palla costano insieme 1 euro e 10 centesimi. La mazza costa 1 euro in più della palla. Quanto costa la palla?
La risposta intuitiva è 10 centesimi. Ed è sbagliata.
La soluzione corretta è 5 centesimi: se la palla costa x, la mazza costa x+1, e la somma è 2x+1 = 1,10, quindi x = 0,05.


Questo tipo di errore nasce da una scorciatoia cognitiva: una risposta veloce, plausibile, ma non verificata. Per anni abbiamo considerato questo meccanismo come una firma dell’umano. Oggi succede qualcosa di diverso. Anche i modelli linguistici, in certe condizioni, danno la risposta intuitiva sbagliata. Non sempre, non nello stesso modo, ma abbastanza spesso da rendere la somiglianza impossibile da ignorare.

Ma non si tratta solo di una somiglianza superficiale. Il punto è capire da dove arrivano questi errori nella macchina.

Provando a sottoporre a un modello linguistico una variante del celebre test di framing elaborato da Amos Tversky e Daniel Kahneman, emerge un aspetto interessante. In questo esperimento classico della psicologia cognitiva, la stessa situazione viene presentata in due formulazioni diverse – una in termini di guadagno, l’altra in termini di perdita – per osservare se la scelta cambia nonostante l’equivalenza logica delle opzioni. Studi recenti hanno adattato questo tipo di prova anche ai modelli linguistici, trattandoli come soggetti di test psicologici.

Quando il framing viene testato nei modelli linguistici

Nel celebre esperimento di framing di Tversky e Kahneman, due problemi logicamente equivalenti vengono formulati in modo diverso: una volta in termini di guadagno, un’altra in termini di perdita. Negli esseri umani, questo semplice cambio di cornice basta spesso a modificare la scelta.

Ricerche più recenti hanno adattato questo schema ai modelli linguistici, sottoponendo sistemi come ChatGPT 3.5 e 4 a test ispirati proprio a Kahneman e Tversky. I risultati mostrano che bias come availability, representativeness e soprattutto framing compaiono anche nelle risposte dei modelli. In particolare, il framing emerge in modo molto stabile: a parità di struttura logica, la diversa formulazione del problema può orientare la risposta del sistema in direzioni diverse. Gli autori osservano inoltre che molte risposte dei modelli risultano “non-human-like”, cioè meno vicine alla variabilità tipica del comportamento umano, ma comunque chiaramente influenzate dalla cornice linguistica della domanda. :contentReference[oaicite:2]{index=2}

Questo non significa che un modello reagisca sempre allo stesso modo, né che “provi” qualcosa nel senso umano del termine. In altri casi, infatti, un sistema linguistico può riconoscere il meccanismo del test, spiegarlo e correggere esplicitamente il bias. Ed è proprio qui che il fenomeno diventa più interessante: non siamo davanti a un errore fisso e meccanico, ma a una variabilità comportamentale che, in certe condizioni, ricorda da vicino l’oscillazione umana tra risposta intuitiva e risposta analitica.

In altre parole, il punto non è sostenere che il modello sbagli sempre come noi. Il punto è osservare che può farlo, e che quando accade il suo comportamento appare coerente con pattern cognitivi ben noti nella psicologia umana. Questo suggerisce che almeno una parte di tali dinamiche non sia stata programmata in modo esplicito, ma emerga dall’apprendimento su dati e feedback di origine umana.

Le ricerche più recenti confermano che questa non è un’eccezione.
I bias cognitivi entrano nei sistemi di intelligenza artificiale attraverso dati non rappresentativi, scelte di progetto e decisioni umane. Uno studio recente sottolinea che confirmation bias, anchoring bias e automation bias emergono concretamente in domini sensibili come giustizia, sanità e selezione del personale, e che il problema non può essere risolto solo tecnicamente, ma richiede trasparenza, audit e collaborazione interdisciplinare.

Un altro lavoro propone di leggere l’AI come un sistema socio-tecnico e non come un oggetto puramente tecnico, mostrando come le euristiche umane – rappresentatività, disponibilità, ancoraggio e perfino affettività – si intreccino con i bias algoritmici lungo l’intero ciclo di vita dell’AI, dalla raccolta dati alla progettazione, fino all’uso concreto. La loro tesi è netta: le scorciatoie cognitive non restano fuori dalla macchina. Migrano dentro di essa attraverso le azioni, le scelte e i criteri con cui viene costruita.

In altre parole, le euristiche non scompaiono quando costruiamo algoritmi. Si trasformano.
Una scorciatoia mentale diventa una scelta di dataset. Un’intuizione diventa un criterio di selezione. Una preferenza diventa una regola implicita del sistema.
Possiamo leggere questo fenomeno in modo ancora più preciso. Ogni distorsione dell’AI può essere ricondotta a una sequenza: scorciatoia umana, decisione di progetto, risultato distorto. Una scelta apparentemente neutra può riflettere ciò che è più disponibile. Una progettazione può essere ancorata a un primo riferimento. Una risposta può essere resa più convincente perché segue una logica narrativa più che una logica formale.
In questo senso, l’algoritmo non sbaglia come una macchina. Sbaglia come un essere umano che ha imparato a imitarsi.

C’è poi un passaggio ancora più interessante. Alcuni studi hanno iniziato a trattare i modelli linguistici come soggetti di test psicologici, sottoponendoli agli stessi esperimenti usati per studiare i bias umani. Non è più solo una suggestione teorica: esiste già una letteratura che prova a misurare questi fenomeni.





Evidenze scientifiche sui bias nei modelli AI

Studi recenti mostrano che i modelli linguistici (LLM) possono manifestare bias cognitivi analoghi a quelli umani, come:
  • Availability heuristic (giudizi basati su informazioni più salienti)
  • Representativeness heuristic (associazioni stereotipiche)
  • Framing effect (influenza della forma della domanda)
Questi bias derivano da:
  • dati di addestramento umani
  • processi di selezione e annotazione
  • feedback umano nei sistemi di apprendimento
In alcuni casi, tali distorsioni risultano più stabili e sistematiche rispetto al comportamento umano, evidenziando come l’AI possa amplificare pattern cognitivi esistenti.

Non siamo quindi davanti a un’impressione aneddotica, ma a un comportamento osservabile e ripetuto. Ed è proprio questo che cambia radicalmente la prospettiva.

Per anni abbiamo immaginato l’intelligenza artificiale come un modo per superare i limiti umani: una razionalità più pura, più fredda, più affidabile. Ma ciò che emerge è diverso. Non stiamo costruendo un’alternativa all’umano. Stiamo costruendo uno specchio amplificato. Un sistema che prende le nostre scorciatoie, le nostre semplificazioni, le nostre distorsioni e le rende ripetibili, scalabili, sistematiche. Dove l’essere umano è incoerente, l’algoritmo è coerente. Ma è una coerenza costruita sull’errore.

Il punto, allora, non è dire banalmente che anche le macchine sbagliano. Il punto è capire come sbagliano.
E soprattutto riconoscere che questi errori non nascono dal nulla. Affondano nelle strutture cognitive e culturali da cui i modelli apprendono. Questo tema si collega a una riflessione che ho sviluppato in precedenza sui bias culturali nei modelli linguistici: il fatto che i sistemi non apprendano solo informazioni, ma anche visioni del mondo, gerarchie implicite e schemi interpretativi che derivano dai dati su cui sono stati addestrati.

Qui entra in gioco una conseguenza più scomoda: se l’AI eredita distorsioni dai dati, dalle procedure e dalle preferenze umane, allora non possiamo continuare a pensare che basti aumentare la potenza computazionale per ottenere sistemi più giusti o più intelligenti. La macchina non corregge automaticamente il mondo da cui nasce. Può invece assorbirne gli squilibri e restituirli in forma più efficiente.

Ed è qui che la domanda di questa serie diventa concreta.
Se un sistema artificiale cade in scorciatoie simili alle nostre, è influenzato dal contesto e produce errori sistematici osservabili, ha senso iniziare a descriverlo anche con gli strumenti della psicologia?
Non per attribuirgli una mente, e nemmeno per cedere all’antropomorfismo facile, ma per capire meglio il suo comportamento. E forse, attraverso questo, anche il nostro.

Perché il punto decisivo, in fondo, è questo: le macchine non pensano come noi, ma cominciano a sbagliare in modi che riconosciamo. Ed è forse proprio lì, nella struttura dell’errore, che una forma di mente artificiale smette di apparire come pura metafora e comincia a diventare un problema serio di osservazione.

Nel prossimo episodio esploreremo un’altra frontiera instabile: quando un modello linguistico assume ruoli diversi, cambia tono, adotta maschere contraddittorie. Possiamo parlare di personalità multiple dell’algoritmo? E cosa ci dice questo sulla nostra idea di sé e di coerenza?

Riferimenti scientifici e studi citati

Le riflessioni sviluppate in questo articolo si appoggiano a una linea di ricerca che analizza il rapporto tra bias cognitivi umani e comportamento dei sistemi di intelligenza artificiale.

  • Bias cognitivi nei sistemi AI
    Cognitive Biases: Understanding and Designing Fair AI Systems for Software Development
    Il paper mostra come bias quali confirmation bias, anchoring bias e automation bias possano entrare nei sistemi AI attraverso dati non rappresentativi, scelte di progetto e decisioni umane, con effetti concreti in ambiti sensibili come giustizia, sanità e selezione del personale.

  • AI come sistema socio-tecnico
    Rolling in the deep of cognitive and AI biases
    Questo lavoro propone di leggere l’AI non come un oggetto puramente tecnico, ma come un sistema socio-tecnico nel quale euristiche umane come rappresentatività, disponibilità, ancoraggio e affettività migrano nei bias algoritmici lungo l’intero ciclo di vita dei modelli.

  • Bias cognitivi negli LLM osservati empiricamente
    Examining Cognitive Biases in ChatGPT 3.5 and 4 through Human Evaluation and Linguistic Comparison
    Lo studio confronta i modelli con soggetti umani su availability, representativeness e framing. I bias risultano presenti in entrambi i modelli; il framing emerge in modo molto stabile, mentre GPT-4 mostra prestazioni migliori soprattutto sul versante dell’availability heuristic.
Questi studi convergono su un punto: i modelli di intelligenza artificiale non sono sistemi neutrali, ma riflettono — e in alcuni casi amplificano — le strutture cognitive e culturali da cui apprendono.

In altre parole: l’AI non introduce il problema. Lo rende visibile.

Questa riflessione nasce da una domanda che, fino a poco tempo fa, sarebbe sembrata fuori luogo: ha senso parlare di psicologia per una macchina?
Nell’episodio zero di questa serie (Psicologia per robot: la domanda non è più assurda), il punto di partenza era proprio questo: se i sistemi artificiali iniziano a mostrare comportamenti complessi, contestuali e interpretabili, forse non è più sufficiente descriverli solo in termini tecnici.
Non perché “abbiano una mente”, ma perché il loro comportamento entra nello stesso spazio in cui, da sempre, osserviamo e interpretiamo quello umano.
Con questo primo episodio, il discorso si sposta di un passo. Non più la domanda se sia legittimo usare categorie psicologiche, ma un fatto più concreto: in certe condizioni, i modelli linguistici possono produrre risposte che ricordano da vicino le nostre scorciatoie cognitive.
Non è ancora una psicologia della macchina. Ma è il punto in cui il comportamento artificiale smette di essere solo calcolo e comincia a diventare osservabile come fenomeno.
Ed è da qui che la serie prende forma: non per umanizzare l’AI, ma per capire meglio, attraverso di essa, i limiti e le dinamiche del nostro stesso modo di pensare.

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑