La mente che non siamo. Come decidiamo davvero nell’incertezza

Razionalità limitata, euristiche, bias e decisioni sotto pressione

Ci piace pensare di essere razionali. È una convinzione rassicurante. Ci fa credere che i nostri giudizi nascano da valutazioni lucide, che le nostre opinioni siano il risultato di un esame ordinato dei fatti, che le nostre decisioni più importanti dipendano soprattutto dalla logica. Eppure l’esperienza, la psicologia cognitiva e, più banalmente, la vita quotidiana raccontano qualcosa di diverso.

Qualche anno fa avevo già affrontato su questo blog il tema delle distorsioni cognitive che influenzano i nostri giudizi e i nostri comportamenti.
(→ Conosciamo le distorsioni cognitive che influenzano i nostri giudizi).

Oggi provo a riprendere quel discorso da una prospettiva più ampia: non solo i bias che deformano le nostre valutazioni, ma l’intero modo in cui la mente prende decisioni nell’incertezza.

La mente umana non lavora come un giudice imparziale. Non pesa ogni elemento con freddezza matematica. È piuttosto un sistema adattivo, costretto a orientarsi nella complessità con tempo limitato, informazioni incomplete, pressione emotiva e abitudini sedimentate.

Già negli anni Cinquanta Herbert Simon aveva messo in discussione il mito dell’uomo perfettamente razionale. In un celebre articolo destinato a influenzare profondamente la psicologia cognitiva, l’economia comportamentale e gli studi sul decision making, Simon mostrava che gli esseri umani non prendono decisioni ottimali nel senso immaginato dai modelli classici. Le nostre scelte si muovono entro i limiti dell’informazione disponibile, del tempo, dell’attenzione e delle capacità cognitive. Non ottimizziamo il mondo: ci muoviamo dentro di esso cercando soluzioni sufficientemente buone.

Approfondimento scientifico — Herbert Simon e la razionalità limitata

Herbert Simon (1916-2001) è stato uno degli studiosi più originali del Novecento. Economista, psicologo e premio Nobel per l’economia nel 1978, ha introdotto il concetto di razionalità limitata per descrivere il modo in cui gli esseri umani prendono decisioni in condizioni reali. A differenza del modello classico di homo oeconomicus, che presuppone agenti perfettamente informati e capaci di scegliere sempre l’opzione ottimale, Simon mostrò che le persone dispongono di risorse cognitive limitate, informazioni incomplete e tempo scarso. Di conseguenza non cercano la soluzione migliore in assoluto, ma quella sufficientemente buona per i loro scopi. A questo processo diede il nome di satisficing, dall’unione di satisfy e suffice. La razionalità umana, per Simon, non è una macchina perfetta: è un sistema che si adatta ai propri limiti e continua a funzionare, nonostante tutto.

📄 Documento originale:
A Behavioral Model of Rational Choice — Herbert Simon (1955)

È da qui che nasce il concetto di razionalità limitata. Un’idea semplice, ma rivoluzionaria: l’essere umano non è una macchina perfetta di calcolo. Decide con mezzi finiti, in ambienti opachi, spesso incerti, e deve comunque andare avanti. Per farlo, il cervello ricorre continuamente a scorciatoie mentali.

In psicologia queste scorciatoie si chiamano euristiche. Non sono un difetto. Sono una risorsa evolutiva. Senza di esse, ogni scelta richiederebbe un’energia insostenibile. La mente sarebbe paralizzata dall’analisi. Le euristiche permettono di semplificare il mondo quel tanto che basta per renderlo trattabile.

Euristiche e bias, però, non sono la stessa cosa. Le euristiche sono procedure rapide con cui la mente riduce la complessità per poter decidere; i bias sono le distorsioni sistematiche del giudizio che possono nascere anche dall’uso di queste procedure. In altre parole: l’euristica è spesso il meccanismo, il bias è l’effetto distorsivo che può prodursi.

Negli anni Settanta Daniel Kahneman e Amos Tversky portarono questa intuizione molto più avanti. Mostrarono che, quando dobbiamo giudicare eventi incerti, valutare probabilità o prendere decisioni rapide, la mente utilizza in modo ricorrente alcune scorciatoie fondamentali. Queste scorciatoie spesso funzionano bene, ma in certe condizioni producono errori prevedibili. È qui che entrano in scena i bias cognitivi.

Approfondimento scientifico — Tversky e Kahneman: euristiche e bias cognitivi

Daniel Kahneman (1934-2024) e Amos Tversky (1937-1996) hanno fondato uno dei filoni più influenti della psicologia contemporanea: lo studio del giudizio e della decisione in condizioni di incertezza. A partire dagli anni Settanta mostrarono che gli esseri umani, di fronte a problemi complessi, usano alcune euristiche, cioè scorciatoie mentali rapide che aiutano a semplificare il compito decisionale. Tra le più note vi sono l’euristica della disponibilità, della rappresentatività e l’ancoraggio. Queste procedure non sono errori in sé: sono strumenti cognitivi adattivi. Tuttavia, in determinate condizioni, possono produrre bias cognitivi, cioè distorsioni sistematiche del giudizio. Il loro lavoro ha cambiato il modo di comprendere il rapporto tra intuizione, probabilità, rischio e decisione, e ha gettato le basi dell’economia comportamentale.

📄 Documento originale:
Judgment under Uncertainty: Heuristics and Biases — Tversky & Kahneman (1974)

Il bias di conferma, per esempio, ci porta a cercare e ricordare soprattutto le informazioni che confermano ciò che già pensiamo, mentre ci riesce più difficile dare lo stesso peso a ciò che ci contraddice. L’euristica della disponibilità ci porta a giudicare la probabilità di un evento in base alla facilità con cui ci viene in mente: un fatto recente, drammatico o molto ripetuto ci appare automaticamente più frequente, più vicino, più plausibile. L’ancoraggio ci lega alla prima informazione ricevuta, che continua a influenzare le valutazioni successive anche quando crediamo di averla superata. L’overconfidence, infine, ci induce a sopravvalutare la correttezza delle nostre valutazioni: la sicurezza si traveste da lucidità, ma non coincide affatto con la verità.

La mente, insomma, non registra semplicemente il mondo. Lo filtra, lo ricompone, lo ricostruisce. Spesso a nostra insaputa.

Questo quadro diventa ancora più interessante quando usciamo dal laboratorio mentale dei modelli teorici e entriamo nelle situazioni reali, quelle in cui il tempo stringe, le informazioni sono incomplete e la posta in gioco è alta. Qui il problema non è soltanto come giudichiamo il mondo in astratto, ma come decidiamo sotto rischio e sotto pressione.

Ed è proprio su questo terreno che un altro filone di studi ha aggiunto un tassello decisivo. Gary Klein, lavorando su pompieri, militari, piloti, medici d’emergenza e decisori operativi, ha mostrato che nelle situazioni critiche le persone esperte raramente si mettono a confrontare molte alternative come vorrebbero certi modelli teorici. Più spesso riconoscono rapidamente uno schema familiare, formulano una prima linea d’azione plausibile e la verificano mentalmente prima di agire.

Approfondimento scientifico — Gary Klein e le decisioni sotto pressione

Gary Klein (1944) è uno psicologo cognitivo statunitense, pioniere degli studi sul Naturalistic Decision Making, cioè sul modo in cui le persone decidono in contesti reali ad alta pressione. A differenza dei modelli teorici fondati sul confronto analitico tra molte alternative, Klein ha osservato professionisti alle prese con situazioni critiche — vigili del fuoco, militari, piloti, medici d’emergenza — mostrando che gli esperti decidono spesso attraverso un processo di riconoscimento rapido dei pattern. Da queste osservazioni è nato il modello della Recognition-Primed Decision: sotto pressione, il decisore esperto riconosce una configurazione familiare, formula una prima linea d’azione plausibile e la verifica mentalmente prima di agire. È una razionalità basata sull’esperienza e sul riconoscimento, più che sul calcolo esaustivo delle alternative.

📄 Documento originale:
A Recognition-Primed Decision Model of Rapid Decision Making — Gary Klein

Questo modello non descrive una razionalità perfetta. Descrive qualcosa di molto più realistico: la razionalità concreta di chi deve decidere nel mondo reale. In condizioni di forte pressione, la mente non analizza tutto: riconosce, seleziona, simula, reagisce. L’esperienza non elimina l’incertezza, ma rende più rapido il riconoscimento dei pattern e più plausibile la scelta di una linea d’azione.

È anche per questo che, nelle situazioni di rischio, si osserva spesso una dinamica ricorrente: una minoranza mantiene lucidità e iniziativa, una minoranza scivola nel panico, mentre una grande maggioranza resta nel mezzo, esitante, influenzabile, in attesa di segnali da seguire. Non è una legge matematica, ma una costante empirica che ritorna in molti contesti: dalle emergenze collettive ai piccoli incidenti quotidiani, fino alle crisi politiche e comunicative.

A questo punto il quadro si allarga ancora. Perché non viviamo soltanto con i nostri limiti cognitivi: viviamo dentro ambienti che li attivano, li amplificano e talvolta li sfruttano sistematicamente.

La velocità dei social media, la pressione della comunicazione politica, il marketing dell’attenzione, la polarizzazione del discorso pubblico, l’overload informativo: tutto questo non riduce le scorciatoie mentali, ma le rende ancora più dominanti. Il bias di conferma si trasforma in camera dell’eco. La disponibilità diventa una percezione alterata del rischio, gonfiata da immagini vivide e ripetute. L’ancoraggio si manifesta nella prima notizia, nel primo titolo, nella prima cornice interpretativa che intercetta il nostro sguardo. E questi ambienti, spesso, non sono neutrali: sono progettati da qualcuno, con algoritmi e interfacce studiati per catturare l’attenzione proprio facendo leva sulle nostre scorciatoie mentali. Siamo esseri umani cognitivamente limitati immersi in sistemi che traggono vantaggio dal nostro funzionamento più automatico.

Il punto, allora, non è coltivare l’illusione di liberarci del tutto da euristiche e bias. Non possiamo. Questi meccanismi fanno parte del modo in cui la mente affronta la complessità. Possiamo però imparare a riconoscerli, a sospettarli, a costruire una forma di igiene mentale che ne riduca il potere.

Possiamo rallentare quando possibile. Possiamo cercare elementi contrari alla nostra ipotesi iniziale. Possiamo distinguere tra fatti, interpretazioni e intuizioni. Possiamo esporci a punti di vista diversi. Possiamo chiederci se la sicurezza che sentiamo sia davvero conoscenza, o soltanto familiarità con una narrazione che ci rassicura. E possiamo anche chiederci chi progetta gli ambienti in cui decidiamo, e con quali obiettivi.

In fondo, la maturità cognitiva non consiste nel credere di vedere il mondo con assoluta chiarezza. Consiste nel sapere che il nostro stesso sguardo può ingannarci. Conoscere euristiche e bias non significa diventare perfetti. Significa diventare un po’ meno prevedibili nelle nostre illusioni, un po’ meno manipolabili da noi stessi e dagli altri, un po’ più capaci di abitare la complessità senza esserne travolti.

In un tempo in cui il rumore cresce più velocemente della comprensione, questa non è soltanto una competenza psicologica. È una forma di autodifesa mentale. E forse anche una piccola disciplina della libertà. Non una libertà astratta, ma una libertà più concreta: quella che nasce quando impariamo a osservare non soltanto il mondo, ma anche il modo in cui la nostra mente ce lo restituisce.

Se il discorso fin qui ha mostrato il quadro generale, i tre approfondimenti che accompagnano questo testo permettono di risalire alle sue radici scientifiche: dalla razionalità limitata di Simon, alle euristiche e ai bias di Tversky e Kahneman, fino alle decisioni sotto pressione studiate da Gary Klein. Sono tre modi diversi di guardare allo stesso fenomeno: una mente che non è perfetta, ma che proprio nei suoi limiti ha imparato a orientarsi, decidere, sbagliare e talvolta sopravvivere.


Su questo blog torno spesso su un tema che considero cruciale: le distorsioni cognitive e i pregiudizi che influenzano il nostro modo di interpretare il mondo.
Questo articolo si inserisce in quella stessa linea di riflessione.
>> Categoria: Distorsioni Cognitive e Pregiudizi https://vittoriodublinoblog.org/category/distorsioni-cognitive-e-pregiudizi/

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑