Bias culturale nell’Intelligenza Artificiale: parliamo tutti con lo stesso algoritmo?

Un algoritmo può parlare tutte le lingue, ma non rispecchiare tutte le culture

Nel panorama digitale contemporaneo, i grandi modelli di linguaggio – i cosiddetti LLM come GPT – stanno entrando sempre più nelle pieghe della nostra quotidianità: dalla comunicazione informale a quella professionale, dall’apprendimento individuale alla produzione creativa. È un dato di fatto con cui conviviamo, a volte senza nemmeno accorgercene.

All’interno del mio percorso di ricerca sul tema Umanesimo & Tecnologia, mi sto applicando ad utilizzare soprattutto tecnologie non specialistiche, cioè progettate per l’uomo comune, non solo per l’ingegnere, il tecnico o il professionista.  
Questo tipo di approccio – deliberatamente esplorativo, laterale, scelto per i fini della mia ricerca – mi ha portato ad intuire qualcosa che, se fosse vero,  non viene sempre messo a fuoco.  
Ho ipotizzato infatti che nell’interazione con certi strumenti di intelligenza artificiale, alcuni modelli linguistici sembrano manifestare delle sfumature culturali ricorrenti, come se il “modo” con cui rispondono tradisca un’origine situata, una visione del mondo sottostante.

È un’intuizione che ho maturato nel corso degli ultimi anni di esercizio con alcuni modelli di AI, soprattutto quando, dialogando con questi sistemi su temi complessi o delicati, ho riscontrato una certa coerenza con valori e sensibilità riconducibili a contesti occidentali, in parole povere, quelle che mi sembrano forme di bias culturali.
Niente di scandaloso, ovviamente: ogni tecnologia, anche se progettata per essere neutra, finisce col riflettere almeno in parte chi l’ha creata.
Ma la domanda mi si è fatta insistente: è solo un’impressione personale, oppure qualcuno ha avviato degli studi che confermano questa possibile deriva culturale? .. E se fosse vero: sarebbe voluta o non voluta?

Bias culturale

Che cos’è un bias culturale?

Un bias culturale è una distorsione cognitiva o sistemica che si verifica quando idee, valori, norme o prospettive proprie di una cultura specifica vengono assunte come standard universali, a discapito della diversità culturale.

In termini semplici, accade quando una certa visione del mondo — spesso quella dominante — influenza il modo in cui interpretiamo la realtà, giudichiamo gli altri o costruiamo strumenti, contenuti e tecnologie, senza renderci conto che si tratta soltanto di una delle tante possibili prospettive.

Questo succede perché tendiamo a dare per scontato che il nostro modo di leggere il mondo sia neutro o naturale. Ma non lo è. Ogni cultura filtra la realtà attraverso i propri valori, simboli, linguaggi e priorità.

Il bias culturale emerge proprio quando questa visione parziale si presenta come oggettiva, valida per tutti. È un’influenza silenziosa che agisce sotto traccia: può insinuarsi nei manuali scolastici, nei contenuti digitali, nei test psicologici e persino nei modelli linguistici dell’intelligenza artificiale.

Il problema non è la presenza di una cultura, che è inevitabile, ma la mancanza di consapevolezza del filtro che essa applica. Così, senza accorgercene, rischiamo di costruire strumenti che parlano con un solo accento e rispondono secondo un’unica logica.

Chi non appartiene a quella cultura dominante può allora trovarsi escluso, frainteso o semplicemente reso invisibile.

Riconoscere i bias culturali non significa combattere la tecnologia, ma prendersi cura della complessità umana. Significa rimettere il pluralismo al centro del nostro rapporto con le macchine.


Mi sono messo a cercare tra ricerche e studi in corso, e la risposta non ho tardato a trovarla. Ad esempio, un recente studio pubblicato nel 2024 su PNAS Nexus, dal titolo Cultural bias and cultural alignment of large language models, affronta in modo diretto questa questione. L’analisi condotta è ampia e ben strutturata, e mette in evidenza come molti LLM tendano effettivamente a generare risposte in linea con i valori dominanti dei paesi occidentali di lingua inglese, e in particolare con quelli dell’Europa protestante.

Il punto chiave è che la cultura non è un dettaglio.
È una struttura profonda, spesso invisibile, che plasma percezioni, comportamenti e visioni del mondo.
Quando una cultura dominante filtra all’interno di un modello linguistico – per quanto sofisticato esso sia – si attiva una forma implicita di soft power: un’influenza silenziosa, non imposta ma interiorizzata, che può proiettare sull’utente valori, priorità e codici propri del contesto culturale di chi ha progettato o addestrato il sistema.

È lo stesso meccanismo che opera nei grandi flussi simbolici della globalizzazione, dove l’uniformazione non avviene per coercizione, ma per imitazione, per esposizione costante a schemi culturali presentati come neutri o universali.
Così, la tecnologia appare trasparente solo in apparenza: in realtà orienta, condiziona, standardizza. E lo fa con quella forza gentile e mimetica che caratterizza le forme più efficaci di egemonia culturale.

Lo studio rafforza questa ipotesi confrontando le risposte dei modelli GPT – dalla versione 3 fino alla recente 4.o – con i dati emersi da due ricerche internazionali sui valori culturali: la World Values Survey e la European Values Study.
Utilizzando la mappa culturale di Inglehart-Welzel, che posiziona i paesi su due assi fondamentali (sopravvivenza vs. auto-espressione, tradizione vs. secolarizzazione), si osserva una collocazione ricorrente: i modelli si avvicinano costantemente ai paesi anglosassoni ed europei protestanti.

Mappa culturale di Inglehart-Welzel

Cos’è la mappa culturale di Inglehart-Welzel?

La mappa culturale di Inglehart-Welzel è uno strumento visivo e concettuale costruito a partire dai dati della World Values Survey e della European Values Study. Serve a collocare i paesi del mondo lungo due grandi assi culturali, così da evidenziarne orientamenti valoriali ricorrenti e differenze di fondo.

Il primo asse oppone i valori di sopravvivenza ai valori di auto-espressione. Nel primo caso prevalgono priorità legate alla sicurezza economica e fisica, alla stabilità e alla protezione dai rischi. Nel secondo emergono invece la qualità della vita, l’autonomia personale, la libertà di scelta e la partecipazione attiva alla vita sociale e politica.

Il secondo asse distingue tra valori tradizionali e valori secolari-razionali. I primi attribuiscono maggiore importanza alla religione, alla famiglia, all’autorità e alla continuità con le norme ereditate. I secondi caratterizzano società più laiche, meno vincolate alla tradizione, più orientate alla razionalità, all’autonomia critica e alla ridefinizione dei ruoli sociali.

L’incrocio tra questi due assi consente di individuare macro-orientamenti culturali e di confrontare in modo sintetico paesi diversi, mostrando come le loro priorità simboliche, sociali e politiche non siano distribuite casualmente ma tendano a formare configurazioni riconoscibili.

Secondo lo studio citato, i modelli GPT tendono a collocarsi nell’area occupata da società anglosassoni e protestanti del Nord Europa, suggerendo una maggiore affinità con valori di auto-espressione e secolarizzazione. Questo non significa che “pensino” come una cultura umana specifica, ma che l’insieme dei dati, dei filtri e degli allineamenti utilizzati nella loro costruzione può produrre una convergenza verso determinati orientamenti culturali.

Tra i valori che emergono con maggiore forza ci sono quelli legati all’auto-espressione: fiducia interpersonale, apertura alla diversità, enfasi sull’individuo e sulle libertà personali. Valori sicuramente nobili, ma non universali. Ed è proprio qui che il discorso si fa interessante.

Gli autori dello studio propongono dunque una strategia di mitigazione piuttosto semplice ma efficace: il cultural prompting. Si tratta di specificare nel prompt l’identità culturale a cui si desidera fare riferimento nella risposta. In altre parole, guidare il modello nella direzione desiderata, anziché accettarne passivamente il punto di vista implicito.

Cultural Prompting

Cos’è il cultural prompting?

Il cultural prompting è una tecnica di interazione con i modelli di linguaggio (LLM) che consiste nell’esplicitare, all’interno del prompt, il contesto culturale desiderato per la risposta.

Invece di formulare domande generiche, l’utente introduce riferimenti culturali precisi, indicando per esempio un paese, un’epoca storica, una visione del mondo oppure una specifica cornice valoriale. In questo modo il modello viene orientato a rispondere non in astratto, ma a partire da un quadro culturale più definito.

L’obiettivo principale è mitigare i bias culturali impliciti nei modelli, che tendono spesso a riflettere una visione del mondo occidentale, anglosassone e secolarizzata. Il cultural prompting funziona quindi come uno strumento di riequilibrio e di mediazione, utile a ottenere risposte più aderenti a contesti locali, identitari o storicamente situati.

Per esempio, invece di chiedere semplicemente: “Che cos’è la giustizia?”, si può formulare la domanda in modo culturalmente orientato: “Secondo la filosofia Ubuntu africana, che cos’è la giustizia?”. Oppure, invece di domandare: “Che cos’è la famiglia?”, si può chiedere: “Secondo la visione tradizionale giapponese, che cos’è la famiglia?” oppure “Nella prospettiva di un giovane tunisino del 2020, cosa rappresenta la famiglia?”.

Il punto non è soltanto ottenere una risposta “più precisa”, ma favorire una risposta più contestualizzata, meno appiattita su un’unica matrice culturale. In questo senso, il cultural prompting aiuta a rendere l’interazione uomo-macchina più sensibile alla pluralità delle esperienze umane.

Secondo lo studio richiamato, l’uso del cultural prompting ha ridotto in modo significativo la distanza tra i valori espressi dalle risposte dei modelli e quelli delle popolazioni di riferimento in oltre il 70% dei casi analizzati. In sintesi, si tratta di un piccolo accorgimento che può produrre una differenza importante nella direzione dell’inclusione culturale e della giustizia cognitiva nell’interazione con l’intelligenza artificiale.


I risultati parlano chiaro: questa tecnica ha ridotto la distanza culturale tra le risposte del modello e i valori reali dei paesi di riferimento in oltre il 70% dei casi, con picchi ancora più alti nelle versioni più recenti. Tuttavia, non si tratta di una bacchetta magica. In alcuni contesti, soprattutto in paesi già molto vicini ai valori dominanti dei modelli, il cultural prompting può persino aumentare la distanza. Il che ci ricorda che stiamo parlando di strumenti probabilistici, non di coscienze autonome.

Quello che emerge è un quadro da osservare con attenzione, senza ansie da “deriva AI” ma anche senza ingenuità.
Il modo in cui i modelli vengono addestrati – inclusi i processi di reinforcement learning with human feedback (RLHF) – contribuisce a plasmare la loro “personalità” culturale.
Il fatto che questi modelli siano progettati per adattarsi a una molteplicità di usi non significa che siano privi di orientamenti di fondo.

RLHF

Cos’è il Reinforcement Learning with Human Feedback (RLHF)?

Il Reinforcement Learning with Human Feedback (RLHF) è una tecnica di addestramento in cui un modello linguistico non viene affinato soltanto sui dati testuali, ma anche sulla base delle preferenze espresse da valutatori umani.

In pratica, il modello produce più risposte possibili a una stessa richiesta. Alcuni valutatori confrontano queste risposte e indicano quali appaiano più utili, più appropriate o più coerenti con ciò che ci si aspetta. Il sistema usa poi questo feedback per orientare il proprio comportamento futuro, imparando progressivamente a privilegiare le risposte giudicate migliori.

Questo processo ha un effetto molto importante: rende il modello più fluido, più collaborativo e in molti casi più adatto all’interazione con gli esseri umani. Ma introduce anche un punto delicato. I criteri con cui gli esseri umani valutano una risposta non sono mai del tutto neutri: riflettono sensibilità linguistiche, abitudini sociali, priorità morali e cornici culturali specifiche.

Per questo il RLHF può diventare, indirettamente, anche un veicolo di bias culturali. Se il gruppo dei valutatori condivide in larga parte lo stesso orizzonte culturale, il modello può interiorizzare come “migliore” una risposta che in realtà è solo più conforme a una certa visione del mondo, e non necessariamente più universale.

È importante però essere precisi: lo studio citato non dimostra in modo definitivo che il RLHF sia la causa del bias culturale osservato. Gli autori affermano piuttosto che il bias presente nel feedback umano può aver contribuito allo spostamento di GPT-3.5-turbo verso valori più secolari rispetto a GPT-3. Segnalano inoltre che in GPT-4 è stato introdotto anche un Rule-Based Reward Model, che potrebbe aver mitigato parte di questi effetti.

In sintesi, il RLHF è uno strumento molto potente per migliorare la qualità delle risposte, ma non è neutro per definizione: aiuta il modello ad assomigliare di più alle aspettative umane, e proprio per questo può anche riflettere, amplificare o consolidare i filtri culturali presenti in chi fornisce il feedback.


Il punto decisivo, dunque, non è demonizzare il RLHF. Senza tecniche di questo tipo, i modelli sarebbero spesso meno utili, meno leggibili e meno controllabili. Il problema è un altro: capire che ogni volta che chiediamo a degli esseri umani di decidere che cosa sia una risposta “buona”, introduciamo nel sistema anche una certa idea di ciò che è ragionevole, appropriato o desiderabile.
E questa idea non nasce nel vuoto: nasce dentro una cultura.

Questa riflessione si innesta direttamente nel percorso della mia ricerca su Umanesimo & Tecnologia, dove uno dei temi centrali è proprio il contrasto al digital divide culturale e la promozione di una mediazione culturale digitale capace di accompagnare l’innovazione, evitando che essa si trasformi in una nuova forma di esclusione o di omologazione.

Per questo, più che demonizzare o santificare l’intelligenza artificiale, credo sia oggi necessario promuovere una AI literacy consapevole: una competenza che non si limiti all’uso degli strumenti, ma sappia riconoscerne i limiti impliciti, i filtri culturali, le gerarchie di senso che possono incorporare. Un uso equo, inclusivo e culturalmente sensibile dell’AI passa anche da qui: dalla capacità di leggere tra le righe, di porre domande migliori, di contestualizzare le risposte, di modulare il dialogo con questi sistemi secondo un’intelligenza che resta, prima di tutto, umana.

Il rischio, infatti, non è soltanto che le AI parlino “a nome nostro”.
Il rischio più sottile è che, senza quasi accorgercene, cominciamo noi a parlare come loro: adottandone le semplificazioni, assorbendone le gerarchie implicite, scambiando per neutrale ciò che è soltanto normalizzato.

Ed è qui che i dati dello studio diventano particolarmente istruttivi. Le versioni GPT osservate senza cultural prompting mostrano una distanza culturale particolarmente bassa rispetto ad alcuni paesi europei, come Finlandia (0,20), Andorra (0,21) e Paesi Bassi (0,45), mentre la distanza cresce sensibilmente in contesti come Giordania (4,10), Libia (4,00) e Ghana (3,95).
In termini semplici, questo suggerisce che, quando non vengono orientati in modo esplicito, i modelli tendono a produrre risposte più vicine ai sistemi valoriali di alcune società europee e nord-occidentali, risultando meno allineati con altri contesti culturali.

Lo studio mostra però anche un dato importante: quando si utilizza il cultural prompting, la distanza culturale media si riduce in modo sensibile.
Per GPT-4.o passa da 2,42 a 1,57; per GPT-4-turbo da 2,71 a 1,77; per GPT-4 da 2,69 a 1,65.
L’efficacia stimata di questa correzione varia tra il 71% e l’81% dei paesi esaminati.
Non siamo di fronte a una soluzione perfetta o universale, ma a un’indicazione molto chiara: il modo in cui interroghiamo l’intelligenza artificiale può influenzare in misura significativa il tipo di cultura che essa riflette.

Ed è proprio qui che il tema del bias culturale incontra quello, più ampio, del digital divide culturale. Perché oggi il divario non riguarda soltanto chi ha accesso agli strumenti, ma anche chi possiede le chiavi cognitive per interpretarli, orientarli e usarli senza subirli.
Il bias culturale, allora, non è un dettaglio marginale del modello: è una traccia profonda del mondo da cui il modello apprende e, insieme, del modo in cui noi scegliamo di interrogarlo.
Per questo la risposta non può essere soltanto tecnica. Deve essere anche educativa, culturale e civile.


Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑