Bias culturale nell’Intelligenza Artificiale: parliamo tutti con lo stesso algoritmo?

Un algoritmo può parlare tutte le lingue, ma non rispecchiare tutte le culture

Nel panorama digitale contemporaneo, i grandi modelli di linguaggio – i cosiddetti LLM come GPT – stanno entrando sempre più nelle pieghe della nostra quotidianità: dalla comunicazione informale a quella professionale, dall’apprendimento individuale alla produzione creativa. È un dato di fatto con cui conviviamo, a volte senza nemmeno accorgercene.

All’interno del mio percorso di ricerca sul tema Umanesimo & Tecnologia, mi sto applicando ad utilizzare soprattutto tecnologie non specialistiche, cioè progettate per l’uomo comune, non solo per l’ingegnere, il tecnico o il professionista.  
Questo tipo di approccio – deliberatamente esplorativo, laterale, scelto per i fini della mia ricerca – mi ha portato ad intuire qualcosa che, se fosse vero,  non viene sempre messo a fuoco.  
Ho ipotizzato infatti che nell’interazione con certi strumenti di intelligenza artificiale, alcuni modelli linguistici sembrano manifestare delle sfumature culturali ricorrenti, come se il “modo” con cui rispondono tradisca un’origine situata, una visione del mondo sottostante.

È un’intuizione che ho maturato nel corso degli ultimi anni di esercizio con alcuni modelli di AI, soprattutto quando, dialogando con questi sistemi su temi complessi o delicati, ho riscontrato una certa coerenza con valori e sensibilità riconducibili a contesti occidentali, in parole povere, quelle che mi sembrano forme di bias culturali.
Niente di scandaloso, ovviamente: ogni tecnologia, anche se progettata per essere neutra, finisce col riflettere almeno in parte chi l’ha creata.
Ma la domanda mi si è fatta insistente: è solo un’impressione personale, oppure qualcuno ha avviato degli studi che confermano questa possibile deriva culturale? .. E se fosse vero: sarebbe voluta o non voluta?


Che cos’è un bias culturale?

Un bias culturale è una distorsione cognitiva o sistemica che si verifica quando idee, valori, norme o prospettive di una cultura specifica vengono considerati come standard universali, a discapito della diversità culturale. In parole semplici: è quando una certa visione del mondo – spesso quella dominante – influenza il modo in cui interpretiamo la realtà, giudichiamo gli altri o costruiamo strumenti, contenuti e tecnologie, senza renderci conto che è solo una delle tante possibili visioni, perchè a volte diamo per scontato che il modo in cui interpretiamo il mondo sia universale. Ma non lo è. Ogni cultura filtra la realtà attraverso i propri valori, simboli, priorità. Un bias culturale si manifesta proprio quando questa visione parziale si presenta come neutra, oggettiva, valida per tutti. È un’influenza silenziosa che agisce sotto traccia: può insinuarsi nei manuali scolastici, nei contenuti digitali, nei test psicologici… o nei modelli linguistici dell’intelligenza artificiale. Il problema non è la presenza di una cultura – inevitabile – ma l’inconsapevolezza del filtro che essa applica. Così, senza accorgercene, rischiamo di costruire strumenti che parlano con un solo accento, che rispondono secondo un’unica logica. E chi non appartiene a quella cultura dominante può trovarsi escluso, frainteso, reso invisibile. Riconoscere i bias culturali non è una battaglia contro la tecnologia, ma un atto di cura verso la complessità umana. Un invito a riportare il pluralismo al centro della nostra interazione con le macchine.


Mi sono messo a cercare tra ricerche e studi in corso, e la risposta non ho tardato a trovarla. Ad esempio, un recente studio pubblicato nel 2024 su PNAS Nexus, dal titolo Cultural bias and cultural alignment of large language models, affronta in modo diretto questa questione. L’analisi condotta è ampia e ben strutturata, e mette in evidenza come molti LLM tendano effettivamente a generare risposte in linea con i valori dominanti dei paesi occidentali di lingua inglese, e in particolare con quelli dell’Europa protestante.

Il punto chiave è che la cultura non è un dettaglio.
È una struttura profonda, spesso invisibile, che plasma percezioni, comportamenti e visioni del mondo.
Quando una cultura dominante filtra all’interno di un modello linguistico – per quanto sofisticato esso sia – si attiva una forma implicita di soft power: un’influenza silenziosa, non imposta ma interiorizzata, che può proiettare sull’utente valori, priorità e codici propri del contesto culturale di chi ha progettato o addestrato il sistema.

È lo stesso meccanismo che opera nei grandi flussi simbolici della globalizzazione, dove l’uniformazione non avviene per coercizione, ma per imitazione, per esposizione costante a schemi culturali presentati come neutri o universali.
Così, la tecnologia appare trasparente solo in apparenza: in realtà orienta, condiziona, standardizza. E lo fa con quella forza gentile e mimetica che caratterizza le forme più efficaci di egemonia culturale.

Lo studio rafforza questa ipotesi confrontando le risposte dei modelli GPT – dalla versione 3 fino alla recente 4.o – con i dati emersi da due ricerche internazionali sui valori culturali: la World Values Survey e la European Values Study.
Utilizzando la mappa culturale di Inglehart-Welzel, che posiziona i paesi su due assi fondamentali (sopravvivenza vs. auto-espressione, tradizione vs. secolarizzazione), si osserva una collocazione ricorrente: i modelli si avvicinano costantemente ai paesi anglosassoni ed europei protestanti.


Cos’è la mappa culturale di Inglehart-Welzel?
La mappa culturale di Inglehart-Welzel è uno strumento visivo e concettuale basato sui dati della World Values Survey e della European Values Study. Classifica i paesi lungo due assi principali:

  • Valori di sopravvivenza vs. auto-espressione
    il primo polo è associato a priorità legate alla sicurezza economica e fisica, mentre il secondo privilegia la qualità della vita, l’autonomia personale e la partecipazione attiva.
  • Valori tradizionali vs. secolari-razionali
    il primo asse include l’importanza della religione, della famiglia e dell’autorità; il secondo si riferisce a società più laiche, orientate alla razionalità e al pensiero critico.

L’incrocio di questi assi permette di identificare macro-orientamenti culturali e di confrontarli tra diversi paesi. Secondo lo studio citato, i modelli GPT tendono a posizionarsi nella zona occupata da società anglosassoni e protestanti del Nord Europa, evidenziando una predilezione per valori di auto-espressione e secolarizzazione.


Tra i valori che emergono con maggiore forza ci sono quelli legati all’auto-espressione: fiducia interpersonale, apertura alla diversità, enfasi sull’individuo e sulle libertà personali. Valori sicuramente nobili, ma non universali. Ed è proprio qui che il discorso si fa interessante.

Gli autori dello studio propongono dunque una strategia di mitigazione piuttosto semplice ma efficace: il cultural prompting. Si tratta di specificare nel prompt l’identità culturale a cui si desidera fare riferimento nella risposta. In altre parole, guidare il modello nella direzione desiderata, anziché accettarne passivamente il punto di vista implicito.


Cos’è il cultural prompting?
Il cultural prompting è una tecnica di interazione con i modelli di linguaggio (LLM) che consiste nell’esplicitare, all’interno del prompt, il contesto culturale desiderato per la risposta.
Invece di formulare domande generiche, l’utente introduce nel prompt riferimenti culturali precisi, indicando ad esempio un paese, un’epoca storica, una visione del mondo o una specifica cornice valoriale.

 Obiettivo
Mitigare i bias culturali impliciti nei modelli, che tendono spesso a riflettere una visione occidentale, anglosassone e secolarizzata del mondo. Il cultural prompting agisce quindi come uno strumento di riequilibrio e mediazione, favorendo risposte più aderenti a contesti locali o identitari.

Esempi pratici
Generico:
“Che cos’è la giustizia?”
Con il cultural prompting
“Secondo la filosofia Ubuntu africana, che cos’è la giustizia?”
Oppure, invece di chiedere:
“Che cos’è la famiglia?”
Si può chiedere:
“Secondo la visione tradizionale giapponese, che cos’è la famiglia?”
“Nella prospettiva di un giovane tunisino del 2020, cosa rappresenta la famiglia?”

L’uso del cultural prompting ha ridotto significativamente la distanza tra i valori delle risposte dei modelli e quelli delle popolazioni di riferimento in oltre il 70% dei casi analizzati. In sintesi, il cultural prompting è un piccolo accorgimento che può fare una grande differenza nella direzione dell’inclusione culturale e della giustizia cognitiva nell’interazione uomo-macchina.


I risultati parlano chiaro: questa tecnica ha ridotto la distanza culturale tra le risposte del modello e i valori reali dei paesi di riferimento in oltre il 70% dei casi, con picchi ancora più alti nelle versioni più recenti. Tuttavia, non si tratta di una bacchetta magica. In alcuni contesti, soprattutto in paesi già molto vicini ai valori dominanti dei modelli, il cultural prompting può persino aumentare la distanza. Il che ci ricorda che stiamo parlando di strumenti probabilistici, non di coscienze autonome.

Quello che emerge è un quadro da osservare con attenzione, senza ansie da “deriva AI” ma anche senza ingenuità.
Il modo in cui i modelli vengono addestrati – inclusi i processi di reinforcement learning with human feedback (RLHF) – contribuisce a plasmare la loro “personalità” culturale.
Il fatto che questi modelli siano progettati per adattarsi a una molteplicità di usi non significa che siano privi di orientamenti di fondo.


Cos’è il Reinforcement Learning with Human Feedback (RLHF)?
Il Reinforcement Learning with Human Feedback è una metodologia utilizzata nell’addestramento dei modelli linguistici che affianca al classico apprendimento supervisionato un elemento umano: le preferenze espresse da valutatori umani.
Come funziona?

  1. Il modello genera diverse risposte a una stessa richiesta.
  2. Un gruppo di persone valuta quale risposta è più utile, corretta o appropriata.
  3. Il modello viene “ricompensato” (reinforced) per le risposte più apprezzate e “corretto” per quelle meno efficaci, affinando così il proprio comportamento.

Questo processo viene iterato migliaia di volte, permettendo al modello di imparare a rispondere in modo più utile, naturale e conforme alle aspettative umane. Perché è importante?
Il RLHF consente ai modelli di diventare più allineati alle esigenze umane, ma introduce anche un potenziale punto di fragilità culturale:
le scelte e i giudizi dei valutatori umani – spesso provenienti da contesti socio-culturali specifici – possono influenzare profondamente i criteri di “bontà” o “adeguatezza” delle risposte, generando bias impliciti nel comportamento del modello.

In breve, il RLHF è uno strumento potente, ma non neutro: migliora la qualità delle risposte, ma può anche rafforzare visioni del mondo parziali o dominanti, a seconda di chi fornisce il feedback.


Questa riflessione si innesta direttamente nel percorso della mia ricerca su Umanesimo & Tecnologia, dove uno dei temi centrali è proprio il contrasto al digital divide culturale e la promozione di una mediazione culturale digitale che accompagni l’innovazione, evitando che essa si trasformi in una nuova forma di esclusione o omologazione.

Ecco perché, più che demonizzare o santificare l’AI, credo sia utile promuovere una AI literacy consapevole, capace di riconoscere i limiti impliciti e sfruttare in modo creativo le potenzialità disponibili. L’uso equo, inclusivo e culturalmente sensibile dell’intelligenza artificiale passa anche da qui: dalla nostra capacità di leggere tra le righe, di porre domande giuste, di modulare il dialogo con questi strumenti secondo un’intelligenza tutta umana.

Il rischio non è tanto che le AI parlino “a nome nostro”, quanto che cominciamo a parlare come loro, senza rendercene conto.


Alcune statistiche ricavate dallo studio

  • Le versioni GPT senza cultural prompting
    mostrano distanze culturali minime con:
    • Finlandia (0,20)
    • Andorra (0,21)
    • Paesi Bassi (0,45)
  • e distanze maggiori con:
    • Giordania (4,10)
    • Libia (4,00)
    • Ghana (3,95)
  • Il cultural prompting ha ridotto la distanza culturale media:
    • GPT-4o: da 2,42 a 1,57
    • GPT-4-turbo: da 2,71 a 1,77
    • GPT-4: da 2,69 a 1,65

L’efficacia stimata è  nel 71–81% dei paesi esaminati.


Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑