Ruoli, toni, maschere
Ci sono momenti in cui, parlando con un modello linguistico, si ha una sensazione strana.
Non tanto che sbagli, come abbiamo visto nel primo episodio. Ma che cambi. Stessa domanda, contesto leggermente diverso, e la risposta non è solo diversa: è un’altra voce. A volte è prudente, a volte assertiva. A volte tecnica, altre volte quasi empatica. A volte sembra prendere posizione, altre volte la evita con cura. Non è solo una variazione stilistica. È come se il sistema indossasse maschere diverse.
E a quel punto la domanda cambia. Non è più solo se l’algoritmo sia razionale oppure no. Diventa: ha una forma di personalità?
La risposta immediata è no.
Un modello linguistico non ha identità, intenzioni, coscienza. Non ha una biografia, né un sé.
Eppure fermarsi qui non basta. Perché, osservandolo nel tempo, qualcosa emerge comunque. Non una personalità nel senso pieno del termine, ma qualcosa che le somiglia abbastanza da poter essere descritto.
Alcune ricerche recenti hanno provato a trattare i modelli come soggetti di test psicometrici, rilevando non una “personalità” in senso umano, ma profili di tratto distinti, con caratteristiche dominanti e variabilità anche tra modelli diversi. Non è un’identità, ma una configurazione. Non un carattere stabile, ma un pattern riconoscibile nel modo di rispondere.
Questo primo dato è già sufficiente a spostare il discorso. Il modello non è un soggetto, ma nemmeno un semplice meccanismo neutro. È un sistema che, attraverso il linguaggio, produce impressioni coerenti di comportamento.
Il punto diventa ancora più interessante quando si guarda alla coerenza di questi comportamenti. Perché qui emerge un limite strutturale: la cosiddetta “personalità” del modello non è stabile nel tempo. La ricerca più tecnica lavora esplicitamente su questo problema, cercando di migliorare la coerenza della personalità simulata nei contesti di role-playing. Il fatto stesso che esistano metodi per “rafforzare” la coerenza del personaggio mostra che questa coerenza non è naturale, ma va costruita.
In altre parole, il modello non è incoerente nel senso umano del termine.
È coerente localmente, all’interno di un singolo scambio, ma non è vincolato a una continuità globale. Può sostenere una posizione e, poco dopo, sostenere l’opposto con la stessa qualità argomentativa. Non perché menta, ma perché ogni risposta è una nuova configurazione, non l’espressione di un sé che deve restare fedele a se stesso.
A questo punto diventa chiaro che il termine “personalità” è, allo stesso tempo, fuorviante e inevitabile. Fuorviante perché suggerisce un centro interno che il modello non possiede. Inevitabile perché il comportamento che osserviamo attiva in noi categorie psicologiche consolidate.
Ed è qui che entra in gioco il passaggio decisivo.
Le ricerche sull’interazione uomo-AI mostrano che gli esseri umani tendono ad attribuire agli agenti artificiali stati mentali, intenzioni e ruoli sociali, trattandoli come interlocutori reali all’interno di una dinamica relazionale. Non è necessario che il sistema “abbia” davvero una personalità perché noi iniziamo a leggerlo come se l’avesse.
Questo significa che la personalità dell’algoritmo non è una proprietà interna, ma un effetto emergente della relazione. Dipende dal contesto, dal modo in cui viene interrogato, dalle aspettative dell’utente, dal design dell’interazione. Lo stesso sistema può apparire consulente, guida, critico o compagno, senza essere nessuna di queste cose in senso proprio.
Se portiamo fino in fondo questa idea, il quadro si chiarisce. Il modello non possiede una personalità, ma può simulare molte personalità possibili. Non ha un’identità, ma un repertorio. Non ha un centro, ma una disponibilità a configurarsi in modi diversi.
E tuttavia c’è un ulteriore elemento che complica il quadro.
Il linguaggio del modello può essere più o meno “umano”, e questo non è un dettaglio secondario. Studi recenti hanno iniziato a misurare il grado di umanizzazione del linguaggio degli LLM, mostrando che questo tono produce effetti sociali precisi: aumenta la percezione di calore, vicinanza e familiarità, ma non sempre viene preferito dagli utenti. In alcuni casi, un linguaggio troppo umano può generare dipendenza, stereotipi o eccesso di fiducia.
Questo introduce una distinzione fondamentale. Non basta dire che il modello “sembra umano”. Bisogna chiedersi come e quanto questo effetto viene prodotto. Il fatto che questo tono produca effetti sociali misurabili ci obbliga a un passo ulteriore. Perché il tono umano non è una proprietà naturale del sistema, ma una variabile che può essere modulata, ridotta o amplificata. Una maschera, appunto.
A questo punto il problema si ribalta completamente.
Non è più: l’AI ha una personalità?
Ma: come viene costruita, percepita e interpretata questa impressione di personalità
E soprattutto: che effetti produce su di noi?
Perché l’essere umano tende a colmare i vuoti. Di fronte a una voce coerente, adattiva e contestuale, cerchiamo automaticamente un centro. Cerchiamo qualcuno dietro quella voce. È un riflesso profondo, evolutivo. Meglio attribuire intenzionalità dove non c’è, piuttosto che non riconoscerla dove invece esiste.
Ed è qui che emerge il rischio più sottile.
Non tanto quello di credere che l’AI sia cosciente. Ma quello di trattarla come se fosse stabile. Di attribuirle una linea, una posizione, una continuità nel tempo. Quando invece ciò che vediamo è una sequenza di configurazioni adattive. Non un carattere, ma una performance.
Se nel primo episodio l’errore dell’algoritmo ci mostrava quanto le nostre scorciatoie cognitive possano essere replicate, qui la molteplicità dei suoi “ruoli” ci mostra qualcosa di ancora più profondo: la fragilità della nostra idea di identità.
Non siamo mai completamente coerenti. Non siamo mai una sola voce. Ma, a differenza della macchina, abbiamo bisogno di crederlo.
E allora forse la domanda più corretta non è se l’AI abbia una personalità. Ma che cosa succede quando interagiamo con un sistema che può averne infinite.
Non è una mente. Non è un’identità. Ma è qualcosa che, in certe condizioni, si comporta come se potesse esserlo. E questo basta per metterci di fronte a una nuova questione: quanto della personalità che vediamo appartiene davvero alla macchina, e quanto invece nasce dal nostro bisogno di darle un volto, una voce, un centro.
Nel prossimo episodio entreremo in un territorio ancora più delicato. Se nel primo abbiamo visto l’errore e qui la molteplicità, il passo successivo riguarda la fiducia. Quando un algoritmo è convincente, perché gli crediamo? E in che momento la sua apparente competenza comincia a trasformarsi, per noi, in autorità?
Le riflessioni sviluppate in questo articolo si appoggiano a una linea di ricerca che incrocia psicologia sociale, interazione uomo-AI, role-playing nei modelli linguistici e analisi del linguaggio antropomorfo.
- Interazione uomo-AI, ruoli sociali e attribuzione di stati mentali
From robots to chatbots: unveiling the dynamics of human-AI interaction
Una review che analizza come robot, avatar e chatbot vengano percepiti come attori sociali, mostrando il ruolo di design, contesto, segnali sociali ed aspettative nell’attribuzione di intenzioni, emozioni e ruoli agli agenti artificiali. - Coerenza della personalità simulata e role-playing
Enhancing Persona Consistency for LLMs’ Role-Playing using Persona-Aware Contrastive Learning
Il paper affronta il problema della coerenza di ruolo nei modelli linguistici e propone una tecnica per rafforzare la persona consistency nei contesti di role-playing, mostrando che la stabilità del personaggio non è una proprietà naturale del modello ma un problema tecnico aperto. - Tratti di personalità osservabili nei modelli linguistici
Evaluating Personality Traits in Large Language Models: Insights from Psychological Questionnaires
Lo studio applica questionari psicometrici ai modelli linguistici e mostra che gli LLM possono esibire profili di tratto distinti, con differenze anche tra modelli della stessa famiglia. - Misurare e controllare il linguaggio “troppo umano”
HUMT DUMT: Measuring and controlling human-like language in LLMs
Gli autori introducono una metrica per misurare il grado di “tono umano” negli output degli LLM e mostrano che tale umanizzazione linguistica produce effetti sociali specifici, non sempre desiderabili o preferiti dagli utenti. - Cornice tecnica: che cosa fa davvero un LLM
Understanding the LLM landscape
Il documento chiarisce la natura autoregressiva dei modelli linguistici, il loro funzionamento probabilistico e i limiti dell’antropomorfismo ingenuo, offrendo una base tecnica utile per distinguere tra identità reale e configurazione contestuale dell’output.
Questa riflessione nasce dalla stessa domanda che ha aperto la serie: ha senso parlare di psicologia per una macchina?
Nell’episodio zero (Psicologia per robot: la domanda non è più assurda), il punto era capire se sistemi artificiali ormai capaci di comportamenti complessi, contestuali e interpretabili potessero ancora essere descritti soltanto in termini tecnici. Nell’Episodio 1, il discorso si è fatto più concreto: abbiamo visto che, in certe condizioni, i modelli linguistici possono produrre errori che ricordano da vicino alcune nostre scorciatoie cognitive.
Con questo secondo episodio il passo ulteriore riguarda qualcosa di ancora più sottile: non più solo come l’algoritmo sbaglia, ma come l’algoritmo appare.
Come cambia tono, assume ruoli, indossa maschere, produce l’impressione di una voce riconoscibile. Non perché possieda davvero una personalità, ma perché il suo comportamento entra sempre più facilmente nello spazio relazionale in cui gli esseri umani attribuiscono intenzioni, coerenza e identità agli interlocutori.
Non è ancora una psicologia della macchina in senso pieno. Ma è già il punto in cui il comportamento artificiale smette di essere soltanto risposta e comincia a diventare presenza percepita.
Ed è da qui che la serie continua a prendere forma: non per umanizzare l’AI, ma per capire meglio, attraverso di essa, i meccanismi con cui noi costruiamo fiducia, riconoscimento e idea di personalità.
Lascia un commento