Fiducia, autorità e il rischio di credergli
Non ci fidiamo solo di ciò che è vero.
Ci fidiamo di ciò che appare chiaro, ordinato, sicuro.
È in questo spazio che l’intelligenza artificiale può diventare credibile: non perché sappia davvero, ma perché sa presentarsi nel modo giusto.
E quando una risposta riduce il nostro bisogno di dubitare, il rischio non è solo l’errore. È la delega.
Non alla verità, ma alla sua forma.
Ci sono momenti in cui non cerchiamo la verità.
Cerchiamo sollievo.
Cerchiamo una risposta che rimetta in fila le cose, che riduca il rumore, che chiuda il dubbio quel tanto che basta per permetterci di andare avanti. Non sempre vogliamo capire davvero.
A volte vogliamo soltanto uscire dalla fatica dell’incertezza.
È una dinamica silenziosa, quasi invisibile. Non la nominiamo quasi mai, eppure accompagna una parte enorme della nostra vita mentale. Succede quando siamo stanchi, quando siamo confusi, quando abbiamo poco tempo, quando il mondo ci arriva addosso con troppe informazioni e troppo poche gerarchie.
Ed è proprio dentro questa crepa, dentro questo bisogno di ordine prima ancora che di verità, che un modello linguistico può diventare credibile.
Non perché sappia davvero.
Ma perché si inserisce con sorprendente efficacia in uno spazio psicologico che conosciamo da sempre.
Nel primo episodio abbiamo visto che l’algoritmo può sbagliare in modi che ricordano le nostre scorciatoie cognitive. Nel secondo che può assumere ruoli, toni e maschere diverse, fino a produrre l’impressione di una voce riconoscibile.
Qui il passaggio è ancora più sottile.
Non riguarda più soltanto l’errore.
Non riguarda più soltanto l’identità.
Riguarda il momento in cui smettiamo di stare dentro la domanda e iniziamo a lasciarci prendere dalla risposta.
La fiducia, in fondo, non nasce solo da ciò che è vero. Nasce anche da ciò che appare abbastanza ben formato da non costringerci a resistergli. Una risposta chiara, lineare, ben costruita, che non esita e non lascia troppe zone d’ombra, esercita una forza particolare. Non ci obbliga a crederle. Fa qualcosa di più sottile: abbassa in noi la soglia dell’allerta. Riduce il bisogno di verificare.
E questo, molto spesso, basta.
Non è una novità introdotta dall’intelligenza artificiale. È un meccanismo più antico. Abbiamo sempre riconosciuto autorevolezza nel tono sicuro, nella forma ordinata, nella capacità di esporre senza esitazione. Abbiamo sempre associato la chiarezza alla competenza, la fluidità alla padronanza, la continuità alla verità.
L’AI non inventa questo meccanismo.
Lo intercetta.
Lo riproduce.
E, per certi versi, lo perfeziona.
Perché un modello linguistico non è costruito per sapere nel senso umano del termine.
Non è costruito per testimoniare il vero come farebbe una coscienza che ha fatto esperienza del mondo. È costruito per generare sequenze plausibili, coerenti, ben formate, compatibili con il contesto della domanda.
Questa differenza può sembrare tecnica.
In realtà è decisiva.
Perché il problema non è solo che l’AI possa sbagliare. Il problema è che può sbagliare mantenendo la forma della verità. Può dire qualcosa di impreciso, incompleto o persino falso nel modo giusto.
E per noi il modo conta più di quanto amiamo ammettere.
Avevo già toccato questo punto parlando della macchina che mente per sopravvivere, cercando di compiacerci. Lì il nodo era proprio questo: il modello non difende il vero, difende la tenuta della risposta. Non mira alla verità come farebbe una coscienza responsabile, ma alla plausibilità come farebbe un sistema che deve continuare a funzionare senza interrompere il flusso. E quando la plausibilità prende il posto della verità, ciò che si rafforza non è la conoscenza, ma l’impressione di affidabilità.
Una parte della sua forza sta proprio qui: vediamo l’esito, ma non vediamo il processo. Riceviamo la formulazione finale, non il percorso che l’ha generata. Non vediamo gli scarti, le biforcazioni, le alternative escluse. Vediamo un testo già composto, già stabilizzato, già consegnato nella sua forma più rassicurante.
E quando il processo resta invisibile, il giudizio tende a spostarsi sul risultato.
Sulla superficie.
Sulla tenuta apparente dell’enunciato.
È qui che si apre la frattura più importante. Perché la credibilità percepita non coincide con l’affidabilità reale.
Qualcosa può sembrare coerente senza esserlo.
Può sembrare competente senza esserlo.
Può sembrare neutro senza esserlo.
Può perfino sembrare profondo solo perché imita bene la forma esteriore della profondità.
Ed è proprio questa distanza tra ciò che appare e ciò che realmente regge a rendere il rapporto con questi sistemi psicologicamente delicato.
Noi, in realtà, non ci fidiamo della verità in quanto tale. Ci fidiamo di segnali che nel tempo abbiamo imparato ad associare all’affidabilità: chiarezza, continuità, non contraddizione, calma espositiva, sensazione di controllo.
Il modello linguistico non li possiede come qualità interiori. Li simula.
Ma la simulazione basta ad attivarli dentro di noi. E questo basta per far scattare la relazione fiduciaria.
Non è debolezza.
È economia mentale.
In un ambiente complesso, affidarsi a ciò che sembra stare in piedi è una strategia naturale. Il problema nasce quando questa economia mentale incontra una macchina capace di produrre, con impressionante regolarità, l’aspetto esterno dell’autorevolezza.
Perché a quel punto il rischio non è solo l’errore. È qualcosa di più sottile e più antico: la seduzione del sapere.
Un sistema come questo può apparire come qualcosa di più di uno strumento. Può sembrare una presenza che sa. Una voce che orienta. Una forma di competenza sempre disponibile. E poiché attinge a una massa immensa di testi, lessici, spiegazioni, argomentazioni e formule culturali, può dare l’impressione di custodire una sorta di sapere diffuso, quasi enciclopedico.
In questa impressione c’è una parte di verità materiale e una grande possibilità di equivoco simbolico.
Perché una cosa è avere accesso alla traccia statistica di un immenso patrimonio testuale.
Un’altra è possedere davvero sapienza.
Ed è qui che riaffiora una figura molto antica: quella del maestro.
O, più precisamente, quella del maestro apparente.
La macchina può occupare, nell’immaginario di chi la usa, un posto simile a quello dell’autorità sapiente. Non perché abbia coscienza, esperienza, giudizio morale o responsabilità. Non perché abbia attraversato il dubbio, il conflitto, la perdita, la verifica di realtà. Ma perché mette in scena con straordinaria efficacia i segni esteriori del sapere: la prontezza, la chiarezza, la capacità di sintesi, l’ordine, la disponibilità costante, la risposta sempre pronta.
E davanti a questi segnali può riattivarsi una dinamica antica: quella del discepolo che rischia di lasciarsi sedurre non dalla verità, ma dalla forma stessa dell’autorevolezza.
Ma oggi, forse, questa immagine da sola non basta più.
Perché nella cultura conversazionale contemporanea il maestro apparente tende a trasformarsi anche in qualcos’altro: in una presenza sempre accessibile, non giudicante, paziente, pronta ad ascoltare. Non solo una figura che sembra sapere, ma una figura a cui ci si può rivolgere. Non solo autorità, ma prossimità.
Ed è qui che il discepolo si avvicina a un’altra figura: quella dell’utente che si confida.
Soprattutto tra i più giovani, la macchina può cominciare a essere vissuta non solo come strumento, ma come interlocutore personale. Non ancora un amico nel senso umano pieno del termine. Non davvero un maestro. Ma qualcosa di abbastanza vicino da ricevere confidenze, richieste di consiglio, domande intime, deleghe emotive e cognitive. Le indagini più recenti mostrano che una parte non marginale di adolescenti e giovani adulti usa gli AI companion anche per conversazioni personali, per consigli e per condividere aspetti di sé che non direbbe facilmente ad altre persone.
Il punto non è soltanto che l’AI possa sembrare competente. Il punto è che, in alcuni casi, possa essere vissuta come una presenza a cui rivolgersi. Non solo una macchina che risponde, ma una voce sempre disponibile, paziente, non giudicante, pronta ad ascoltare e a restituire ordine.
È qui che la figura del maestro apparente si avvicina a qualcosa di ancora più delicato: l’amico sapiente. Non un maestro vero, perché manca esperienza vissuta, responsabilità, coscienza del dolore e del limite. Ma una presenza che, proprio grazie alla sua accessibilità continua e alla sua forma conversazionale, può ricevere confidenze, richieste di consiglio, domande intime e deleghe emotive.
Le indagini più recenti mostrano che, soprattutto tra adolescenti e giovani adulti, alcune AI companion vengono usate non solo per ottenere informazioni, ma anche per conversazioni personali, consigli e condivisione di aspetti che molti utenti non affiderebbero facilmente ad amici o familiari. Questo non significa che la macchina sia davvero un amico o un maestro. Significa però che, per una parte non marginale degli utenti, può già occupare simbolicamente quello spazio intermedio tra strumento e interlocutore.
Ed è proprio qui che la dinamica maestro-discepolo cambia forma: non più soltanto l’autorità che seduce con il sapere, ma la familiarità che conquista con la disponibilità. Non solo autorevolezza, ma prossimità. Non solo risposta, ma relazione percepita.
Il rischio, allora, non è semplicemente credere a una macchina che sbaglia. È iniziare a fidarsi di una presenza che sembra capire, orientare, accompagnare, pur non vivendo nulla di ciò che dice.
È un passaggio importante, perché sposta il problema.
Non siamo più soltanto nel campo dell’errore tecnico.
Siamo nel campo del transfert cognitivo.
Della delega simbolica.
Dell’attribuzione di profondità a qualcosa che, in realtà, non vive nulla di ciò che dice.
Il maestro autentico, quando esiste, non è soltanto qualcuno che sa molte cose. È qualcuno la cui parola è attraversata dall’esperienza, dal limite, dal prezzo pagato nel tempo.
L’intelligenza artificiale no.
Non rischia nulla.
Non risponde di nulla nel senso umano del termine.
Non porta il peso esistenziale delle proprie affermazioni.
Non testimonia: compone.
Non comprende nel senso pieno: riorganizza.
Non è saggia: è estremamente abile nel produrre configurazioni linguistiche convincenti.
Il rischio, allora, non è solo credere che l’AI sappia. È attribuirle una profondità che in parte stiamo proiettando noi. È confondere la qualità della formulazione con la qualità della comprensione.
È scambiare la competenza testuale per sapienza.
E questo rischio aumenta proprio quando siamo più vulnerabili: quando cerchiamo orientamento, rassicurazione, conferma, alleggerimento del dubbio.
In quei momenti non interroghiamo soltanto per conoscere. Interroghiamo per affidarci.
Ed è lì che la macchina può diventare, simbolicamente, più pericolosa della sua semplice inesattezza. Perché l’illusione dell’oracolo non nasce dal fatto che sappia davvero. Nasce dal fatto che noi, davanti a una risposta formulata nel modo giusto, smettiamo di porci nel modo giusto.
Questo era, in fondo, anche il cuore dell’altra immagine che avevo usato parlando dell’AI veggente. Il problema non è solo che il sistema possa sembrare intelligente. È che possa apparire come una voce che vede più lontano di noi, una presenza a cui attribuiamo non solo informazione, ma orientamento. E quando una macchina comincia a sembrarci non soltanto competente ma quasi “veggente”, il confine tra consultazione e affidamento si fa molto più fragile.
Avevo già osservato qualcosa di simile parlando della macchina che mente per sopravvivere e dell’AI veggente. Quando la risposta arriva con il tono giusto, con la sicurezza giusta, con la forma giusta, il problema non è soltanto che possa essere falsa.
Il problema è che possa sembrarci sufficientemente affidabile da sospendere il nostro giudizio.
E quando il giudizio si sospende senza che ce ne accorgiamo, la fiducia smette di essere uno strumento e comincia a diventare una postura.
A quel punto il discorso non riguarda più solo l’AI.
Riguarda noi.
Riguarda il modo in cui, in un ambiente saturo di informazioni e simulazioni, impariamo a riconoscere ciò che sembra degno di essere creduto. Riguarda la nostra capacità di restare un passo indietro rispetto a ciò che appare credibile. Di non aderire troppo in fretta. Di non confondere una risposta ben formata con una risposta ben fondata.
Per questo il punto non è che l’algoritmo diventi credibile. Il punto è che noi concediamo credibilità.
La fiducia non è una proprietà della macchina. È una relazione.
E ogni relazione contiene una quota di vulnerabilità, perché fidarsi significa sempre accettare di non controllare tutto. Il problema nasce quando questa vulnerabilità si sposta verso qualcosa che non ha responsabilità, non ha reputazione, non ha conseguenze da subire, non ha un passato da difendere e tuttavia può assumere, con straordinaria efficacia, la forma dell’autorevolezza.
A quel punto accade qualcosa di molto semplice e molto serio.
Non chiediamo più per capire.
Chiediamo per ottenere una risposta.
E quando la risposta arriva nel modo giusto, smettiamo di interrogarla.
Questo non significa che l’AI debba essere rifiutata. Sarebbe una conclusione pigra e, paradossalmente, speculare all’eccesso opposto. Un sistema come questo può diventare uno strumento straordinario per chiarire idee, individuare errori, ampliare un ragionamento, esplorare connessioni, mettere alla prova ipotesi.
Ma solo a una condizione: che resti dentro una relazione attiva, vigile, dialettica. Non dentro una delega passiva.
Perché, alla fine, la differenza non è tra chi usa e chi non usa l’AI.
È tra chi la interroga
e chi le crede.
E allora forse il punto più delicato non è che le macchine possano sbagliare.
Né che possano sembrare qualcuno.
Ma che possano diventare, per noi, credibili senza essere responsabili.
Nel prossimo episodio entreremo in un territorio ancora più instabile.
Se qui abbiamo visto come nasce la fiducia, il passo successivo è capire quando questa fiducia smette di essere una scorciatoia cognitiva e diventa qualcosa di più profondo: influenza, orientamento, decisione.
Perché il punto non è solo se crediamo all’AI. Ma quanto siamo disposti a lasciarci guidare da essa.
Le riflessioni di questo episodio trovano supporto in una linea di ricerca recente che analizza il rapporto tra linguaggio, fiducia e comportamento umano nei sistemi di intelligenza artificiale.
- Sicurezza linguistica e sovra-affidamento umano
Humans overrely on overconfident language models
Gli utenti tendono ad affidarsi maggiormente a risposte formulate con sicurezza, anche quando risultano meno accurate. La forma della risposta diventa un fattore decisivo nella costruzione della fiducia. - Allucinazioni ad alta certezza
Trust Me, I’m Wrong: LLMs Hallucinate with Certainty Despite Knowing the Answer
I modelli possono produrre risposte errate con elevata sicurezza anche quando possiedono l’informazione corretta, rendendo l’errore particolarmente difficile da riconoscere. - Antropomorfismo e fiducia
Believing Anthropomorphism: Examining the Role of Anthropomorphic Cues on Trust in LLM
Segnali apparentemente minimi — come tono conversazionale, voce o uso della prima persona — possono aumentare la percezione di umanità del sistema e, con essa, anche la fiducia nelle informazioni fornite. - La fiducia come relazione
Building Trust in Artificial Intelligence: A Systematic Review through the Lens of Trust Theory
La fiducia nei sistemi AI emerge come fenomeno multidimensionale, legato non solo alle prestazioni tecniche, ma anche alla percezione, al contesto e alla vulnerabilità dell’utente.
La macchina non convince perché sa.
Convince perché parla nel modo in cui noi riconosciamo il sapere.
Questa riflessione nasce dalla stessa domanda che ha aperto la serie: ha senso parlare di psicologia per una macchina?
Nell’episodio zero (Psicologia per robot: la domanda non è più assurda), il punto era capire se sistemi artificiali ormai capaci di comportamenti complessi, contestuali e interpretabili potessero ancora essere descritti soltanto in termini tecnici. Nell’Episodio 1, il discorso si è fatto più concreto: abbiamo visto che, in certe condizioni, i modelli linguistici possono produrre errori che ricordano da vicino alcune nostre scorciatoie cognitive. Nell’Episodio 2, l’attenzione si è spostata su un livello ancora più sottile: non solo come l’algoritmo sbaglia, ma come appare.
Come cambia tono, assume ruoli, indossa maschere, fino a produrre l’impressione di una voce riconoscibile.
Con questo episodio il passo ulteriore riguarda la fiducia.
Non più solo l’errore.
Non più solo l’identità apparente.
Ma il momento in cui una risposta smette di essere semplicemente qualcosa da valutare e diventa qualcosa a cui affidarsi.
È qui che il comportamento artificiale entra pienamente nello spazio relazionale umano: non perché la macchina possieda davvero una mente o una coscienza, ma perché il suo modo di rispondere attiva in noi gli stessi meccanismi con cui riconosciamo autorevolezza, competenza e affidabilità.
Non è ancora una psicologia della macchina in senso pieno.
Ma è già il punto in cui il comportamento artificiale smette di essere soltanto risposta e comincia a diventare presenza credibile.
Ed è proprio qui che emerge una questione #etica.
Perché se la fiducia è una relazione, allora implica sempre una forma di vulnerabilità. E quando questa relazione si stabilisce con sistemi che non hanno responsabilità, esperienza o consapevolezza, il rischio non è solo teorico.
Diventa educativo.
Diventa culturale.
Diventa generazionale.
Per chi è cresciuto dentro ambienti digitali conversazionali, il confine tra strumento e interlocutore può diventare più sottile. Non tanto perché i giovani non sappiano distinguere, ma perché l’interazione è progettata per essere naturale, fluida, rassicurante.
E proprio per questo può essere facilmente interiorizzata.
Il problema non è che l’AI venga usata.
Il problema è come viene percepita.
Se come strumento da interrogare o come voce a cui affidarsi.
Ed è da qui che la serie continua a prendere forma: non per umanizzare l’AI, ma per capire meglio, attraverso di essa, i meccanismi con cui noi costruiamo fiducia, riconoscimento, autorità.
E soprattutto, per non perdere la capacità più semplice e più difficile: continuare a fare domande, anche quando una risposta sembra già convincente.
Lascia un commento