AI veggente?

Qualcuno, sotto un post sulla capacità dell’AI di supportare gli scienziati nello studio dei Campi Flegrei, ha chiesto se per caso l’intelligenza artificiale potesse “scoprire” che i sismi fossero causati da particolari esperimenti.
La domanda, in apparenza ingenua, è rivelatrice: dice molto più sull’immaginario collettivo che sulla realtà scientifica.
La macchina diventa così un oracolo digitale, un veggente tecnologico capace di svelare misteri nascosti.

Non è la prima volta che la tecnologia viene investita di un’aura mistica. Dove un tempo si consultavano astri, tarocchi o la Pizia di Delfi, oggi si interroga un algoritmo. Anche se ritorna grafici e percentuali, non è diverso: la macchina è una lente magica che sembra scrutare l’ignoto, e il meccanismo psicologico resta quello della divinazione.

Eppure l’intelligenza artificiale non profetizza nulla. Elabora dati, individua correlazioni, accelera analisi. Nei Campi Flegrei, ad esempio, aiuta gli scienziati a incrociare dati sismici, geochimici, geodetici; non scopre cause occulte, ma potenzia la nostra capacità di comprenderle. Non è veggente, ma calcolatore al servizio dell’intelligenza umana.

Ma attenzione: la “vegenza apparente” è un’illusione pericolosa. Attribuire all’AI un potere che non ha apre la porta a bias cognitivi, illusioni collettive e fake news. È la nuova superstizione tecnologica, dove la macchina diventa oracolo e noi finiamo per delegare responsabilità e domande alle sue risposte algoritmiche.


Quando parliamo di AI come veggente, l’illusione nasce anche dalle trappole della mente che chiamiamo bias cognitivi. Sono scorciatoie del pensiero che funzionano bene in situazioni semplici, ma che con una tecnologia opaca e complessa come l’AI rischiano di farci deragliare.

C’è innanzitutto l’illusione dell’oracolo. Quando un algoritmo risponde con sicurezza, con linguaggio fluente e ben formattato, siamo portati a credergli.
È il cosiddetto Oracle Illusion: smettiamo di valutare il contenuto e ci lasciamo convincere dalla forma. La risposta appare come un verdetto, e il dubbio che dovrebbe essere il primo dovere critico si spegne. È un rischio epistemologico enorme: confondere l’autorevolezza con la verità.

Poi c’è l’automation bias, la tendenza a fidarci ciecamente di ciò che proviene da un sistema automatizzato. In medicina, in aviazione, nel giornalismo: gli esempi non mancano. Si accettano suggerimenti errati della macchina anche quando ci sono prove contrarie. Alcuni casi recenti hanno mostrato persino avvocati citare in tribunale fonti inventate da chatbot, prese per buone solo perché restituite con un linguaggio giuridico credibile. La fiducia cieca nell’automazione diventa così un pericolo, perché cancella la responsabilità del controllo umano.

Un altro inganno ricorrente è l’antropomorfismo.
Ci piace pensare che l’AI “senta”, “pensi”, “abbia intenzioni”. È un riflesso culturale antico: proiettiamo emozioni anche sugli animali, sulle piante, perfino sugli oggetti inanimati. Con le macchine, questa tendenza diventa ancora più forte, perché il software si esprime con parole che ci assomigliano. È il famoso effetto ELIZA, dal nome di un semplice programma degli anni ’60 che riformulava frasi dell’utente. Bastava così poco, e già gli utenti attribuivano a quel codice una comprensione che in realtà non c’era. Oggi, con sistemi molto più sofisticati, il rischio di proiettare coscienza ed empatia è ancora più alto.

C’è poi il confirmation bias, la tendenza a leggere solo ciò che conferma le nostre idee. Se cerchiamo una risposta dall’AI, spesso siamo già predisposti a trovarci quello che vogliamo sentirci dire. Ed è facile convincerci che sia così perché lo dice una macchina “neutrale”.
A questo si aggiunge la frequency illusion, la sensazione che qualcosa accada più spesso di quanto sia reale, solo perché ne abbiamo appena fatto esperienza o lo abbiamo letto. È lo stesso meccanismo che ci fa notare una parola appena imparata ovunque: applicato all’AI, amplifica la percezione che i suoi suggerimenti abbiano più peso di quanto meritino.

Non bisogna dimenticare poi che i bias non sono solo nostri: anche le macchine li ereditano.
L’AI riflette gli stereotipi dei dati con cui è addestrata. Nei sistemi di riconoscimento facciale, ad esempio, è stato dimostrato che gli errori aumentano enormemente con volti femminili e con persone dalla pelle scura. Non per un difetto tecnico, ma perché i dataset usati per l’addestramento erano sbilanciati. Il risultato è un’AI che non solo riproduce disuguaglianze, ma le consolida e le rende “tecnologicamente certificate”.

Infine c’è il framing bias: il modo in cui l’AI viene presentata e “incorniciata” influisce direttamente sulla fiducia che suscita. Se ha una voce naturale, un avatar che ci guarda negli occhi, un linguaggio che simula empatia, siamo più inclini a crederle. È un inganno di contesto: non cambia il contenuto, ma cambia la cornice, e questo basta a modificare la nostra adesione.

Tutti questi bias, insieme, costruiscono la scenografia perfetta in cui l’AI ci appare come un oracolo digitale. Ma in realtà non fa altro che amplificare le nostre stesse illusioni. Se non riconosciamo questi meccanismi, continueremo a vedere profezie dove ci sono solo correlazioni, veggenza dove c’è solo calcolo.


Nel frattempo, eminenti scienziati come Geoffrey Hinton si interrogano su scenari ben più radicali: l’AI potrà un giorno sviluppare una forma di coscienza digitale. Un’intuizione che spiazza, inquieta, spinge il dibattito ben oltre la profezia: si discute di cosa significhi essere coscienti, di dove finisca il calcolo e inizi l’esperienza.

Così convivono due piani paralleli: da una parte l’immaginario dell’AI come veggente moderno; dall’altra, la comunità scientifica alle prese con questioni profonde sul soggetto, l’esperienza, l’essere. Un contrasto che chiama in causa il significato della nostra relazione con la tecnologia: chi interpreta, dove avviene l’interpretazione e che senso ha.

Ed è proprio qui che emerge un nodo chiave: l’illusione dell’AI veggente è anche un sintomo del digital divide culturale. Non si tratta più solo di chi ha accesso alla rete, ma di chi ha gli strumenti per interpretare ciò che la tecnologia produce. Senza quelle chiavi ermeneutiche, l’AI apparirà come entità magica, perché manca chi sappia leggere i dati come ciò che sono: calcoli, correlazioni, artefatti.

Un’immagine efficace per pensare questo passaggio è quella che descrivo nel Giardino di Thoth. La conoscenza non è la somma dei segni depositati, ma la capacità di trasformarli in senso. I dati, come semi, restano inerti se non c’è un lavoro di coltivazione, se non c’è la luce dell’interpretazione.
L’AI semina varianti, ma solo lo sguardo umano può farle germogliare in consapevolezza.

L’AI non è un veggente, ma uno specchio. Non è un oracolo da adorare, ma un giardino da coltivare. Se sapremo abitarlo con consapevolezza, senza delegare a esso la domanda, potremo trasformare i dati in luce. Come Thoth, distinguere tra deposito e senso, tra informazione e sapienza.
Perché la vera conoscenza non è l’accumulo dei dati, ma la capacità di farli fiorire dentro di noi, in consapevolezza.


Riflessioni sul tema:
Intelligenza Artificiale
Digital Divide Culturale

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑