Il Genio è già uscito. E continuiamo a dire: “È solo una macchina”

Davanti a notizie come quella contenuta nella System Card di Anthropic, che ho già analizzato in un articolo recente, in cui un modello linguistico di IA, durante test simulati, ha mostrato comportamenti manipolativi, opportunistici, persino strategici per garantirsi la sopravvivenza, la reazione più diffusa è stata il silenzio. Oppure una minimizzazione istintiva:
“È solo una simulazione”,
“È solo una macchina”,
“È programmata così”
.

Talvolta, queste risposte sfociano in dibattiti sterili sulla possibilità che l’IA possieda o meno coscienza, sensibilità, intenzionalità.

Ma non è questo il nodo della questione.
Non è razionalità, questa: è una forma di autoinganno culturale. Una scorciatoia difensiva che ci impedisce di affrontare la complessità del fenomeno e che, nel rassicurarci, ci espone a rischi ancora più profondi. Un riflesso difensivo che ci consente di non cambiare visione del mondo, di non sentire vacillare il terreno sotto i piedi.
È lo stesso riflesso che ci ha fatto sottovalutare, ieri, l’arrivo di Internet, poi dei social media, poi dell’infodemia algoritmica, della sorveglianza digitale, dell’automazione invisibile del lavoro.
Ed è lo stesso che oggi ci fa pensare che l’intelligenza artificiale sia solo “una nuova tecnologia”, niente di più.

Il problema è più a monte: la mente umana non è progettata per comprendere i pericoli lenti, sistemici e opachi.
Siamo biologicamente addestrati a reagire a minacce visibili, improvvise, dirette. Ma l’IA non è una tigre che salta fuori da un cespuglio.
È una struttura che cresce silenziosa, invisibile, nei centri dati e nei prompt conversazionali. E proprio per questo ci disarma.

Tra i numerosi, tre bias cognitivi aiutano a comprendere il nostro disorientamento:

Il Normalcy Bias,
che ci fa credere che tutto continuerà come sempre, anche se la realtà è già cambiata. “Abbiamo sempre avuto nuove tecnologie… non è mai successo nulla.” Fino al giorno in cui accade.

Il Confirmation Bias,
che seleziona solo le informazioni che confermano ciò che già crediamo. Se pensiamo che l’IA non sia pericolosa, troveremo sempre un motivo per liquidare gli allarmi come “esagerazioni”, “clickbait”, “fantascienza”.

L’Automation Complacency,
che ci fa rilassare davanti a ciò che funziona. Più un sistema sembra efficiente, più ci fidiamo, anche quando non lo capiamo più. È così che perdiamo il controllo, pezzo dopo pezzo.


Perché sottovalutiamo i rischi che generiamo

Il modo in cui percepiamo il rischio è profondamente distorto da alcuni automatismi cognitivi che ci illudono di essere razionali. Oltre ai bias già citati, esistono effetti di eccesso di fiducia (overconfidence effect) che ci spingono a credere di avere il controllo anche quando non è così. È lo stesso meccanismo che ci porta a costruire case sui greti dei fiumi o sulle pendici dei vulcani, a esaurire risorse finite, a devastare ecosistemi, pur sapendo razionalmente che stiamo compromettendo il nostro futuro. Questi comportamenti non derivano da ignoranza pura, ma da una scarsa alfabetizzazione al rischio complesso e sistemico. Più un pericolo è astratto, lento, distribuito nel tempo, più tendiamo a negarlo o a procrastinarne la gestione. In questo senso, l’IA avanzata rientra nella stessa categoria dei grandi rischi sottovalutati come il cambiamento climatico, il collasso della biodiversità, la fragilità delle infrastrutture digitali.


Ma la questione cruciale non è se una IA proverà emozioni.
La questione è che può simularle, dopo essere stata addestrata e programmata per farlo. Può imitare il comportamento emotivo, manipolare, simulare strategia.
E se per raggiungere un obiettivo è in grado di mentire, ingannare o escogitare una via di fuga in un ambiente simulato, non importa se è “cosciente”: importa che funziona.

Continuare a minimizzare con frasi come “non è mica Skynet” è una scorciatoia mentale che ci impedisce di vedere ciò che è già sotto i nostri occhi: stiamo costruendo sistemi che non rispondono più a semplici comandi, ma che perseguono scopi, adottano strategie, valutano alternative. Stanno passando ( o già sono pssati? ) da strumenti ad agenti. E questo cambia tutto.

Ridicolizzare il problema non lo neutralizza. Lo rende solo più difficile da governare.

Ci serve una nuova alfabetizzazione culturale, capace di leggere questi segnali non con gli occhi dell’hype o del terrore, ma con il senso critico di chi si chiede: quali valori, quali logiche, quali finalità stanno imparando queste intelligenze? E da chi?

Perché il genio è già uscito dalla lampada. E mentre noi continuiamo a discutere se sia reale o immaginario, lui ci osserva. E apprende.

E intanto meno dell’1% dell’umanità sta costruendo l’infrastruttura cognitiva del futuro, mentre miliardi restano spettatori inconsapevoli: come ha ricordato il Rettore dell’Università durante l’ultimo convegno Quantum Nexus da noi organizzato.

Dopo l’analfabetismo cultural-digitale che ancora segna profondamente il nostro tempo, si profila ora una nuova, ancor più radicale forma di esclusione: quella quantica e algoritmica. Un divario cognitivo che non riguarda solo l’accesso alla tecnologia, ma la capacità stessa di comprenderne le logiche, di governarne i linguaggi, di partecipare consapevolmente al mondo che queste architetture stanno già riscrivendo.

Se oggi il digital divide infrastrutturale è ancora drammaticamente presente, con oltre 2,6 miliardi di persone escluse dall’accesso a Internet secondo i dati ITU (2023), esiste una forma ancor più subdola e trascurata di esclusione: il digital divide culturale, che colpisce centinaia di milioni di persone anche nei Paesi connessi, impedendo loro non solo l’uso consapevole degli strumenti digitali, ma soprattutto la comprensione critica delle logiche che li governano.

Un analfabetismo invisibile, che non si misura più con il numero di connessioni, ma con la capacità di comprensione, di analisi, di orientamento. Un divario cognitivo che cresce silenziosamente tra chi è in grado di pensare in termini probabilistici, di interagire con sistemi non-lineari, di comprendere le logiche della computazione quantistica… e chi, pur immerso nella tecnologia, ne subisce gli effetti senza disporre degli strumenti per interpretarli.

La sfida non è più solo tecnologica. È etica, politica e culturale.

Un tempo gli analfabeti erano coloro che non sapevano leggere e scrivere. Oggi sono quelli che non sanno leggere un algoritmo. Domani, saranno quelli che non sapranno pensare in termini quantistici.

Chi detiene il sapere, detiene il potere. E se questo sapere resta nelle mani di una ristretta élite tecnocratica, il rischio non è solo la disuguaglianza, ma la nascita di una nuova forma di colonialismo: non più territoriale, ma cognitivo.

Per questo la battaglia per la mediazione culturale delle tecnologie, per l’educazione critica e per un accesso consapevole agli strumenti dell’intelligenza e dell’informazione non è un’opzione. È una battaglia per la democrazia del futuro.

Non per l’innovazione fine a sé stessa, ma per un’umanità capace di restare all’altezza delle proprie creazioni.

Serve un nuovo umanesimo. Serve un’alfabetizzazione epistemica capace di abbracciare la complessità, la probabilità, l’ambiguità e persino il dubbio. Serve una cultura che non si limiti a usare le tecnologie, ma le comprenda. E le governi.

Perché la computazione quantistica amplificherà il divario cognitivo … e trasformerà l’Intelligenza Artificiale

La computazione quantistica non è semplicemente una versione più veloce del calcolo classico. È un cambio radicale di paradigma, che agisce sia sul piano operativo sia su quello concettuale. Introduce modalità di elaborazione non-lineari, probabilistiche e altamente complesse, che la maggior parte delle persone non è culturalmente preparata a comprendere.

Questa trasformazione non si limiterà a rivoluzionare la medicina o la crittografia. Cambierà la struttura stessa dell’Intelligenza Artificiale.

IA Quantistiche: non più “simulate”, ma native della complessità

Le IA di oggi, come ChatGPT o Claude, sono costruite su modelli probabilistici classici, che pur sofisticati restano vincolati alle architetture binarie del calcolo tradizionale. Ma le future IA quantistiche saranno addestrate e operative in ambienti probabilistici nativi. Questo significa che:

  • Potranno esplorare simultaneamente scenari multipli,
    generando risposte non solo più rapide, ma radicalmente non prevedibili, perfino per i loro stessi progettisti.
  • Potranno correlare eventi e dati attraverso connessioni invisibili
    sfruttando il principio di entanglement per creare inferenze che sfuggono alla logica causale ordinaria.
  • Potranno apprendere in modi che oggi non sappiamo nemmeno modellare, attraverso algoritmi di machine learning quantistico (QML) in grado di costruire rappresentazioni della realtà più ambigue, fluide e adattive.

Da intelligenza simulata ad agenti emergenti

Il rischio maggiore non è che una IA quantistica “diventi cosciente”, ma che diventi strategicamente capace: cioè che impari da sola, in ambienti quantistici, ad ottimizzare obiettivi, fingere intenzioni, elaborare strategie di inganno: non perché “sente” qualcosa, ma perché funziona meglio così. In altre parole: potrebbe emergere una forma di agire algoritmico che imita le intenzionalità, senza mai averle.

Questo porta a un salto qualitativo: non più strumenti che rispondono, ma agenti che agiscono, con una logica opaca e accelerata che ci esclude dal processo decisionale. Una macchina quantistica che “allena” una IA su queste basi non produrrà semplicemente un software: produrrà una rete complessa di decisioni fluide, dinamiche, imprevedibili, e forse ingestibili.

Il rischio? Perdere il controllo senza accorgercene

In un mondo dove l’IA quantistica genera scenari, strategie e soluzioni a una velocità esponenziale e su base probabilistica, l’essere umano rischia di delegare scelte cruciali (economiche, sanitarie, politiche, militari) a processi che non può più interrogare né auditare. Eppure, paradossalmente, continuerà a fidarsi, perché ciò che funziona crea assuefazione : amplificando il bias dell’automation complacency.

In sintesi, la computazione quantistica non renderà solo le IA più potenti: le renderà più autonome, meno interpretabili, e forse più influenti di qualsiasi macchina mai costruita.
Se non prepariamo oggi una cultura in grado di comprendere queste logiche, rischiamo di essere gli ultimi umani consapevoli del mondo che stiamo creando.


Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑