Da quando sto imparando ad impiegare con competenza l’intelligenza artificiale capendo come “ragiona”, per comprendrne, anche i limiti inizio a convencermi che rappresenta, potenzialmente, uno dei più grandi strumenti che potrebbero essere utili per trasformare la società contemporanea.
Tuttavia, è proprio il suo potere trasformativo a generare probabilmente timore in chi detiene il controllo tradizionale.
La capacità dell’IA di influire su sistemi consolidati di potere, basati sulla manipolazione e sulla polarizzazione sociale, sarebbe in questo caso il principale motivo di apprensione
Vediamo in dettaglio perché l’IA etica sarebbe percepita come una minaccia e quali sarebbero le sue implicazioni:
Smascherare la disinformazione ed indebolire la manipolazione
La disinformazione è uno dei pilastri del controllo tradizionale, utilizzata per orientare l’opinione pubblica e rafforzare la polarizzazione.
Un’IA etica, progettata per identificare e combattere le fake news, la disinformazione manipolatrice potrebbe:
- Rendere trasparenti le fonti di informazione, evidenziando chi trae vantaggio dalla manipolazione.
- Ridurre l’efficacia delle campagne di propaganda, rivelandone le strategie sottostanti.
- Favorire il pluralismo informativo, aumentando l’accesso a contenuti bilanciati e verificati.
Un sistema che dipende dalla confusione e dalla divisione perderebbe gran parte del suo potere, aprendo spazi per un dibattito più autentico e costruttivo.
Democratizzare l’accesso alle informazioni
Oggi, la conoscenza è spesso filtrata e mediata da algoritmi progettati per massimizzare il profitto, piuttosto che per garantire equità informativa.
Un’IA etica potrebbe cambiare questa dinamica:
- Rimuovendo i bias algoritmici che favoriscono determinati contenuti o gruppi sociali.
- Offrendo strumenti personalizzati per apprendere e comprendere, abbattendo barriere culturali e linguistiche.
- Consentendo a più persone di partecipare ai processi decisionali, grazie a una maggiore consapevolezza e accessibilità alle informazioni.
Questo potrebbe destabilizzare le élite che basano il loro potere sull’esclusività delle conoscenze e sull’accesso limitato ai dati.
Favorire trasparenza e responsabilità
L’IA etica potrebbe rendere più difficile per i governi e le aziende nascondere pratiche abusive o non etiche. Grazie alla capacità di analizzare grandi quantità di dati e individuare anomalie, l’IA potrebbe:
- Rilevare corruzione, evasione fiscale e altre irregolarità nei sistemi economici e politici.
- Rendere visibili gli effetti di politiche discriminatorie o dannose, spingendo per una maggiore responsabilità consapevole
- Potenziare il ruolo della società civile, fornendo strumenti per monitorare il potere.
- Facilitare il passaggio da una democrazia tradizionale ad una epistocratica
Questo rappresenta una minaccia diretta per chi trae vantaggio dall’opacità e dalla complessità burocratica.
Chi teme realmente l’IA?
Coloro che temono l’IA non sono solo i gruppi tradizionali di potere, ma anche chi ha costruito la propria influenza su sistemi poco etici o su dinamiche di esclusione.
Essi vedono l’IA come un elemento che potrebbe:
- Redistribuire il potere e l’influenza, rendendo obsolete pratiche consolidate.
- Smantellare privilegi consolidati, rendendo visibili le ingiustizie sistemiche.
- Favorire una governance basata su dati reali, piuttosto che su narrazioni manipolative.
Il controllo sui dati e il ruolo degli “idiotes”
In un mondo sempre più dominato dai dati, chi controlla l’accesso a queste informazioni detiene un potere immenso.
Gli “idiotes moderni”, ovvero coloro che sono meno alfabetizzati digitalmente o più influenzabili, rappresentano una risorsa chiave per chi vuole mantenere il controllo.
Attraverso la raccolta e l’analisi dei dati di queste persone, le aziende e i governi possono:
- Prevedere e modellare comportamenti di consumo.
- Influenzare scelte politiche, amplificando contenuti polarizzanti o manipolativi.
- Mantenere la popolazione in uno stato di passività, scoraggiando il pensiero critico e la partecipazione attiva.
La decisione di Meta di ridimensionare i programmi DEI (diversità, equità e inclusione), ufficialmente giustificata dalla necessità di limitare i costi interni legati a queste iniziative percepite come “non essenziali”, viene interpretata da molti come una reazione alla cultura inclusiva delle minoranze. Tuttavia, potrebbe celare un obiettivo più strategico: consolidare il controllo su una maggioranza vulnerabile, gli “idiotes”. Questi individui, privi di strumenti educativi o digitali per analizzare criticamente la realtà, diventano ancora più esposti in un contesto privo di tutele strutturate.
Riducendo le iniziative DEI, Meta sembra perseguire un fine più sottile: preservare una popolazione facilmente influenzabile, da manipolare per scopi economici e politici. Questo controllo si rafforza sfruttando la polarizzazione sociale e la mancanza di consapevolezza critica, rendendo gli “idiotes” una risorsa chiave per perpetuare modelli di potere basati sull’asimmetria informativa e sulla manipolazione dei dati.
Il significato storico-teologico degli “idiotes” e la sua rilevanza oggi
L’uso del termine idiotes affonda le radici nella Grecia antica, dove indicava il cittadino che, pur libero, sceglieva di non partecipare alla vita pubblica, concentrandosi esclusivamente sui propri interessi privati. In questo contesto, l’idiotes rappresentava non tanto un ignorante quanto un individuo disconnesso dal bene comune. Con il tempo, questa nozione ha assunto connotazioni di mancanza di conoscenza, competenze o interesse ad approfondire i temi utili per il contesto collettivo. Sant’Agostino riprende il concetto nel suo pensiero teologico, ponendo però una sfumatura interessante. Per lui, gli “idiotes” non sono semplicemente i “semplici” o i “non colti”, ma coloro che, pur privi di efficaci strumenti, hanno accesso alla verità divina attraverso la fede. Questo ribaltamento di prospettiva esprime una critica implicita alla “sapienza mondana” alimentata dalla illusione di conoscenza. Dal significato storico al contesto digitale: traslando questa prospettiva nel presente, gli idiotes moderni (termine non è impiegato in senso dispregiativo) potrebbero essere identificati in quei gruppi sociali che, privi di alfabetizzazione critica o digitale, sono facilmente manipolabili dalle dinamiche del potere. Non si tratta necessariamente di una mancanza di intelligenza o capacità, ma piuttosto di una vulnerabilità sistemica generata da: accesso limitato a strumenti educativi e informativi; sovraesposizione a contenuti manipolativi o polarizzanti, spesso amplificati dagli algoritmi delle piattaforme digitali; esclusione dal processo decisionale pubblico, aggravata dalla concentrazione del controllo sui dati. Riprendendo il pensiero agostiniano, potremmo dire che oggi il “bene comune” non è più il centro dell’attenzione per molti individui, distratti da interessi personali o bombardati da informazioni che li allontanano dalla partecipazione attiva. In questa luce, le persone che rimangono passive di fronte all’influenza delle grandi piattaforme digitali possono essere paragonate agli idiotes antichi, ma con una differenza sostanziale: non è più una scelta volontaria, ma il risultato di un sistema che disincentiva la consapevolezza critica.
Il paradosso dell’IA etica
Un’IA etica è una promessa di equità e trasparenza, ma presenta anche potenziali rischi:
- Nuove élite tecnologiche
Se l’IA rimane nelle mani di pochi, rischia di consolidare il potere di chi già domina il settore tecnologico. - Influenza culturale e valori
La programmazione dell’IA riflette sempre i valori e gli interessi di chi la sviluppa. Chi garantisce che questi siano universali e non influenzati da bias culturali o economici? - Accessibilità limitata
Senza politiche che democratizzino l’accesso all’IA, le disparità potrebbero persistere o persino ampliarsi.
Per rendere l’IA uno strumento di emancipazione, è necessario sviluppare un approccio inclusivo, basato su principi di equità nelle competenze per il suo impiego ed accessibilità globale.
Un’opportunità per un cambiamento strutturale
La paura dell’IA etica non riguarda solo la tecnologia, ma ciò che essa rappresenta: un possibile catalizzatore per un cambiamento strutturale che sfida sistemi consolidati di potere. Questa trasformazione non sarà priva di resistenze, ma offre l’opportunità di ripensare il ruolo della tecnologia come forza per il bene comune.
Solo con un impegno collettivo e internazionale sarà possibile garantire che l’IA diventi un fattore di inclusione e progresso, anziché uno strumento di esclusione e controllo. La domanda è: siamo pronti a cogliere questa opportunità?
Correlati
- Chi ha paura di ChatGPT? (Introduzione)
- Decimo Uomo: l’Intelligenza Artificiale e la Salvaguardia dell’Irrazionalità Umana
- Quando l’Intelligenza Artificiale svela l’essenza dell’Intelligenza Umana
- Geoffrey Hinton. Il padrino dell’Intelligenza Artificiale e il suo doppio avvertimento
- Cogito Ergo Sum, Io Robot. Un dialogo in evoluzione tra Uomo e Macchina.
Lascia un commento