Istituto per il Futuro dell’Umanità, dietro la sua chiusura qualche altro motivo?

Il Future of Humanity Institute (FHI) è un gruppo di ricerca multidisciplinare fondato nel 2005 presso l’Università di Oxford (Uk) dal filosofo Nick Bostrom. L’istituto ha attratto ricercatori da diverse discipline come la filosofia, l’informatica, la matematica e l’economia per studiare le grandi questioni della civiltà umana. La missione dell’FHI è stata quella di affrontare questioni cruciali per il Futuro dell’Umanità, spesso ignorate dalle pressioni accademiche tradizionali, creando un ambiente favorevole alla creatività e al progresso intellettuale.

Nick Bostrom ha ricevuto critiche per essere visto come un tecnofilo e transumanista (come Elon Musk che ha finanziato l’FHI) , ovvero qualcuno che ha una visione fortemente positiva e ottimistica nei confronti della tecnologia e del suo potenziale per migliorare l’Umanità. Questa percezione si baserebbe su vari aspetti del suo lavoro e delle sue opinioni. Tuttavia Bostrom e i suoi sostenitori argomentano che il suo lavoro non è tecnofilia ingenua, ma piuttosto un’esplorazione equilibrata delle potenzialità e dei pericoli delle tecnologie emergenti. Egli sottolinea l’importanza di una ricerca approfondita e di una regolamentazione adeguata per gestire i rischi associati, pur riconoscendo le opportunità che tali tecnologie potrebbero offrire per il miglioramento dell’Umanità.

In sintesi, mentre alcune critiche lo dipingono come un tecnofilo, Bostrom si vede come un realista che cerca di comprendere e gestire i complessi rischi e benefici delle tecnologie avanzate. Ed in questo io sono d’accordo avendo sostenuto e portato, con il mio gruppo di ricerca Umanesimo & Tecnologia, in Italia 30 anni fa il manifesto dei Tecnorealisti.

Tematiche di Ricerca

Rischio Esistenziale

L’FHI ha studiato sistematicamente il rischio esistenziale, ovvero le modalità con cui l’umanità può fallire estinguendosi prematuramente o perdere il proprio potenziale a lungo termine. Tra i lavori fondamentali c’è il libro “Global Catastrophic Risks” (2008) e il saggio di Bostrom del 2013 che definisce il rischio esistenziale come priorità globale. La ricerca ha esplorato l’etica, l’epistemologia e la pratica per affrontare tali rischi, e ha influenzato politiche a livello globale.

Rischio Biologico

Un’area attiva della ricerca è stata la minaccia di rischi biologici naturali o artificiali. L’FHI ha analizzato le biotecnologie emergenti e i rischi associati, contribuendo a politiche di biosicurezza e bioetica. Durante la pandemia di SARS-CoV-2, il team ha lavorato su interventi non farmaceutici e sulla gestione delle incertezze pandemiche.

Macrostrategia

La macrostrategia indaga su come le azioni presenti possano influenzare gli esiti a lungo termine per l’umanità. L’FHI ha esplorato concetti come la “waste astronomica” e le “considerazioni cruciali”, cercando di sviluppare una teoria su come le civiltà possano sopravvivere indefinitamente e su quali possano essere i limiti naturali alla stabilità delle società complesse.

Longtermismo

Il longtermismo è una prospettiva etica che considera la protezione del benessere delle future generazioni altrettanto importante quanto quella delle generazioni presenti. L’FHI ha esplorato come questo approccio possa guidare le decisioni etiche e politiche, e ha contribuito a sviluppare una visione dei Grandi Futuri per l’Umanità.

Intelligenza Extraterrestre

La ricerca sull’intelligenza extraterrestre (ETI) ha esplorato il Paradosso di Fermi e la probabilità di vita intelligente nell’universo. L’assenza di prove di ETI è stata utilizzata per inferire informazioni sulla nostra possibilità di evitare rischi esistenziali.

Altruismo efficace

L’altruismo efficace cerca i modi migliori per fare del bene nel mondo.

L’FHI ha contribuito teoricamente e praticamente, influenzando il modo in cui le risorse dovrebbero essere allocate per massimizzare l’impatto positivo.


L’altruismo efficace (Effective Altruism) è un movimento e un approccio di ricerca che mira a trovare i modi più efficaci per fare del bene nel mondo, basandosi su prove e ragionamenti rigorosi. Questo movimento cerca di applicare le idee e i principi dell’etica e dell’economia per massimizzare l’impatto positivo delle risorse destinate alla beneficenza. Il concetto centrale è quello di utilizzare i mezzi disponibili nel modo più efficiente possibile per alleviare la sofferenza e migliorare il benessere globale.

Temi principali dell ‘Altruismo efficace

1. Cost-Effectiveness

Un tema chiave nell’altruismo efficace è la valutazione della cost-effectiveness degli interventi. Un documento fondamentale di Toby Ord, “The Moral Imperative toward Cost-Effectiveness in Global Health” ha dimostrato come programmi diversi per migliorare la salute nei paesi poveri variano enormemente in termini di costi e benefici. Ad esempio, alcune iniziative sanitarie possono essere migliaia di volte più efficaci di altre nel salvare vite umane o migliorare la qualità della vita. Questa consapevolezza ha portato a promuovere interventi che, a parità di risorse, offrono il massimo beneficio possibile.

2. Scelta dei Criteri

L’altruismo efficace utilizza diversi criteri per valutare quali cause sostenere.

Tra questi criteri ci sono:

  • Importanza: quanto è grave il problema che si sta cercando di risolvere?
  • Trattabilità: quanto è probabile che un intervento riesca a migliorare significativamente la situazione?
  • Neglectedness: quante risorse vengono già destinate a questo problema? Problemi meno finanziati possono offrire opportunità maggiori per fare la differenza.

3. Riduzione dei Rischi Esistenziali

L’altruismo efficace non si limita a risolvere problemi immediati, ma considera anche la riduzione dei rischi esistenziali, cioè quelle minacce che potrebbero portare all’estinzione dell’umanità o a un crollo catastrofico della civiltà. Proteggere il futuro dell’umanità è visto come una priorità fondamentale, poiché le conseguenze a lungo termine possono essere enormi.

4. Promozione della Ricerca e delle Politiche

Il movimento promuove la ricerca su cause importanti e la formulazione di politiche basate su evidenze. Questo include l’incentivazione di studi accademici, la creazione di organizzazioni di ricerca e il coinvolgimento con i decisori politici per implementare strategie efficaci su larga scala.

Contributi dell’FHI all’Altruismo Efficace

L’FHI ha giocato un ruolo cruciale nello sviluppo e nella diffusione delle idee dell’altruismo efficace. Alcuni dei contributi chiave includono:

  • Pubblicazioni: Toby Ord e William MacAskill, figure di spicco dell’FHI, hanno pubblicato lavori influenti che hanno modellato il campo. Ord ha scritto su cost-effectiveness e sui rischi esistenziali, mentre MacAskill ha esplorato la filosofia dell’altruismo efficace nel suo libro “Doing Good Better”.
  • Ricerca interdisciplinare: l’FHI ha condotto ricerche interdisciplinari che collegano l’etica teorica con l’applicazione pratica, contribuendo a definire le priorità globali e i metodi per valutare l’impatto degli interventi caritatevoli.
  • Collaborazioni: l’FHI ha collaborato con altre organizzazioni per promuovere l’altruismo efficace. Il Global Priorities Project, ad esempio, è nata come una collaborazione tra il Centre for Effective Altruism e l’FHI per analizzare come prioritizzare le politiche e gestire i rischi tecnologici emergenti.
  • Formazione e divulgazione: l’FHI ha contribuito a formare nuove generazioni di ricercatori e attivisti dell’altruismo efficace attraverso programmi di borse di studio e iniziative di divulgazione. Questi sforzi hanno aiutato a diffondere una mentalità di efficacia e razionalità nelle comunità accademiche e filantropiche.

Nonostante i successi, l’altruismo efficace ha affrontato critiche e sfide, tra cui:

  • Eccessiva razionalità: Alcuni critici sostengono che l’approccio fortemente basato su dati e razionalità possa trascurare aspetti umani ed emotivi della carità.
  • Accessibilità: altri argomentano che l’altruismo efficace può sembrare elitario o inaccessibile a chi non ha una formazione accademica avanzata.
  • Distribuzione delle risorse: un dibattito su come bilanciare gli interventi locali e globali e su come distribuire equamente le risorse tra cause immediate e a lungo termine.

Tecnologie Emergenti e l’ipotesi del mondo vulnerabile

L’FHI ha indagato sulle tecnologie emergenti, con particolare attenzione all’intelligenza artificiale (AI). Ha esplorato la sicurezza e l’allineamento dell’AI, considerando i rischi esistenziali associati e sviluppando strategie per gestire queste tecnologie in modo sicuro. La pubblicazione del libro di Bostrom Superintelligence: Paths, Dangers, Strategies (2014) e il saggio The Vulnerable World Hypothesis  hanno avuto un impatto significativo nel campo, ma anche molte critiche.


L’ipotesi del Mondo Vulnerabile (Vulnerable World Hypothesis) di Nick Bostrom esplora l’idea che i continui progressi tecnologici e scientifici potrebbero destabilizzare la civiltà, rendendo più facile per individui o piccoli gruppi causare distruzione massiva. L’ipotesi sostiene che esiste un potenziale livello di sviluppo tecnologico in cui il risultato predefinito è la devastazione della civiltà, a meno che l’umanità non abbia superato la ‘condizione predefinita semi-anarchica’.

Concetti Chiave e Implicazioni Politiche

Rischi del Progresso Tecnologico: Bostrom sostiene che non tutti i progressi tecnologici sono benefici. Alcuni potrebbero democratizzare la distruzione di massa, rendendo possibile per individui causare danni estesi usando materiali facilmente accessibili. Questo rischio richiede una rivalutazione delle politiche relative all’apertura scientifica e allo sviluppo tecnologico.

Misure Preventive: per mitigare questi rischi, Bostrom suggerisce la necessità di un controllo preventivo robusto e di una governance globale. Ciò include la sorveglianza ubiquitaria e la restrizione dell’accesso a certe tecnologie per prevenire abusi.

Esempi Storici e Ipotesi

Esempio Storico: lo sviluppo delle armi nucleari e la successiva corsa agli armamenti illustrano come i progressi tecnologici possano creare rischi esistenziali.

Esempio Ipotesi: Bostrom utilizza un esperimento mentale in cui le bombe nucleari potrebbero essere create facilmente con materiali semplici, portando a una proliferazione incontrollabile e alla distruzione inevitabile.

Tipi di Vulnerabilità

  • Vulnerabilità di Tipo-1 (Facile Accesso alle Bombe Nucleari): tecnologie che rendono facile per gli individui causare distruzione massiva. Ad esempio, se fare una bomba nucleare fosse semplice come collegare pochi oggetti domestici, sarebbe impossibile prevenire il loro uso diffuso e la conseguente devastazione.
  • Vulnerabilità di Tipo-2a (Primo Attacco Sicuro): tecnologie che creano incentivi per attori potenti (ad esempio, gli stati) a usare capacità distruttive. Questo può portare a attacchi preventivi e conflitti su larga scala a causa dei percepiti vantaggi strategici.
  • Vulnerabilità di Tipo-2b (Peggior Riscaldamento Globale): tecnologie che incentivano un gran numero di attori a impegnarsi in attività leggermente dannose, che cumulativamente portano a una devastazione globale. Un esempio è il contributo delle emissioni individuali al cambiamento climatico.
  • Vulnerabilità di Tipo-0 (Strangelets Sorpresa): tecnologie che comportano rischi nascosti che portano a una devastazione civile accidentale. Un esempio è la creazione ipotetica di materia strana negli esperimenti di fisica ad alta energia.

Soluzioni e Sfide

  • Rinuncia tecnologica: fermare completamente lo sviluppo tecnologico è irrealistico e indesiderabile. Tuttavia, restrizioni mirate su tecnologie particolarmente pericolose potrebbero essere utili.
  • Sviluppo tecnologico differenziale: rallentare lo sviluppo delle tecnologie rischiose accelerando quelle protettive potrebbe aiutare a gestire i rischi.
  • Modifica delle preferenze: cambiare le motivazioni e i comportamenti umani potrebbe ridurre la probabilità di azioni distruttive. Questo potrebbe comportare la promozione dell’altruismo e l’alterazione degli incentivi.
  • Controllo preventivo e governance globale: il modo più efficace per stabilizzare un mondo vulnerabile potrebbe essere attraverso una sorveglianza intensificata e una forte governance globale. Ciò potrebbe comportare il monitoraggio universale in tempo reale e la cooperazione internazionale per affrontare i rischi globali.

In sintesi, l’ipotesi VWH suggerisce che, senza misure preventive straordinarie, il continuo avanzamento tecnologico potrebbe portare a un futuro in cui la civiltà è altamente vulnerabile alla distruzione. L’ipotesi enfatizza la necessità di politiche proattive, cooperazione globale migliorata e gestione attenta dei rischi tecnologici per garantire un futuro stabile e sicuro per l’Umanità.


In conclusione, l’FHI è stato chiuso ufficialmente nell’Aprile del 2024, sembra inaspettatamente per i suoi accademici e ricercatori, dopo quasi due decenni di ricerca influente. Nick Bostrom dopo la chiusura si è dimesso dall’Università di Oxford.

Durante questo periodo, l’FHI ha contribuito significativamente alla comprensione e alla mitigazione dei rischi globali, alla promozione dell’altruismo efficace e allo sviluppo di una visione a lungo termine per il futuro dell’umanità.

Qui il rapporto finale pubblicato da FHI che riporta gli argomenti e le tematiche di ricerca con i rispettivi esiti ..

… che forse hanno dato fastidio a qualcuno?!


Correlati

Lascia un commento

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Blog su WordPress.com.

Su ↑