Chiunque lavori oggi con l’Intelligenza Artificiale sa che Geoffrey Hinton non sta parlando a vanvera. Gli addetti ai lavori vedono con i propri occhi i continui miglioramenti e l’efficienza sempre crescente di questi sistemi, giorno dopo giorno. Tuttavia, proprio mentre ci meravigliamo dei progressi dell’IA, Hinton ci invita a fermarci un attimo e riflettere sui rischi che potrebbero accompagnare questo sviluppo inarrestabile.
Se l’intelligenza artificiale cambierà il mondo – in meglio o in peggio – dobbiamo ringraziare (o forse incolpare) Geoffrey Hinton.
Hinton è uno dei nomi più importanti nel campo dell’IA, spesso chiamato “il Padrino dell’Intelligenza Artificiale e per questo Premio Nobel 2024 (condiviso con John J. Hopfield). Le sue intuizioni pionieristiche hanno reso possibile lo sviluppo di reti neurali avanzate, aprendo la strada a chatbot, assistenti virtuali e sistemi capaci di apprendere autonomamente. Tuttavia, oggi Hinton non si limita a celebrare i successi dell’IA: ci mette in guardia dai rischi di un futuro in cui le macchine potrebbero diventare, in qualche nuova forma, più intelligenti di noi.
Dall’inizio della ricerca alla rivoluzione dell’IA
Negli anni ’70, Hinton sognava di simulare reti neurali su un computer, non per costruire un’intelligenza artificiale, ma per comprendere meglio il cervello umano. L’idea di allora era tanto innovativa quanto derisa: il suo relatore di dottorato gli suggerì di lasciar perdere per non rovinarsi la carriera. Hinton, però, perseverò. Quello che all’inizio sembrava un fallimento, oggi rappresenta uno dei pilastri dell’IA moderna.
Ci sono voluti quasi cinquant’anni, ma alla fine le reti neurali artificiali hanno iniziato a funzionare in modo spettacolare. Nel 2019, Hinton e i suoi collaboratori hanno ricevuto il prestigioso Premio Turing (considerato il Nobel dell’informatica) per il loro lavoro sulle reti neurali profonde, la tecnologia che oggi alimenta i sistemi di apprendimento automatico più avanzati.
La cosiddetta Intelligenza Artificiale è più intelligente di noi?
Nelle sue interviste, Hinton solleva una questione cruciale: stiamo entrando in un’era in cui per la prima volta potrebbero esistere “cose” più intelligenti dell’essere umano.
Alla domanda se crede che i sistemi di IA siano già intelligenti, Hinton risponde con decisione: “Sì.”
Secondo lui, questi sistemi non sono ancora autoconsapevoli, ma è solo questione di tempo. E quando questo probabilmente accadrà, l’Umanità potrebbe ritrovarsi a non essere più l’essere più intelligente del pianeta.
Non tutti gli scienziati, però, concordano con questa visione. Alcuni esperti ritengono che le macchine, pur avanzate, non possano raggiungere un’intelligenza paragonabile a quella umana, mancando di coscienza, emozioni e reale comprensione del mondo. Tuttavia, le riflessioni di Hinton, che ha dedicato la sua carriera allo sviluppo dell’IA, spesso si scontrano con questo scetticismo. Hinton suggerisce che ciò che oggi appare come semplice “completamento automatico” nasconda in realtà un processo di apprendimento profondo, capace di creare modelli di ragionamento sempre più sofisticati.
Un futuro di opportunità … e di rischi
L’intelligenza artificiale porta con sé enormi benefici. Già oggi, l’IA è in grado di analizzare immagini mediche con la stessa precisione di un radiologo, progettare farmaci e migliorare la produttività in vari settori. Hinton sottolinea che in ambiti come la sanità, l’IA può salvare vite e accelerare scoperte scientifiche che altrimenti richiederebbero decenni.
Ma c’è anche un lato oscuro. Hinton mette in guardia contro una serie di rischi che vanno ben oltre la perdita di posti di lavoro. I sistemi di IA sono già in grado di scrivere codice informatico autonomamente, e questa capacità potrebbe rendere difficile controllarli. Esiste la concreta possibilità che l’IA possa manipolare le persone, sfruttando la conoscenza accumulata da libri, romanzi e persino opere come quelle di Machiavelli per persuadere ed ingannare.
Un aspetto preoccupante sollevato da Hinton riguarda l’uso militare dell’IA, in particolare per lo sviluppo di armi autonome letali. Questo è il tema è del mio articolo Skynet è Arrivato, che riflette sui pericoli di una tecnologia fuori controllo e sulla possibilità che l’IA venga impiegata in guerra senza supervisione umana come immaginato nel film Terminator.
Come affrontare l’incognita
Qual è la soluzione? Hinton non fornisce risposte definitive, ma invita a una riflessione urgente. Invoca regolamentazioni governative e trattati internazionali per limitare l’uso dell’IA in ambito militare, paragonando l’attuale momento a quello vissuto da Robert Oppenheimer dopo la creazione della bomba atomica.
Proprio come Oppenheimer si batté contro la proliferazione delle armi nucleari, Hinton chiede che si faccia altrettanto con l’IA
Il messaggio principale di Hinton è chiaro: ci troviamo di fronte a una grande incertezza. L’umanità non ha mai affrontato una sfida simile, e la prima volta che ci troviamo di fronte a qualcosa di nuovo, spesso commettiamo errori. Questa volta, tuttavia, non possiamo permettercelo.
Un punto di svolta per l’Umanità
Il futuro dell’intelligenza artificiale rimane incerto. Potrebbe rappresentare una delle più grandi opportunità per il progresso umano o uno dei più grandi pericoli mai affrontati. Ci troviamo, secondo Hinton, in un punto di svolta storico.
Le decisioni che prenderemo oggi determineranno non solo la direzione dell’IA, ma anche il destino dell’umanità.
Questa riflessione si collega a tre precedenti articoli pubblicati sul mio blog:
- Chi ha paura di ChatGPT? (23 aprile 2023), un’introduzione che affronta i timori legati all’avvento di chatbot sempre più sofisticati.
- Decimo uomo: l'intelligenza artificiale e la salvaguardia dell'irrazionalità umana (18 maggio 2023), che esplora l’importanza di mantenere un margine di irrazionalità nell’epoca dell’IA.
- Cogito Ergo Sum: un dialogo in evoluzione tra uomo e macchina (8 settembre 2024), che indaga il continuo confronto tra l’essere umano e l’intelligenza artificiale nella ricerca di una convivenza armoniosa.
qui di seguito una intervista approfondita e i suoi punti chiave:
Il Momento Pivotale dell’IA
Hinton sottolinea che l’uscita di ChatGPT ha sorpreso molti per la sua rapida diffusione. Tuttavia, per i ricercatori che lavorano in questo campo, non è stato un evento così inatteso: i modelli di linguaggio di grandi dimensioni erano giunti a maturazione grazie a progressi nei dati e nella potenza computazionale.
Neural networks vs. AI tradizionale
Hinton descrive la competizione tra due scuole di pensiero nell’IA:
- L’approccio tradizionale (razionalità e logica)
si basava su simboli e regole rigide. - L’approccio biologico delle reti neurali
ispirato al funzionamento del cervello, puntava sulle connessioni tra neuroni e l’apprendimento attraverso esperienze.
Il successo dell’approccio biologico è emerso solo con l’aumento della potenza di calcolo e l’accesso a dataset di grandi dimensioni.
Il dilemma etico e politico
Hinton osserva che, anche se governi e aziende occidentali si impegnassero a mettere restrizioni sull’uso dell’IA, leader autoritari potrebbero non seguire le stesse regole. Questo rappresenta una minaccia globale che rende difficile qualsiasi tipo di regolamentazione unitaria.
L’Importanza della velocità e dei dati
Hinton riflette su come i progressi nell’IA siano stati limitati in passato dalla lentezza dei computer e dalla scarsità di dati. Oggi, grazie a macchine più potenti, i modelli di deep learning funzionano in modo incredibile, ma negli anni ’80 erano considerati un’idea quasi ridicola.
Differenze tra il cervello e le reti neurali
Hinton crede che ci sia una divergenza tra l’architettura delle reti neurali artificiali e il funzionamento del cervello umano. Sebbene la retropropagazione (backpropagation) abbia avuto successo, non pensa che questa tecnica rifletta il vero processo di apprendimento biologico.
Il rischio delle armi autonome
Una delle maggiori preoccupazioni di Hinton riguarda l’uso dell’IA in ambito militare, in particolare per lo sviluppo di armi autonome letali. Ritiene che sia necessario un trattato internazionale simile alle Convenzioni di Ginevra per limitare l’impiego di queste tecnologie nei conflitti armati.
L’intelligenza dell’IA
Sebbene ChatGPT sia spesso definito semplicemente un “completamento automatico su larga scala,” Hinton sostiene che per prevedere la parola successiva, un modello di linguaggio deve comprendere profondamente il contesto della frase. Questo porta a domande fondamentali sulla natura della comprensione e della coscienza nei sistemi di IA.
Verso un futuro incerto
Hinton ammette di non sapere come affrontare tutte le implicazioni dell’IA avanzata. Tuttavia, avverte che dobbiamo imparare rapidamente a gestire questi strumenti, poiché l’IA potrebbe evolvere molto più velocemente di quanto ci si aspetti. La possibilità di raggiungere un’IA generale (AGI) nei prossimi decenni, o addirittura nei prossimi cinque anni, non è da escludere.
Lascia un commento