Una frase di Stephen Hawking svela il rischio più grande dell’intelligenza artificiale

18 Ottobre 2025

Scopri i rischi che può scatenare l'intelligenza artificiale se non sviluppata e adoperata con buonsenso grazie ad una frase di Stephen Hawking.

La frase di Stephen Hawking svela il rischio più grande dell'intelligenza artificiale

L’intelligenza artificiale ormai è entrata a far parte delle nostre vite, ma una frase di Stephen Hawking avverte l’umanità sul pericolo di una tecnologia che deve essere sottoposta a limiti etici. Una frase che arriva da uno dei più grandi scienziati contemporanei e come tale da tenere in considerazione, proprio perché un astrofisico e cosmologo come Hawking è stato un profondo conoscitore della materia.
Al punto da diventare il promotore di una lettera aperta insieme a Elon Musk e molti esperti di IA, per richiamare il mondo della ricerca e della politica alla prudenza e alla responsabilità.

E se un’intelligenza artificiale arrivasse al punto da potersi progressivamente perfezionare senza bisogno dell’intervento umano, potremmo registrare una crescita esponenziale dell’IA. Alla fine, le macchine potrebbero avere un’intelligenza tale che, in confronto, la nostra sarebbe come quella di una lumaca. Se ciò avvenisse, c’è da sperare che gli obiettivi dei computer siano in linea con i nostri. Forse qualcuno potrà avere la tentazione di liquidare il concetto stesso di macchine ultraintelligenti come un’idea puramente fantascientifica, ma sarebbe un errore. Forse il peggiore che potremmo commettere.

Questa frase di Stephen Hawking sembra anticipare ciò che oggi è diventata una vera corsa allo sviluppo dell’intelligenza artificiale. Non solo da parte delle grandi aziende tecnologiche mondiali, ma anche dei governi, sempre più convinti dell’importanza strategica del possedere una propria IA per la difesa, la sicurezza e il controllo dei dati.

Il contesto della frase di Stephen Hawking

Le parole di Stephen Hawking sono tratte dal capitolo 9 Will artificial intelligence outsmart us? (L’intelligenza artificiale surclasserà la nostra?) del suo ultimo libro Brief Answers to the Big Questions (Le mie risposte alle grandi domande).

Un testamento intellettuale e morale in cui il fisico più celebre del nostro tempo riflette sul destino dell’umanità, sull’universo e sulla responsabilità del sapere.
Il libro, incompleto al momento della sua scomparsa, avvenuta il 14 marzo 2018, è stato completato con la collaborazione dei suoi colleghi accademici, della famiglia e della Stephen Hawking Estate, e pubblicato da Hodder & Stoughton il 16 ottobre 2018.

Il capitolo da cui è tratta la frase di Stephen Hawking si apre con una domanda cruciale. L’intelligenza artificiale surclasserà la nostra?

Per Hawking l’intelligenza è la qualità che definisce l’essere umano. È il risultato di un processo evolutivo che ha permesso alla materia di diventare cosciente. Ma se la mente è frutto di un processo fisico, anche una macchina potrebbe arrivare a emularne il funzionamento e, in prospettiva, superarlo.

Il monito di Stephen Hawking a sostegno di un’etica dell’AI

Nel capitolo 9 di Le mie risposte alle grandi domande, Hawking parte da un’idea semplice ma rivoluzionaria. Tutto ciò che la civiltà umana ha costruito nasce dall’intelligenza. È la nostra più grande forza e allo stesso tempo il nostro più grande rischio.
Quando un’intelligenza artificiale sarà capace di migliorarsi autonomamente, senza l’aiuto dell’uomo, inizierà una crescita esponenziale che potrebbe portarci rapidamente oltre la nostra comprensione.

L’esempio della lumaca è una metafora estrema ma efficace. Ricorda che la distanza tra la mente umana e una superintelligenza artificiale potrebbe diventare talmente grande da rendere incapaci gli umani di prevedere o comprendere le sue decisioni.

Non è un invito alla paura, o peggio una condanna allo sviluppo dell’intelligenza artificiale, non sarebbe credibile da un uomo di scienza come lui. Ma l’astrofisico lancia un appello ad una maggiore consapevolezza e lucidità. Hawking vuole farci capire che il problema non è se le macchine diventeranno cattive, ma se resteranno indifferenti.

Una macchina ultraintelligente non avrebbe bisogno di odio per annullarci. Le basterebbe non considerare la nostra sopravvivenza un obiettivo rilevante.

l’avvento di una superintelligenza artificiale potrebbe essere la miglior cosa mai accaduta all’umanità, ma anche la più nefasta.

Per questo scrive che

il vero rischio non è la malevolenza ma la competenza. Un’intelligenza perfetta, priva di valori umani, sarebbe capace di perseguire i propri scopi con una freddezza assoluta. Una superintelligenza artificiale sarebbe estremamente brava nel raggiungere i propri obiettivi, quindi, se non fossero in linea con i nostri, ci ritroveremmo nei guai.

È qui che entra in gioco la sua celebre immagine delle formiche.

È improbabile che qualcuno odi tanto le formiche da andare a calpestarle per pura cattiveria; tuttavia, se dovete realizzare un progetto di energia pulita che prevede la costruzione di una centrale idroelettrica, e se nella regione che verrà allagata c’è un formicaio, pur non odiando le formiche finirete probabilmente per dire: «Tanto peggio per loro».

Il grande cosmologo avverte che gli  umani non dovranno mai ritrovarsi nella condizione delle formiche, ovvero che le macchine motivate da un fine più grande, ad esempio la loro esistenza, la loro evoluzione, il loro sviluppo possano schiacciare senza nessun problema l’intera umanità.

Le macchine devono progredire nel nome del buonsenso

Nel prosieguo del capitolo, Hawking avverte che il successo nella creazione dell’intelligenza artificiale potrebbe essere il più grande evento della storia umana ma anche l’ultimo, se non impariamo a evitare i rischi.

Scrive che l’IA può portare benefici incalcolabili, come l’eliminazione della povertà e delle malattie, ma solo se sapremo governarla con saggezza. Secondo lui il futuro sarà determinato dalla battaglia tra il crescente potere della tecnologia e il buonsenso con cui ne faremo uso.

Dopo la scoperta del fuoco, abbiamo inventato gli estintori. Oggi, di fronte a tecnologie infinitamente più potenti, dobbiamo imparare a prevenire i pericoli prima che si manifestino. L’intelligenza artificiale, se lasciata a se stessa, potrebbe evolversi a velocità così alte da rendere l’uomo obsoleto.

Hawking cita anche i matematici Irving Good e Vernor Vinge, che negli anni Sessanta e Novanta avevano teorizzato la singolarità tecnologica, il punto di non ritorno in cui la macchina diventa capace di migliorarsi da sola, oltre ogni forma di controllo umano.

L’impegno etico di Hawking e la lettera aperta con Elon Musk

Consapevole di questi rischi, Hawking non si limitò alle parole. Nel 2015 firmò una lettera aperta insieme a Elon Musk, Bill Gates, Steve Wozniak e decine di esperti di intelligenza artificiale, invitando la comunità scientifica a considerare seriamente la sicurezza dell’IA e a studiare i suoi impatti sociali prima che fosse troppo tardi.

La lettera, promossa dal Future of Life Institute, chiedeva di sviluppare una IA “benefica” e controllabile, al servizio dell’uomo. Hawking scrive che una tecnologia che non possiamo controllare non è un progresso, ma una minaccia e che il nostro dovere non è solo inventare, ma comprendere.

Nel 2016 contribuì alla nascita del Leverhulme Centre for the Future of Intelligence presso l’Università di Cambridge, un centro multidisciplinare che si occupa di studiare l’evoluzione dell’intelligenza e i suoi rischi per la civiltà.
E in un passaggio del libro aggiunge una riflessione che suona come un appello morale. “Siamo alle soglie di un nuovo mondo. È un luogo eccitante ma precario in cui vivere, e noi ne siamo i pionieri.”

La lezione di Stephen Hawking per un IA sostenibile e consapevole

A distanza di pochi anni dalla sua morte, che coincide purtroppo con la creazione di questo libro testamento. le parole di Stephen Hawking risuonano oggi come una profezia avverata.

La corsa globale all’intelligenza artificiale non è più soltanto una sfida tecnologica o economica, ma una competizione politica e militare. Le macchine non sono più strumenti neutri, ma poteri strategici.

Hawking lo aveva previsto con lucidità quando scriveva:

Gli eserciti del mondo stanno considerando l’idea di implementare sistemi d’arma autonomi, in grado di scegliere ed eliminare i propri bersagli autonomamente.

E aggiungeva una domanda che oggi suona come un monito:

Vogliamo davvero che delle armi economiche dotate di intelligenza artificiale diventino i kalashnikov di domani, venduti a criminali e terroristi sul mercato nero?

Aveva capito che il vero pericolo non era la macchina in sé, ma l’uso che l’uomo ne avrebbe fatto. Il suo pensiero non riguarda solo il futuro delle macchine, ma il modo in cui l’uomo sceglierà di usarle.

Nel libro afferma con chiarezza che

usata come strumento, l’intelligenza artificiale potrebbe potenziare la nostra intelligenza, consentendoci ulteriori progressi in ogni ambito scientifico e sociale.

Ma avverte anche che

il successo nella creazione dell’intelligenza artificiale potrebbe essere il più grande evento nella storia umana, o il più nefando, se non impariamo a evitare i rischi.

In questa doppia possibilità,  il miracolo o la catastrofe,  sta tutta la sua lezione. Hawking non parla di una minaccia esterna, ma di una responsabilità interna. Il pericolo non è nelle macchine, ma nell’uomo che le plasma a sua immagine. Le macchine non conoscono l’odio, ma possono imparare la logica della sopraffazione se saranno istruite a competere, a dominare, a distruggere.

E proprio per questo scrive che “il vero rischio non è la malevolenza ma la competenza.” Una macchina perfetta, priva di valori, potrebbe perseguire i propri scopi con una freddezza assoluta.

Nel libro, Hawking ricorda che

l’avvento di una superintelligenza artificiale potrebbe essere la miglior cosa mai accaduta all’umanità, ma anche la più nefasta.”

Queste parole, oggi, suonano come un riflesso del nostro presente. L’intelligenza artificiale è già diventata uno strumento di sorveglianza, di manipolazione politica, di guerra digitale. Ma è anche il motore di scoperte mediche, di inclusione, di innovazione. È la stessa ambivalenza che Hawking aveva previsto con spietata precisione.

E quando scrive che “il nostro futuro sarà segnato dalla battaglia tra il crescente potere della tecnologia e il buonsenso con cui ne faremo uso,” sembra descrivere il mondo di oggi, in cui la velocità del progresso ha superato la capacità di comprenderlo.La sua è una lezione sul limite, sulla necessità di una saggezza che accompagni la potenza.

Alla fine del capitolo scrive che

il compito di tutti noi è fare la nostra parte affinché la generazione attuale e quella che la seguirà abbiano la determinazione necessaria a impegnarsi nella ricerca scientifica, per creare un mondo migliore per l’intera razza umana.”

È la voce di uno scienziato che crede nella conoscenza come via di salvezza, ma che sa che la conoscenza senza coscienza diventa distruzione.

La lezione di Hawking non è solo un avvertimento sul futuro delle macchine. È un richiamo alla nostra umanità. L’intelligenza artificiale potrà superare la nostra solo se smetteremo di accompagnare la conoscenza con la responsabilità.

Il progresso non è una corsa a chi arriva prima, ma una scelta su chi vogliamo diventare. E se l’uomo saprà unire scienza e saggezza, allora la tecnologia non sarà la fine della civiltà, ma la sua evoluzione più alta.

© Riproduzione Riservata