Superumani e AI troppo efficiente: gli ultimi timori di Stephen Hawking

Esseri umani potenziati dall'ingegneria genetica e armi robotiche fin troppo abili nei loro compiti: un libro-testamento del fisico britannico espone alcune delle sue paure e le visioni in fatto di alieni, colonizzazione spaziale ed esistenza di Dio.

stephen-hawkingdifesw
"Dobbiamo incrementare le nostre difese" recita il titolo di un giornale all'indomani della morte di Stephen Hawking. Lo scienziato si è spento il 14 marzo 2018.|Shutterstock

L'ultima opera divulgativa di Stephen Hawking teorizza un futuro non lontano dominato da superuomini capaci di azzerare i propri limiti biologici grazie all'ingegneria genetica, e sfruttare le nuove capacità per colonizzare lo Spazio vicino. Le convinzioni del fisico britannico recentemente scomparso circa il futuro del Pianeta Terra sono ribadite nel libro Brief Answers to the Big Questions ("Risposte brevi a domande serie"), che nel Regno Unito sarà pubblicato il 16 ottobre e di cui il Sunday Times ha anticipato alcuni passaggi.

 

Mantenere il controllo. Nel saggio Hawking ribadisce la necessità di vigilare sullo sviluppo dell'intelligenza artificiale, che «in futuro potrebbe sviluppare una propria volontà indipendente, in conflitto con la nostra». La corsa alle armi intelligenti va fermata sul nascere, scrive lo scienziato, che si chiede che cosa accadrebbe se si verificasse, in questo settore, un episodio come il flash crash - un'improvvisa spirale al ribasso causata da un ordine verosimilmente errato - che mandò al tappeto l'indice Dow Jones e l'intero mondo finanziario nel maggio 2010.

 

Calpestati "per necessità". Il rischio più grande dell'intelligenza artificiale, precisa Hawking, non è la malvagità ma la competenza. «Un'AI super intelligente sarà estremamente brava a raggiungere i suoi obiettivi, e se questi non saranno allineati ai nostri, saremo nei guai. Probabilmente non siete degli odiatori di formiche che calpestano questi insetti per cattiveria, ma se siete responsabili di un progetto idroelettrico sostenibile e c'è un formicaio nella regione che dovete allagare, andrà a finire male per le formiche. Cerchiamo di non mettere l'umanità nella posizione delle formiche».

 

Potenziati per sopravvivere. Secondo Hawking, entro un migliaio di anni la vita sulla Terra sarà resa impossibile da una guerra nucleare o da una qualche calamità naturale legata al global warming. «Per allora, però, la nostra ingegnosa razza avrà trovato un modo per superare i limiti arcigni della Terra e sopravvivere al disastro». Gli esseri umani che ci riusciranno saranno "superuomini" che avranno imparato a sfruttare l'editing genetico per migliorare la loro memoria, la resistenza alle malattie e l'aspettativa di vita: «Non abbiamo tempo di aspettare che l'evoluzione darwiniana ci renda più intelligenti e migliori per natura».

 

Un futuro a tinte fosche. Quando questa "casta" sorgerà, predice Hawking, ci saranno disordini politici con gli altri esseri umani, incapaci di stare "al passo" senza ricorrere alla Crispr: queste persone saranno lasciate da parte e moriranno. I superumani saranno invece forse capaci di abbandonare il Pianeta e mettersi in salvo. Là fuori potrebbero esserci forme di vita intelligente che finora ci sono "sfuggite", aggiunge Hawking, che intravede nella collisione con un asteroide - contro la quale non abbiamo difese - e nei cambiamenti climatici le due principali minacce al futuro dell'umanità. «Gli effetti di entrambi potrebbero rendere il nostro clima simile a quello di Venere, con temperature di 250 °C».

 

Sull'esistenza di Dio. Nel libro, il fisico ribadisce la convinzione che il modo in cui l'Universo è cominciato sia dipeso dalle leggi della scienza, e non da una qualche entità superiore. «Se preferite - scrive - potete chiamare le leggi della scienza "Dio", ma non si tratterebbe di un dio personale che si possa incontrare o al quale porre domande».

 

15 Ottobre 2018 | Elisabetta Intini