"Mitigare i rischi di estinzione causati dall'intelligenza artificiale dovrebbe essere una priorità globale, così come viene fatto per altri rischi su scala sociale come le pandemie e la guerra nucleare".
Con questo laconico comunicato firmato da 350 scienziati e ingegneri impiegati nel campo dell'IA e pubblicato dalla no-profit Center for AI Safety, i massimi esperti del settore tornano a parlare dei rischi connessi allo sviluppo sempre più avanzato dell'intelligenza artificiale: non più soltanto deep fake e perdita di posti di lavoro, ma addirittura la scomparsa della nostra specie.
Nomi illustri. Tra i firmatari della sinistra lettera aperta spiccano i leader delle principali compagnie di IA come Sam Altman, direttore esecutivo di OpenAI, Demis Hassabis, stesso ruolo in Google DeepMind e Dario Amodei, alla guida della startup statunitense di IA Anthropic. Ci sono inoltre Geoffrey Hinton e Yoshua Bengio, vincitori di un Turing Award (l'equivalente del Nobel per gli scienziati informatici) e considerati pionieri dell'intelligenza artificiale per i loro studi fondamentali sulle reti neurali, i modelli per l'elaborazione di informazioni alla base dell'apprendimento nei sistemi di riconoscimento facciale, di guida autonoma e degli assistenti sociali, solo per citare alcuni tipi di IA.
Progressi fuori controllo. L'appello, tenuto volutamente stringato per non entrare nello specifico sulle singole minacce e far così aderire il massimo numero di scienziati, si inserisce in un clima di generale preoccupazione per il rapidissimo avanzamento di alcuni tipi di IA, come i modelli linguistici di grandi dimensioni tipo ChatGPT. Si teme che lo sviluppo senza regole dei software usati per questo ed altri chatbot concorrenti possa portare a usare l'intelligenza artificiale per diffondere disinformazione e propaganda, creando disordine nelle istituzioni e disgregazione sociale.
Situazione paradossale. Questi timori spesso espressi dagli scienziati solo privatamente portano gli addetti ai lavori nel campo dell'IA a trovarsi nella scomoda posizione di temere le stesse tecnologie che stanno contribuendo a creare: la paura più grande è quella di sviluppare, in un futuro non troppo lontano, un'intelligenza artificiale forte o generale, capace di apprendere e capire esattamente come un essere umano.
Troppo intelligenti per sopravvivere. Quella dell'IA si aggiunge alle altre minacce per la sopravvivenza della nostra specie messe in essere dallo stesso operato dell'uomo, come i cambiamenti climatici, le armi nucleari, o il rischio crescente di pandemie dovuto all'uso sconsiderato delle risorse naturali. Sembra insomma che, qualunque sia il destino che ci attende, la fine debba avvenire per autodistruzione - un bell'autogoal per una specie che si dice intelligente.
Alcuni paletti. Fortunatamente abbiamo nelle mani anche gli strumenti per tutelarci, e sarebbe meglio farlo per tempo. In un post pubblicato di recente, proprio Altman con altri due dirigenti di OpenAI suggerisce alcune strategie per gestire le potenzialità dell'IA in modo responsabile: una cooperazione tra soggetti industriali che operano nel campo, maggiori ricerche sui modelli linguistici e la formazione di un'organizzazione internazionale per la sicurezza dell'IA simile all'Agenzia Internazionale per l'Energia Atomica (AIEA), l'organo che vigila sulla gestione, le applicazioni e la sicurezza nucleare.
Altman si è inoltre espresso a favore di leggi che richiedano ai creatori dei modelli di IA più avanzati di registrarsi per ottenere una licenza all'uso regolamentata dai governi.