Focus

Occhio: l'intelligenza artificiale non sarà solo al servizio dei buoni

Una ricerca inglese ha cercato di prevedere i modi in cui l'intelligenza artificiale, in futuro, potrebbe mettersi al servizio dei criminali.

Robot criminale
L'AI potrebbe diventare il criminale più pericoloso dei prossimi 15 anni. Come combatterlo? | Shutterstock

A fare affidamento sulle applicazioni di intelligenza artificiale non sono più soltanto i "buoni" – come per esempio i poliziotti a caccia di terroristi o comunque di ricercati in genere: ora anche i "cattivi" contano sempre più spesso su queste nuove tecnologie per perseguire i loro obiettivi.

 

Uno studio recente dello University College di Londra identifica e classifica tutti gli ambiti nei quali l'AI potrà collaborare con i criminali nei prossimi 15 anni.

 

Futuro pericoloso. La ricerca, pur disegnando scenari dai contorni vagamente hollywoodiani, è stata pubblicata sull'autorevole Crime Science Journal.

 

Lo studio è stato condotto coinvolgendo diversi esperti tra cui criminologi, investigatori, legali, ufficiali di polizia, manager d'azienda. A questi è stato chiesto di classificare vari tipi di reato perpetrabili con l'aiuto dell'AI in base a vari parametr come il danno provocato, il profitto ottenuto, la reale fattibilità e la possibilità di difesa. 

 

I crimini analizzati vanno dalla classica contraffazione del denaro fino a reati più moderni e tecnologici, come l'impiego di veicoli senza conducente in modalità... autobomba.

 

Occhio al video. Lo studio ha individuato 18 tipi diversi di reato e ne emerso che il più pericoloso di tutti, ma anche quello probabilmente più frequente nei prossimi anni, sarà la creazione di deepfake video: l'intelligenza artificiale verrà cioè impiegata dalle organizzazioni criminali per confezionare falsi video da pubblicare online per diffondere i messaggi destabilizzanti. Potranno essere cioè utilizzati per diffondere fake news, pilotare intenzioni di voto, destabilizzare governi.

Siamo tutti creduloni. «Gli esseri umani hanno una forte tendenza a credere ai loro occhi e alle loro orecchie, e quindi i video falsi possono ingannare con grande facilità», spiegano gli autori dello studio. Il livello di pericolosità di questo crimine è risultato più alto anche rispetto all'utilizzo di droni o robot militari o al ricatto digitale.

 

I sistemi di intelligenza artificiale, infatti, sono già stati ampiamente utilizzati per creare dal nulla video pornografici di inconsapevoli personaggi famosi, e si stanno lentamente infiltrando anche nel mondo della politica. Governanti e leader di partito possono loro malgrado diventare protagonisti di video dove fanno e dicono qualunque cosa possa essere utile a chi li vuole danneggiare o vuole destabilizzare il loro sistema politico. E la tecnologia oggi è così evoluta da creare video falsi praticamente indistinguibili.

Armi spuntate. L'unica difesa, secondo i ricercatori, è quella di aiutare le persone a sviluppare il senso critico e spingerle a dubitare sempre di ciò che vedono online.

 

In un'epoca dove tutto cambia a grande velocità, sia in senso positivo che negativo, riuscire ad anticipare il futuro del crimine può aiutare governanti e altri attori ad acquisire le competenze necessarie ad affrontare una nuova versione del tradizionale gioco di guardie e ladri.

 

24 settembre 2020 | Rebecca Mantovani