Se l'AI ti telefona e ti truffa

Una truffa non da poco, portata a termine usando un'intelligenza artificiale evoluta, racconta quanto siamo esposti e quanto deboli siano le nostre difese.

intelligenza-artificiale_shutterstock_792800716
Le truffe e i raggiri possibili utilizzando l'intelligenza artificiale sono sempre più elaborati e difficile da smascherare.|Kanashkin Evgeniy / Shutterstock

Nel caso riceviate una telefonata dal vostro capo che vi ordina di fare un bonifico a qualcuno, prima di eseguire... dubitate! Anche se siete sicuri di aver riconosciuto la sua voce. Perché, attenzione, c'è un’intelligenza artificiale di nuova concezione, in grado di imitare alla perfezione voce e accento di chiunque. E ha già messo a segno il primo colpo.

Pronto? Parla l'AI. La vittima è stata il general manager di un’azienda inglese che, che dopo aver ricevuto la telefonata dell’amministratore delegato del gruppo (ma in realtà era un computer), ha effettuato un bonifico da 220.000 euro sul conto corrente di un presunto fornitore.

La vicenda è stata ricostruita qualche settimana fa dal Wall Street Journal: il manager ha dichiarato al giornale che la voce udita al telefono era indistinguibile da quella autentica sia per accento che per cadenza e musicalità.

Chi troppo vuole... La truffa è stata smascherata solo perché i ladri hanno osato troppo, e pochi minuti dopo aver ricevuto la somma hanno fatti una seconda telefonata, chiedendo un nuovo trasferimento di denaro che ha insospettito i vertici aziendali. Ma nel frattempo i 220.000 euro erano spariti in diversi conti correnti ubicati in Messico e altri Paesi. I responsabili del raggiro high-tech non sono stati ancora individuati e le indagini sono tutt’ora in corso.

Registrazioni pericolose. Secondo gli esperti, la truffa sarebbe stata messa a punto ricostruendo la voce del manager a partire da un collage di varie registrazioni rielaborate dal sistema di intelligenza artificiale. La tecnologia non è del tutto nuove ed è analoga a quella dei deep fake di cui abbiamo parlato qualche tempo fa, che permette di creare dei video-tarocchi a partire da altri filmati o semplici fotografie.

La prima linea di difesa. Come proteggersi da attacchi di questo genere? Non è facile, ma esperti e tecnologie fanno la loro parte per ridurre i rischi derivanti dall’uso improprio dell’intelligenza artificiale.

Tuttavia, qualunque soluzione, per quanto evoluta, ci metterà al riparo dai rischi dell’ingegneria sociale, cioè da quell’insieme di tecniche psicologiche il cui fine è quello di farci abbassare la guardia, per indurci ad aprire un allegato email che sarebbe meglio buttare o per farci credere che quella voce al telefono è effettivamente del nostro capo... L'attenzione è una prima linea di difesa, ma al momento appare insufficiente.
 

22 Settembre 2019 | Rebecca Mantovani