Il 19 settembre 2016, alle 20:30 ora di New York, a Manhattan una bomba artigianale collocata in un cassonetto dei rifiuti esplode provocando 29 feriti. New York piomba di nuovo nel panico e per qualche ora rivive l’incubo dell’11 settembre.
L'autore del gesto, identificato poi grazie alle registrazioni di alcune videocamere di sorveglianza, aveva acquistato su eBay tutto l'occorrente per l'attentato: nei giorni precedenti l'attacco aveva pubblicato sui suoi profili social numerosi video inneggianti alla jihad. Non aveva insomma fatto nessun particolare sforzo per nascondere le sue intenzioni, almeno online, eppure nessun servizio di intelligence è stato in grado di unire i puntini e fermarlo prima che riuscisse nel proprio intento.
Nessuno è cioè riuscito ad analizzare i suoi comportamenti sulla rete, metterli in correlazione uno con l’altro e ricavarne informazioni utili a sventare l’attentato.
Siamo ciò che clicchiamo. Lo scenario non è da fantascienza: tutto ciò che facciamo online, ogni sito che visitiamo, ogni prodotto che acquistiamo, ogni like che lasciamo, si trasformano in una traccia elettronica che viene registrata, conservata e studiata per finalità commerciali dagli operatori della rete.
In questo modo chi si occupa di veicolare la pubblicità online è in grado di sapere che cosa ci piace, dove abitiamo, qual è la nostra fascia di età, se pratichiamo sport e via dicendo, e mostrarci così il banner perfetto o la promozione alla quale non potremo dire di no.
Mettiamo da parte l'aspetto etico della privacy: perché tutta questa tecnologia non viene utilizzata per analizzare i comportamenti criminali e, possibilmente, fermarli?
Minority Report. L’analisi predittiva, una scienza relativamente nuova, mette in relazione i dati provenienti da diverse fonti - social media, telecamere di sorveglianza, transazioni con carte di credito, pagamenti online, GPS, sistemi di lettura delle targhe eccetera - e li trasforma in informazioni utili per la tutela della sicurezza.
A prima vista si tratta di un’attività semplice, ma la diversità dei dati che devono essere trattati (fotografie, filmati, coordinate GPS, fatture, status di Facebook) e la quantità di informazioni disponibili la rende in realtà molto complessa.
Per questo motivo l’analisi predittiva è oggi affidata in gran parte ai sistemi di intelligenza artificiale, che grazie a una enorme capacità di elaborazione riescono a monitorare in tempi utili grandissime quantità di dati. Facciamo un esempio.
Briciole digitali. Nei giorni precedenti l’attentato di Manhattan, l'autore aveva acquistato online alcuni detonatori, una notevole quantità di sfere di metallo, circuiti elettrici e fertilizzanti chimici: tutte componenti note per essere spesso utilizzate nel confezionamento di ordigni artigianali.
A ciò va aggiunto che qualche anno fa, dopo che il padre ne aveva denunciato alla polizia le tendenze radicali, era stato segnalato dall’FBI e dai servizi di frontiera americani per i suoi frequenti viaggi in Pakistan.
Se tutti questi dati (la storia recente e pregressa, gli acquisti e i comportamenti online) fossero stati messi in relazione, forse sarebbe stato possibile prevenire il gesto.
Purtroppo però le tecnologie predittive sono ancora in fase embrionale, e un’analisi così complessa, pur essendo già oggi tecnicamente fattibile su sistemi ridotti, non è ancora utilizzabile su scala globale.
Tanti dati, anzi troppi. Le difficoltà principali che chi realizza questi sistemi si trova quotidianamente ad affrontare sono legate proprio al volume dei dati che devono essere tenuti sotto controllo, alla loro eterogeneità e volatilità.
Lo Stato Islamico, in particolare, ha fatto della Rete il suo principale canale di propaganda politica e religiosa. Secondo il report ISIS Twitter Census (pdf) gli affiliati utilizzano oltre 50.000 account social su varie piattaforme e in decine di lingue diverse per diffonderne il messaggio e reclutare nuovi adepti. Tenerli sotto controllo "manualmente" è di fatto impossibile.
Chi twitta cosa. Aiutare gli analisti e i servizi di intelligence a identificare le persone o i gruppi che manifestano online atteggiamenti radicalizzati è compito dei sistemi di intelligenza artificiale: questi software sono in grado di analizzare in tempo reale ciò che accade su Facebook, Twitter, Youtube e così via, evidenziando i contenuti sospetti.
Non solo messaggi testuali e parole chiave, ma anche immagini, file audio, posizioni geografiche, interazioni tra persone e contenuti. In questo modo è possibile scoprire se attorno a un certo account si sta creando un gruppo potenzialmente pericoloso e che potrebbe dar vita in futuro a una cellula terroristica.
A.I. contro i narcos. Un valido esempio di applicazione di questi sistemi alla sicurezza viene dal Messico, dove le forze dell’ordine utilizzano l’analisi dei social network per prevenire, o tentare di prevenire, i sanguinosi attentati organizzati dal cartello del narcotraffico in diverse aree del Paese. Si tratta di assalti violenti, che spesso provocano decine di vittime innocenti la cui unica colpa è quella di trovarsi nel posto sbagliato al momento sbagliato.
Per questo motivo in alcune città del Messico è diventata prassi comune informarsi tramite i social network se la zona dove ci si deve recare è tranquilla: per esempio per sapere se ci sono auto che bloccano strade - un sistema spesso utilizzato dai killer per impedire la fuga ai loro bersagli - o se ci sono altri movimenti sospetti che possono fare presagire il peggio.
Tutte queste informazioni, tweet, status di Facebook, fotografie, opportunamente rielaborate e aggregate da un sistema di intelligenza artificiale, vengono utilizzate dalle forze dell’ordine come sistemi di allerta per tenere sotto controllo il territorio.
Grande Fratello? Siamo dunque tutti sotto controllo? In un certo senso, sì, ed è proprio per questo motivo da più parti si stanno chiedendo regole chiare e trasparenti sull’utilizzo di questi sistemi.
Uno dei problemi principali è che i sistemi di AI possono sbagliare: ne sa qualcosa un pilota dell’American Airlines che, secondo quanto riportato da TheGuardian, è stato trattenuto più di 80 volte dalle polizie di diversi aeroporti perché "confuso" dai sistemi di sicurezza con un terrorista dell’IRA (l'Irish Republican Army).
Un errore di questi sistemi può costare molto caro: una persona del tutto estranea ai fatti o al contesto può essere accusata di crimini mai compiuti, da una semplice infrazione al codice della strada a misfatti ben peggiori.
L’etica dell’A.I. È quindi fondamentale sapere come questi sistemi “ragionano” e mettono in relazione i dati, e quali schemi usano per arrivare alle loro conclusioni.
Diversi personaggi, da Stephen Hawking a Elon Musk, hanno auspicato più volte una regolamentazione nello sviluppo delle intelligenze artificiali, che per esempio dovrebbero essere realizzate utilizzando solo software open source e non proprietario, così da garantirne trasparenza e verificabilità.
E chi detiene i dati, per esempio gli operatori della rete, i social network, ma anche le banche o gli enti pubblici, devono adottare regole chiare su quali dati controllano e con chi e in quali casi li possono condividere.
Il mercato della sicurezza. Nel frattempo, mentre il dibattito è ancora appena all'inizio, l’intelligenza artificiale sta diventando un grande business, almeno per qualcuno: secondo la società di consulenza Markets&Markets il giro d’affari legato all’analisi dei dati per finalità di intelligence, che nel 2015 valeva appena 3 miliardi di dollari, ne varrà quasi 10 entro il 2020.