A guardarla bene, la NASA è probabilmente l’ente più green del mondo: se dovesse stampare su carta tutti i dati prodotti dalle missioni in corso distruggerebbe ogni giorno milioni di alberi. Si, avete letto bene: milioni di alberi. Secondo un recente calcolo effettuato dai tecnici dell’Agenzia Spaziale, entro il 2016 la NASA si troverà a dover gestire quotidianamente una mole di dati in ingresso superiore addirittura a tutto il traffico generato nell’arco di 24 ore da Internet.
Si tratta di immagini, video, numeri, risultati di test ed esperimenti raccolti da telescopi e sonde spaziali a spasso per il cosmo o generati da impianti di osservazione e istituti di ricerca che si trovano in ogni angolo del pianeta.
Il solo Square Kilomete Array (SKA), un gigantesco insieme di radio telescopi formato da migliaia di punti di ascolto dislocati in Africa e Australia, dal 2016 produrrà ogni giorno 700 terabyte di dati. Per stamparli tutti su fogli A4 occorrerebbe abbattere 35 milioni di alberi, 1.000 km quadrati di foresta.
I guardiani del dato
Ma quali sono le tecnologie che permettono di imbrigliare e maneggiare un simile tsunami di informazioni senza il rischio di pericolose esondazioni o disservizi? Sono i cosiddetti big data, insiemi di computer ultrapotenti e ultraveloci che grazie a speciali software rendono possibile la registrazione, l’archiviazione e la correlazione di queste impressionanti quantità di dati. Possibilmente senza intoppi.
La vera sfida tecnologica che la NASA affronta ogni giorno si gioca contemporaneamente su tre diversi fronti:
1. la raccolta e registrazione dei dati,
2. la loro elaborazione e infine
3. la pubblicazione sulle piattaforme utilizzate da scienziati e ricercatori per i loro studi.
«Noi siamo i guardiani del dato» spiega alla stampa Eric de Jong, principale responsabile del Solar System Visualization Project in corso presso i Jet Propulsion Laboratory di Pasadena.
Libero è meglio
Dal punto di vista pratico i supetecnici della NASA hanno deciso di non sviluppare alcun software specifico per la gestione dei loro big data, ma di avvalersi di soluzioni open source disponibili sul mercato. Si tratta di programmi liberamente disponibili realizzati da community di appassionati offerti con speciali licenze che ne permettono la modifica e la personalizzazione in base alle esigenze dell’utente finale. E le versioni migliorati dai programmatori dell’ente spaziale vengono a loro volta rese disponibili sulla rete per chiunque ne dovesse avere bisogno. «È una soluzione vincente per tutti - spiega Chris Mattman, responsabile del progetto big-data - il software open source ci permette di realizzare velocemente soluzioni efficaci ed economiche». E in tempi di tagli al budget, non è cosa da poco.
Semplicemente complessi
I dati gestiti dalla NASA non solo sono tanti, sono anche complessi: le immagini inviate sulla Terra dalla sonda Mars Reconnaissance, per esempio, sono da 120 megapixel l’una, circa 10 volte quelle di una comune macchina fotografica digitale. Il team che segue questa missione le utilizza per creare video, animazioni, simulazioni e altre produzioni multimediali destinate agli scienziati e al grande pubblico. Oggi viene fatto tutto a mano, ma l’obiettivo degli esperti è quello di automatizzare gran parte di questi processi così da rendere le informazioni immediatamente disponibili a scienziati e ingegneri.
Ma la vera sfida tecnologica è quella di riuscire a rendere disponibile e ricercabile una simile mole di dati a migliaia di persone ogni giorno. Immaginate una biblioteca con miliardi di volumi e migliaia di chilometri di scaffali: se non sapete esattamente dove si trova il libro che vi interessa, è come se quel libro non ci fosse.
È qui che entrano in gioco computer super veloci e database ad altissime prestazioni: i ricercatori spesso hanno bisogno di lavorare simultaneamente su grandi quantità di dati diversi, per cercare similitudini, differenze e schemi ricorrenti. Tutte operazioni che non possono essere fatte dai loro computer, ma che richiedono server potenti e programmi capaci di cercare in pochi secondi tra milioni di diversi documenti. Un po’ come fa Google quando eseguiamo una ricerca.
Big Data contro the Big One.
Il punto di forza dei big data è quello di permettere la cattura delle realtà invisibili: la possbilità di correlare, confrontare e ricercare dati tra loro diversi. L'esempio di tutte le osservazioni sul nostro Pianeta è paradigmatico: foto, posizioni GPS, livelli di inquinamento e altro, dotano gli scienziati di una specie di sesto senso e li mette in grado di cogliere aspetti direttamente non osservabili.
Tra i "più big" dei big data della NASA c’è QuakeSim, che unisce e mette in correlazione grandi volumi di dati provenienti da stazioni di terra e dallo spazio con l’obiettivo di aiutare gli scienziati a prevenire i grandi terremoti.
L’avventura della NASA in questo oceano di dati è comunque ancora agli inizi: nei prossimi anni assisteremo sicuramente alla nascita di nuove tecnologie e nuovi strumenti che ci aiuteranno a comprendere meglio l’universo e il nostro pianeta.
Ti potrebbe interessare:
Tutti i segreti della guerra digitale