supercomputing-s

Esplorando l’energia scura con i supercomputer

Il prossimo decennio potrebbe vedere un rapido sviluppo nell’ambito della ricerca sull’energia scura, quella enigmatica componente che costituisce circa il 70 percento del contenuto materia-energia dell’Universo. Due nuovi strumenti, molto potenti, esploreranno il cielo a caccia di galassie distanti. DESI, che sta per Dark Energy Spectroscopic Instrument, misurerà la distanza di 35 milioni di oggetti cosmici mentre LSST, il Large Synoptic Survey Telescope, realizzerà una serie di immagini e video ad alta risoluzione di circa 40 miliardi di galassie. Entrambi gli strumenti permetteranno agli astronomi di comprendere ancora più in dettaglio come l’energia scura, quel fenomeno che sembra essere responsabile dell’espansione cosmica accelerata, abbia dato forma alla struttura dell’Universo nel corso del tempo.

Il Large Synoptic Survey Telescope. Credit: LSST team

Gli scienziati utilizzano diversi telescopi per cercare indizi che ci permettano di svelare i segreti dell’energia scura. La ricerca in questo campo sta prendendo sempre più piede non solo nei principali osservatori del mondo ma soprattutto in quelle enormi stanze che ospitano i supercomputer. Uno dei problemi fondamentali è quello di capire se l’energia scura sia davvero la famosa costante cosmologica, una sorta di forza repulsiva che si oppone alla gravità, così come suggerì lo stesso Albert Einstein un secolo fa, oppure se esistono certi fattori che influenzano il tasso di accelerazione che gli scienziati non possono “vedere”. Altrimenti, la relatività generale potrebbe essere sbagliata. Il gruppo di Katrin Heitmann dell’Argonne National Laboratory fa uso di un codice numerico, chiamato Hardware/Hybrid Accelerated Cosmology Code (HACC) [arXiv], per simulare la struttura e l’evoluzione dell’Universo. Questi calcolatori sono connessi dall’unione di centinaia di migliaia di processori capaci di eseguire un quadrilione di operazioni al secondo.

Q Continuum Simulation. In questa immagine, ogni pannello rappresenta la simulazione di una diversa fase evolutiva dell’Universo che termina, nel pannello a destra, nel periodo odierno. Credit: K. Heitmann et al. 2015

I ricercatori hanno di recente terminato una simulazone ad alta risoluzione relativa all’espansione dell’Universo nel corso di 13 miliardi di anni, cioè quasi tutta la sua storia (Q Continuum Simulation). Ora, i dati di questa simulazione vengono utilizzati per sviluppare tutta una serie di processi e analisi dati sia per DESI che per LSST e sono stati forniti alla comunità scientifica una serie di pacchetti in modo che i cosmologi possano fare uso dei risultati in diversi campi di studio senza avere accesso ai supercomputer. I supercomputer sono diventati di vitale importanza per lo studio dell’energia scura in quanto, a differenza della materia scura che i fisici potrebbero creare negli acceleratori, essa può essere osservata solamente su scala galattica.

Un modello del telescopio Mayall con lo strumento DESI nel fuoco primario. Credit: LBL

Esistono due tipi di errore quando si fa cosmologia. Gli errori statistici, che emergono nel caso in cui non si hanno abbastanza dati, e gli errori sistematici, quando c’è qualcosa nei dati che non si è in grado di capire. I modelli numerici aiutano gli scienziati a ridurre entrambi gli errori. DESI raccoglierà 10 volte più dati rispetto alla precedente survey, la Baryon Oscillation Spectroscopic Survey (BOSS), mentre LSST genererà ogni notte una quantità di dati pari alla capacità lavorativa di 30 laptop. Tuttavia, anche questa enorme quantità di dati non eliminerà completamente l’errore statistico. Le simulazioni possono supportare l’evidenza osservativa permettendo di costruire dei modelli che descrivano condizioni similari in modo da verificare se gli stessi risultati siano consistenti. Ora, l’elaborazione una enorme quantità di dati richiede analisi sofisticate. Le simulazioni, però, rendono tutto questo possibile. Per programmare gli strumenti che permetteranno di confrontare i dati osservativi e quelli derivanti dalle simulazioni, i ricercatori devono inizialmente costruire un modello del cielo così come viene osservato attraverso le lenti di un telescopio. Nel caso di LSST, ciò viene fatto prima che lo stesso strumento sia costruito. Una volta che il modello di universo viene popolato con galassie che sono simili in termini di distribuzione e luminosità a quelle reali, gli scienziati modificano i risultati in modo da tener conto delle ottiche del telescopio, dell’atmosfera terrestre e di altri fattori. Simulando infine il prodotto finale, i ricercatori possono elaborare e analizzare in maniera efficiente i dati osservativi. Le simulazioni rappresentano inoltre uno strumento ideale per eliminare molte sorgenti di errori sistematici. Finora sappiamo che l’energia scura agisce come una sorta di forza repulsiva ma se emergeranno nei dati o nelle osservazioni altre sue proprietà inconsistenti, allora saranno necessarie nuove teorie e modelli per validarne la loro presenza. Un modo convenzionale per verificare nuove teorie scientifiche è quello di modificare le variabili di un sistema per poi eseguire delle verifiche di controllo. Nel caso però della cosmologia, siamo, come dire, “bloccati” nel nostro Universo perciò l’unico modo che avranno a disposizione gli scienziati potrà essere quello di svelare i segreti dell’energia scura, almeno in un futuro prossimo, proponendo teorie alternative in un universo virtuale.

arXiv: The DESI Experiment, a whitepaper for Snowmass 2013
arXiv: Large Synoptic Survey Telescope: Dark Energy Science Collaboration
arXiv: HACC: Simulating Sky Surveys on State-of-the-Art Supercomputing Architectures