Archivi tag: supercomputers

Q Continuum Simulation

In questa immagine, ogni pannello rappresenta la simulazione di una diversa fase evolutiva dell’Universo che termina, nel pannello a destra, nel periodo odierno. Credit: K. Heitmann et al. 2015

In un recente articolo, pubblicato su Astrophysical Journal Supplement Series, un gruppo di ricercatori guidati da Katrin Heitmann del Computation Institute presso l’Argonne National Laboratory presenta i risultati della simulazione cosmologica più grande attualmente costruita: stiamo parlando della cosiddetta Q Continuum Simulation. Partendo da un volume di 1300 Mpc3, questa simulazione massiva a N-corpi descrive l’evoluzione di oltre la metà di un trilione di particelle man mano che si addensano essendo soggette alla reciproca attrazione gravitazionale, simulando così l’evoluzione dell’Universo nel corso di 13,8 miliardi di anni. Le simulazioni cosmologiche, come questa, sono di vitale importanza per comprendere le osservazioni, studiare i processi di analisi dei dati, investigare le capacità delle future missioni osservative e molto altro.

Astrophysical Journal Supplement Series: THE Q CONTINUUM SIMULATION: HARNESSING THE POWER OF GPU ACCELERATED SUPERCOMPUTERS

arXiv: The Q Continuum Simulation: Harnessing the Power of GPU Accelerated Supercomputers

Annunci

Come ti peso i nucleoni

Il fatto che il neutrone sia leggermente più massiccio del protone è la ragione per cui i nuclei atomici hanno esattamente quelle proprietà che costituiscono il nostro mondo e che rendono in ultima analisi possibile la nostra esistenza. Oggi, 80 anni dopo la scoperta del neutrone, un gruppo di fisici europei guidati da Zoltán Fodor, portavoce della collaborazione Budapest-Marseille-Wuppertal, ha finalmente calcolato la minuscola differenza di massa tra il neutrone e il protone. I risultati, pubblicati su Science, sono considerati una pietra miliare e rappresentano una conferma della cromodinamica quantistica, la teoria che descrive dell’interazione forte. Per ottenere questi risultati è stato utilizzato uno dei computer più potenti del mondo: JUQUEEN.

Continua a leggere Come ti peso i nucleoni

DES, un algoritmo per lo studio dell’energia scura

Gli scienziati ritengono che l’energia scura, quella misteriosa forza che sta accelerando l’espansione cosmica, costituisca quasi il 70% del contenuto materia-energia dell’Universo. Per svelare questo mistero, forse il più grande della cosmologia moderna, gli astronomi devono basarsi su osservazioni indirette, studiando le supernovae distanti, in particolare quelle di tipo Ia, che si allontanano man mano che lo spazio si espande. Continua a leggere DES, un algoritmo per lo studio dell’energia scura

L’Astronomia alle frontiere della Scienza

L’astronomia è, per sua natura, una materia di studio interdisciplinare perchè coinvolge la matematica, la fisica, la chimica e la biologia. Gli astronomi utilizzano, e spesso sviluppano, la tecnologia più recente, i computer più veloci e i programmi più sofisticati. Nel libro che mi piace suggerire oggi, Astronomy at the Frontiers of Science, edito da Springer, ventidue eminenti scienziati di nove paesi discutono sulle modalità con cui l’astronomia interagisce con queste scienze. Continua a leggere L’Astronomia alle frontiere della Scienza

Exploring the dark sector of the Universe with supercomputers

L’Universo è composto dal 95% di energia scura e materia scura. Comprendere la fisica del cosiddetto “settore scuro” rappresenta la principale sfida della cosmologia moderna. Oggi, grazie a sofisticate simulazioni numeriche, possiamo iniziare a comprendere l’evoluzione dell’Universo primordiale e la formazione delle strutture cosmiche.

The primary lens through which scientists look at the night sky is no longer only a telescope, it’s also a supercomputer. The new and coming generations of supercomputers will finally be capable of modeling the Universe in the detail and volume required by astronomical surveys of the sky that are now underway, or soon will be. Scientists use large cosmological simulations to test theories about the structure of the Universe and the evolution of the distribution of galaxies and clusters of galaxies. State of the art supercomputers let cosmologists make predictions and test them against data from powerful telescopes and space probes. Two decades of surveying the sky have culminated in the celebrated Cosmological Standard Model. Yet two of the model’s key pillars, dark matter and dark energy, together accounting for 95% of the Universe, remain mysterious. A research team led by Argonne is tackling this mystery, aided by some of the world’s fastest supercomputers. To model the distribution of matter in the Universe, the researchers are running some of the largest, most complex simulations of the large-scale structure of the universe ever undertaken.The Argonne team has run a 1.1-trillion-particle simulation on half a million processor cores of Mira, Argonne’s new Blue Gene/Q supercomputer. The team was among a few science teams from across the country to gain early access to the system, which is now online.

“In a very real sense, we only understand 4% of the Universe. To basic scientists like us, that’s a crime—that’s not allowed”, says Argonne physicist Steve Kuhlmann.

The power and speed of supercomputers and simulation codes  have significantly advanced over the past decade. Mira enables cosmology runs with greater resolution and accuracy on much larger simulation volumes, giving researchers the ability to confront theory with observational data from wide-area cosmological surveys. Exploring the cosmic structure of the dark Universe is an enormously complex problem. As the Universe expands, gravitational attraction causes matter to coalesce and form structures, first sheets, then filaments where the sheets intersect, and then clumps where the filaments meet. As time progresses, one can begin to see more clearly the basic structure of an enormous web of voids, filaments, and clumps. Simulations at Argonne have calculated this web-like structure, the so-called cosmic web, in a cube of simulated space more than 13 trillion light-years across. “Because these trillions of particles are meant to trace matter in the entire universe, they are extremely massive, something in the range of a billion suns”, said Argonne computational physicist Salman Habib, the project’s director. “We know the gravitational dynamics of how these tracer particles interact, and so we evolve them forward to see what kind of densities and structure they produce, as a result of both gravity and the expansion of the Universe. That’s essentially what the simulation does: it takes an initial condition and moves it forward to the present to see if our ideas about structure formation in the Universe are correct”.

Dark energy may be the most profound mystery in all of science”, says University of Chicago cosmologist Michael Turner.

Next-generation sky surveys will map billions of galaxies to explore the physics of the “dark universe”. Science requirements for these surveys demand simulations at extreme scales in order to resolve galaxy-scale mass concentrations over the observational volumes of sky surveys. A key aspect of the Argonne project involves developing a major simulation suite covering approximately 100 different cosmological scenarios and combining them in a framework that can generate predictions for any scenario within the range covered by the original runs.

ANL: Exploring the dark universe at the speed of petaflops

ANL: Dark energy: Q&A with Steve Kuhlmann

CosmicConference – Domenica 1° Dicembre ore 18

Il 96% dell’Universo

www.astroperinaldo.it