Archivi tag: galassie nane

Forti indizi di materia scura ‘leggera’ nel centro galattico

C’è una strana ‘emissione’ nel centro galattico ed esistono forti evidenze che si tratti di materia scura ‘leggera’ che sta per esaurirsi. Allo stesso tempo, alcuni rivelatori sotterranei ultra sensibili stanno cercando degli indizi sull’esistenza di particelle simili. La maggior parte dei teorici ritiene che le WIMPs siano le particelle più probabili che compongono la materia scura e che annichilando, quando collidono, producono una pioggia di radiazione di alta energia. Il telescopio spaziale Fermi sta scandagliando il cielo per rivelare la presenza di eccessi anomali di raggi-gamma che provengono dal centro della Via Lattea e dove ci aspettiamo che sia maggiormente concentrata la materia scura. L’anno scorso, gli scienziati esclusero un segnale attorno a 130 GeV come risultato della collisione di particelle di materia scura. Tuttavia, ne esiste un altro rivelato nel 2010, sempre da Fermi, per cui si calcola un limite alla massa delle particelle candidate attorno a 10 GeV (post).

Quel segnale è stato in parte dibattuto perchè è stato osservato molto vicino al nucleo della nostra galassia, una regione densa di gas ad alta temperatura dove avvengono fenomeni violenti, come la nascita di nuove stelle ed esplosioni stellari in prossimità del buco nero supermassiccio. Inoltre, una possibile spiegazione è stata quella di considerare le pulsar, cioè stelle di neutroni in rapida rotazione, come sorgenti di alta energia. Ora, però, i nuovi dati di Fermi permettono di avere una maggiore chiarezza per affermare che il segnale sia davvero il risultato della presenza di materia scura. Il gruppo di Dan Hooper e Tracy Slatyer dell’Institute for Advanced Study in Princeton hanno trovato che il segnale è talmente distante dal nucleo galattico che risulta improbabile il fatto che i raggi gamma siano prodotti nel caos di quelle regioni. In un altro articolo, Hooper e Slatyer affermano che le pulsar non sono gli oggetti più adatti per spiegare l’emissione di alta energia. Infatti, nessuna delle 37 pulsar di cui è stato analizzato lo spettro producono un segnale equivalente a 10 GeV e nemmeno il loro numero è sufficiente per generare l’eccesso di radiazione misurato. I rivelatori di particelle sotterranei mostrano alcuni indizi sul fatto che sia possibile generare un segnale di 10 GeV. Questi esperimenti hanno lo scopo di misurare la luce ed il calore che vengono emessi quando le particelle di materia scura collidono con i nuclei degli atomi, come il germanio ed il silicio, del rivelatore (post). Alcuni esperimenti, come XENON-10 e XENON-100, escludono un segnale di 10 GeV, anche se alcuni scienziati suggeriscono che questi risultati devono essere rivisti e aggiustati. C’è poi chi ritiene che l’eccesso di raggi-gamma possa provenire da qualche altra regione del cielo, per esempio dalle galassie nane che possiedono una grande quantità di materia scura e non stelle di grande massa, ma ciò renderebbe l’interpretazione stessa dell’esistenza di materia scura un paradigma piuttosto che una curiosità. Dunque, se riuscissimo ad eliminare in qualche modo il cuore della Via Lattea, allora sarebbe molto più facile individuare i raggi-gamma dal processo di annichilazione delle particelle di materia scura. Fermi, e altri telescopi, stanno eseguendo lunghe campagne osservative di galassie nane e poichè sono molto deboli si tratta di un processo che può richiedere diversi anni prima che i dati di queste misure siano disponibili. Oggi, esiste qualche dubbio in merito alla rivelazione diretta perchè le particelle di materia scura che hanno una massa di 10 GeV si trovano all’estremità dell’intervallo di misure che il rivelatore CDMS-II è in grado di osservare. Ciò implica che i tre eventi che sono stati annunciati di recente possano essere puramente rumore. La conferma potrebbe arrivare in maniera indipendente tra qualche mese quando saranno disponibili i primi risultati dell’esperimento LUX (post), che è una versione più grande del rivelatore XENON. LUX è talmente sensibile che se ci sarà qualche particella con una massa compresa nell’intervallo 8-10 GeV allora essa sarà quasi sicuramente osservata, almeno così si spera.

arXiv: Two Emission Mechanisms in the Fermi Bubbles: A Possible Signal of Annihilating Dark Matter
arXiv: Pulsars Cannot Account for the Inner Galaxy's GeV Excess
arXiv: The unbearable lightness of being: CDMS versus XENON
arXiv: Connecting Direct Dark Matter Detection Experiments to Cosmologically Motivated Halo Models
Pubblicità

HD 140283, certificata come la stella più ‘vecchia’

Grazie ad una serie di osservazioni effettuate mediante il telescopio spaziale Hubble, un gruppo di astronomi sono stati in grado di determinare il ‘certificato di nascita’ di una stella che è stata a lungo studiata.

Si tratta dell’oggetto più vecchio che conosciamo e di cui abbiamo ricavato in maniera accurata la sua età”, dichiara Howard Bond della Pennsylvania State University e dello Space Science Telescope Institute. Il valore stimato dell’età della stella è di 14,5 miliardi di anni, con una incertezza di 0,8 miliardi di anni, che a prima vista ne farebbe l’oggetto più vecchio della sua categoria ma andrebbe in contraddizione con l’età dell’Universo che è di 13,7 miliardi di anni. Nonostante questi risultati siano in contraddizione, alcune stime precedenti che risalgono al 2000 danno dei valori ancora maggiori, ossia di 16 miliardi di anni. Naturalmente, ciò crea un problema per i cosmologi. “Forse, il nostro modello cosmologico è sbagliato o forse i modelli dell’evoluzione stellare sono sbagliati o, ancora, potrebbe essere sbagliata la stima della distanza della stella”, dice Bond. Dunque il passo più importante da fare è stato quello di determinare in maniera accurata la distanza della stella. La stima dell’età ottenuta mediante le osservazioni realizzate con il telescopio spaziale Hubble riducono l’intervallo degli errori delle misure per cui l’età della stella andrebbe a sovrapporsi nell’intervallo dei valori che definiscono l’età dell’Universo, così come è stato determinato indipendentemente dal tasso di espansione dello spazio, dall’analisi della radiazione cosmica di fondo e dalle misure del decadimento radioattivo. Questa vera “stella di Matusalemme”, catalogata con la sigla HD 140283, è già conosciuta agli astronomi da almeno un secolo a causa del suo elevato moto proprio, una evidenza del fatto che l’oggetto sembra essere una sorta di “visitatore spaziale” che arriva nei dintorni del nostro ambiente stellare. L’orbita allungata della stella è dovuta ad un evento di cannibalismo galattico e perciò essa transita nelle vicinanze del Sistema Solare alla fantastica velocità di circa 1.200.000 Km/h. Di fatto, essa impiega circa 1.500 anni per descrivere un tratto di orbita equivalente alla distanza angolare sottesa dalla Luna Piena. Si pensi che il suo moto proprio angolare è così rapido, circa 0,13 milliarcosecondi/ora, che lo stesso telescopio spaziale Hubble è stato in grado di fotografare letteralmente il suo movimento dopo qualche ora di osservazione. La stella, che si trova attualmente nella fase di gigante rossa, può essere osservata con un binocolo potente come oggetto di 7° magnitudine nella costellazione della Bilancia.

Durante gli anni ’50, gli astronomi conclusero che questa stella presentava una mancanza di elementi pesanti rispetto alle altre stelle vicine dell’ambiente galattico. Le stelle dell’alone galattico sono state le prime a formarsi e rappresentano una popolazione stellare molto vecchia. Questo significa che la stella si è originata molto tempo prima che lo spazio fosse riempito di elementi pesanti che sono prodotti nelle stelle attraverso la nucleosintesi stellare. L’abbondanza di elementi pesanti è di circa 250 volte inferiore a quella presente nel Sole o nelle altre stelle vicine. Il potere esplorativo del telescopio spaziale Hubble è stato sfruttato per ricavare con una precisione più elevata la distanza ottenendo un valore di 190,1 anni-luce. Il metodo che hanno utilizzato Bond e colleghi per stimare la distanza della stella è quello della cosiddetta parallasse trigonometrica. La parallasse delle stelle vicine può essere misurata osservando lo stesso oggetto da due angoli diversi che corrispondono a due punti di osservazione estremi dell’orbita terrestre. La distanza vera della stella può quindi essere ricavata direttamente attraverso una semplice triangolazione. Una volta determinata la distanza, gli astronomi possono ricavare la luminosità intrinseca della stella e di conseguenza si può risalire alla sua età. Prima delle osservazioni effettuate con il telescopio spaziale Hubble, il satellite Hipparcos dell’ESA aveva permesso di ottenere una misura precisa della parallasse della stella benché avesse fornito un valore per l’età con una incertezza di 2 miliardi di anni. La parallasse misurata da Hubble è comunque virtualmente identica a quella ricavata da Hipparcos anche se la precisione di Hubble è cinque volte superiore. Dunque, il lavoro di Bond è stato quello di restringere l’intervallo degli errori in modo tale che le stime dell’età della stella fossero cinque volte più precise. Utilizzando tutta una serie di parametri descritti nei modelli dell’evoluzione stellare, gli astronomi hanno trovato che da un lato la stella possiede una quantità di idrogeno insufficiente per iniziare il ciclo della fusione nucleare, il che implica che essa bruci il combustibile molto più velocemente, e dall’altro che essa possiede un elevato rapporto ossigeno/ferro rispetto a quanto previsto dai modelli. Questi risultati contribuiscono a far abbassare il valore stimato dell’età della stella. Bond è convinto che nuovi dati relativi all’abbondanza dell’ossigeno potrebbero ulteriormente abbassare l’età della stella dato che essa si sarebbe formata qualche tempo dopo il Big Bang quando cioè l’Universo era già ricco di ossigeno. Dunque, abbassare il limite superiore del valore stimato per l’età della stella potrebbe portarla ad essere, in maniera inequivocabile, più giovane rispetto all’età dell’Universo. Questo oggetto peculiare molto antico ha certamente subito tutta una serie di cambiamenti durante il suo ciclo vitale. È molto probabile che la stella si sia originata in una galassia nana che successivamente è stata catturata gravitazionalmente dalla Via Lattea che andava a formarsi nel corso di 12 miliardi di anni.

NASA: Hubble Finds Birth Certificate of Oldest Known Star

arXiv: HD 140283: A Star in the Solar Neighborhood that Formed Shortly After the Big Bang

Andromeda, un ‘buon test’ per la teoria MOND

Andromeda_GalaxyAlcuni ricercatori della Case Western Reserve University e del Weizmann Institute of Science hanno applicato le leggi della gravità modificata per derivare una proprietà fondamentale nelle galassie nane satelliti della vicina Andromeda.

Si tratta della velocità di dispersione, cioè la velocità media che ciascun oggetto all’interno di una galassia possiede rispetto ad un altro. Gli astronomi utilizzano la velocità di dispersione per determinare l’accelerazione degli oggetti all’interno della galassia e stimare, approssimativamente, la massa della galassia e viceversa. Per calcolare la velocità di dispersione per ogni galassia nana, i ricercatori hanno applicato le leggi della cosiddetta Modified Newtonian Dynamics (MOND) che è una ipotesi che tenta di risolvere il deficit della materia presente nelle galassie per giustificare il loro moto orbitale. La teoria suggerisce che, in determinate condizioni, la legge di Newton deve essere modificata. Questa ipotesi non è poi tanto da scartarsi rispetto a quella in base alla quale tutte le galassie contengono materia scura che fornirebbe perciò la massa mancante. “Le leggi della teoria MOND si applicano molto bene in questo caso”, afferma Stacy McGaugh professore di astronomia alla Case Western Reserve. “Se abbiamo ragione sull’esistenza della materia scura, questo non dovrebbe accadere”. Gli scienziati devono spiegare come mai le galassie ruotano molto più velocemente rispetto a quanto previsto dalla legge di Newton senza disperdersi nello spazio. Attualmente, si ritiene che la materia scura si trovi all’interno e all’esterno delle galassie e fa da ‘scheletro’ allo scopo di tenere insieme queste enormi strutture stellari. Lo scienziato Mordehai Milgrom, il padre della teoria MOND e professore di fisica e astrofisica presso l’Istututo Weizmann in Israele, non è molto convinto di questa interpretazione relativa alla materia scura. Egli, di fatto, ha proposto alcuni anni fa una teoria alternativa la quale afferma che la forza di Newton deve essere modificata quando siamo nel regime di accelerazioni piccole, almeno undici ordini di grandezza più piccole rispetto a quanto percepiamo come forza di gravità sulla superficie terrestre. Una accelerazione superiore a questa soglia diventa, invece, direttamente proporzionale alla forza di gravità, così come afferma la legge di Newton, ma al di sotto di questo limite non è più valida. Nel momento in cui la variazione della forza viene considerata sotto questa soglia, allora una sua modifica potrebbe risolvere il problema della discrepanza della massa. “L’applicazione delle leggi descritte nella teoria MOND a queste galassie nane che sono satelliti di Andromeda rappresentano un buon test per la teoria poiché la minima densità stellare in esse presenti determina basse accelerazioni”, spiega McGaugh. Gli scienziati hanno utilizzato il profilo della luminosità delle galassie, che è un indicatore della massa stellare, e la teoria MOND per eseguire tutta una serie di calcoli e determinare la velocità di dispersione di 17 galassie deboli. In 16 casi, i valori sono molto vicini a quelli misurati da altri autori e con altri metodi, mentre in un caso i dati sono discordanti. Infine, la teoria MOND è stata applicata per determinare la velocità di dispersione in più di 10 galassie deboli in Andromeda. Il passo successivo sarà ora quello di attendere i dati per verificare, o meno, la validità della teoria.


arXiv: Andromeda Dwarfs in Light of MOND

Il problema delle galassie nane mancanti

Cosmic Web Stripping, Visualization.
Credit: Alejandro Benitez Llambay

Gli astronomi della collaborazione internazionale Constrained Local UniversE Simulations (CLUES) hanno identificato nel cosiddetto “Cosmic Web Strippingun nuovo modo di spiegare il problema delle nane mancanti, cioè l’assenza di galassie nane che non vengono osservate rispetto a quanto previsto dal modello cosmologico con materia scura ‘fredda’ e con energia scura.

Le osservazioni di alta precisione degli ultimi vent’anni suggeriscono che l’Universo consiste del 73% di energia scura, del 23% di materia scura e dal 4% di materia ordinaria. Le galassie e la materia si addensano nello spazio formando una rete intricata di ‘filamenti’ e ‘vuoti’ nota come “Cosmic Web”. Le simulazioni numeriche indicano che in questo modello di Universo si devono formare un elevato numero di piccole galassie nane nello spazio locale la cui massa sia pari mediamente ad un millesimo la massa della Via Lattea. Tuttavia, si osservano solo una ‘manciata’ di galassie nane che orbitano attorno alla nostra galassia. La scarsità, dunque, del numero di galassie nane rappresenta oggi una delle maggiori sfide teoriche nell’ambito della formazione e dell’evoluzione delle galassie. Un gruppo internazionale di ricercatori ha affrontato questo problema realizzando una serie di simulazioni numeriche mediante il progetto CLUES. I calcoli si basano sulle posizioni osservate e sulle velocità peculiari delle galassie che sono distribuite entro decine di milioni di anni-luce dalla Via Lattea in modo da simulare lo spazio nei ‘dintorni’, si fa per dire, della nostra galassia. “Lo scopo principale del progetto è quello di simulare l’evoluzione del Gruppo Locale, formato dalla Via Lattea, da Andromeda e da altre galassie minori che si trovano vicine” spiega Stefan Gottlöber del Leibniz Institute for Astrophysics a Potsdam. Analizzando le simulazioni, gli astronomi hanno trovato che alcune galassie nane esterne del Gruppo Locale si muovono con velocità elevate rispetto al Cosmic Web che la maggior parte del gas in esse contenuto può essere effettivamente perduto e rimosso. Gli scienziati chiamano questo meccanismo “Cosmic Web Stripping” dato che è proprio la struttura a ‘filamenti’ e a ‘frittella’ del cosmo che è responsabile della diminuzione del rifornimento del gas nelle galassie nane. Di conseguenza, senza una grande riserva di gas che alimenti la nascita di nuove stelle queste galassie nane diventano così piccole e deboli al punto che risulta difficile identificarle. Insomma, il problema delle galassie nane mancanti potrebbe essere dovuto semplicemente al fatto che questi oggetti sono molto deboli per essere rivelate.

Leibniz-Institute press release: Where are all the dwarfs?

arXiv: Dwarf Galaxies and the Cosmic Web

Una lista di avvenimenti importanti del 2012

Quella che segue è una selezione di fatti e avvenimenti che hanno caratterizzato la ricerca nel campo della fisica e dell’astronomia durante il 2012. L’ordine non segue necessariamente la cronologia.

Galassie nane e formazione stellare

NASA/ESA/A. van der Wel (Max Planck Institute for Astronomy)/H. Ferguson and A. Koekemoer (Space Telescope Science Institute)/The CANDELS team

Le galassie nane vissute tra i 9 e 10 miliardi di anni fa hanno subito un violento incremento di formazione stellare il che implica che molte, se non la maggior parte, delle stelle in queste galassie si formano allo stesso modo di quelle presenti nell’Universo di oggi.

Galassie nane, laboratori ideali per comprendere l’evoluzione dell’Universo

Curiosity arriva su Marte

NASA/JPL-Caltech/MSSS

Quei famosi sette minuti di terrore del Mars Science Laboratory diventano una conquista della tecnologia terrestre tra il 5 e il 6 Agosto una volta che il rover Curiosity discende senza problemi sulla superficie del pianeta rosso.


Spiato il getto di un super buco nero

J.A. Biretta, W.B. Sparks, F.D. Macchetto, E.S. Perlman (STScI)

Grazie ad una serie di osservazioni radio da terra, gli astronomi riescono ad osservare la parte basilare del getto nella galassia M87.

M87, le prime misure dirette del disco di accrescimento attorno al buco nero
M87, un buco nero della categoria ‘super massimi’

Esopianeti appartenenti a sistemi binari

Credit: Lynette Cook

Gli astronomi hanno rivelato nuovi mondi in orbita attorno a stelle binarie, alcuni in orbita attorno a stelle che non presentano elementi pesanti, altri invece sono sopravvissuti alla fase di gigante rossa.

Una nuova classe di sistemi planetari

L’origine delle supernovae

Credit: Astronomy: Roen Kelly

Una supernova di tipo Ia può originarsi da due meccanismi diversi e durante il 2012 sono emerse altre domande che hanno posto il punto sul problema energetico. Una conseguenza importante è che questa classe di supernovae è stata utilizzata per determinare il tasso di espansione dell’Universo.

Un tipo di supernova, due sorgenti diverse
Nuovi indizi sull’origine dei ‘calibratori’ di distanze cosmologiche
Il modello della ‘vedova bianca’ per spiegare la formazione delle supernovae di tipo Ia
 

LHC osserva una nuova particella consistente con il bosone di Higgs

Una delle tante collisioni protoni-protoni presso il rivelatore CMS.

Due rivelatori, ATLAS e CMS, trovano una nuova particella che sembra avere alcune proprietà consistenti con il bosone di Higgs, l’ultimo tassello mancante del modello standard che spiega la fenomenologia delle particelle elementari e le loro interazioni fondamentali.

 
L’importanza di essere, o non essere, il bosone di Higgs
LHC, che cosa hanno osservato ATLAS e CMS?

Le particelle di Majorana

Due particelle di Majorana (le due palline in arancione) si formano alle estremità di un ‘nanocavo’.

Si tratta di fermioni, particelle che sono anche le rispettive antiparticelle di se stesse. Furono proposte nel 1937 da Ettore Majorana. Oggi, i fisici ritengono che queste particelle potrebbero essere presenti in alcuni materiali che possiedono particolari proprietà topologiche, come ad esempio i materiali superconduttori o semiconduttori.

Il mistero delle particelle di Majorana

Asimmetria del tempo quantistico

Il rivelatore BaBar.

Grazie all’esperimento BaBar, i fisici hanno osservato la prima evidenza diretta della violazione della simmetria per inversione temporale misurando il tasso a cui il mesone B0 modifica gli stati quantistici. Si tratta di una verifica sperimentale diretta nel campo della fisica quantistica.

L’esperimento BaBar conferma l’asimmetria del tempo quantistico

Il moto degli ammassi di galassie

Gli ammassi di galassie ci forniscono tutta una serie di informazioni su come si è formato l’Universo non solo ma ci permettono di avere indizi fondamentali sull’origine e la natura della materia scura e dell’energia scura. Circa 40 anni fa, i fisici russi Rashid Sunyaev and Yakov Zel’dovich calcolarono che il moto degli ammassi di galassie poteva essere osservato misurando una lieve variazione di temperatura nella radiazione cosmica di fondo. Oggi, queste misure sono state riottenute con maggiore precisione grazie ad una serie di osservazioni realizzate con l’Atacama Cosmology Telescope (ACT) e la survey Baryon Oscillation Spectroscopic Survey (BOSS).

Evidenze di un misterioso ‘flusso collettivo’ degli ammassi di galassie nell’Universo distante

E’ tempo di ‘merenda’ per la Via Lattea

Grazie ai dati ottenuti con la Sloan Digital Sky Survey (SDSS), un gruppo di ricercatori hanno scoperto un insieme di stelle che si ritiene siano i resti di un antico ammasso stellare e che stanno per essere lentamente ‘divorate’ dalla nostra Galassia.

In passato, i ricercatori hanno gia’ trovato chiare evidenze che l’interazione gravitazionale della Via Lattea sta influenzando le galassie nane. “La nostra scoperta si avvicina più ad una situazione di merenda che di pasto completo” spiega Marla Geha, professoressa di astronomia alla Yale University. “Studiare questo processo in dettaglio ci fornisce nuovi indizi su come si formano ed evolvono le galassie”. Questo insieme di ‘stelle merenda’ si trova nella regione galattica meridionale, una zona del cielo difficile da esplorare perché mancano immagini profonde, ed è denominato “Triangulum stream”. Gli astronomi ritengono che lo studio di questi processi ci fornisce informazioni importanti sulla distribuzione della massa nella Galassia e sulla sua struttura dinamica.

[Press release: For the Milky Way, it’s snack time]

arXiv: A Cold Milky Way Stellar Stream in the Direction of Triangulum

Una possibile correlazione tra materia scura e massa inerziale

Nel 1933, Fritz Zwicky notò qualcosa di anomalo nella velocità delle galassie che fanno parte di un ammasso e propose l’esistenza di un eccesso di materia ‘invisibile’ per spiegare l’andamento osservato. In seguito, le ricerche condotte principalmente da Vera Rubin sulle curve di rotazione delle galassie a spirale suggerirono definitivamente la presenza di una componente di materia diversa da quella associata alle stelle o alle galassie e a cui venne dato il nome di materia scura (vedasi Idee sull’Universo).

Nonostante questa sembra essere la spiegazione più semplice per spiegare questi ed altri problemi, in realtà sono stati proposti diversi modelli alternativi. Michael McCulloch, della Plymouth University nel Regno Unito e specializzato in geomatematica, cioè la matematica del posizionamento nello spazio, ha proposto di recente un modello in cui se viene modificata la massa inerziale di una galassia è possibile tener conto dell’andamento anomalo delle velocità delle stelle verso le regioni più esterne della galassia, anche se tale descrizione viola il famoso principio di equivalenza di Einstein. In generale, esistono due modi di calcolare la massa di un oggetto. Uno consiste nel confrontare la forza di gravità su un oggetto di massa non nota con quella su un oggetto di massa nota. Questo metodo dà ad un oggetto una determinata massa gravitazionale. Il secondo metodo, che determina la massa inerziale, riguarda l’applicazione di una forza nota ad un oggetto la cui massa non è nota, la misura dell’accelerazione e quindi il calcolo della sua massa attraverso la seconda legge della dinamica: F = m x a. Nel 1907, Einstein propose che la massa gravitazionale e quella inerziale sono equivalenti derivando così il principio di equivalenza che sta alla base della teoria della relatività generale. Nonostante questo principio sia stato verificato molte volte, con una precisione elevata, alcuni scienziati hanno provato a violare, per così dire, il principio di equivalenza nel tentativo di spiegare le curve di rotazione galattica senza prendere in considerazione la materia scura. Nel 1983, Mordehai Milgrom propose una teoria, denominata Modified Newtonian Dynamics (MoND), dove è possibile modificare leggermente la costante di gravitazione universale o la seconda legge di Newton quando si considerano gli effetti dell’accelerazione gravitazionale su scale molto piccole. Secondo la teoria MoND, la velocità delle stelle in orbita circolare attorno al nucleo della galassia è costante e non dipende dalla distanza dal centro. Tuttavia, per far sì che la teoria funzioni occorre aggiustare alcuni parametri. Nel 2007, McCulloch propose un modello per spiegare l’appiattimento della rotazione galattica, un problema analogo alla seconda versione della teoria MoND perché si propone di modificare la massa inerziale di un oggetto quando si considerano accelerazioni molto piccole che deviano dalla legge di Newton. A differenza della teoria MoND, il modello di McCulloch non richiede la variazione di alcuni parametri. Ma entrambi i modelli violano il principio di equivalenza quando si considerano oggetti che subiscono accelerazioni molto piccole come quelle che si hanno verso le regioni più esterne di una galassia: qui l’accelerazione è estremamente piccola se confrontata con quella a cui è soggetta la Terra. Di fatto, i valori dell’accelerazione sulla superficie terrestre sono dell’ordine di 9.8 m/sec2 mentre verso le regioni più esterne di una galassia i valori stimati sono dell’ordine di 10-10 m/sec2. Con una accelerazione così piccola, un oggetto impiegherebbe quasi 320 anni per passare da uno stato di quiete e raggiungere una velocità di 1 m/sec, oppure quasi 9000 anni per passare da 0 Km/h a circa 100 Km/h o, come disse lo stesso Milgrom, un tempo pari alla vita stessa dell’Universo per avvicinarsi alla velocità della luce.

McCulloch va oltre e chiama il suo modello in un modo un pò complicato: Modification of Inertia resulting from a Hubble-scale Casimir effect (MiHsC) o, più brevemente, inerzia quantizzata. Secondo questo modello, per calcolare accuratamente la massa inerziale di un oggetto occorre considerare l’emissione dei fotoni, detta radiazione Unruh, che è il risultato della sua accelerazione rispetto alla materia circostante. L’esistenza della radiazione Unruh non è ancora chiara perché non è stata osservata sperimentalmente. Nel modello MiHsC, l’effetto Casimir su scale cosmologiche, che si può pensare come una sorta di energia del vuoto prodotta da particelle virtuali, impone dei limiti alla lunghezza d’onda della radiazione Unruh. In altre parole, man mano che l’accelerazione diminuisce, le lunghezze d’onda della radiazione Unruh si ‘allungano’ su scale cosmologiche e parte di esse scompaiono. Ora, dato che si assume che questa radiazione contribuisca alla massa inerziale, una diminuzione dell’accelerazione determina poche onde Unruh e quindi una graduale diminuzione della massa inerziale dell’oggetto. In generale, con una massa inerziale molto piccola, una stella può essere accelerata più facilmente dalla stessa forza di gravità in una orbita chiusa. “Il punto è che non solo si può aumentare la massa gravitazionale di una galassia per trattenere le stelle con una forza maggiore (materia scura) ma si può diminuire la massa inerziale delle stelle così che esse siano trattenute in orbite chiuse anche da una piccolissima forza di gravità dovuta alla materia visibile. Il nostro modello fa quest’ultima cosa”, spiega McCulloch. Assumendo che l’inerzia di una galassia è dovuta alla radiazione Unruh che è, a sua volta, soggetta all’effetto Casimir su scale cosmologiche, McCulloch ha derivato una relazione tra la velocità e la massa visibile di una galassia o di un ammasso di galassie, detta relazione Tully-Fisher. Prendendo in considerazione solo la massa barionica, cioè quella della materia visibile, McCulloch ha utilizzato la relazione Tully-Fisher per derivare la velocità di rotazione delle galassie nane, delle galassie a spirale e degli ammassi di galassie. Sebbene le misure sono sovrastimate da circa 1/3 a circa 1/2, i valori delle velocità osservate sono ancora contenuti entro gli errori. Questo modo di pensare, cioè se non puoi direttamente osservare allora non ci pensare, può sembrare strano ma fu utilizzato dallo stesso Einstein per discreditare il concetto di Newton sullo spazio assoluto e formulare la teoria della relatività. Ritornando al modello MiHsC, con queste accelerazioni molto basse le stelle non possono sentire le onde Unruh, iniziano a perdere rapidamente la loro massa inerziale e ciò permette ad una forza esterna di intervenire nuovamente per accelerarle. A questo punto, la loro accelerazione aumenta, le stelle vedono un numero sempre maggiore di onde Unruh, acquisiscono inerzia e cominciano a decelerare. La situazione di equilibrio si ha attorno ad un valore di accelerazione minima che secondo la teoria è prossima al valore attuale dell’accelerazione cosmica. Dunque, MiHsC permette di descrivere le curve di rotazione galattica entro un certo grado di incertezza senza ammettere l’aggiustamento di qualche parametro fisico. Certamente occorrerà verificare sperimentalmente la validità del modello MiHsC anche se viola il principio di equivalenza. “Se consideriamo le normali accelerazioni sulla Terra, il disaccordo tra il principio di equivalenza e il mio modello è minimo mentre diventa importante quando le accelerazioni diventano piccolissime come quelle che si hanno verso le regioni periferiche di una galassia”, dice McCulloch. “Gli esperimenti sull’equilibrio di torsione hanno permesso di verificare il principio di equivalenza fino a valori dell’ordine di 10-15 m/sec2 e non possono mostrare gli effetti previsti dal mio modello. Questo perché tali esperimenti rappresentano versioni molto più accurate dell’esperimento di Galileo in cui egli faceva cadere due oggetti di massa differente dalla Torre di Pisa. Se il principio di equivalenza è corretto, l’oggetto più pesante sarà soggetto ad una maggiore accelerazione gravitazionale dovuta alla massa gravitazionale della Terra, ma sarà difficile che tale accelerazione sia anche dovuta alla massa inerziale del pianeta, quindi i due oggetti dovrebbero cadere in maniera uguale. L’accelerazione anomala prevista dal mio modello dovuta alla differenza tra massa gravitazionale e inerziale è indipendente dalla massa degli oggetti così che essi dovrebbero cadere ancora in maniera uguale ma con una velocità leggermente maggiore di quanto ci si aspetta. Dunque gli effetti del modello MiHsC non possono essere rivelati in questo tipo di esperimenti”. Il modello MiHsC permette infine di fare una previsione verificabile e cioè che verso la parte periferica della galassia le accelerazioni rimangono al di sopra di un certo valore per controbilanciare l’andamento decrescente in funzione della distanza dal centro. Insomma, McCulloch sta cercando di eliminare alcune ambiguità che sorgono quando si introducono più spiegazioni per una stessa osservazione e per cui diventa difficile arrivare a conclusioni definitive. La prova ideale sarebbe un laboratorio dove si possono controllare le condizioni ed isolare le cause. McCulloch spera che le osservazioni spaziali future possano dare credito al suo modello.

Maggiori info: The Physics from the Edge

ArXiv: Testing quantised inertia on galactic scales

Raggi-gamma dal centro galattico: evidenza di materia scura?

L’emissione di alta energia proveniente dal centro della Via Lattea potrebbe essere consistente con l’intrigante possibilità che le particelle di materia scura stiano annichilando nello spazio producendo raggi-gamma.

E’ quanto emerge da uno studio condotto da Kevork Abazajian e da Manoj Kaplinghat del Dipartimento di Fisica e Astronomia dell’Università della California a Irvine i quali affermano che i risultati sono statisticamente significativi. Gli studiosi hanno analizzato una serie di dati raccolti tra il 2008 e il 2012 dal satellite Fermi Gamma-ray Space Telescope trovando un eccesso di raggi-gamma provenienti dal centro galattico rispetto a quanto previsto dai precedenti modelli. “E’ la prima volta che questa nuova sorgente di alta energia viene osservata non solo ma la forma del suo spettro di emissione sembra essere consistente con gli attuali modelli che prevedono la presenza di materia scura”  spiega Abazajian. “Le prossime osservazioni di regioni di spazio con una minore emissione di radiazione, come le galassie nane, ci permetteranno di determinare in maniera definitiva se abbiamo a che fare con la materia scura”. Nonostante l’interpretazione dei dati pare essere consistente con i modelli che si basano sulle WIMPs, cioè le particelle che sono maggiormente candidate per costituire la materia scura, i raggi-gamma potrebbero essere associati a fotoni energetici emessi dalle pulsar o ancora si potrebbe trattare di particelle energetiche che interagiscono con il gas intergalattico che si trova distribuito nelle regioni centrali della Via Lattea.

ArXiv: Detection of a Gamma-Ray Source in the Galactic Center Consistent with Extended Emission from Dark Matter Annihilation and Concentrated Astrophysical Emission

Galassie nane, laboratori ideali per comprendere l’evoluzione dell’Universo

L’immagine della galassia nana NGC 4214 ripresa dal telescopio spaziale Hubble mostra, in rosso, le regioni delle nubi di idrogeno dove si stanno formando nuove generazioni di stelle.
Credit: NASA/ESA

Grazie ad una serie di osservazioni condotte con il telescopio di 2,3m dell’Australian National University (ANU) dell’Osservatorio di Siding Spring è stato possibile studiare un campione di galassie nane distanti. Queste galassie sono considerate laboratori ideali per capire come si è evoluto l’Universo sin dalla sua origine.

Inizialmente, l’Universo era riempito, per così dire, principalmente dagli elementi idrogeno ed elio. Le grandi stelle si formarono da questi elementi e, in seguito alla loro evoluzione, esse consumarono l’idrogeno e l’elio producendo una sorta di ‘cenere cosmica’ composta da elementi più pesanti tra cui l’azoto, il carbonio e l’ossigeno, essenziali per la vita. Quando le grandi stelle consumarono il proprio combustibile nucleare, esse esplosero formando le supernovae riciclando gli elementi più pesanti in nubi di gas idrogeno da cui si formarono successivamente nuove generazioni di stelle. Il fatto sorprendente è che nelle galassie nane questo processo avviene molto lentamente. Esse si possono considerare come una sorta di villaggio storico in cui esistono ancora intatte le vecchie costruzioni e questo ci permette di capire come si mostravano quando si sono formate. Tuttavia, nelle grandi città quasi tutte le vecchie costruzioni sono andate perse per cui diventa difficile dire come apparivano originariamente, proprio come le galassie più grandi. Dunque, studiare le galassie nane ci permette di “vedere” come si mostrava l’Universo molto tempo fa. Per fare questo, occorre analizzare la luce dei vari elementi nelle nubi di idrogeno presenti nelle galassie nane e ciò ci permette di determinare quanto esse sono ricche e come si sono evolute sin dalle origini dell’Universo. I ricercatori che hanno analizzato i dati hanno trovato con grande sorpresa che le misure non sono d’accordo con i modelli attuali: in altre parole, le energie degli elettroni nelle nubi di gas non sono distribuite secondo quanto ci si aspetta, un mistero rimasto inspiegato da circa 40 anni. Ora serviranno ulteriori dati per studiare ancora più in dettaglio gli elementi presenti nelle galassie distanti al fine di comprendere indirettamente come si è evoluto il nostro Universo.

ArXiv: RESOLVING THE ELECTRON TEMPERATURE DISCREPANCIES IN H II REGIONS AND PLANETARY NEBULAE: κ-DISTRIBUTED ELECTRONS

Anche le galassie nane possiedono un nucleo attivo

Immagine composita della galassia nana Henize 2-10. In rosso, verde e blu i dati raccolti dall’Hubble Space Telescope, in giallo quelli del Very Large Array e, infine, in porpora quelli di Chandra X-Ray Observatory. La croce indica la presunta posizione del buco nero.
Credit: Reines, et al., NRAO/AUI/NSF, NASA

Si tratta di una scoperta inaspettata che ha permesso agli astronomi di guardare ancora più da vicino come si formano ed evolvono i buchi neri supermassicci nei nuclei delle galassie. Trovare un buco nero con una massa milioni di volte quella del Sole nel nucleo di una galassia nana suggerisce che i buchi neri supermassicci si sono formati prima delle galassie. La galassia, denominata con la sigla Henize 2-10, si trova ad una distanza di circa 30 milioni di anni-luce ed è stata studiata per diversi anni. Essa ha una forma irregolare, si estende per circa 3000 anni-luce e ricorda una delle prime galassie che si stavano formando nell’Universo più antico, un fatto mai osservato prima. Dallo studio delle sue proprietà si potrà meglio ricavare la relazione che lega la formazione e l’evoluzione dei buchi neri e delle galassie.