Archivi tag: spazio vuoto

Supernovae solitarie

L’immagine mostra una animazione relativa alla luminosità della supernova osservata nel 2009 dal Canada-France-Hawaii Telescope e nel 2013 dal telescopio spaziale Hubble. Credit: Melissa Graham, CFHT and HST

Una serie di immagini molto nitide ottenute con il telescopio spaziale Hubble hanno permesso di confermare che tre supernovae, identificate alcuni anni fa, sono esplose in realtà nel vuoto più buio dello spazio cosmico che separa le galassie, essendo state scagliate via dalle galassie ospiti milioni o miliardi di anni prima. I risultati su Astrophysical Journal.

Continua a leggere Supernovae solitarie

Annunci

La varianza quantistica della velocità della luce

A scuola ci insegnano che la velocità della luce è una grandezza fisica costante e, come sappiamo tutti, il suo valore è di quasi 300.000 Km/sec. Lo stesso Einstein fondò i principi della relatività speciale assumendo come postulato fondamentale l’invarianza della velocità della luce. Oggi, però, alcuni fisici teorici stanno studiando la possibilità che questo limite invalicabile possa essere superato come conseguenza della natura quantistica dello spazio vuoto (post).

La definizione della velocità della luce trova diverse applicazioni nel campo dell’astrofisica e della cosmologia perché, di fatto, si assume che la luce abbia una velocità costante nel tempo. Ad esempio, si parla della velocità della luce quando si eseguono le misure della costante di struttura fine che definisce l’intensità della forza elettromagnetica. Dunque, la variazione della velocità della luce potrebbe avere delle implicazioni importanti sui legami molecolari e sulla densità nucleare della materia. Inoltre, il fatto di avere la velocità della luce variabile nel tempo potrebbe incidere sulle stime della dimensione del nostro Universo. Tutto ciò non implica che un giorno potremmo viaggiare con una velocità superiore a quella della luce poiché gli effetti della teoria della relatività speciale sono una conseguenza della stessa velocità della luce. Il problema che si sono posti i teorici è quello di capire se è possibile misurare, in qualche modo, la velocità della luce partendo dalle proprietà quantistiche dello spazio vuoto. Da qui sono partiti due gruppi di ricercatori che nonostante propongano meccanismi differenti, essi arrivano alla stessa conclusione e cioè che la velocità della luce potrebbe non essere costante nel tempo se vengono modificate alcune assunzioni di base relative al modo con cui le particelle elementari interagiscono con la radiazione. In altre parole, si parte dal presupposto secondo cui lo spazio quantistico non è completamente vuoto ma è riempito di una sorta di “zuppa di particelle virtuali” che improvvisamente appaiono e scompaiono in una piccolissima frazione di secondo.

Nel primo articolo, Marcel Urban dell’Université du Paris-Sud analizza la natura dello spazio vuoto. Le leggi della meccanica quantistica, che descrivono il mondo degli atomi e delle particelle subatomiche, affermano che lo spazio vuoto è popolato di particelle fondamentali, come i quark, chiamate particelle virtuali. Queste particelle elusive, che emergono sempre in coppia con le loro antiparticelle, appaiono e scompaiono quasi immediatamente in un continuo processo di annichilazione tra materia e antimateria. Man mano che attraversano lo spazio, i fotoni, che costituiscono la radiazione, vengono catturati e riemessi dalle particelle virtuali. Urban ed il suo gruppo propongono che le energie delle particelle virtuali, più precisamente la quantità di carica che esse trasportano, possono modificare la velocità della luce. Dato che la quantità di energia che ogni particella virtuale possiede quando interagisce con il fotone è sostanzialmente casuale, questo effetto che si ha sul modo con cui i fotoni si muovono può altresì variare. Di conseguenza, il tempo che la luce impiega per attraversare una certa distanza varierà con la radice quadrata della distanza percorsa sebbene l’effetto sia molto piccolo, cioè dell’ordine di 0,005 femtosecondi per ogni metro quadrato di spazio vuoto (1 femtosecondo=1 milionesimo di miliardesimo di secondo). Ora, per osservare questa minuscola fluttuazione, occorre misurare il modo con cui la luce viene dispersa su distanze molto grandi. Alcuni fenomeni astronomici, come ad esempio i gamma-ray burst, producono degli impulsi energetici di radiazione elettromagnetica che arrivano sulla Terra dopo aver viaggiato per alcuni miliardi di anni-luce. Trovandosi ad enormi distanze cosmologiche, questi lampi di raggi-gamma potrebbero essere ottimi laboratori astrofisici per misurare questo piccolissimo intervallo di tempo. Una tecnica alternativa si basa, invece, sull’utilizzo di un fascio laser che rimbalza varie volte su una serie di specchi, ognuno separati da una distanza di circa 100 metri, allo scopo di determinare una impercettibile variazione della velocità della luce.

Nel secondo articolo, gli autori propongono un meccanismo differente che però porta alla stessa conclusione e cioè che la velocità della luce potrebbe variare nel tempo. Gerd Leuchs e Luis Sánchez-Soto del Max Planck Institute for the Physics of Light in Erlangen partono dal presupposto che la luce è caratterizzata da tutto l’insieme delle specie che compongono le particelle elementari. Gli autori calcolano che ci dovrebbero essere almeno 100 “specie” di particelle che possiedono una carica. Ma il modello standard delle particelle elementari ne identifica molto meno: l’elettrone, il muone, il taone, sei tipi di quark, il fotone ed il bosone W. Esiste una grandezza fisica, chiamata impedenza del vuoto, che dipende dalla permittività elettrica del vuoto, cioè dalla capacità di resistere ai campi elettrici, e dalla sua permeabilità magnetica del vuoto, cioè dalla capacità di resistere ai campi magnetici. Sappiamo che le onde luminose sono costituite sia dai campi elettrici che dai campi magnetici, perciò se modifichiamo la permittività e la permeabilità del vuoto dovute alle particelle virtuali, si potrà misurare una variazione della velocità della luce. In questo modello, l’impedenza del vuoto, che dovrebbe accelerare o rallentare la velocità della luce, dipende dalla densità delle particelle virtuali.

I due gruppi affermano entrambi che la luce interagisce con le coppie virtuali particelle-antiparticelle. Ma alcuni scienziati, come il fisico delle particelle Jay Wacker, rimangono scettici. Wacher non è convinto delle tecniche matematiche che sono state utilizzate dai due gruppi, non solo ma crede anche che esse non siano state applicate nel modo adeguato perciò una tecnica migliore potrebbe essere quella che fa uso dei cosiddetti diagrammi di Feynman. In più, se è vero che esistono molte altre particelle rispetto a quelle già note del modello standard allora la teoria necessita seriamente una revisione. Dobbiamo dire, però, che finora le previsioni del modello standard sono state precise, vedasi in particolare con la scoperta del bosone scalare (post). Certamente, questo non vuol dire che non esistono in natura altre particelle ma se ci sono con ogni probabilità si devono trovare a valori più elevati di energia che sono al momento al di fuori dei limiti strumentali raggiunti dagli acceleratori di particelle ed è quindi possibile che i loro effetti si mostrino altrove. Insomma, al momento non ci sono verifiche sperimentali che supportino queste idee che senza dubbio rimangono molto interessanti dato che potrebbero avere delle serie implicazioni sulle attuali teorie fisiche. Sarei stato curioso di sentire il parere di Einstein in merito.

arXiv (1° articolo): The quantum vacuum as the origin of the speed of light 
arXiv (2° articolo): A sum rule for charged elementary particles

Dal pianeta nano Eris probabili indizi sulla gravità quantistica

Alcune recenti osservazioni sul rivale di Plutone, Eris, potrebbero fornirci nuovi indizi per spiegare i due più grandi misteri della moderna cosmologia: la materia scura e l’energia scura. E’ noto che molte galassie possiedono una maggiore attrazione gravitazionale rispetto ad altre galassie e che può essere spiegata solamente tenendo conto di una maggiore distribuzione della massa visibile. Tuttavia, alle galassie supermassicce viene spesso attribuita una ulteriore presenza di materia invisibile, la materia scura, che interagisce con la materia ordinaria attraverso la gravità. Finora, però, nessuno ha mai rivelato direttamente le particelle che compongono questa enigmatica componente che rappresenta il 23% circa del contenuto materia-energia dell’Universo.

In realtà, da una vecchia nozione della fisica potrebbe derivare una spiegazione. Essa afferma che lo spazio vuoto è una sorta di oceano che ha la forma a ‘schiuma’ (post), completamente turbolento e riempito di coppie di particelle virtuali costituite di materia e antimateria e che appaiono e svaniscono istantaneamente in modo tale che risulta impossibile osservarle. Nonostante esse siano molto piccole, cioè entità quantistiche, Dragan Hajdukovic, un fisico teorico del CERN, ritiene che queste particelle virtuali possano avere delle cariche gravitazionali opposte simili alle cariche elettriche. In presenza di un campo gravitazionale, le particelle virtuali dovrebbero generare un campo di forze secondario che, nel caso delle galassie, potrebbe spiegare la discrepanza legata alla massa. Inoltre, l’idea di Hajdukovic spiegherebbe anche l’energia scura, quell’altra componente misteriosa che rappresenta circa il 73% del contenuto materia-energia dell’Universo e che si ritiene sia la causa dell’espansione accelerata dello spazio. Se le particelle virtuali avessero delle cariche gravitazionali, allora anche lo spaziotempo dovrebbe essere permeato di una piccola carica che farebbe allontanare tutte le galassie le une dalle altre. Per verificare come funziona la gravità su scala quantistica, Hajdukovic pensa di prendere in prestito, per così dire, un ‘trucco’ già utilizzato da Albert Einstein. A causa degli effetti gravitazionali presenti nel Sistema Solare, come le reciproche interazioni dovute agli altri pianeti, è noto dalla relatività generale che l’orbita ovale di Mercurio precede, ossia ruota molto lentamente. Einstein dimostrò che è proprio il campo gravitazionale del Sole che crea una curvatura dello spaziotempo influenzando così l’orbita di Mercurio. Secondo Hajdukovic, la gravità quantistica potrebbe determinare una discrepanza simile nelle orbite di corpi celesti più distanti. Ed è qui che interviene Eris e la sua luna Disnomia. L’enorme distanza a cui si trova il pianeta nano rispetto al Sole fa sì che gli effetti della relatività generale siano trascurabili. A queste distanze può essere valida la fisica newtoniana per cui si calcola un tasso di precessione dell’orbita di Disnomia di circa 13 secondi d’arco per secolo. Se, però, esistono gli effetti dovuti alla gravità su scala quantistica, il tasso di precessione dovrebbe essere di circa -190 secondi d’arco per secolo secondo i calcoli di Hajdukovic. Lo scienziato ritiene che per eseguire queste misure si potrebbero utilizzare gli attuali strumenti di osservazione sia da terra che dallo spazio. Dunque, se da un lato Einstein fu fortunato con il vicino pianeta Mercurio, dall’altro si può dire la stessa cosa con Hajdukovic la cui teoria potrebbe essere verificata osservando gli oggetti trans-nettuniani. Naturalmente c’è chi è scettico, come Gary Page della Longwood University in Farmville, Virginia, il quale sebbene non creda che le osservazioni da terra possano essere così sensibili da rivelare l’effetto ammira comunque lo sforzo del collega e il suo tentativo di verificare la validità o meno delle sue idee.

arXiv: Can observations inside the Solar System reveal the gravitational properties of the quantum vacuum?

Un test per lo studio della gravità su scale quantistiche

La gravità è l’unica delle quattro forze fondamentali che non è descritta dalla teoria quantistica e perciò nessuno sa finora come essa si comporta quando si considerano distanze estremamente piccole e cioè dell’ordine della lunghezza di Planck. Finora, la più piccola dimensione raggiunta è dell’ordine di 10-19 metri ottenuta grazie agli esperimenti di LHC.

In un recente studio, il fisico Vahagn Gharibyan del Deutsches Elektronen-Synchrotron (DESY) in Hamburg, Germania, ha proposto un test di gravità quantistica in grado di raggiungere una sensibilità di 10-31 metri fino alla scala di Planck in funzione dell’energia raggiunta dall’acceleratore di particelle. Diversi modelli che tentano di descrivere la gravità su scale quantistiche suggeriscono che lo spazio vuoto in prossimità della lunghezza di Planck può assumere le proprietà di un cristallo. In altre parole, lo spazio può essere ‘rifrattivo’, cioè la luce viene deviata a causa dei gravitoni, le particelle che ipoteticamente mediano l’interazione gravitazionale, e ‘birifrangente’, cioè il grado di distorsione della luce dipende anche dalla sua polarizzazione. Nella teoria quantistica della gravità, sia la rifrattività che la birifrangenza dipendono dall’energia: più elevata è l’energia del fotone e più intensa risulta l’interazione fotone-gravitone e perciò la distorsione dei raggi luminosi. Questa correlazione è opposta a quella che si ha nel caso in cui i fotoni interagiscono con il campo elettromagnetico o con la materia e anche a quella prevista dalla gravità newtoniana e dalla relatività generale dove l’effetto della distorsione della luce è indipendente dall’energia associata alla radiazione. Gharibyan suggerisce che per determinare la distorsione dei raggi luminosi nel regime quantistico si possono utilizzare fasci di particelle di alta energia negli acceleratori in modo da esplorare le proprietà di simmetria dello spazio vuoto su scale estremamente piccole. Insomma, l’esperimento proposto da Gharibyan potrebbe fornire le prime misure dirette non solo della struttura dello spazio quantistico ma potrebbe offrire nuovi indizi sul comportamento della gravità in prossimità della scala di Planck.

ArXiv 1: Testing Planck scale gravity with accelerators

ArXiv 2: Possible Observation of Photon Speed Energy Dependence

L’ipotesi delle ‘bolle cosmiche’ secondo George Ellis

Una delle priorità della moderna cosmologia è lo studio dell’energia scura, quella misteriosa forza che sta determinando una espansione accelerata dell’Universo e di cui gli astronomi ignorano ancora la sua natura. Sebbene siano state avanzate varie ipotesi sulla sua origine, di recente il cosmologo George Ellis, dell’Università di Cape Town, ha proposto uno scenario alternativo secondo il quale l’energia scura sarebbe solo un falso effetto dovuto semplicemente alla nostra speciale posizione che occupiamo all’interno di un gigantesco vuoto cosmico, detto anche ‘bolla cosmica’.

Cominciamo prima a vedere le varie ipotesi che sono state avanzate sull’energia scura. La prima risale al 1917 quando Albert Einstein, per evitare il collasso gravitazionale del suo Universo, aveva introdotto nelle equazioni della relatività generale una proprietà dello spazio aggiungendo un termine, chiamato costante cosmologica, che avrebbe stabilizzato l’effetto della gravità mediante l’azione di una forza repulsiva, una sorta di forza antigravitazionale, che agisse su larga scala permeando tutto lo spazio cosmico. Una seconda ipotesi deriva dalla natura quantistica dello spazio quando consideriamo le scale subatomiche. Qui gli effetti quantistici diventano significativi e può succedere che coppie virtuali di particelle-antiparticelle emergano spontaneamente dal vuoto, esistono per un brevissimo intervallo di tempo e poi scompaiono rapidamente. Questo ci dice che lo spazio vuoto non è effettivamente vuoto. Ora, dato che queste particelle virtuali possono riempire lo spazio con una quantità di energia diversa da zero, si è trovato che tutte le misure e le stime della quantità di energia dello spazio vuoto portano a valori decisamente assurdi che vanno da 55 a 120 ordini di grandezza maggiori dell’energia associata a tutta la materia e alla radiazione presenti nell’Universo osservabile. Ciò implica che se l’energia del vuoto avesse realmente quei valori, tutta la materia presente nell’Universo si disperderebbe istantaneamente. Quale effetto avrebbe una tale costante cosmologica? Se veramente il valore della costante cosmologica fosse davvero grande come previsto dalla teoria dei quanti, lo spazio si espanderebbe così rapidamente che la luce dovuta, ad esempio, ai fotoni che provengono dalla mano non raggiungerebbe mai i nostri occhi. Insomma, una accelerazione di proporzioni epiche potrebbe distruggere qualsiasi cosa, dagli atomi alle galassie, e la fine dell’Universo sarebbe quella di un colossale Big Rip. Un terzo aspetto è stato analizzato da Paul Dirac. Egli riteneva che certe quantità fisiche avrebbero potuto variare con il passare del tempo ed essere perciò o troppo grandi o troppo piccole se misurate oggi. La costante cosmologica potrebbe essere un esempio di questa variabilità temporale, in altre parole potrebbe non essere una costante. Per descrivere questa forma di energia variabile nel tempo, Robert CaldwellRahul Dave Paul Steinhardt hanno introdotto il termine quintessenza, ossia “quinto elemento” dall’idea che avevano gli antichi filosofi greci secondo i quali l’Universo era composto da quattro elementi, aria, acqua, terra e fuoco, più una sostanza effimera che impediva alla Luna e ai pianeti di cadere al centro della sfera celeste. Ma per i cosmologi moderni, il termine quintessenza si riferisce ad un campo quantistico dinamico che causa una repulsione gravitazionale. Secondo questa ipotesi, la costante cosmologica evolve nel tempo e si aggiusta, per così dire, fino ad assumere il valore che possiede oggi, determinando una sorta di “stiramento” dello spaziotempo, come quando un elastico viene appunto tirato, e un aumento di volume dello spazio causando una accelerazione all’espansione dell’Universo che prevale quindi a discapito del campo gravitazionale dovuto alla materia. Ma forse l’energia scura non esiste affatto e quello che misuriamo è solo un effetto locale dovuto al fatto che la nostra posizione nella Galassia si trova in una regione particolare dello spazio. E’ ciò che ha proposto George Ellis secondo il quale ci troviamo in una sorta di “bolla cosmica”, ossia un gigantesco vuoto cosmico dove la densità di materia ivi presente è mediamente inferiore rispetto allo spazio circostante. Ora dato che l’Universo si espande in funzione della quantità di materia che, a sua volta, determina un effetto di attrazione gravitazionale frenando l’espansione dello spazio, si ha che più è vuota una regione dello spazio e meno materia esso contiene per rallentare l’espansione. Dunque il tasso di espansione locale dell’Universo diventerà maggiore che altrove e diminuirà in prossimità dei bordi della bolla dove gli effetti della densità di materia diventano più significativi. Quindi, certe regioni dello spazio si espanderanno con velocità diverse così come succede ai palloncini delle feste che non si gonfiano in maniera uniforme. Sebbene questa ipotesi sia alquanto intrigante, tuttavia alcuni scienziati sembrano scettici in merito all’esistenza di giganteschi vuoti cosmici poiché non si spiegherebbe, per esempio, l’uniformità della radiazione cosmica di fondo per non parlare poi della distribuzione apparentemente uniforme delle galassie. Nel primo caso, affinché la radiazione cosmica sia compatibile con la presenza di una regione vuota, dovremmo assumere un vuoto cosmico sferico e con la Terra al suo centro. Nel secondo caso, invece, le osservazioni con gli attuali strumenti non sono abbastanza profonde da confermare, definitivamente o meno, l’esistenza di un vuoto di dimensioni tali da produrre gli effetti attribuiti all’energia scura. Dunque si spera che i prossimi dati del satellite Planck ci forniranno dei limiti più forti sull’anisotropia della radiazione cosmica di fondo che serviranno per verificare l’esistenza di eventuali bolle cosmiche.

Maggiori info: Idee sull’Universo

Una possibile correlazione tra materia scura e massa inerziale

Nel 1933, Fritz Zwicky notò qualcosa di anomalo nella velocità delle galassie che fanno parte di un ammasso e propose l’esistenza di un eccesso di materia ‘invisibile’ per spiegare l’andamento osservato. In seguito, le ricerche condotte principalmente da Vera Rubin sulle curve di rotazione delle galassie a spirale suggerirono definitivamente la presenza di una componente di materia diversa da quella associata alle stelle o alle galassie e a cui venne dato il nome di materia scura (vedasi Idee sull’Universo).

Nonostante questa sembra essere la spiegazione più semplice per spiegare questi ed altri problemi, in realtà sono stati proposti diversi modelli alternativi. Michael McCulloch, della Plymouth University nel Regno Unito e specializzato in geomatematica, cioè la matematica del posizionamento nello spazio, ha proposto di recente un modello in cui se viene modificata la massa inerziale di una galassia è possibile tener conto dell’andamento anomalo delle velocità delle stelle verso le regioni più esterne della galassia, anche se tale descrizione viola il famoso principio di equivalenza di Einstein. In generale, esistono due modi di calcolare la massa di un oggetto. Uno consiste nel confrontare la forza di gravità su un oggetto di massa non nota con quella su un oggetto di massa nota. Questo metodo dà ad un oggetto una determinata massa gravitazionale. Il secondo metodo, che determina la massa inerziale, riguarda l’applicazione di una forza nota ad un oggetto la cui massa non è nota, la misura dell’accelerazione e quindi il calcolo della sua massa attraverso la seconda legge della dinamica: F = m x a. Nel 1907, Einstein propose che la massa gravitazionale e quella inerziale sono equivalenti derivando così il principio di equivalenza che sta alla base della teoria della relatività generale. Nonostante questo principio sia stato verificato molte volte, con una precisione elevata, alcuni scienziati hanno provato a violare, per così dire, il principio di equivalenza nel tentativo di spiegare le curve di rotazione galattica senza prendere in considerazione la materia scura. Nel 1983, Mordehai Milgrom propose una teoria, denominata Modified Newtonian Dynamics (MoND), dove è possibile modificare leggermente la costante di gravitazione universale o la seconda legge di Newton quando si considerano gli effetti dell’accelerazione gravitazionale su scale molto piccole. Secondo la teoria MoND, la velocità delle stelle in orbita circolare attorno al nucleo della galassia è costante e non dipende dalla distanza dal centro. Tuttavia, per far sì che la teoria funzioni occorre aggiustare alcuni parametri. Nel 2007, McCulloch propose un modello per spiegare l’appiattimento della rotazione galattica, un problema analogo alla seconda versione della teoria MoND perché si propone di modificare la massa inerziale di un oggetto quando si considerano accelerazioni molto piccole che deviano dalla legge di Newton. A differenza della teoria MoND, il modello di McCulloch non richiede la variazione di alcuni parametri. Ma entrambi i modelli violano il principio di equivalenza quando si considerano oggetti che subiscono accelerazioni molto piccole come quelle che si hanno verso le regioni più esterne di una galassia: qui l’accelerazione è estremamente piccola se confrontata con quella a cui è soggetta la Terra. Di fatto, i valori dell’accelerazione sulla superficie terrestre sono dell’ordine di 9.8 m/sec2 mentre verso le regioni più esterne di una galassia i valori stimati sono dell’ordine di 10-10 m/sec2. Con una accelerazione così piccola, un oggetto impiegherebbe quasi 320 anni per passare da uno stato di quiete e raggiungere una velocità di 1 m/sec, oppure quasi 9000 anni per passare da 0 Km/h a circa 100 Km/h o, come disse lo stesso Milgrom, un tempo pari alla vita stessa dell’Universo per avvicinarsi alla velocità della luce.

McCulloch va oltre e chiama il suo modello in un modo un pò complicato: Modification of Inertia resulting from a Hubble-scale Casimir effect (MiHsC) o, più brevemente, inerzia quantizzata. Secondo questo modello, per calcolare accuratamente la massa inerziale di un oggetto occorre considerare l’emissione dei fotoni, detta radiazione Unruh, che è il risultato della sua accelerazione rispetto alla materia circostante. L’esistenza della radiazione Unruh non è ancora chiara perché non è stata osservata sperimentalmente. Nel modello MiHsC, l’effetto Casimir su scale cosmologiche, che si può pensare come una sorta di energia del vuoto prodotta da particelle virtuali, impone dei limiti alla lunghezza d’onda della radiazione Unruh. In altre parole, man mano che l’accelerazione diminuisce, le lunghezze d’onda della radiazione Unruh si ‘allungano’ su scale cosmologiche e parte di esse scompaiono. Ora, dato che si assume che questa radiazione contribuisca alla massa inerziale, una diminuzione dell’accelerazione determina poche onde Unruh e quindi una graduale diminuzione della massa inerziale dell’oggetto. In generale, con una massa inerziale molto piccola, una stella può essere accelerata più facilmente dalla stessa forza di gravità in una orbita chiusa. “Il punto è che non solo si può aumentare la massa gravitazionale di una galassia per trattenere le stelle con una forza maggiore (materia scura) ma si può diminuire la massa inerziale delle stelle così che esse siano trattenute in orbite chiuse anche da una piccolissima forza di gravità dovuta alla materia visibile. Il nostro modello fa quest’ultima cosa”, spiega McCulloch. Assumendo che l’inerzia di una galassia è dovuta alla radiazione Unruh che è, a sua volta, soggetta all’effetto Casimir su scale cosmologiche, McCulloch ha derivato una relazione tra la velocità e la massa visibile di una galassia o di un ammasso di galassie, detta relazione Tully-Fisher. Prendendo in considerazione solo la massa barionica, cioè quella della materia visibile, McCulloch ha utilizzato la relazione Tully-Fisher per derivare la velocità di rotazione delle galassie nane, delle galassie a spirale e degli ammassi di galassie. Sebbene le misure sono sovrastimate da circa 1/3 a circa 1/2, i valori delle velocità osservate sono ancora contenuti entro gli errori. Questo modo di pensare, cioè se non puoi direttamente osservare allora non ci pensare, può sembrare strano ma fu utilizzato dallo stesso Einstein per discreditare il concetto di Newton sullo spazio assoluto e formulare la teoria della relatività. Ritornando al modello MiHsC, con queste accelerazioni molto basse le stelle non possono sentire le onde Unruh, iniziano a perdere rapidamente la loro massa inerziale e ciò permette ad una forza esterna di intervenire nuovamente per accelerarle. A questo punto, la loro accelerazione aumenta, le stelle vedono un numero sempre maggiore di onde Unruh, acquisiscono inerzia e cominciano a decelerare. La situazione di equilibrio si ha attorno ad un valore di accelerazione minima che secondo la teoria è prossima al valore attuale dell’accelerazione cosmica. Dunque, MiHsC permette di descrivere le curve di rotazione galattica entro un certo grado di incertezza senza ammettere l’aggiustamento di qualche parametro fisico. Certamente occorrerà verificare sperimentalmente la validità del modello MiHsC anche se viola il principio di equivalenza. “Se consideriamo le normali accelerazioni sulla Terra, il disaccordo tra il principio di equivalenza e il mio modello è minimo mentre diventa importante quando le accelerazioni diventano piccolissime come quelle che si hanno verso le regioni periferiche di una galassia”, dice McCulloch. “Gli esperimenti sull’equilibrio di torsione hanno permesso di verificare il principio di equivalenza fino a valori dell’ordine di 10-15 m/sec2 e non possono mostrare gli effetti previsti dal mio modello. Questo perché tali esperimenti rappresentano versioni molto più accurate dell’esperimento di Galileo in cui egli faceva cadere due oggetti di massa differente dalla Torre di Pisa. Se il principio di equivalenza è corretto, l’oggetto più pesante sarà soggetto ad una maggiore accelerazione gravitazionale dovuta alla massa gravitazionale della Terra, ma sarà difficile che tale accelerazione sia anche dovuta alla massa inerziale del pianeta, quindi i due oggetti dovrebbero cadere in maniera uguale. L’accelerazione anomala prevista dal mio modello dovuta alla differenza tra massa gravitazionale e inerziale è indipendente dalla massa degli oggetti così che essi dovrebbero cadere ancora in maniera uguale ma con una velocità leggermente maggiore di quanto ci si aspetta. Dunque gli effetti del modello MiHsC non possono essere rivelati in questo tipo di esperimenti”. Il modello MiHsC permette infine di fare una previsione verificabile e cioè che verso la parte periferica della galassia le accelerazioni rimangono al di sopra di un certo valore per controbilanciare l’andamento decrescente in funzione della distanza dal centro. Insomma, McCulloch sta cercando di eliminare alcune ambiguità che sorgono quando si introducono più spiegazioni per una stessa osservazione e per cui diventa difficile arrivare a conclusioni definitive. La prova ideale sarebbe un laboratorio dove si possono controllare le condizioni ed isolare le cause. McCulloch spera che le osservazioni spaziali future possano dare credito al suo modello.

Maggiori info: The Physics from the Edge

ArXiv: Testing quantised inertia on galactic scales

La ‘potenza’ dello spazio vuoto

Che cos’è il bosone di Higg e dove ci porterà la sua scoperta? Nel libro che mi piace segnalare oggi, Higgs Discovery: The Power of Empty Space, la professoressa Lisa Randall del Dipartimento di Fisica dell’Università di Harvard, ed uno dei maggiori fisici teorici più influenti a livello mondiale, spiega quali potrebbero essere le implicazioni derivanti da una tale scoperta epocale.

Lo scorso 4 Luglio, i fisici del Large Hadron Collider (LHC) hanno presentato i risultati delle ricerche relative agli ultimi due anni di esperimenti annunciando la scoperta di un bosone scalare che possiede alcune proprietà che sembrano essere consistenti con quelle del bosone di Higgs (vedasi questi post1; post2). Questa particella fondamentale, teorizzata sin dagli anni ‘60 da Peter Higgs, ha rappresentato e rappresenta tutt’ora una sorta di “Santo Graal” della fisica. Nell’ambito del Modello Standard, la teoria che descrive le proprietà ed il comportamento delle particelle elementari, il bosone di Higgs rappresenta l’ultimo tassello del quadro teorico che dovrebbe spiegare in maniera elegante tutta una serie di questioni che vanno dall’origine della massa delle particelle a ciò che accade nello spazio vuoto. Con la sua grande passione che la contraddistingue, Randall guida anche il lettore che non possiede una conoscenza di fisica di base in un viaggio nel mondo delle particelle elementari enfatizzando il significato e le implicazioni scientifiche che possono derivare da questa entusiasmante scoperta.