Archivi tag: particelle virtuali

L’Universo sull’orlo di un precipizio

Più osserviamo l’Universo e più ci appare strano. Oggi, fisici e astronomi sono impegnati ad affrontare tutta una serie di ostacoli per comprendere alcuni aspetti sull’origine e il contenuto dell’Universo. Qui di seguito, esaminiamo con l’aiuto di alcuni scienziati cinque problematiche che sembrano inspiegabili e ci chiediamo che cosa si cela dietro di essi. Continua a leggere L’Universo sull’orlo di un precipizio

Pubblicità

La risoluzione limite dell’Universo

Siamo in grado di definire le dimensioni del puntino che compone il punto interrogativo? Che succede se ci spostiamo di qualche metro? Il dettaglio più fine che l’occhio umano è in grado di distinguere è la dimensione di un punto alla distanza di un metro: stiamo parlando di “risoluzione angolare”. La risoluzione migliore di un sistema ottico, come l’occhio, è data approssimativamente dal rapporto tra la lunghezza d’onda della luce incidente e la dimensione dell’apertura del sistema attraverso cui passa la luce. In astronomia, il concetto di risoluzione funziona allo stesso modo. Ciò spiega come mai si costruiscono telescopi sempre più grandi: non solo i telescopi più grossi raccolgono più luce, e perciò possono osservare sempre più lontano nello spazio, ma più grande è l’apertura dello strumento e, in linea di principio, migliore risulterà l’immagine. Oggi, però, un nuovo studio pubblicato da Eric Steinbring del National Research Council Canada suggerisce che l’Universo abbia in realtà una sorta di “risoluzione limite fondamentale”: in altre parole, non saremo mai in grado di vedere le galassie più distanti, così chiaramente come vorremmo, a prescindere dalle dimensioni del telescopio. Continua a leggere La risoluzione limite dell’Universo

Esiste un solo bosone di Higgs?

Quando i fisici annunciarono la scoperta del bosone di Higgs nel 2012 (post), essi dichiararono che il modello standard delle particelle elementari si poteva considerare completo: in altre parole, era stato trovato finalmente il pezzo mancante del puzzle. Tuttavia, molte domande rimangono ancora senza una risposta e una di queste ha a che fare con il numero di Higgs: abbiamo trovato un solo tipo di bosone di Higgs o ce ne sono altri? Continua a leggere Esiste un solo bosone di Higgs?

Simulare la radiazione di Hawking con un buco nero ‘artificiale’

Circa 40 anni fa, Stephen Hawking sbalordì i cosmologi quando annunciò che i buchi neri non sono completamente neri, dato che una piccola quantità di radiazione, detta radiazione di Hawking, sarebbe stata in grado di sfuggire all’intensa attrazione gravitazionale. Nel corso del tempo, questa conseguenza emersa nel tentativo di riconciliare la meccanica quantistica e la relatività generale ha sollevato una questione fondamentale, nota come paradosso della (perdita di) informazione dei buchi neri, sul fatto che l’informazione codificata nella radiazione svanisca definitivamente con essa una volta superato l’orizzonte degli eventi.

Continua a leggere Simulare la radiazione di Hawking con un buco nero ‘artificiale’

La varianza quantistica della velocità della luce

A scuola ci insegnano che la velocità della luce è una grandezza fisica costante e, come sappiamo tutti, il suo valore è di quasi 300.000 Km/sec. Lo stesso Einstein fondò i principi della relatività speciale assumendo come postulato fondamentale l’invarianza della velocità della luce. Oggi, però, alcuni fisici teorici stanno studiando la possibilità che questo limite invalicabile possa essere superato come conseguenza della natura quantistica dello spazio vuoto (post).

La definizione della velocità della luce trova diverse applicazioni nel campo dell’astrofisica e della cosmologia perché, di fatto, si assume che la luce abbia una velocità costante nel tempo. Ad esempio, si parla della velocità della luce quando si eseguono le misure della costante di struttura fine che definisce l’intensità della forza elettromagnetica. Dunque, la variazione della velocità della luce potrebbe avere delle implicazioni importanti sui legami molecolari e sulla densità nucleare della materia. Inoltre, il fatto di avere la velocità della luce variabile nel tempo potrebbe incidere sulle stime della dimensione del nostro Universo. Tutto ciò non implica che un giorno potremmo viaggiare con una velocità superiore a quella della luce poiché gli effetti della teoria della relatività speciale sono una conseguenza della stessa velocità della luce. Il problema che si sono posti i teorici è quello di capire se è possibile misurare, in qualche modo, la velocità della luce partendo dalle proprietà quantistiche dello spazio vuoto. Da qui sono partiti due gruppi di ricercatori che nonostante propongano meccanismi differenti, essi arrivano alla stessa conclusione e cioè che la velocità della luce potrebbe non essere costante nel tempo se vengono modificate alcune assunzioni di base relative al modo con cui le particelle elementari interagiscono con la radiazione. In altre parole, si parte dal presupposto secondo cui lo spazio quantistico non è completamente vuoto ma è riempito di una sorta di “zuppa di particelle virtuali” che improvvisamente appaiono e scompaiono in una piccolissima frazione di secondo.

Nel primo articolo, Marcel Urban dell’Université du Paris-Sud analizza la natura dello spazio vuoto. Le leggi della meccanica quantistica, che descrivono il mondo degli atomi e delle particelle subatomiche, affermano che lo spazio vuoto è popolato di particelle fondamentali, come i quark, chiamate particelle virtuali. Queste particelle elusive, che emergono sempre in coppia con le loro antiparticelle, appaiono e scompaiono quasi immediatamente in un continuo processo di annichilazione tra materia e antimateria. Man mano che attraversano lo spazio, i fotoni, che costituiscono la radiazione, vengono catturati e riemessi dalle particelle virtuali. Urban ed il suo gruppo propongono che le energie delle particelle virtuali, più precisamente la quantità di carica che esse trasportano, possono modificare la velocità della luce. Dato che la quantità di energia che ogni particella virtuale possiede quando interagisce con il fotone è sostanzialmente casuale, questo effetto che si ha sul modo con cui i fotoni si muovono può altresì variare. Di conseguenza, il tempo che la luce impiega per attraversare una certa distanza varierà con la radice quadrata della distanza percorsa sebbene l’effetto sia molto piccolo, cioè dell’ordine di 0,005 femtosecondi per ogni metro quadrato di spazio vuoto (1 femtosecondo=1 milionesimo di miliardesimo di secondo). Ora, per osservare questa minuscola fluttuazione, occorre misurare il modo con cui la luce viene dispersa su distanze molto grandi. Alcuni fenomeni astronomici, come ad esempio i gamma-ray burst, producono degli impulsi energetici di radiazione elettromagnetica che arrivano sulla Terra dopo aver viaggiato per alcuni miliardi di anni-luce. Trovandosi ad enormi distanze cosmologiche, questi lampi di raggi-gamma potrebbero essere ottimi laboratori astrofisici per misurare questo piccolissimo intervallo di tempo. Una tecnica alternativa si basa, invece, sull’utilizzo di un fascio laser che rimbalza varie volte su una serie di specchi, ognuno separati da una distanza di circa 100 metri, allo scopo di determinare una impercettibile variazione della velocità della luce.

Nel secondo articolo, gli autori propongono un meccanismo differente che però porta alla stessa conclusione e cioè che la velocità della luce potrebbe variare nel tempo. Gerd Leuchs e Luis Sánchez-Soto del Max Planck Institute for the Physics of Light in Erlangen partono dal presupposto che la luce è caratterizzata da tutto l’insieme delle specie che compongono le particelle elementari. Gli autori calcolano che ci dovrebbero essere almeno 100 “specie” di particelle che possiedono una carica. Ma il modello standard delle particelle elementari ne identifica molto meno: l’elettrone, il muone, il taone, sei tipi di quark, il fotone ed il bosone W. Esiste una grandezza fisica, chiamata impedenza del vuoto, che dipende dalla permittività elettrica del vuoto, cioè dalla capacità di resistere ai campi elettrici, e dalla sua permeabilità magnetica del vuoto, cioè dalla capacità di resistere ai campi magnetici. Sappiamo che le onde luminose sono costituite sia dai campi elettrici che dai campi magnetici, perciò se modifichiamo la permittività e la permeabilità del vuoto dovute alle particelle virtuali, si potrà misurare una variazione della velocità della luce. In questo modello, l’impedenza del vuoto, che dovrebbe accelerare o rallentare la velocità della luce, dipende dalla densità delle particelle virtuali.

I due gruppi affermano entrambi che la luce interagisce con le coppie virtuali particelle-antiparticelle. Ma alcuni scienziati, come il fisico delle particelle Jay Wacker, rimangono scettici. Wacher non è convinto delle tecniche matematiche che sono state utilizzate dai due gruppi, non solo ma crede anche che esse non siano state applicate nel modo adeguato perciò una tecnica migliore potrebbe essere quella che fa uso dei cosiddetti diagrammi di Feynman. In più, se è vero che esistono molte altre particelle rispetto a quelle già note del modello standard allora la teoria necessita seriamente una revisione. Dobbiamo dire, però, che finora le previsioni del modello standard sono state precise, vedasi in particolare con la scoperta del bosone scalare (post). Certamente, questo non vuol dire che non esistono in natura altre particelle ma se ci sono con ogni probabilità si devono trovare a valori più elevati di energia che sono al momento al di fuori dei limiti strumentali raggiunti dagli acceleratori di particelle ed è quindi possibile che i loro effetti si mostrino altrove. Insomma, al momento non ci sono verifiche sperimentali che supportino queste idee che senza dubbio rimangono molto interessanti dato che potrebbero avere delle serie implicazioni sulle attuali teorie fisiche. Sarei stato curioso di sentire il parere di Einstein in merito.

arXiv (1° articolo): The quantum vacuum as the origin of the speed of light 
arXiv (2° articolo): A sum rule for charged elementary particles

Dal pianeta nano Eris probabili indizi sulla gravità quantistica

Alcune recenti osservazioni sul rivale di Plutone, Eris, potrebbero fornirci nuovi indizi per spiegare i due più grandi misteri della moderna cosmologia: la materia scura e l’energia scura. E’ noto che molte galassie possiedono una maggiore attrazione gravitazionale rispetto ad altre galassie e che può essere spiegata solamente tenendo conto di una maggiore distribuzione della massa visibile. Tuttavia, alle galassie supermassicce viene spesso attribuita una ulteriore presenza di materia invisibile, la materia scura, che interagisce con la materia ordinaria attraverso la gravità. Finora, però, nessuno ha mai rivelato direttamente le particelle che compongono questa enigmatica componente che rappresenta il 23% circa del contenuto materia-energia dell’Universo.

In realtà, da una vecchia nozione della fisica potrebbe derivare una spiegazione. Essa afferma che lo spazio vuoto è una sorta di oceano che ha la forma a ‘schiuma’ (post), completamente turbolento e riempito di coppie di particelle virtuali costituite di materia e antimateria e che appaiono e svaniscono istantaneamente in modo tale che risulta impossibile osservarle. Nonostante esse siano molto piccole, cioè entità quantistiche, Dragan Hajdukovic, un fisico teorico del CERN, ritiene che queste particelle virtuali possano avere delle cariche gravitazionali opposte simili alle cariche elettriche. In presenza di un campo gravitazionale, le particelle virtuali dovrebbero generare un campo di forze secondario che, nel caso delle galassie, potrebbe spiegare la discrepanza legata alla massa. Inoltre, l’idea di Hajdukovic spiegherebbe anche l’energia scura, quell’altra componente misteriosa che rappresenta circa il 73% del contenuto materia-energia dell’Universo e che si ritiene sia la causa dell’espansione accelerata dello spazio. Se le particelle virtuali avessero delle cariche gravitazionali, allora anche lo spaziotempo dovrebbe essere permeato di una piccola carica che farebbe allontanare tutte le galassie le une dalle altre. Per verificare come funziona la gravità su scala quantistica, Hajdukovic pensa di prendere in prestito, per così dire, un ‘trucco’ già utilizzato da Albert Einstein. A causa degli effetti gravitazionali presenti nel Sistema Solare, come le reciproche interazioni dovute agli altri pianeti, è noto dalla relatività generale che l’orbita ovale di Mercurio precede, ossia ruota molto lentamente. Einstein dimostrò che è proprio il campo gravitazionale del Sole che crea una curvatura dello spaziotempo influenzando così l’orbita di Mercurio. Secondo Hajdukovic, la gravità quantistica potrebbe determinare una discrepanza simile nelle orbite di corpi celesti più distanti. Ed è qui che interviene Eris e la sua luna Disnomia. L’enorme distanza a cui si trova il pianeta nano rispetto al Sole fa sì che gli effetti della relatività generale siano trascurabili. A queste distanze può essere valida la fisica newtoniana per cui si calcola un tasso di precessione dell’orbita di Disnomia di circa 13 secondi d’arco per secolo. Se, però, esistono gli effetti dovuti alla gravità su scala quantistica, il tasso di precessione dovrebbe essere di circa -190 secondi d’arco per secolo secondo i calcoli di Hajdukovic. Lo scienziato ritiene che per eseguire queste misure si potrebbero utilizzare gli attuali strumenti di osservazione sia da terra che dallo spazio. Dunque, se da un lato Einstein fu fortunato con il vicino pianeta Mercurio, dall’altro si può dire la stessa cosa con Hajdukovic la cui teoria potrebbe essere verificata osservando gli oggetti trans-nettuniani. Naturalmente c’è chi è scettico, come Gary Page della Longwood University in Farmville, Virginia, il quale sebbene non creda che le osservazioni da terra possano essere così sensibili da rivelare l’effetto ammira comunque lo sforzo del collega e il suo tentativo di verificare la validità o meno delle sue idee.

arXiv: Can observations inside the Solar System reveal the gravitational properties of the quantum vacuum?

Una possibile correlazione tra materia scura e massa inerziale

Nel 1933, Fritz Zwicky notò qualcosa di anomalo nella velocità delle galassie che fanno parte di un ammasso e propose l’esistenza di un eccesso di materia ‘invisibile’ per spiegare l’andamento osservato. In seguito, le ricerche condotte principalmente da Vera Rubin sulle curve di rotazione delle galassie a spirale suggerirono definitivamente la presenza di una componente di materia diversa da quella associata alle stelle o alle galassie e a cui venne dato il nome di materia scura (vedasi Idee sull’Universo).

Nonostante questa sembra essere la spiegazione più semplice per spiegare questi ed altri problemi, in realtà sono stati proposti diversi modelli alternativi. Michael McCulloch, della Plymouth University nel Regno Unito e specializzato in geomatematica, cioè la matematica del posizionamento nello spazio, ha proposto di recente un modello in cui se viene modificata la massa inerziale di una galassia è possibile tener conto dell’andamento anomalo delle velocità delle stelle verso le regioni più esterne della galassia, anche se tale descrizione viola il famoso principio di equivalenza di Einstein. In generale, esistono due modi di calcolare la massa di un oggetto. Uno consiste nel confrontare la forza di gravità su un oggetto di massa non nota con quella su un oggetto di massa nota. Questo metodo dà ad un oggetto una determinata massa gravitazionale. Il secondo metodo, che determina la massa inerziale, riguarda l’applicazione di una forza nota ad un oggetto la cui massa non è nota, la misura dell’accelerazione e quindi il calcolo della sua massa attraverso la seconda legge della dinamica: F = m x a. Nel 1907, Einstein propose che la massa gravitazionale e quella inerziale sono equivalenti derivando così il principio di equivalenza che sta alla base della teoria della relatività generale. Nonostante questo principio sia stato verificato molte volte, con una precisione elevata, alcuni scienziati hanno provato a violare, per così dire, il principio di equivalenza nel tentativo di spiegare le curve di rotazione galattica senza prendere in considerazione la materia scura. Nel 1983, Mordehai Milgrom propose una teoria, denominata Modified Newtonian Dynamics (MoND), dove è possibile modificare leggermente la costante di gravitazione universale o la seconda legge di Newton quando si considerano gli effetti dell’accelerazione gravitazionale su scale molto piccole. Secondo la teoria MoND, la velocità delle stelle in orbita circolare attorno al nucleo della galassia è costante e non dipende dalla distanza dal centro. Tuttavia, per far sì che la teoria funzioni occorre aggiustare alcuni parametri. Nel 2007, McCulloch propose un modello per spiegare l’appiattimento della rotazione galattica, un problema analogo alla seconda versione della teoria MoND perché si propone di modificare la massa inerziale di un oggetto quando si considerano accelerazioni molto piccole che deviano dalla legge di Newton. A differenza della teoria MoND, il modello di McCulloch non richiede la variazione di alcuni parametri. Ma entrambi i modelli violano il principio di equivalenza quando si considerano oggetti che subiscono accelerazioni molto piccole come quelle che si hanno verso le regioni più esterne di una galassia: qui l’accelerazione è estremamente piccola se confrontata con quella a cui è soggetta la Terra. Di fatto, i valori dell’accelerazione sulla superficie terrestre sono dell’ordine di 9.8 m/sec2 mentre verso le regioni più esterne di una galassia i valori stimati sono dell’ordine di 10-10 m/sec2. Con una accelerazione così piccola, un oggetto impiegherebbe quasi 320 anni per passare da uno stato di quiete e raggiungere una velocità di 1 m/sec, oppure quasi 9000 anni per passare da 0 Km/h a circa 100 Km/h o, come disse lo stesso Milgrom, un tempo pari alla vita stessa dell’Universo per avvicinarsi alla velocità della luce.

McCulloch va oltre e chiama il suo modello in un modo un pò complicato: Modification of Inertia resulting from a Hubble-scale Casimir effect (MiHsC) o, più brevemente, inerzia quantizzata. Secondo questo modello, per calcolare accuratamente la massa inerziale di un oggetto occorre considerare l’emissione dei fotoni, detta radiazione Unruh, che è il risultato della sua accelerazione rispetto alla materia circostante. L’esistenza della radiazione Unruh non è ancora chiara perché non è stata osservata sperimentalmente. Nel modello MiHsC, l’effetto Casimir su scale cosmologiche, che si può pensare come una sorta di energia del vuoto prodotta da particelle virtuali, impone dei limiti alla lunghezza d’onda della radiazione Unruh. In altre parole, man mano che l’accelerazione diminuisce, le lunghezze d’onda della radiazione Unruh si ‘allungano’ su scale cosmologiche e parte di esse scompaiono. Ora, dato che si assume che questa radiazione contribuisca alla massa inerziale, una diminuzione dell’accelerazione determina poche onde Unruh e quindi una graduale diminuzione della massa inerziale dell’oggetto. In generale, con una massa inerziale molto piccola, una stella può essere accelerata più facilmente dalla stessa forza di gravità in una orbita chiusa. “Il punto è che non solo si può aumentare la massa gravitazionale di una galassia per trattenere le stelle con una forza maggiore (materia scura) ma si può diminuire la massa inerziale delle stelle così che esse siano trattenute in orbite chiuse anche da una piccolissima forza di gravità dovuta alla materia visibile. Il nostro modello fa quest’ultima cosa”, spiega McCulloch. Assumendo che l’inerzia di una galassia è dovuta alla radiazione Unruh che è, a sua volta, soggetta all’effetto Casimir su scale cosmologiche, McCulloch ha derivato una relazione tra la velocità e la massa visibile di una galassia o di un ammasso di galassie, detta relazione Tully-Fisher. Prendendo in considerazione solo la massa barionica, cioè quella della materia visibile, McCulloch ha utilizzato la relazione Tully-Fisher per derivare la velocità di rotazione delle galassie nane, delle galassie a spirale e degli ammassi di galassie. Sebbene le misure sono sovrastimate da circa 1/3 a circa 1/2, i valori delle velocità osservate sono ancora contenuti entro gli errori. Questo modo di pensare, cioè se non puoi direttamente osservare allora non ci pensare, può sembrare strano ma fu utilizzato dallo stesso Einstein per discreditare il concetto di Newton sullo spazio assoluto e formulare la teoria della relatività. Ritornando al modello MiHsC, con queste accelerazioni molto basse le stelle non possono sentire le onde Unruh, iniziano a perdere rapidamente la loro massa inerziale e ciò permette ad una forza esterna di intervenire nuovamente per accelerarle. A questo punto, la loro accelerazione aumenta, le stelle vedono un numero sempre maggiore di onde Unruh, acquisiscono inerzia e cominciano a decelerare. La situazione di equilibrio si ha attorno ad un valore di accelerazione minima che secondo la teoria è prossima al valore attuale dell’accelerazione cosmica. Dunque, MiHsC permette di descrivere le curve di rotazione galattica entro un certo grado di incertezza senza ammettere l’aggiustamento di qualche parametro fisico. Certamente occorrerà verificare sperimentalmente la validità del modello MiHsC anche se viola il principio di equivalenza. “Se consideriamo le normali accelerazioni sulla Terra, il disaccordo tra il principio di equivalenza e il mio modello è minimo mentre diventa importante quando le accelerazioni diventano piccolissime come quelle che si hanno verso le regioni periferiche di una galassia”, dice McCulloch. “Gli esperimenti sull’equilibrio di torsione hanno permesso di verificare il principio di equivalenza fino a valori dell’ordine di 10-15 m/sec2 e non possono mostrare gli effetti previsti dal mio modello. Questo perché tali esperimenti rappresentano versioni molto più accurate dell’esperimento di Galileo in cui egli faceva cadere due oggetti di massa differente dalla Torre di Pisa. Se il principio di equivalenza è corretto, l’oggetto più pesante sarà soggetto ad una maggiore accelerazione gravitazionale dovuta alla massa gravitazionale della Terra, ma sarà difficile che tale accelerazione sia anche dovuta alla massa inerziale del pianeta, quindi i due oggetti dovrebbero cadere in maniera uguale. L’accelerazione anomala prevista dal mio modello dovuta alla differenza tra massa gravitazionale e inerziale è indipendente dalla massa degli oggetti così che essi dovrebbero cadere ancora in maniera uguale ma con una velocità leggermente maggiore di quanto ci si aspetta. Dunque gli effetti del modello MiHsC non possono essere rivelati in questo tipo di esperimenti”. Il modello MiHsC permette infine di fare una previsione verificabile e cioè che verso la parte periferica della galassia le accelerazioni rimangono al di sopra di un certo valore per controbilanciare l’andamento decrescente in funzione della distanza dal centro. Insomma, McCulloch sta cercando di eliminare alcune ambiguità che sorgono quando si introducono più spiegazioni per una stessa osservazione e per cui diventa difficile arrivare a conclusioni definitive. La prova ideale sarebbe un laboratorio dove si possono controllare le condizioni ed isolare le cause. McCulloch spera che le osservazioni spaziali future possano dare credito al suo modello.

Maggiori info: The Physics from the Edge

ArXiv: Testing quantised inertia on galactic scales