Più osserviamo l’Universo e più ci appare strano. Oggi, fisici e astronomi sono impegnati ad affrontare tutta una serie di ostacoli per comprendere alcuni aspetti sull’origine e il contenuto dell’Universo. Qui di seguito, esaminiamo con l’aiuto di alcuni scienziati cinque problematiche che sembrano inspiegabili e ci chiediamo che cosa si cela dietro di essi. Continua a leggere L’Universo sull’orlo di un precipizio
Archivi tag: teoria dei quanti
Le stranezze del mondo dei quanti
Un esperimento che mostra come delle gocce d’olio possono muoversi in un fluido grazie alle onde che esse generano ha portato i fisici a riconsiderare l’idea che qualcosa di simile può permettere alle particelle di comportarsi come delle vere e proprie onde. Continua a leggere Le stranezze del mondo dei quanti
L’origine delle probabilità secondo la meccanica quantistica
Dal giorno in cui il fisico austriaco Erwin Schroedinger ‘mise in gabbia’ il suo famoso gatto, i fisici poi hanno utilizzato la teoria dei quanti per spiegare il dualismo onda/particella che caratterizza il mondo degli atomi.
Oggi, grazie ad un articolo recente il professor Andreas Albrecht dell’Università della California, a Davis, sostiene che le cosiddette fluttuazioni quantistiche siano in realtà responsabili della probabilità di tutte le azioni, determinando così implicazioni importanti per i vari modelli cosmologici. La teoria dei quanti è una branca della fisica teorica che tenta di descrivere e prevedere le proprietà ed il comportamento delle particelle elementari. Una conseguenza della teoria è il fatto che le proprietà delle particelle non possano essere determinate con certezza finchè non le osserviamo, un processo che i fisici chiamano tecnicamente “collasso della funzione d’onda”. Il famoso esperimento mentale di Schroedinger permette di estendere questo concetto su lunghezze scala a cui siamo abituati. Un gatto viene intrappolato in una gabbia chiusa la quale contiene un veleno che viene liberato nel momento in cui un atomo radioattivo decade casualmente. Non possiamo affermare che il gatto sia vivo o morto senza aprire la gabbia. Schroedinger sosteneva che fino a che non viene aperta la gabbia e non si guarda al suo interno, il gatto si trova in uno stato ‘indeterminato’, cioè non può essere né vivo né morto. Ora, per molti questo è concetto difficile da accettare. Tuttavia, qualche anno fa Albrecht, in qualità di fisico teorico, concluse che questo è proprio il comportamento della probabilità su tutte le lunghezze scala, finchè non si è posto la domanda su quale potrebbe essere l’impatto che emerge da una situazione del genere nell’ambito della ricerca scientifica. “Sono arrivato a concludere che il modo con cui pensiamo alle fluttuazioni quantistiche e alla probabilità influenza il nostro modo di concepire i modelli che tentano di descrivere l’Universo”, spiega Albrecht. Una delle conseguenze importanti che derivano dalle fluttuazioni quantistiche è che ogni funzione d’onda collassata dà luogo a realtà differenti: ad esempio, una dove il gatto vive e un’altra dove il gatto muore. La realtà, così come noi la percepiamo, segue il suo corso attraverso questa serie di quasi infinite possibili alternative. Ci sono due modi attraverso i quali i teorici hanno cercato di avvicinarsi al problema di adattare, per così dire, la fisica quantistica al mondo reale: o si accetta il fatto che la realtà è costituita da molti mondi o universi multipli, oppure si deve assumere che c’è qualcosa di sbagliato o una lacuna nella teoria. Albrecht si basa sulla prima ipotesi. “Le nostre teorie cosmologiche affermano che la fisica quantistica funziona nel nostro Universo”. Ad esempio, le fluttuazioni quantistiche primordiali ci dicono perché si sono formate le galassie, una previsione che può essere confermata con le osservazioni dirette. Il problema con gli universi multipli è che se ne esistono davvero tanti diventa complicato ottenere delle risposte dalla fisica quantistica, come ad esempio il problema della massa del neutrino. “Don Page ha mostrato che le regole probabilistiche del mondo dei quanti non sono in grado di fornire delle risposte alle domande fondamentali nel caso in cui consideriamo un vasto multiverso dove noi stessi non sappiamo in quale dei tanti singoli universi esistiamo”. Un tentativo di rispondere a questo quesito nasce dalla possibilità di aggiungere, per così dire, un ingrediente alla teoria: cioè un insieme di numeri che ci indicano quale è la probabilità che esistiamo in ogni singolo universo. Questa informazione può essere combinata con la teoria dei quanti da cui è possibile ottenere delle equazioni matematiche per derivare anche la massa del neutrino. “Ma non così facilmente” dice Albrecht. “Perché il nostro concetto di probabilità non ha alcuna base nella teoria dei quanti”. Se tutta la probabilità è di fatto la teoria dei quanti, allora tutto ciò non può essere fatto. Insomma, i singoli universi non possono essere descritti con l’attuale teoria dei quanti rispetto a quanto è stato assunto finora. “Queste considerazioni ci portano a ritenere che, forse, esistono vari tipi di probabilità, che si combinano e si confondono e per cui diventa necessario tenerle separate”, conclude Albrecht.
UCDavis: Does probability come from quantum physics?
arXiv: Origin of probabilities and their application to the multiverse
Qual è la natura dei quanti: analogica o digitale?
Le teorie quantistiche affermano spesso che la realtà è caratterizzata da piccolissime entità puntiformi. Ma un approccio più vicino alle leggi della natura suggerisce, invece, che il mondo fisico possa essere in definitiva di tipo analogico piuttosto che digitale.
Circa un anno fa, il Foundational Questions Institute propose un sondaggio in cui chiedeva a fisici e filosofi: secondo Voi, la realtà fisica ha una natura digitale o analogica? Ci si aspettava una risposta predominante verso la natura digitale della realtà perché di fatto il termine “quanto” vuol dire, nella fisica quantistica, “discreto” e perciò “digitale”. Ma parecchie spiegazioni, però, si sono spostate sull’altro aspetto e cioè sul fatto che il mondo abbia una natura analogica. I sostenitori del digitale, per così dire, insistono comunque sul fatto che le quantità continue appaiono discrete se vengono osservate molto da vicino: queste entità sono situate in una sorta di griglia spaziata che dà l’illusione di una sequenza continua, come ad esempio i pixel dello schermo di un computer. Tuttavia, questa idea della natura discreta, a pixel appunto, dello spazio contraddice almeno una delle proprietà della natura e cioè l’asimmetria tra le versioni sinistrorse e destrorse delle particelle elementari. Verso la fine del 19° secolo, il matematico tedesco Leopold Kronecker affermava: “Dio ha creato i numeri interi, tutto il resto è opera dell’uomo”. Egli credeva che i numeri giocano un ruolo fondamentale nella matematica. Ma per i fisici di oggi, quella affermazione acquista un significato diverso poiché è opinione sempre più comune che la natura sia fondamentalmente discreta, cioè che i mattoni fondamentali della materia e dello spaziotempo si possano, come dire, contare uno a uno. Questa idea risale agli antichi greci e successivamente ha acquistato una ulteriore risonanza nell’era digitale. Molti fisici credono che la realtà possa essere descritta da una situazione simile a quella di un computer che è costituito da una serie discreta di bit d’informazione, mentre le leggi della fisica sono l’algoritmo, per così dire, un pò come la cascata dei numeri verdi che si vedono nel film Matrix. Ma allora chi avrà ragione?
Di che cosa è fatta la luce: onde o particelle?
Si tratta di una delle domande fondamentali che ha da sempre affascinato i fisici sin da quando è nata la scienza sperimentale. La meccanica quantistica afferma che i fotoni, cioè le particelle di luce, sono particelle e onde simultaneamente. Oggi, alcuni fisici dell’Università di Bristol danno una nuova dimostrazione del dualismo onda-particella che è stato descritto da Richard Feynman come ‘uno dei misteri reali della meccanica quantistica’.
La storia della Scienza è stata caratterizzata da un intenso dibattito in merito al dualismo onda-particella. Isaac Newton fu un grande ammiratore della teoria particellare mentre James Clerk Maxwell dava credito alla versione ondulatoria della luce. Le cose cambiarono nettamente nel 1905, quando Albert Einstein dimostrò che era possibile spiegare l’effetto fotoelettrico assumendo che la luce è composta di particelle: i fotoni. Questa scoperta ebbe un grosso ritorno nella Fisica dato che contribuì più tardi allo sviluppo della meccanica quantistica, la più accurata delle teorie scientifiche mai formulata. Nonostante il suo successo, quello della meccanica quantistica è un mondo decisamente bizzarro e dove i fenomeni fisici vanno contro il senso comune. Ad esempio, la teoria quantistica afferma che una particella, un fotone, si può trovare in punti diversi nello stesso istante, esattamente come un’onda. Da qui la nozione del dualismo onda-particella che è alla base di tutti i sistemi quantistici. Ma in maniera sorprendente, quando un fotone viene osservato esso si comporta sia come una particella che come un’onda. Tuttavia, entrambi gli aspetti non sono ma stati osservati simultaneamente. Il fotone esibisce l’uno o l’altro aspetto in funzione del tipo di misura che viene eseguita. Ora questi fenomeni così peculiari sono stati analizzati sperimentalmente negli ultimi anni utilizzando delle apparecchiature che permettono di scambiare le misure favorendo la natura particellare e ondulatoria della luce. Di recente, un gruppo di ricercatori dell’Università di Bristol hanno realizzato un nuovo esperimento che è in grado di misurare simultaneamente il comportamento particellare e ondulatorio della luce. Lo strumento si basa sul principio di non località, un altro aspetto decisamente bizzarro della meccanica quantistica. I risultati dell’esperimento, apparsi su Science, dimostrano una forte non località, in altre parole il fotone si comporta contemporaneamente come un’onda e una particella e permettono così di scartare quei modelli in base ai quali il fotone viene considerato o come un’onda oppure come una particella.
[Press release: Bristol scientists perform new experiment to solve the ‘one real mystery’ of quantum mechanics]
Un esperimento di entanglement quantistico per lo studio dello spaziotempo
Alcuni fisici hanno proposto un esperimento per verificare quali sono le previsioni della meccanica quantistica quando si tenta di descrivere le proprietà dello spaziotempo. La proposta arriva da un gruppo internazionale di ricercatori provenienti dalla Svizzera, dal Belgio, dalla Spagna e da Singapore e si basa sulla disuguaglianza denominata “hidden influence inequality”.
“Siamo interessati a capire se possiamo spiegare alcuni fenomeni fisici senza sacrificare il nostro senso comune delle cose che avvengono in uno spaziotempo continuo e regolare a cui siamo abituati” spiega Jean-Daniel Bancal del Centre for Quantum Technologies. Il fatto interessante è che sembra esistere una prospettiva reale per realizzare un tale esperimento. Sin da quando venne introdotta agli inizi degli anni ’20, la teoria dei quanti prevede un comportamento bizzarro delle particelle elementari, come ad esempio l’entanglement quantistico di due particelle che si comportano come se fossero una sola anche quando si trovano a grandi distanze. Questo fenomeno sembra violare il nostro senso comune di causa ed effetto, un comportamento che i fisici chiamano ‘non locale’. Inizialmente fu Einstein che mise l’attenzione sulle preoccupanti implicazioni di quanto previsto dalla meccanica quantistica e che egli stesso definì come “una azione fantasma a distanza”. Negli anni ’60, John Bell propose il primo esperimento per verificare se il fenomeno dell’entanglement quantistico avesse effettivamente senso. Il test, denominato “disuguaglianza di Bell”, permette di verificare se il comportamento di due particelle dipenda da alcune condizioni iniziali nascoste. Secondo Bell, nessuna teoria fisica locale e deterministica a variabili nascoste può riprodurre le previsioni della meccanica quantistica. Se le misure violano la disuguaglianza di Bell, allora coppie di particelle possono fare ciò che vogliono in base ai principi della meccanica quantistica. Successivamente, a partire dagli anni ’80, vari esperimenti hanno trovato ripetutamente la violazione della disuguaglianza di Bell dando così ragione alla teoria dei quanti. Tuttavia, una serie di altri esperimenti convenzionali sulle disuguaglianze di Bell non hanno eliminato del tutto la speranza di contravvenire ai principi della relatività. Alcuni test hanno già dimostrato che nel caso in cui si prendono in considerazione i segnali luminosi per descrivere i fenomeni fisici, si trova che essi dovrebbero propagarsi con una velocità superiore a quella della luce, addirittura con un fattore di dieci mila volte superiore. Ma questo crea un grosso problema per la teoria della relatività di Einstein dato che la velocità della luce rappresenta, come tutti sappiamo, una costante universale e quindi un limite invalicabile. Nonostante ciò, i fisici hanno trovato una scappatoia: tali segnali potrebbero rappresentare delle cosiddette “variabili nascoste” utili a nulla e perciò non violare i principi della relatività. Però, quando consideriamo il regime quantistico questa disuguaglianza si dimostra non vera. Ad esempio, per derivare la disuguaglianza di Bell nel caso dell’entanglement di quattro particelle, i ricercatori hanno considerato tutti i possibili comportamenti delle quattro particelle che sono connesse da certe variabili nascoste e che si muovono con velocità finite. Da un punto di vista matematico, queste variabili nascoste definiscono un sistema a 80 dimensioni. L’area di verificabilità della disuguaglianza di Bell è definita dal bordo sotteso dall’ombra in uno spazio a 44 dimensioni proiettata dal sistema a 80 dimensioni. I ricercatori hanno dimostrato che le previsioni della meccanica quantistica possono stare al di fuori di questa regione d’ombra il che vuol dire che si sta andando contro una delle assunzioni. In altre parole, al di fuori di questa regione, le variabili non possono rimanere più nascoste oppure devono essere dotate di una velocità infinita. La domanda è: cosa succede se viene confermata la natura quantistica del nostro mondo? Cosa vuol dire? Abbiamo due scelte: la prima sembra sfidare la relatività e rendere visibili le variabili nascoste, il che implica accettare una comunicazione in cui i segnali luminosi si propagano con velocità superiori a quella della luce; la seconda vuole che le variabili nascoste siano infinitamente veloci oppure che debba esistere qualche processo che ha un effetto equivalente quando viene osservato nel nostro spaziotempo. Il test attuale non è in grado di fare la distinzione. Comunque sia, in entrambi i casi ciò implicherebbe che l’Universo sia fondamentalmente non locale nel senso che ogni bit di Universo può essere connesso istantaneamente ad ogni altro bit situato in un’altra parte dello spazio. Certamente si tratta di soluzioni estreme che vanno al di là del nostro senso comune ma sono preferibili al caso in cui la comunicazione tra due eventi avviene con una velocità superiore a quella della luce. Insomma, i risultati di questo esperimento rafforzano l’idea in base alla quale le correlazioni quantistiche sorgono in qualche modo al di fuori dello spaziotempo, nel senso che nessuna storia nello spazio e nel tempo può descriverle.
Blog: Spreadquantum
[Press release: Looking beyond space and time to cope with quantum theory]
J-D. Bancal, S. Pironio, A. Acín, Y-C. Liang, V. Scarani & N. Gisin (2012). Quantum non-locality based on finite-speed causal influences leads to superluminal signalling Nature Physics DOI: http://dx..org/10.1038/NPHYS2460
Jean-Daniel Bancal, Stefano Pironio, Antonio Acin, Yeong-Cherng Liang, Valerio Scarani, Nicolas Gisin (2012). Quantum nonlocality based on finite-speed causal influences leads to superluminal signaling Nature Physics arXiv: arXiv:1110.3795
L’ipotesi delle ‘bolle cosmiche’ secondo George Ellis
Una delle priorità della moderna cosmologia è lo studio dell’energia scura, quella misteriosa forza che sta determinando una espansione accelerata dell’Universo e di cui gli astronomi ignorano ancora la sua natura. Sebbene siano state avanzate varie ipotesi sulla sua origine, di recente il cosmologo George Ellis, dell’Università di Cape Town, ha proposto uno scenario alternativo secondo il quale l’energia scura sarebbe solo un falso effetto dovuto semplicemente alla nostra speciale posizione che occupiamo all’interno di un gigantesco vuoto cosmico, detto anche ‘bolla cosmica’.
Cominciamo prima a vedere le varie ipotesi che sono state avanzate sull’energia scura. La prima risale al 1917 quando Albert Einstein, per evitare il collasso gravitazionale del suo Universo, aveva introdotto nelle equazioni della relatività generale una proprietà dello spazio aggiungendo un termine, chiamato costante cosmologica, che avrebbe stabilizzato l’effetto della gravità mediante l’azione di una forza repulsiva, una sorta di forza antigravitazionale, che agisse su larga scala permeando tutto lo spazio cosmico. Una seconda ipotesi deriva dalla natura quantistica dello spazio quando consideriamo le scale subatomiche. Qui gli effetti quantistici diventano significativi e può succedere che coppie virtuali di particelle-antiparticelle emergano spontaneamente dal vuoto, esistono per un brevissimo intervallo di tempo e poi scompaiono rapidamente. Questo ci dice che lo spazio vuoto non è effettivamente vuoto. Ora, dato che queste particelle virtuali possono riempire lo spazio con una quantità di energia diversa da zero, si è trovato che tutte le misure e le stime della quantità di energia dello spazio vuoto portano a valori decisamente assurdi che vanno da 55 a 120 ordini di grandezza maggiori dell’energia associata a tutta la materia e alla radiazione presenti nell’Universo osservabile. Ciò implica che se l’energia del vuoto avesse realmente quei valori, tutta la materia presente nell’Universo si disperderebbe istantaneamente. Quale effetto avrebbe una tale costante cosmologica? Se veramente il valore della costante cosmologica fosse davvero grande come previsto dalla teoria dei quanti, lo spazio si espanderebbe così rapidamente che la luce dovuta, ad esempio, ai fotoni che provengono dalla mano non raggiungerebbe mai i nostri occhi. Insomma, una accelerazione di proporzioni epiche potrebbe distruggere qualsiasi cosa, dagli atomi alle galassie, e la fine dell’Universo sarebbe quella di un colossale Big Rip. Un terzo aspetto è stato analizzato da Paul Dirac. Egli riteneva che certe quantità fisiche avrebbero potuto variare con il passare del tempo ed essere perciò o troppo grandi o troppo piccole se misurate oggi. La costante cosmologica potrebbe essere un esempio di questa variabilità temporale, in altre parole potrebbe non essere una costante. Per descrivere questa forma di energia variabile nel tempo, Robert Caldwell, Rahul Dave e Paul Steinhardt hanno introdotto il termine quintessenza, ossia “quinto elemento” dall’idea che avevano gli antichi filosofi greci secondo i quali l’Universo era composto da quattro elementi, aria, acqua, terra e fuoco, più una sostanza effimera che impediva alla Luna e ai pianeti di cadere al centro della sfera celeste. Ma per i cosmologi moderni, il termine quintessenza si riferisce ad un campo quantistico dinamico che causa una repulsione gravitazionale. Secondo questa ipotesi, la costante cosmologica evolve nel tempo e si aggiusta, per così dire, fino ad assumere il valore che possiede oggi, determinando una sorta di “stiramento” dello spaziotempo, come quando un elastico viene appunto tirato, e un aumento di volume dello spazio causando una accelerazione all’espansione dell’Universo che prevale quindi a discapito del campo gravitazionale dovuto alla materia. Ma forse l’energia scura non esiste affatto e quello che misuriamo è solo un effetto locale dovuto al fatto che la nostra posizione nella Galassia si trova in una regione particolare dello spazio. E’ ciò che ha proposto George Ellis secondo il quale ci troviamo in una sorta di “bolla cosmica”, ossia un gigantesco vuoto cosmico dove la densità di materia ivi presente è mediamente inferiore rispetto allo spazio circostante. Ora dato che l’Universo si espande in funzione della quantità di materia che, a sua volta, determina un effetto di attrazione gravitazionale frenando l’espansione dello spazio, si ha che più è vuota una regione dello spazio e meno materia esso contiene per rallentare l’espansione. Dunque il tasso di espansione locale dell’Universo diventerà maggiore che altrove e diminuirà in prossimità dei bordi della bolla dove gli effetti della densità di materia diventano più significativi. Quindi, certe regioni dello spazio si espanderanno con velocità diverse così come succede ai palloncini delle feste che non si gonfiano in maniera uniforme. Sebbene questa ipotesi sia alquanto intrigante, tuttavia alcuni scienziati sembrano scettici in merito all’esistenza di giganteschi vuoti cosmici poiché non si spiegherebbe, per esempio, l’uniformità della radiazione cosmica di fondo per non parlare poi della distribuzione apparentemente uniforme delle galassie. Nel primo caso, affinché la radiazione cosmica sia compatibile con la presenza di una regione vuota, dovremmo assumere un vuoto cosmico sferico e con la Terra al suo centro. Nel secondo caso, invece, le osservazioni con gli attuali strumenti non sono abbastanza profonde da confermare, definitivamente o meno, l’esistenza di un vuoto di dimensioni tali da produrre gli effetti attribuiti all’energia scura. Dunque si spera che i prossimi dati del satellite Planck ci forniranno dei limiti più forti sull’anisotropia della radiazione cosmica di fondo che serviranno per verificare l’esistenza di eventuali bolle cosmiche.
Maggiori info: Idee sull’Universo