La cosmologia, da Einstein al Timescape.
ΛCDM VS Timescape.
Figure 1: Rappresentazione artistica del modello timescape. Credits: Emiliano Girina. [7]
Il contesto storico.
L’idea che l’universo sia in espansione è oggi ampiamente accettata, sia nella comunità scientifica che tra il pubblico generalista e gli appassionati di scienza. Tuttavia, questo "fatto" non è privo di controversie, né di scheletri nell'armadio. Anzi, forse oggi più che mai, continua a essere fonte di accesi dibattiti all’interno di entrambi gli ambienti.
Per comprendere le radici di questa storia, bisogna partire da Λ (Lambda). Tutto ha origine nella mente di un impiegato dell’ufficio brevetti di Berna, in Svizzera. Più precisamente, un certo Albert Einstein, all’epoca impiegato come esperto tecnico di terza classe presso l'Ufficio Federale della Proprietà Intellettuale (Eidgenössisches Amt für geistiges Eigentum) [1] .
Nel 1915, Einstein completò un articolo scientifico intitolato Die Grundlage der allgemeinen Relativitätstheorie (Le fondamenta della teoria della relatività generale), pubblicato l'anno successivo, nel 1916, sul settimo numero della prestigiosa rivista Annalen der Physik [2] .
I tempi erano maturi per questa nuova teoria: i vari tasselli del puzzle erano già stati individuati separatamente da altri studiosi, ma fu Einstein il primo a formulare correttamente l’intero quadro e a coglierne il significato fisico profondo. Da qui, l’avventura della relatività generale – e con essa la storia della cosmologia moderna – ebbe ufficialmente inizio.
Einstein, per quanto geniale, era figlio del suo tempo e, come molti suoi contemporanei, credeva in un universo stazionario. Tuttavia, quando si rese conto che la sua teoria della relatività generale descriveva inevitabilmente un universo dinamico, introdusse un fattore ad hoc per correggere quello che riteneva essere un errore.
Quel fattore era Λ (Lambda), rappresentato dall’undicesima lettera dell’alfabeto greco. Senza di esso, un universo dinamico avrebbe dovuto collassare su se stesso sotto l’azione della gravità. Per evitare questo scenario, Einstein ipotizzò l’esistenza di una forza legata al vuoto che agisse come una pressione negativa—una sorta di antigravità—capace di contrastare l’attrazione gravitazionale e mantenere l’universo in equilibrio statico.
Nel 1929, Edwin Powell Hubble rivoluzionò la cosmologia con una delle scoperte più importanti della storia della scienza: l’universo è in espansione. Questa osservazione mise definitivamente in crisi il concetto di universo stazionario, segnando un punto di svolta nella nostra comprensione del cosmo.
Analizzando lo spettro della luce proveniente da numerose galassie, Hubble notò che esse si allontanavano da noi a una velocità tanto maggiore quanto più erano lontane. Questo fenomeno, noto come legge di Hubble, suggerisce che lo spazio stesso si stia espandendo. La velocità di recessione delle galassie, misurata in chilometri al secondo per megaparsec, è direttamente proporzionale a una costante oggi nota come costante di Hubble.
Prima di procedere, è fondamentale comprendere che la misurazione delle distanze in astronomia rappresenta una delle sfide più complesse e ancora in continua evoluzione. Per chi volesse approfondire, ne ho scritto qui [4] .
Determinare la velocità di recessione di una galassia richiede prima di tutto di stabilire la sua distanza da noi, e questa misura, a sua volta, dipende da una lunga catena di calibrazioni basate su altri metodi di misurazione. Ogni anello di questa catena è frutto di sorprendenti scoperte, spesso ingegnose, e di continue innovazioni tecnologiche e teoriche.
Le misurazioni delle distanze nell’universo vicino (o tardivo, ovvero quello più recente) sono state rese possibili grazie alle stelle cefeidi, un particolare tipo di stelle variabili (in realtà esistono più tipi, ma questa è un’altra storia). Il loro periodo di variabilità è direttamente correlato alla loro luminosità assoluta. Se conosciamo la luminosità assoluta di un oggetto, possiamo confrontarla con la luminosità apparente misurata e, applicando la legge dell’inverso del quadrato della distanza, possiamo calcolarne la distanza. Ovviamente, questo processo è soggetto a errori strumentali e sistematici, ma rappresenta una delle basi fondamentali della cosmologia osservativa.
Tuttavia, in astronomia il concetto di distanza non è sempre equivalente a quello intuitivo della vita quotidiana. Oltre una certa soglia e in determinate condizioni (non esiste un limite netto), la nozione classica di distanza perde di significato a causa di effetti relativistici e cosmologici. Per questo motivo, gli astronomi spesso preferiscono esprimere le distanze in termini di z, il redshift, una misura dello spostamento della lunghezza d’onda della luce emessa dalla sorgente rispetto a quella osservata.
Le misurazioni del tasso di espansione dell’universo giovane si basano principalmente sull’osservazione delle supernovae di tipo Ia (leggasi: uno a). Questi eventi esplosivi, analogamente alle cefeidi, fungono da candele standard, ma per ragioni completamente diverse. Una candela standard è un oggetto la cui magnitudine assoluta è costante e ben determinata, permettendo di calcolarne la distanza confrontando la luminosità intrinseca con quella apparente.
Tuttavia, questa solida pietra miliare dell’astronomia si è presto trasformata in un segnavia verso un bivio inaspettato. Secondo i modelli tradizionali, l’evoluzione dell’universo dipende dalla sua densità di massa:
Se la densità è inferiore a una certa soglia critica, l’universo continuerà a espandersi indefinitamente.
Se è superiore, la gravità finirà per avere il sopravvento e l’universo collasserà su se stesso in un Big Crunch.
Se la densità è esattamente uguale alla soglia critica, l’espansione rallenterà asintoticamente senza mai fermarsi completamente.
Ma i dati raccontano una storia diversa: l’universo non solo si sta espandendo, ma il tasso di espansione sta accelerando.
Un’analogia utile è quella di un sasso lanciato in aria. Ci si aspetterebbe che la sua velocità verticale diminuisca gradualmente fino a raggiungere il punto più alto della parabola, per poi invertirsi sotto l’azione della gravità. Se il sasso venisse lanciato con sufficiente forza, potrebbe raggiungere la velocità di fuga, sfuggendo all’attrazione terrestre e proseguendo all’infinito con velocità costante (in un universo ipotetico senza altre fonti gravitazionali). Ma ciò che si è osservato nell’universo è qualcosa di ancora più strano: è come se, dopo il lancio, il sasso iniziasse improvvisamente ad accelerare spontaneamente.
Questo fenomeno è esattamente ciò che sta accadendo allo spaziotempo: dopo essere stato “scaraventato” via dal Big Bang, sta accelerando come se fosse sospinto da una forza invisibile. Questa forza misteriosa è ciò che oggi chiamiamo energia oscura.
Fu così che la costante cosmologica di Einstein, dopo essere stata scartata, rientrò trionfalmente dalla porta principale, nonostante lo stesso Einstein l’avesse definita "il più grande errore della sua vita".
Ho accennato alle misurazioni di H₀ nell’universo giovane e in quello tardivo. Fin dall’inizio, questi due valori risultavano in disaccordo, ma poiché le relative barre di errore si sovrapponevano, si confidava che con il miglioramento delle tecnologie, l’analisi dei dati e l’ampliamento del campione, le due misure sarebbero infine convergenti.
Tuttavia, sebbene tutti i miglioramenti auspicati si siano effettivamente realizzati, con grande sorpresa dei cosmologi le due misure, anziché avvicinarsi, hanno continuato a divergere. La discrepanza è diventata talmente marcata che non era più possibile ipotizzare che entrambe fossero corrette allo stesso tempo.
Il modello ΛCDM.
A questo punto possiamo introdurre il modello cosmologico che oggigiorno è il più performante e adottato dalla comunità scientifica: il modello ΛCDM; da leggere lambda-CDM, in cui Λ (Lambda) rappresenta la costante cosmologica e CDM sta per Cold Dark Matter (materia oscura fredda.
Figura 1: Calibrazioni completamente indipendenti di H0. In rosso è mostrata la funzione di densità di probabilità basata sulla calibrazione LMC CCHP TRGB di CSP-I SNe Ia; in blu è la calibrazione Cefeide di H0 (Riess et al. 2016) utilizzando le parallassi della Via Lattea e la distanza maser da NGC 4258 come ancora (esclusa la LMC). Il valore di Planck di H0è mostrato in nero. In blu il valore di H0, anch’esso con lo storico, misurato a partire dalla cefeidi. [3]
Credits: Freedman, Wendy L., et al. "The Carnegie-Chicago Hubble program. VIII. An independent determination of the Hubble constant based on the tip of the red giant branch." The Astrophysical Journal 882.1 (2019): 34.
Per funzionare, questo modello si basa su due assunzioni fondamentali: che l’universo sia omogeneo e isotropo.
Omogeneo significa che, su scale sufficientemente grandi, ogni sua porzione di volume è statisticamente identica alle altre.
Isotropo significa che, indipendentemente dalla direzione in cui lo si osserva, l’universo appare uguale.
Questi due principi, combinati, sono noti come principio cosmologico.
Tuttavia, grazie ai moderni progetti di mappatura dell’universo su grandissima scala, sappiamo oggi che almeno l’omogeneità non è garantita. L’universo, infatti, non è distribuito uniformemente, ma si presenta come una sorta di spugna cosmica, composta da enormi vuoti (voids), con la materia concentrata sulle superfici di contatto tra questi spazi vuoti, formando strutture filamentose che delineano la rete cosmica (cosmic web). [6]
Figura 2: La figura mostra la distribuzione della materia oscura della simulazione Uchuu a z=0. Il pannello superiore mostra una sezione di 2000 h-1 Mpc × 1333 h-1 Mpc con uno spessore di 25 h-1Mpc, a questa scala la ragnatela cosmica è ben evidente. I tre pannelli inferiori sono ingrandimenti del più grande alone nella scatola a diversi livelli di zoom:
il primo in basso a sinistra mostra una regione di 250 h-1Mpc
il secondo a destra del primo mostra un ingrandimento a 38 h-1Mpc
il terzo in basso a destra mostra un ulteriore ingrandimento a 9,4 h-1Mpc
L'unità "h-1 Mpc" è una misura di distanza cosmologica dove Mpc sta per megaparsec e h è un parametro adimensionale legato al tasso di espansione dell'universo
Questo modello, basato sulla metrica FLRW (Friedmann-Lemaître-Robertson-Walker), incorpora un certo valore di velocità peculiari, ovvero deviazioni dal flusso di Hubble dovute a fenomeni gravitazionali locali e al moto proprio delle grandi strutture. Tuttavia, questi effetti non sono sufficienti a spiegare le discrepanze nella tensione di Hubble, né l’espansione accelerata dell’universo.
Il modello ΛCDM presenta numerosi vantaggi: riproduce con successo molte osservazioni, comprese le oscillazioni acustiche barioniche (BAO), di cui accennerò più avanti. Tuttavia, non è privo di problemi, il principale dei quali è la necessità di introdurre componenti esotiche, come la materia oscura e l’energia oscura.
La materia oscura è meno problematica dal punto di vista epistemologico, poiché la sua esistenza è supportata da diverse osservazioni indipendenti di natura non cosmologica, come le curve di rotazione delle galassie e gli effetti di lente gravitazionale. L’energia oscura, invece, non trova alcuna giustificazione osservativa al di fuori della necessità di far quadrare questo modello, assumendo così il carattere di un fattore ad hoc.
Per affrontare questi problemi, sono stati proposti diversi modelli MOND (MOdified Newtonian Dynamics). MOND è un termine ombrello che raccoglie una serie di teorie accomunate dall’idea di modificare la legge di gravitazione universale di Newton, al fine di spiegare le anomalie osservate senza ricorrere alla materia oscura.
Tuttavia, ad oggi, tutti i modelli MOND si sono rivelati insoddisfacenti, poiché, pur riuscendo a descrivere alcuni dati osservativi, falliscono nel prevederne altri in modo coerente. Questa mancanza di universalità li rende modelli ancora poco competitivi rispetto al paradigma standard della cosmologia.
Figura 3: Questo grafico mostra come le misurazioni delle fluttuazioni di temperatura e polarizzazione della CMB corrispondono alle previsioni dei modelli cosmologici standard. Le curve teoriche servono come riferimento per valutare la coerenza dei dati sperimentali con la nostra comprensione attuale dell'universo.
Credits: NASA / LAMBDA Archive Team [10]
Il modello timescape.
Recentemente si è però affacciato sul palcoscenico un nuovo modello molto promettente noto come timescape. [8][9] Il nome è molto evocativo ed è l’equivalente spaziale di un panorama (landscape) in quanto tiene presente, e ha come fondamento, le differenze temporali in diversi luoghi dell’universo; quindi è un panorama temporale. Fra poco tutto sarà più chiaro.
I vantaggi del modello Timescape
Uno dei principali pregi di questo modello è la sua semplicità concettuale. A differenza del modello ΛCDM, il Timescape non necessita né dell’energia oscura né dell’assunzione di un universo perfettamente omogeneo. O, per essere più precisi, non richiede un’omogeneità estrema e semplificata come quella postulata dal ΛCDM.
Anzi, il Timescape sfrutta proprio le disomogeneità dell’universo, ovvero i grandi vuoti cosmici e i filamenti di materia, per arrivare alle stesse conclusioni del modello standard. Se si applicasse rigorosamente il rasoio di Occam, questo modello risulterebbe preferibile, essendo più essenziale e privo di ipotesi aggiuntive non necessarie.
Dilatazione temporale gravitazionale e dinamica dell’espansione
Un elemento chiave del modello Timescape è il ruolo della dilatazione temporale gravitazionale, ossia la variazione del flusso temporale in funzione dell’intensità del campo gravitazionale in una data regione dello spazio. Questo principio si inserisce perfettamente nella relatività generale einsteiniana, una teoria consolidata e verificata sperimentalmente.
Secondo la relatività generale (e le osservazioni lo confermano), il tempo scorre più lentamente in presenza di campi gravitazionali intensi. Al contrario, nelle regioni a bassa densità di materia, il tempo scorre più velocemente.
Questa differenza si traduce in effetti osservabili sul redshift gravitazionale dei fotoni:
Attraversando regioni dense (filamenti cosmici), i fotoni subiscono un blueshift (spostamento verso lunghezze d’onda più corte).
Attraversando i grandi vuoti, i fotoni subiscono un redshift (spostamento verso lunghezze d’onda più lunghe).
A prima vista, si potrebbe pensare che questi due effetti si annullino a vicenda, rendendo il contributo complessivo nullo. Tuttavia, il modello Timescape risponde a questa obiezione introducendo una descrizione dinamica dell’evoluzione di queste regioni.
L’espansione differenziale dell’universo
I vuoti cosmici, essendo regioni a bassa densità, sono di fatto più "vecchi" rispetto ai filamenti di materia. Man mano che l’universo invecchia, questa differenza diventa sempre più marcata, poiché nei vuoti il tempo scorre più velocemente, permettendo loro di espandersi più rapidamente rispetto alle regioni dense.
Col passare del tempo, i vuoti dominano progressivamente l’evoluzione cosmologica, in modo analogo a come, nel modello ΛCDM, l’energia oscura (essendo proporzionale al volume dello spazio) diventa sempre più influente rispetto alla gravità.
Abbiamo quindi un universo in espansione differenziale, in cui il contributo dei vuoti (redshift) diventa via via più importante rispetto a quello delle regioni dense (blueshift).
Due prospettive di uno stesso fenomeno
In sintesi, il modello Timescape e il modello ΛCDM descrivono lo stesso fenomeno attraverso due punti di vista diversi:
Nel ΛCDM, l’energia oscura è la causa dell’accelerazione dell’espansione.
Nel Timescape, l’accelerazione deriva dalla dilatazione temporale e dall’espansione differenziale dei vuoti cosmici.
Questo permette al Timescape di riprodurre molte delle previsioni del modello standard, ma senza introdurre entità non osservabili come l’energia oscura.
Il modello cosmologico ΛCDM (Lambda Cold Dark Matter) concorda con l'idea di una Scala di Omogeneità Statistica (SHS), un concetto fondamentale in cosmologia che definisce la scala spaziale oltre la quale l'Universo può essere considerato statisticamente omogeneo. In altre parole, su scale superiori all'SHS, la distribuzione della materia nell'Universo appare uniforme, senza grandi variazioni di densità. Secondo le stime attuali, l'SHS si colloca tra i 100 e i 200 milioni di parsec, sebbene questo valore possa variare a seconda dei metodi di misurazione utilizzati.
Tuttavia, l'SHS non è priva di limiti. Recenti osservazioni astronomiche hanno rilevato la presenza di strutture su scale spaziali ben più estese di quelle previste dall'SHS, mettendo in discussione l'effettiva omogeneità dell'Universo su grandi scale. Queste scoperte sollevano interrogativi sulla validità del modello ΛCDM e sulla nostra comprensione della struttura su larga scala del cosmo.
È importante notare che la determinazione dell'SHS e l'interpretazione dei dati osservativi sono soggette a diverse incertezze e bias. Uno dei più noti è la distorsione di Malmquist, un effetto statistico che si verifica quando un campione di oggetti astronomici viene selezionato in base alla loro luminosità apparente. Questo fenomeno, descritto per la prima volta dall'astronomo svedese Gunnar Malmquist negli anni '20 del XX secolo, può portare a sottostimare le distanze delle galassie più remote, influenzando così la costruzione del diagramma di Hubble e, di conseguenza, la stima dell'SHS.
In conclusione, mentre il modello ΛCDM fornisce un quadro coerente per comprendere l'evoluzione e la struttura dell'Universo, concetti come l'SHS e le osservazioni su scale più ampie evidenziano la necessità di affinare ulteriormente i nostri modelli e metodi di analisi. La presenza di bias osservativi, come la distorsione di Malmquist, sottolinea l'importanza di approcci multidisciplinari e di tecniche di correzione dei dati sempre più sofisticate.
In sintesi, il modello timescape (che qui, per una volta, chiameremo "cronorama") si distingue per la sua semplicità e precisione, offrendo una soluzione elegante all'annoso problema della tensione di Hubble. Quest'ultima, che rappresenta la discrepanza tra le misurazioni locali e quelle cosmiche della costante di Hubble, è uno dei maggiori enigmi della cosmologia moderna. Tuttavia, nonostante i suoi vantaggi, il modello "cronorama" deve ancora essere sottoposto a un rigoroso processo di falsificabilità prima di poter essere considerato un'alternativa credibile al modello ΛCDM.
È importante sottolineare che il concetto di falsificabilità, introdotto da Sir Karl Raimund Popper, ha subito un'evoluzione significativa nel corso del tempo. Il falsificazionismo "ingenuo" di Popper, che prevedeva il rigetto immediato di una teoria alla sua prima falsificazione, è stato superato da approcci più elaborati. Tra questi, spicca la filosofia di Imre Lipsitz (alias Imre Lakatos), il cui falsificazionismo "sofisticato" riconosce che le teorie scientifiche sono spesso incorporate in programmi di ricerca più ampi. In questo contesto, una singola falsificazione non porta necessariamente all'abbandono di un modello, ma piuttosto a un suo affinamento o a una rivalutazione delle sue componenti.
Alla luce di ciò, né il modello ΛCDM può essere considerato "superato", né il modello timescape può essere elevato a modello preferibile. Entrambi richiedono ulteriori raccolte di dati e analisi sempre più precise per poter essere confrontati in modo significativo. Solo quando avremo dati sufficientemente accurati e un consenso scientifico più solido, potremo valutare con ragionevole certezza quale dei due modelli (o eventualmente un terzo) sia più adatto a descrivere l'Universo.
Siate curiosi e pretendete le fonti.
Fonti:
https://www.ige.ch/it/chi-siamo/storia-dellipi/einstein/einstein-allufficio-federale
Einstein, Albert. "Die Grundlage der allgemeinen Relativitätstheorie." Annalen der Physik, vol. 49, 1916, pp. 769–822. https://doi.org/10.1002/andp.19163540702.
Freedman, Wendy L., et al. "The Carnegie-Chicago Hubble program. VIII. An independent determination of the Hubble constant based on the tip of the red giant branch." The Astrophysical Journal 882.1 (2019): 34.
https://mirabiliamundi.blogspot.com/2023/12/il-problema-delle-distanze-in.html
Gamow, George. My World Line: An Informal Autobiography. Viking Press, 1970. (ISBN: 0-670-50376-2)
Ishiyama, Tomoaki, et al. "The Uchuu simulations: Data Release 1 and dark matter halo concentrations." Monthly Notices of the Royal Astronomical Society 506.3 (2021): 4210-4231.
Seifert, Antonia, et al. "Supernovae evidence for foundational change to cosmological models." Monthly Notices of the Royal Astronomical Society: Letters 537.1 (2025): L55-L60.
Lane, Zachary G., et al. "Cosmological foundations revisited with Pantheon+." Monthly Notices of the Royal Astronomical Society 536.2 (2025): 1752-1777.
https://lambda.gsfc.nasa.gov/education/lambda_graphics/cmb_power_spectra.html