Il problema delle distanze in astronomia.
La scala cosmica delle distanze da Aristarco a F200DB-045
Come sappiamo quanto dista un corpo celeste?
Uno
dei maggiori problemi che gli astronomi affrontano continuamente è quello della
determinazione delle distanze, un problema che solo apparentemente è banale e
che ha portato a importanti implicazioni circa i nostri modelli dell’universo stesso.
Ma andiamo per gradi.
Come
facciamo a sapere quanto distano due punti l’uno dall’altro? La tecnica più
semplice consiste nel verificare quante volte una certa unità di misura
standard (nei Paesi civilizzati si utilizza il Sistema Internazionale, negli
altri quello imperiale) sta entro lo spazio in considerazione. La misura può
essere diretta come ad esempio quando si utilizza un regolo o indiretta come ad
esempio quando si utilizza un misuratore laser il quale di fatto misura, non le
distanze in se ma piuttosto, il tempo che un segnale luminoso impiega ad andare
e tornare dallo strumento al bersaglio. Da questa misura lo strumento può poi
ricavare (calcolare) la distanza.
Notate
che già in questo secondo caso la faccenda si fa un po’ più complicata in
quanto la misura richiede il superamento successivo di diversi passaggi, tutti
con una certa successione logica e tutti opportunamente calibrati. In primo
luogo vi è la velocità della luce. Può sembrare strano o addirittura assurdo ma
NON
si può misurare la velocità della luce lungo un percorso da un punto A a un
punto B di sola andata (OWSL)[1; 5].
Queste sono le parole Di Albert
Einstein: “We have not defined a common “time”
for A and B, for the latter cannot be defined at all unless we establish by
definition that the “time” required by light to travel from A to B equals
the “time” it requires to travel from B to A.”
Trivia:
Si
può però, partendo dalle equazioni di Maxwell e avvalendosi di un po’ di fisica
sottostante, dimostrare matematicamente che la
luce viaggia alla velocità della luce [6]. Mi rendo conto che
sembra tautologico ma la faccenda è un po’ più complessa. Si può invece
misurare la velocità della luce lungo un percorso di andata e ritorno da A a B
ad A (TWSL).
Ma
come fare nel caso in cui le distanze in gioco siano tali da non permettere un
collegamento fisico, con l’accezione volgare del termine, fra i punti A e B?
In
astronomia il primo approccio al problema fu geometrico e per la precisione trigonometrico
ovvero la misura della parallasse. La Treccani [7] definisce così la
parallasse: “Spostamento angolare apparente di un oggetto, quando viene
osservato da due punti di vista diversi.” Immaginate di avere davanti a voi
un braccio teso col pollice verso e di osservare oltre esso uno sfondo lontano
come un panorama. Se osserverete lo sfondo con un occhio per volta avendo cura
di non muovere il braccio noterete che la posizione apparente del vostro
pollice rispetto allo sfondo cambierà. In astronomia (meglio astrometria) il
pollice è l’oggetto di cui volete determinare la distanza e i panorama sono le
“stelle fisse”. In tutto il testo quando scriverò della parallasse lo intenderò
sempre e solo con l’accezione geometrica di parallasse trigonometrica salvo un
caso che però avrò cura di specificare.
I gradini della scala delle
distanze.
Prima
di cominciare a narrare le vicende e le tecniche relative alla costruzione
della scala delle distanze cosmiche credo sia necessario fare un anticipazione.
La scala delle distanze cosmiche può essere organizzata sia in gradini
gerarchici che per geometrici.
La prima suddivisione indica una gerarchia fra gli indicatori
di distanza i quali possono essere:
- Primari qualora siano indipendenti e non
necessitino di essere calibrati sui risultati di altre tecniche. Ovviamente ciò
non esclude la calibrazione della strumentazione ma questo è un fattore comune
a qualsiasi tipo di misura.
Fra questi troviamo astronomia radar e parallasse trigonometrica. - Secondari
qualora siano stati calibrati sui primari e in quindi risentono degli errori
(inevitabili) di questi ultimi.
Fra questi troviamo il fit di sequenza principale e le stelle variabili. - Terziari qualora siano calibrati sui secondari. In questo caso le stime risentiranno direttamente degli errori dei secondari e indirettamente di quelli dei primari. Ovviamente la gerarchia non ha un limite preimposto ma credo sia evidente che un incatenamento troppo lungo porterebbe a stime con un errore intrinseco inaccettabile.
Fra questi troviamo le supernovae Ia, La relazione Tully-Fisher, la
relazione Faber-Jackson, la relazione D-σ e il piano fondamentale.
La seconda suddivisione è relativa al principio geometrico della metodologia utilizzata (metodologia [8] e metodo [9] non sono sinonimi). Possiamo allora avere:
- I metodi che sfruttano righelli standard coi quali si mettono in proporzione dimensioni reali e apparenti e che possono fornire stime relative o assolute.
- I metodi che sfruttano le candele standard coi quali si stima la distanza in base a quanto il flusso (di luce) della sorgente si affievolisce con la distanza.
Al
limite il culmine di tutte le tecniche è la misura del redshift che può
essere considerato il gradino ultimo della nostra scala almeno per quanto
riguarda l’analisi tramite e grazie la “luce”.
Alla fine del testo accennerò a tecniche che sfruttano altri principi di
indagine. I famosi “altri messaggeri”.
Il
testo che segue, per ragioni che spero saranno chiare al termine della lettura,
non seguirà perfettamente questo ordine.
Credit: ESA/Hubble & NASA, L. Bedin et al. [10]
Dal punto di vista scientifico la
nostra storia comincia più di 22 secoli fa.
I
primi tentativi furono fatti nella Grecia antica. Li Aristarco di
Samo [11] (310-230° A.E.V.)
tentò di misurare i rapporti fra le distanze Terra-Luna e Terra-Sole sfruttando
il momento orbitale in cui la Luna è in quadratura e cioè quando il sistema
Terra-Luna-Sole forma un triangolo rettangolo con ipotenusa Terra-Sole. Nel
trattato “Sulle
dimensioni e distanze del Sole e della Luna” (Περί
μεγετῶν καὶ ἀποστεμάτων ἡλίου καὶ σελήνης) [12] Il risultato proposto
era compreso nell’intervallo fra 18 e 20. Ovviamente la limitatezza degli
strumenti dell’epoca e il presupposto della circolarità delle orbite inficiò
fortemente la stima del valore che oggi sappiamo essere di ∼400. La luna è cioè ∼400 volte più vicina alla
Terra rispetto al Sole.
Trivia:
Ad Aristarco va il primato di
aver fornito una spiegazione per l’ipotesi eliocentrica. Oltre questo egli,
come pur Eraclide Pontico prima di lui, sosteneva che la Terra fosse in
rotazione attorno ad un asse inclinato rispetto all’eclittica e che questa
fosse la ragione dell’alternanza ciclica delle stagioni. ∼
va letto “circa”.
Nell’ultimo quarto del
Trivia:
Sophia non fu né la prima e
sfortunatamente neppure l’ultima donna straordinaria le cui doti e i cui
contributi alla scienza sono stati misconosciuti e/o boicottati per lunghissimo
tempo. Purtroppo sia l’accademia che la ricerca scientifica soffrono tutt’oggi
del fardello del maschiocentrismo [19]. Link [20] alla storia di Sophia Brahe.
Figura
2:
Sistema eliogeocentrico o ticonico in cui il sole gira attorno alla terra ed è
il centro degli epicicli di tutti gli altri pianeti.
Credit: https://gbm.difa.unibo.it/paola/didattica/AA2019-2020/SdA/Lezione_24_a_cura_di_Maicol_DellaChiesa.pdf
[22]
Con lui, per circa un anno lavorò Keplero [23] il quale gli
succedette ereditando le inestimabili tavole delle effemeridi grazie alle quali
e per mezzo del suo ingegno ricavò le famose leggi che portano il suo nome e
che descrivono le orbite con un’accuratezza superata solo nella prima metà del
‘900 da Albert Einstein con la teoria della relatività generale.
Al
tempo della formulazione delle 3
leggi di Keplero [24; 25] (1608-1619) ancora
mancava una stima delle dimensioni assolute in gioco nel sistema solare. Di
fatto il sapere astronomico fino a quel tempo poteva fornire solo una scala
relativa delle dimensioni avente come unità di base l’unita Astronomica (di
seguito AU dall’inglese Astronomical Unit), che equivale alla distanza media
Terra-Sole (1AU=149.597.870.700
m o 149.597.870,700 km) [26], ∼150 milioni di km e il raggio
terrestre.
Trivia:
In realtà tutti questi personaggi fecero
delle stime assolute ma queste erano talmente erronee, per difetto, che
possiamo considerarle non valide. Ipparco calcolò l’AU essere pari a 1.245
raggi terrestri (
Da
Aristarco dovettero passare circa 18 secoli prima che una misura dell’AU ad
opera degli astronomi Christiaan Huygens [27] e Giovanni Domenico Cassini [28] raggiungesse un buon grado di accuratezza.
Siamo nella seconda metà del
Nuovamente
nel secondo decennio del
Trivia:
Non dimentichiamo che al tempo
la determinazione anche delle mere coordinate geografiche era a dir poco MOLTO
più problematica rispetto all’oggi e anche solo questa richiedeva una serie di
calcoli e misure inevitabilmente afflitte da errori che andavano cumulandosi
man mano che si risaliva la scala dei nessi logici di tutto il processo.
Halley annovera comunque fra le
sue scoperte anche quella del moto proprio delle stelle fisse, un risultato che fu raggiunto confrontando le sue misure
astrometriche con quelle dell’Almagesto [35] scritto a metà del
Extra: per chi fosse interessato propongo questo interessante
excursus dell’avventura personale e scientifica relativa all’osservazione del
transito di Venere del 1761. Link [36].
Per
la prima misurazione della distanza di una stella si dovette aspettare il 1838,
anno in cui l’astronomo e matematico tedesco Friedrich
Wilhelm Bessel [37] riuscì nell’impresa.
La stella in questione è 61 Cygni (61 Cyg), anche nota come stella di Bessel, e
la distanza misurata era di 10,4 anni luce (ly) contro gli 11,36 ly o 63.241 AU
della stima più attuale. 61 Cyg è una delle stelle più prossime al Sole e il
primato di vicinanza va però ad Alpha Centauri (α Cen) con soli 4,365 ly.
Parallasse, si ma quale?
A
questo punto della narrazione abbiamo esposto diverse tecniche di parallasse
senza però darne menzione. Abbiamo cominciato con la parallasse lunare
per poi descrivere metodo della parlasse diurna in cui i diversi
punti di osservazione sono dislocati sulla superficie del globo. Il gradino
successivo è la parallasse annua in cui i punti di osservazione
sono dislocati lungo l’orbita che la nostra biglia blu compie attorno al Sole.
Al limite, e semplificando, questi due punti giacciono sull’orbita terrestre agli
antipodi l’uno rispetto all’altro. Più i punti di osservazione sono distanti
l’uno dall’altro più le osservazioni saranno precise anche con oggetti più
distanti ed è per questa ragione che si è poi approdati alla parallasse
secolare che disloca i punti di osservazione in diversi punti
dell’orbita non del nostro pianeta ma della sua stella lungo il suo peregrinare
all’interno della Galassia. Ovviamente più le osservazioni sono lontane nel
tempo più ampia è la base di osservazione e più in la ci si potrà spingere con
le misure. Altre varianti sono la parallasse statistica, che può spingersi
fino a circa 500 parsec (pc) di distanza, la parallasse di gruppo,
la parallasse di ammasso mobile e il fit di sequenza
principale. Di queste ultime quattro
tecniche eviterò di descrivere i dettagli.
Figura
3:
Rappresentazione dello spostamento apparente di una stella vicina rispetto allo
sfondo delle “stelle fisse” dovuto al movimento orbitale della terra attorno al
suo astro. Le proporzioni sono volutamente falsate per meglio poter esporre il
concetto.
Credit: ohio-state.edu;
https://www.astronomy.ohio-state.edu/pogge.1/Ast162/Unit1/distances.html
[39]
Pur
con le sue limitazioni relative soprattutto alla rifrazione atmosferica, almeno
prima dell’avvento dell’astronomia dallo spazio, il metodo della parallasse ha
il vantaggio di non necessitare alcuna supposizione circa la natura dei corpi
in esame; essa si basa puramente su calcoli orbitali e trigonometria. Per
potersi spingere un po’ più in la si è dovuto aspettare i contributi di Ejnar Hertzsprung [40] e Henry Norris
Russell [41] sotto forma del diagramma che porta le loro
iniziali per nome (il diagramma
H-R) [42; 43; 44] e di un lavoro del 1943 [45] dei ricercatori William Wilson
Morgan [46] e Philip Childs Keenan
[47]
basato sul summenzionato diagramma e che è noto come sistema M-K o MKK (la
terza lettera sta per Edith
Kellmann [48]). Era nata la parallasse
spettroscopica. A dispetto del nome questa tecnica NON utilizza la misura della parallasse. Essa
rende invece possibile fare una stima della magnitudine assoluta di una stella
grazie al suo spettro e, conoscendone la magnitudine apparente, di calcolarne
la distanza. Semplificando enormemente: grazie al diagramma HR, dallo spettro e
dal colore si può risalire alla classe di luminosità; per le stelle della
sequenza principale dal colore si può risalire alla luminosità assoluta e
misurando quella apparente si può infine calcolare il modulo della distanza.
Questo metodo spinse la determinazione delle distanze fino a circa 10kpc (kpc =
kiloparsec = 1.000 parsec). I fattori di errore non mancano di certo, uno fra
tutti la determinazione di cosa può essere considerato una candela
standard, [49; 50] e la qualità delle
indagini spettroscopiche doveva ancora progredire ma il metodo risultò essere
valido.
“The luminosities, when calibrated,
will make possible the determination of
accurate spectroscopic parallaxes on low-dispersion spectrograms.”
Cit: An
Atlas of Stellar Spectra. Nature 152, 147 (1943). https://doi.org/10.1038/152147a0 https://www.nature.com/articles/152147a0 [51]
A questo punto della narrazione iniziamo ad avere delle stime in termini assoluti delle distanze sia interne che esterne al sistema solare. Per delle misure più accurate gli astronomi avevano però bisogno di nuove tecnologie. Per quanto riguarda la parallasse i progressi furono da una parte limitati e proporzionali all’incremento delle prestazioni degli strumenti terrestri e dall’altro poterono sfruttare le enormi potenzialità delle sonde spaziali e dei cataloghi di dati che esse hanno prodotto e ancora producono. Fra questi cito le missioni:
- Hipparcos (ESA 1989), 117.995 stelle, raggio 300 ly, precisione 0.001”
- Catalogo Tycho-2 (NASA 1997) 2.500.000 stelle, meno preciso del precedente
- Gaia (ESA 2013), 1.000.000.000 stelle, raggio 300.000 ly, precisione 0,00001”
- Nancy Grace Roman Space Telescope (NASA 2027?)
Trivia:
La sonda Gaia ci ha fornito
dati di parallasse fino ad una distanza di circa 30.000 ly. Se si considera che
l’intera Galassia ha un diametro stimato di circa 100.000 ly si capisce la
portata di questa banca dati. Di fatto ha mappato l’1% della popolazione
stellare della Galassia. I dati di Hipparcos e del catalogo Tycho-2 vengono
utilizzati per diversi software e mapper stellari fra cui anche il popolare
Google Sky Map [83].
L’anello successivo di questo lungo concatenamento di tecniche
che si reggono le une alle altre è lo studio delle variabili pulsanti
cioè quelle stelle la cui luminosità varia ciclicamente nel tempo. La loro
scoperta risale al 1908 ad opera di Henrietta Swan
Leavitt [52] la quale pubblicò la
scoperta in un articolo
dello stesso anno [54] e successivamente in
un altro
nel 1912 [55]. Fra i tipi di stelle
variabili utili alla costruzione della scala delle distanze cosmiche cito solo le
Cefeidi (stella prototipo Delta Cephei / δ Cep / δ Cephei) e
le RR Lyrae (che è la stella prototipo). Le prime si scoprirà poi
essere divise in vari sottotipi dei quali allo scopo di questa narrazione sono
importanti solo quelle di tipo I
e di tipo II mentre
quelle anomale e le double-mode non sono pertinenti. La peculiarità di queste
stelle è il fatto che il loro periodo di pulsazione e la luminosità media sono,
non solo regolari, ma direttamente correlati in modo che ad un maggiore periodo
di pulsazione corrisponde una maggiore luminosità media. Questa concordanza è
oggi chiamata relazione PL. Più avanti fu incorporata nel calcolo
anche una misura del colore nella relazione PLC.
Essendo
le cefeidi individuabili anche a distanze extragalattiche sono ottimi soggetti da osservare per poter
effettuare misure in termini assoluti oltre i confini della Via Lattea. Lo
stesso Edwin P. Hubble
[56] ne identificò nella
galassia di Andromeda mentre il telescopio spaziale che porta il suo nome, lo Hubble Space Telescope [57] o HST, che tanti
di noi ha fatto sognare e appassionare, ne ha trovate anche nell’ammasso
della Vergine a 60 milioni di ly da noi.
Figura
4:
Diversi tipi di stelle variabili rappresentate nel diagramma HR.
Credit: Resus, derivate work: Kirk39 - CC BY-SA 3.0
Vedremo
più avanti cosa significa, o non significa, parlare di distanze quando si ha a
che fare con scale talmente grandi. Appurata questa possibilità non restava che
calibrare qualche cefeide vicina con il metodo della parallasse per poi poter
utilizzare quelle più lontane come candele standard in modo da estendere il
raggio delle misure al livello extragalattico.
Non
mancarono però i problemi in quanto solo in un secondo momento, come già
accennato, ci si rese conto dell’esistenza di diversi tipi di cefeidi. La
mancanza di questa informazione portò ad alcuni errori nelle prime stime che
furono poi corretti.
Trivia:
Fate attenzione a distinguere
“la” Galassia da una galassia qualunque. Con la G (maiuscola) si intende solo
la Via Lattea, la nostra Galassia ospite mentre tutte le altre sono galassie
con la g (minuscola). Similmente “la” Luna è il nostro satellite naturale
mentre tutte le altre sono lune. Questo fatto ha una ragione storica in quanto
agli albori degli studi astronomici e astrologici, no non ho scritto un
sacrilegio esecrando e inverecondo, si pensava che tutto l’universo fosse la
nostra Galassia e che la Luna fosse l’unica luna. Il dibattito sugli universi
isola, le altre galassie, che ebbe fra i suoi protagonisti principali Shapley e
Curtis e la loro natura extragalattica fu “dovrei utilizzare il participio passato
di dirimere ma non è in uso” [58] da Hubble nel 1924.
Il Tip
of the Red Giant Branch Method (in breve metodo TRGB) è
un procedimento completamente indipendente per determinare le distanze delle
galassie vicine con una precisione paragonabile a quella delle Cefeidi che consiste
nel misurare la magnitudine delle stelle all'estremità del ramo della giganti
rosse nel diagramma HR. Questo metodo utilizza la discontinuità, teoricamente
ben compresa e ben definita dall'osservazione, nella funzione di luminosità
delle stelle che evolvono lungo il ramo delle giganti rosse in popolazioni
stellari antiche e povere di metalli. Un suo punto a favore rispetto
all’osservazione delle cefeidi è la sua efficienza rispetto al tempo di
osservazione in quanto non richiede l’attesa di un intero ciclo di luminosità.
La sua calibrazione è stata fatta sugli ammassi globulari galattici.
Un passo
più in là nella determinazione delle distanze cosmiche troviamo la Relazione
di Tully-Fisher. Una legge empirica tra la luminosità intrinseca di una
galassia a spirale [61] e la sua velocità di
rotazione massima. Tralascerò di approfondire questo argomento perché alcuni
suoi dettagli porterebbero troppo fuori tema. In soldoni, dalla curva di
rotazione che descrive la variazione delle velocità orbitali delle stelle in
funzione della loro distanza dal centro galattico si può ricavare la velocità
massima di rotazione della galassia in esame. Da questa si ricava la luminosità
assoluta dalla quale poi si ricava la distanza. Nel mezzo vi è una
complicazione nota come materia oscura senza la quale le curve di rotazione
osservate non avrebbero senso, inoltre la Relazione di Tully-Fisher è
dipendente dalla lunghezza d’onda in esame e può arrivare ad un grado di
accuratezza della stima del 5%.
Semplificando
possiamo dire che si è osservato che nelle galassie le stelle ruotano ad una
velocità tale da dover sfuggire all’attrazione gravitazionale della loro
galassia ospite, o almeno dovrebbero, stando alla quantità di materia che
possiamo osservare. La discrepanza fra la quantità di materia osservata e
quella dedotta dall’effetto gravitazionale è enorme. Per ovviare a questo
problema si è ipotizzato che possa esistere un qualche tipo di materia
invisibile (ma che noi chiamiamo oscura perché non siamo bravi a tradurre
dall’inglese) che non interagisce se non per via gravitazionale. Un’alternativa
alla materia
oscura (DM dall’inglese dark matter) [62] sono le ipotesi MOND
(MOdified Newtonian Dynamics) che vorrebbero che le dinamiche gravitazionali
non seguissero strettamente la legge dell’inverso del quadrato della distanza,
almeno non su tutte le scale. Le MOND sembrano però essere inconclusive e le
evidenze sono tutte a favore della DM [59] per quanto non si
abbiano altro che ipotesi sulla sua natura e nessun esperimento l’ha finora
trovata.
Trivia:
In quest’ultimo lavoro sulla
MOND è stato introdotto un nuovo parametro chiamato dagli autori
Per le galassie ellittiche [60] invece abbiamo la relazione Faber-Jackson, la relazione di Kormendy, la relazione D-σ (da leggere D-sigma) e il piano fondamentale. Le prime tre tecniche, a causa del loro elevato errore intrinseco, non possono essere utilizzate per la determinazione della distanza di galassie che non ospitino candele standard. In generale però le galassie ellittiche, in quanto vecchie, non contengono cefeidi.
- La prima lega la luminosità assoluta di una galassia ellittica con la dispersione di velocità delle sue stelle. L’errore sulle distanze è però di circa il 30%.
- La seconda lega il raggio effettivo con la luminosità effettiva della galassia.
- La terza mette in relazione il diametro di luminosità e la dispersione di velocità con un errore circa uguale o superiore al 25%
- Il quarto mette in relazione dispersione di velocità, luminosità assoluta e raggio effettivo in un modo tale che la relazione biparametrica fra i logaritmi di questi valori sia costante. Questi valori possono essere interpretati come coordinate 3D di un piano detto appunto fondamentale sul quale giacciono tutte le galassie ellittiche. Questa tecnica può essere utilizzata per la stima delle distanze fino a circa 1Gpc con un errore del 5%.
Un
altro metodo utilizza i maser come candele standard fino a
centinaia di Gpc di distanza. I MASER (microwave amplification by stimulated
emission of radiation, ovvero amplificazione di microonde tramite emissione
stimolata di radiazioni) sono concettualmente simili ai laser. Ve ne sono di
due tipi: quelli stellari e i megamaser
[63] che invece son legati
agli AGN. Il loro utilizzo come candele standard, soprattutto al fine di
determinare la costante di Hubble, implica la misurazione del redshift ed è
piuttosto complicata. Su questi argomenti però mi soffermerò più avanti.
Il
successivo elemento di questo concatenamento è, come prevedibile, un’altra candela
standard con la differenza che questa volta l’oggetto in questione è una stella
morente che esala il suo ultimo potentissimo gemito. Stiamo parlando di una
diva delle scienze astronomiche che meritatamente suscita un enorme interesse
fra il pubblico di appassionati: la supernova. Una supernova è un’esplosione
stellare che per un breve lasso di tempo può superare in luminosità la sua
galassia ospite. È uno dei fenomeni più energetici che si conoscano e può
essere osservata in galassie estremamente lontane. Il primato al momento
in cui scrivo (Novembre 2023 E.V.) spetta a
SN 1000+0216 [64], una supernova (SN)
super luminosa (SLSN) con un redshift z=3,8993±0,0074 e una magnitudine
assoluta con il picco nel lontano ultravioletto di -21,5. Più avanti capiremo
perché è preferibile utilizzare il redshift al posto della distanza in ly o pc
o multipli di queste unità di misura. Esistono diversi tipi di supernovae (SNe) ma a noi interessano solo
quelle di tipo specifico: le supernovae Ia (da leggere 1a).
Figura
5:
Albero della classificazione delle supernovae.
Credit: © Swinburne University of Technology https://astronomy.swin.edu.au/cosmos/S/Supernova+Classification [65]
Lo schema di
classificazione delle supernova Minkowski-Zwicky [65; 66] oggi ha una ragion
d’essere più storica che altro in quanto è stato costruito mano a mano che si
scoprivano supernovae con caratteristiche spettrali diverse, quali righe di
assorbimento o emissione specifiche che erano presenti o assenti in uno o
nell’altro tipo. Oggi la suddivisione principale è fra supernovae da collasso
nucleare (tipo II) e
termonucleari (tipo I).
La
peculiarità di quelle del tipo Ia
di essere ottime candele standard è dovuta al meccanismo che porta alla loro esplosione.
Queste hanno origine in sistemi binari in cui almeno uno dei due corpi è una
nana bianca che sottrae gravitazionalmente materiale alla compagna fino al
raggiungimento di 1,4
Figura
6:
Copertina del volume 74 di Astrophysical Journal in cui S. Chandrasekhar
pubblicò l’articolo in cui descriveva la sua teoria circa la massa limite delle
nane bianche.
Credit: The Astrophysical Journal [69]
https://articles.adsabs.harvard.edu/pdf/1931ApJ....74...81C, provided by: American Astronomical
Society - Provided by the NASA Astrophysics Data System
Oggetti
astronomici visibili da distanze superiori a quelle delle SNe Ia sono i quasar (QUASi-stellAR radio
source, radiosorgente quasi stellare) []. Questi mostri spaziali sono una
sottocategoria dei nuclei galattici attivi (AGN) la cui “forza” è alimentata
dai buchi neri supermassicci (SMBH dall’inglese Supermassive Black Hole). Ad
oggi il primato di distanza spetta a UHZ1
[72] con z=10,3 il che
significa che questo oggetto ci illumina da quando l’universo aveva appena il
3% della sua età attuale, ovvero 450Myr dopo il Big Bang.
Esiste
un fenomeno che agisce come una lente d’ingrandimento e che saltuariamente
permette di osservare oggetti che altrimenti sarebbero irraggiungibili dai
nostri strumenti: la lente gravitazionale. Il meccanismo che lo
regola fu scoperto da Albert Einstein e descritto grazie alla sua teoria della
relatività generale (GR). In poche parole ogni massa incurva lo spaziotempo. In
queste condizioni la linea più breve che un raggio di luce possa compiere da un
punto ad un altro non è più, almeno dal nostro punto di vista di osservatori
esterni, una retta ma una geodetica ovvero un percorso “curvo”. Questi percorsi
fanno in modo che lo spaziotempo attorno ad oggetti sufficientemente massicci
agisca da lente amplificando la luce di sorgenti retrostanti. Ovviamente una
condizione necessaria è che la sorgente, la lente e l’osservatore siano
estremamente ben allineati.
A onor del vero la misura della parallasse è solo uno degli
strumenti che l’ingegno umano ha ideato al fine di risolvere questo annoso
dilemma. Un’altra tecnica di precisione è figlia sia della ricerca di base che
di quella applicata militare: mi riferisco al RA.D.A.R. la cui storia inizia
nel 1886 ad opera di Heinrich Hertz [73] il quale scoprì che le onde radio potevano essere riflesse da
un corpo solido.
I passaggi
successivi furono il telemobiloscopio di Christian
Hülsmeyer (1904), il radiotelemetro di Guglielmo Marconi (1922-1933),
l’RDF inglese e, infine, il RADAR statunitense. Le
necessità militari furono fondamentali per lo sviluppo di questa tecnologia
tanto che gli italiani non la presero in considerazione se non dopo la disfatta
di capo Matapan (28-29 marzo 1941) in favore degli inglesi. La miglioria
più importante concernente i fini di questa narrazione è il passaggio dall’RDF (range
and direction finding) al RADAR (radio detection and ranging).
La prima delle due tecnologie stabiliva solo da direzione del bersaglio mentre
la seconda era in grado di fornire anche una misura della distanza.
Il
funzionamento di un radar è concettualmente semplice: un fascio di onde radio
viene emesso da un’antenna e la misurazione riguarda il tempo di andata e
ritorno di questo dall’antenna al bersaglio. Conscendo la velocità di
propagazione del segnale è possibile calcolare la distanza da esso percorsa.
È
ora chiaro dove si stia andando a parare.
I
primi usi astrometrici del radar avvennero nella seconda metà degli anni ’40 del
Trivia:
In realtà il concetto di
confine del sistema solare non è univocamente definito. Una vecchia definizione
identificava questo confine con gli oggetti più lontani gravitazionalmente
legati alla nostra. Stiamo parlando della nube di Öpik-Oort [77] (dai nomi degli astronomi Ernst Julius Öpik [78] e Jan Hendrik Oort [79]). Un'altra definizione vuole
che il confine sia l’eliopausa [80] ovvero la regione di spazio in
cui il vento solare prende il sopravvento contro il mezzo interstellare; questo
è possibile anche grazie alla mappatura tridimensionale dell’eliosfera [81]. Un'altra tesi sostiene che il
confine debba coincidere con il limite, il bow shock [82], dell’eliomagnetosfera. Altri
ancora credono che questo confine dovrebbe coincidere con la superficie in cui
il campo gravitazionale del Sole e quello delle sue stelle vicine sono in
equilibrio. Ognuna di queste definizioni vanta pregi e soffre difetti ma non
esiste un consenso unanime su quale sia preferibile.
Figura
7:
Rappresentazione in scala logaritmica della struttura del sistema solare con i
corpi celesti NON in scala.
Credit: NASA / JPL – Caltech https://photojournal.jpl.nasa.gov/catalog/PIA17046
Figura 8: Credit: NSSA / JPL https://voyager.jpl.nasa.gov/news/details.php?article_id=20
Il
successivo piolo di questa scala della conoscenza è la misura del redshift.
Ricapitolando
Grazie
alla parallasse abbiamo misurato la distanza delle stelle del vicinato
galattico prossimo per poi scoprire le cefeidi che ci hanno permesso di
estendere il raggio di azione fino alle galassie più prossime nelle quali
abbiamo osservato delle supernovae.
Ogni tecnica è servita a calibrare quella successiva. Quindi:
- Abbiamo utilizzato la parallasse per determinare la distanza delle cefeidi vicine fino a che non abbiamo capito che queste sono buone candele standard.
- Grazie a questo abbiamo potuto dedurre la distanza delle cefeidi più lontane.
- Poi abbiamo osservato delle supernovae nelle stesse galassie ospiti delle cefeidi più lontane. In questo modo ne abbiamo determinato la distanza e una volta capito che anche le SNe di tipo Ia sono ottime candele standard abbiamo potuto determinare la distanza di quelle più lontane.
- Di queste si è potuto determinare il redshift che è misurabile fino a distanze enormi che si spingono quasi al limite dell’osservabile in banda elettromagnetica e che ai fini di questa narrazione è legato a doppio filo alla legge di Hubble.
Trivia:
La scoperta della legge di
Hubble ha portato ad una delle più grandi controversie in seno alle scienze
astronomiche. In astronomia una controversia (scientifica) viene chiamata
“tensione”. (Gli astronomi hanno meritatamente guadagnato la loro nomea
circa la capacità di dare un nome alle cose ovvero il non aver fantasia) La
“tensione” riguarda la costante di Hubble che è espressa in
Ora
resta da capire cosa sia esattamente il redshift e determinarne la portata.
Il redshift, in italiano spostamento verso il rosso, è lo spostamento delle frequenze elettromagnetiche verso bande più basse. In astronomia e cosmologia le cause principali di questo slittamento delle frequenze sono:
- il movimento reciproco delle sorgenti irradianti che sfocia nello spostamento doppler relativistico;
- i pozzi gravitazionali che determinano il redshift gravitazionale;
- il moto di recessione di tutti i corpi a distanze “cosmologiche” che dà origine al redshift cosmologico. Quest ultimo fatto, noto come legge di Hubble, implica che l’universo è in espansione.
Figura
9:
Un'infografica intitolata “JWST Advanced Deep Extragalactic Survey, JADES; Webb
Spectra Read New Milestone in Redshift Frontier; NIRCam Imaging and NIRSpec
Microshutter Array Spectroscopy”. A sinistra c’è un’immagine NIRCam del campo,
pieno di galassie di diversi colori, forme e dimensioni. A destra ci sono
quattro grafici a linee corrispondenti a quattro galassie in evidenza. Mostrano
lo spostamento nella posizione di una caratteristica spettrale chiamata Lyman passare
a lunghezze d’onda maggiori man mano che lo spostamento verso il rosso aumenta.
Credit:
NASA, ESA, CSA, M. Zamani (ESA/Webb), Leah Hustak (STScI), Brant
Robertson (UC Santa Cruz), S. Tacchella (Cambridge), E. Curtis-Lake (UOH), S.
Carniani (Scuola Normale Superiore), JADES Collaboration, https://esawebb.org/images/JADES1/
[84]
Figura 10: Credit: Robertson, B.E., Tacchella, S.,
Johnson, B.D. et al. Identification and properties of intense
star-forming galaxies at redshifts z > 10. Nat
Astron 7, 611–621 (2023). https://doi.org/10.1038/s41550-023-01921-1
[85]
Il
redshift può essere determinato per via fotometrica o spettroscopica ma a noi
interessa solo la seconda di queste tecniche ossia quella del redshift
spettroscopico in quanto più precisa. Di fatto questa tecnica, qualora
possibile, viene utilizzata come conferma per le misurazioni di redshift
fotometrico. Un esempio fra tutti è quello di F200DB-045
[86] che se confermato
spettroscopicamente avrebbe un redshift
Figura
11:
Confronto fra uno spettro continuo(in alto a sinistra), uno con linee di
assorbimento (in alto a destra) e uno con linee di emissione (in basso al
centro).
Credit: © 2005 Pearson Education Inc.,
publishing as Addison-Wesley [88]
Figura 12:
Rappresentazione schematica delle linee spettrali spostate nel blu e nel rosso.
Credit: NASA.
La
tecnica del redshift spettroscopico va ad indagare le linee di emissione e
assorbimento che sono tipiche di ogni sostanza e ne misura lo “spostamento”.
Hubble scopri che lo spostamento è proporzionale alla velocità di recessione
dell’oggetto sorgente la quale è proporzionale alla sua distanza
dall’osservatore. Lo slittamento dello spettro elettromagnetico può anche
avvenire nel verso opposto e cioè verso frequenze più alte e lunghezze d’onda
più minute e in questo caso si parla di blueshift. Questo può succedere
per quei corpi celesti che invece che recedere mostrano un moto relativo in
avvicinamento rispetto all’osservatore.
Trivia:
In alcune galassie opportunamente
orientate con l’asse di rotazione fortemente inclinato rispetto alla visuale si
è osservato un diverso valore di redshift ai lati opposti rispetto al nucleo.
Questo è dovuto al fatto che essendo le galassie in rotazione in un lato le
stelle si muovono vero di noi mentre nel lato opposto esse orbitano nel verso
opposto. Al netto del movimento relativo della galassia intera rispetto a noi e
conoscendo questo valori di redshift si può calcolare la velocità di rotazione
delle stelle nella loro galassia ospite. Alcune di queste osservazioni hanno
avuto “a dir poco” interessanti conseguenze. Una di queste ci ha portati a
teorizzare che la materia di cui siamo fatti, quella barionica, costituisce
appena il 5% circa della massa dell’universo.
L’effetto Sunyaev-Zel’dovich [89; 90] (SZ effect)
[91] provoca un
cambiamento nella luminosità apparente della radiazione cosmica di fondo nella
direzione di un ammasso di galassie o qualsiasi altro serbatoio di plasma caldo.
È utile per la determinazione della costante di Hubble.
Altre tecniche utili allo stesso fine sono:
- Surface Brightness Fluctuations
- Gravitational Lens Time Delay
- Luminosity of Giant HII (da leggere H2) Regions.
- Cosmic Microwave Background and Baryonic Acoustic Oscillations
Il
titolo di questo articolo recita “Il problema delle distanze in
astronomia”. La scelta della parola “problema” non è casuale e come già
accennato oltre un certo limite questa perde di significato o per lo meno
assume un significato vago, mal definito.
Per capire cosa intendo sono necessarie alcune premesse. Anzitutto il contesto ovvero un universo NON statico ma in espansione. Questo fatto implica che dal momento in cui una sorgente emette della luce al momento in cui quest’ultima raggiunge i nostri telescopi la sorgente stessa si è allontanata. Possiamo quindi parlare di:
- Proper distance now
- Proper distance then
- Light travel distance
- Comoving distance
- Luminosity distance
- Angular diameter distance
Non possiamo trascurare il non banale fatto che quando si
parla di distanza si dovrebbe prima di tutto essere in accordo sul quadro di
riferimento. Per fare un esempio la distanza comovente fornisce una
stima che non cambia nel tempo a causa dell’espansione dell’universo.
Le proper distance now e then ci danno una stima
della distanza dell’oggetto rispettivamente al presente e al momento
dell’emissione della radiazione nel quadro di riferimento di un osservatore che
è a riposo rispetto alla sorgente e utilizzando un regolo standard. Lo so che suona
come un tecno bla-bla ma non lo è.
In
seno alla relatività ristretta la proper distance tra due eventi
separati nello spazio è la distanza tra di essi misurata in un sistema di
riferimento inerziale in cui questi sono simultanei. Quando si cita la
“simultaneità” si scoperchia un vaso di pandora perché il suo significato
fisico, quello profondo e più legato alla “realtà” che alla sua percezione, è
assolutamente controintuitivo. Successivamente ci toccherebbe aprire un secondo
vaso di pandora per capire cosa è “reale” e cosa questo significhi nell’accezione
epistemologica [92; 93] del termine. Non che
la definizione volgare sia univoca. Insomma, abbiamo capito dove voglio andare
a parare: la questione è più complicata di come sembra e credo che proprio
questa caratteristica renda il tutto ancora più interessante.
A
questo punto della narrazione ci siamo avvicinati moltissimo al limite di ciò
che è conoscibile tramite la misurazione di fotoni ovvero le particelle
portatrici della forza elettromagnetica e della luce. Questa barriera
corrisponde al momento della ricombinazione avvenuto circa 380.000 anni dopo il
tempo 0 da non confondere col big bang. In quel momento il brodo di elettroni e
protoni si raffreddò a sufficienza da permettere la formazione dei primi atomi
neutri e quindi trasparenti alla luce. Nessuna luce antecedente a quel momento
si è propagata liberamente e la prima luce libera dell’universo ci arriva oggi
ad una lunghezza d’onda molto spostata verso il rosso, molto oltre il rosso, nella
banda delle microonde ad un frequenza che corrisponde ad una temperatura di 2,72548±0,00057K
ovvero -270C° circa. Questa radiazione anche nota come radiazione fossile ha un
redshift Z ≃1.100
Trivia:
Il big bang non è il momento
della formazione / nascita dell’universo ma un modello (una serie di modelli in
realtà) che ne descrive l’evoluzione non dissimilmente da come in biologia la
teoria dell’evoluzione darwiniana non descrive l’abiogenesi ma l’evoluzione
delle forme viventi una volte che la vita stessa era nata. Al momento il
modello più accreditato presso la comunità degli specialisti è il ΛCDM [94] (da leggere Lambda-CDM ove CDM
sta per Cold Dark Matter ovvero materia oscura fredda che in questo
contesto significa non relativistica). Questo modello descrive un universo
piatto, quindi con una geometria euclidea,
composto al 95% da energia e materia oscura e al 5% dalla materia
barionica di cui ho accennato prima.
Osservazioni
più profonde non possono più essere legate alla luce ma devono affidarsi a
quelli che in astronomia vengono chiamanti altri “messaggeri”. In particolare i
neutrini e le onde gravitazionali delle quali ho scritto qui
e qui
e delle quali appena possibile terminerò la narrazione [95; 96].
Figura
13:
Questa illustrazione riassume la storia lunga quasi 14 miliardi di anni del
nostro Universo. Mostra i principali eventi accaduti tra la fase iniziale del
cosmo, dove le sue proprietà erano quasi uniformi e punteggiate solo da
minuscole fluttuazioni (quantistiche), fino alla ricca varietà di strutture
cosmiche che osserviamo oggi: stelle e galassie. La serie di riquadri sul lato
destro dell'illustrazione ingrandisce la struttura cosmica su larga scala per
rivelare prima un ammasso di galassie, poi una galassia a spirale simile alla
nostra Via Lattea e infine il Sistema Solare. [97]
Credit: ESA – C.
Carreau https://www.esa.int/ESA_Multimedia/Images/2013/03/Planck_history_of_Universe
Spero
di essere riuscito a trasmettere la complessità e la meraviglia che sono celate
dietro un concetto apparentemente banale e ovvio come quello di distanza. Ad
oggi sono più di due millenni che una pletora di studiosi da ogni parte del
mondo ci lavora e nonostante questo straordinario sforzo ancora esistono
numerosi fatti che sappiamo di non sapere e chissà quanti altri che nemmeno
sappiamo di non sapere. Questa è l’avventura del progresso scientifico.
Figura
14:
Scala delle distanze aggiornata e attuale, su idea originale di Ciardullo
(2006).
Arancione chiaro:
metodi di determinazione della distanza associati alla formazione stellare
attiva (Popolazione I, stelle di massa intermedia e alta).
Verde chiaro: tracciatori
di distanza associati agli oggetti Popolazione II / stelle di piccola massa.
Blu: metodi geometrici.
Rosso: le supernovae (SNe) Ia, la funzione di luminosità
delle nebulose planetarie (PNe) (PNLF) e le fluttuazioni della luminosità
superficiale (SBF) sono applicabili per l'uso con entrambe le popolazioni
stellari: I e II.
Marrone chiaro:
metodi di determinazione della distanza o di
Riquadri
tratteggiati: metodi proposti.
Frecce
continue: calibrazioni ragionevolmente robuste.
Frecce
tratteggiate: calibrazioni scarsamente consolidate.
B–W: Baade–Wesselink. RRL: RR Lyrae.
RSGs/FGLR: Red supergiants/flux-weighted gravity–luminosity relationship. TRGB:
Tip of the red-giant branch. GCLF: Globular cluster (GC) luminosity function.
SZ: Sunyaev–Zel’dovich. CMB/BAO: Cosmic microwave background/baryon acoustic
oscillations. Colour–magnitude relation: Refers to galactic colours and
magnitudes. (adattato da de Grijs 2011) [98].
Credit: Advancing the Physics of Cosmic
Distances Proceedings IAU Symposium No. 289, 2012 Richard de Grijs &
Giuseppe Bono, eds; © 2012 International Astronomical
Union; https://arxiv.org/pdf/1209.6529.pdf [99]
Alcune
precisazioni doverose. Per quanto si parli di scala cosmica delle distanze,
come pure in seno alla teoria dell’evoluzione darwiniana, quello delle
successive scoperte in merito più che a un processo lineare assomiglia a un
cespuglio o meglio a un “rovo”. Avrei potuto elencare le varie scoperte in
diversi ordini: cronologico, di nesso causale l’una con la successiva o per
l’intervallo di distanze entro le quali ogni tecnica può essere applicata in
modo efficacie ma ho deciso di seguire un percorso misto che potesse meglio
rendere l’idea della complessità del processo di accrescimento delle conoscenze
scientifiche. Ho tralasciato molti interessanti aneddoti sia personali relativi
gli studiosi implicati in questo processo che storici, alcuni perché non molto
pertinenti e altri, semplicemente, per non dilungarmi eccessivamente rischiando
di far perdere il filo al lettore. Spero di essere riuscito nell’impresa di
trasmettervi con ciò che di questa storia mi ha appassionato.
Il
testo contiene numerosi link, alcuni a Wikipedia, altri a siti governatici
o privati quali NASA, ESA e università, pubblicazioni scientifiche peer
reviewed [100], tesi di laura e siti
divulgativi . Fate attenzione soprattutto a quelli di Wikipedia in italiano
in quanto sulle questioni tecniche sono molto meno accurati rispetto ai
corrispettivi in inglese. Ho addirittura trovato una voce Wikipedia italiana
relativa ad un tema di meccanica orbitale che citava fra le fonti un sito di
astrologia. Ancora mi vien da piangere. Per quanto riguarda le altre fonti
provate a consultarle, soprattutto quelle primarie. Molte di esse sono
estremamente tecniche e io stesso non posso capirle fino in fondo ma vi saranno
utili sia per conoscere e capire la complessità sottostante certi temi che come
spunto per altre letture.
Siate curiosi e pretendete le fonti.
Legenda:
Ly
= anno luce (e multipli)
pc = parsec (e multipli)
SN
= supernova
SNe
= supernovae
SLSN
= supernova super luminosa
SLSNe
= supernovae super luminose
' = primo d’arco = 1⁄60
di grado
" = secondo d’arco = 1⁄60 di primo d’arco = 1⁄3.600 di grado
M☉ = massa solare =
E.V.
= Era Volgare (alternativa a d.C.)
A.E.V.
= Ante Era Volgare (alternativa ad a.C.)
Zs
Zp = redshift fotometrico
DM
= dark matter
PN = planetary nebula, nebulosa planetaria
PNe
= planetary nebualae, nebulose planearie
SBF
= surface-brightness fluctuations
PNLF = planetary nebulae luminosity
function
Yr
= Year, anno (e multipli)
OWSL = one-way speed of light
TWSL = two-ways speed of light
Nessun commento:
Posta un commento