La stima della costante di Hubble: dobbiamo forse cambiare il modello standard che descrive com’è fatto l’universo?4 min di lettura

La costante di Hubble è un parametro che descrive il tasso di espansione dell’universo e che si trova dappertutto nelle teorie che descrivono come funziona l’universo. L’importanza della costante di Hubble è dovuta al fatto che dipende un po’ da tutto: da quanta materia c’è nell’universo, da quanta energia oscura c’è nell’universo. Questo proprio perché, a sua volta, l’evoluzione dell’universo dipende da che cosa c’è nell’universo e in quali quantità.

Ci sono diversi modi per stimare la costante di Hubble, ma i principali sono due:

  1. usare la radiazione cosmica di fondo;
  2. usare stelle Cefeidi e supernovae di tipo Ia.

Il problema è che le stime ottenute con questi due metodi non tornano. Quando dico non tornano, non voglio solo dire che sono numeri diversi, ma voglio anche dire che sono stime molto diverse anche tenendo conto di eventuali errori sperimentali.

Ne avevamo già parlato in passato su questo blog, ma ora dobbiamo aggiornare la situazione visto che il 18 marzo 2019 è stato reso pubblico questo articolo di un gruppo di ricerca guidato da Adam Riess (premio Nobel per la fisica nel 2011). La situazione descritta nell’articolo è questa qui sotto.

Figura 1: stime della costante di Hubble negli ultimi anni (da Riess et al. 2019,ArXiv:1903.07603)

Dunque, ora con calma vi racconto che cosa vuol dire questo grafico.

Una sola costante, stime diverse

Guardiamo e analizziamo per bene la figura 1. Partiamo dai numeretti in basso: l’asse orizzontale mostra una scala di valori della costante di Hubble (indicata con H0 e con la sua unità di misura km/s/Mpc).

Poi concentriamoci sulle parti in blu e in rosso. Le parti in blu, indicate con la scritta Early, mostrano le stime ottenute con metodi che studiano l’universo lontano e giovane. In particolare, la linea blu con la scritta Planck18+LambdaCDM; questa linea indica l’intervallo di stima della costante di Hubble con la radiazione cosmica di fondo (con i dati del 2018 del satellite Planck) assumendo il modello LambdaCDM.

Che cos’è il modello LambdaCDM? È il modello standard della cosmologia, quello migliore che abbiamo al momento per descrivere com’è fatto l’universo. Questo modello ci dice che l’universo è descritto dalla teoria del Big Bang: l’universo si è espanso a partire da uno stato iniziale molto caldo e denso e ha un’età di 13,8 miliardi di anni. In più, l’universo è composto per il 5% dalla materia ordinaria, il 27 % di materia oscura e il 68% di energia oscura (e non abbiamo idea di che cosa siano materia oscura ed energia oscura). Insomma, questo in breve è il modello LambdaCDM. La stima della costante di Hubble ottenuta con i dati della radiazione di fondo parte assumendo questo modello.

Le parti in rosso, indicate con la scritta Late, mostrano le stime ottenute con metodi che misurano la distanza delle galassie, quindi con metodi che studiano l’universo più vicino e quindi vecchio. In particolare, la linea con la scritta Here indica la stima ottenuta da Riess et al..

Le altre linee rosse e blu indicano altre stime della costante di Hubble ottenute negli anni passati; come vedete, al di là delle piccole differenze, il confine tra le due diverse metodologie è netto: con la radiazione di fondo otteniamo una costante di Hubble che vale circa 67,5 km/s/Mpc; con Cefeidi e supernovae Ia otteniamo un valore di circa 74 km/s/Mpc.

Qual è il vero problema con la stima della costante di Hubble

Ma, come dicevo, il problema non è la differenza in sé di questi due valori, il problema è dato da quella doppia freccia nera che li separa e sui cui c’è scritto 4,4 sigma.

I sigma si trovano molto spesso quando si parla di scienza. Il numero di sigma associato a una misura indica il livello di confidenza di quella misura. Per esempio, un segnale ottenuto con 5 sigma di confidenza vuol dire che, statisticamente, c’è una possibilità su 3 milioni e mezzo di osservare proprio quel segnale assumendo che non ci sia nessun segnale osservato. Proviamo ad applicare questo concetto a un evento realmente accaduto: il bosone di Higgs è stato osservato proprio con un livello di confidenza pari a 5 sigma; questo vuol dire che c’è una possibilità su 3 milioni e mezzo di osservare quel tipo di segnale se il bosone di Higgs non esistesse.

Qua, nel caso della costante di Hubble non siamo a 5 sigma, ma ci andiamo molto vicino. Questo vuol dire che una probabilità davvero molto bassa di vedere una differenza tra i due metodi di stima, assumendo non ci sia alcun motivo per osservare questa differenza.

Ora, sia chiaro che 5 sigma non è una soglia assoluta e imprescindibile. Certo è che la differenza tra le diverse stime è già preoccupante da un po’.

Forse uno dei metodi contiene errori? Dunque, i metodi usati da Riess et al. sono metodi locali che si basano su osservazioni di stelle molto vicine che si trovano nella Grande Nube di Magellano, una delle piccole galassie satelliti della Via Lattea. Per ottenere la distanza di queste stelle sono stati usati i dati raccolti dal Telescopio Spaziale Hubble e dal satellite ESA Gaia. L’altro metodo, quello che si basa sui dati della radiazione di fondo, usa i dati super precisi e accurati del satellite ESA Planck. Tuttavia, i risultati dell’analisi di Planck sono dovuti al modello LambdaCDM: cioè si è confrontato il modello LambdaCDM con i dati di Planck e si è visto quali parametri del modello andassero bene. Così è stata stimata la costante di Hubble con questo metodo.

E quindi?

Quindi tutti gli indizi sembrerebbero puntare verso una modifica del modello LambdaCDM. Magari aggiungendo al modello altri dettagli, come per esempio il numero di neutrini che esistono nell’universo, interazione tra particelle di materia oscura, interazione tra materia ed energia oscura.

Queste modifiche al modello LambdaCDM potrebbero alzare la stima ottenuta con i dati di Planck sulla radiazione cosmica di fondo. Quindi questa discrepanza sulle stime della costante di Hubble ci sta indicando la strada per scoprire nuova fisica?

Può darsi: le misure di distanza delle galassie basate su Cefeidi e supernovae sono ormai tante e sembrano tutte convergere sul fatto che la costante di Hubble abbia un valore intorno a 74 km/s/Mpc. E, soprattutto, i dati nell’articolo di Riess et al. non fanno altro che confermare lavori precedenti, stavolta con il supporto di misure ancora più precise fatte dal satellite Gaia, costruito appositamente per misurare le distanze delle stelle.

Una possibilità ulteriore e futura per dirimere la questione sulla costante di Hubble potrebbe venire dalle onde gravitazionali. Infatti con le onde gravitazionali è possibile stimare la costante di Hubble usando il metodo delle sirene gravitazionali (potete trovare un riassunto a questo link). LIGO e Virgo torneranno in attività dal 1 aprile 2019 e quindi vediamo che succede.

Insomma, oggi più che mai il modello standard della cosmologia, il modello LambdaCDM sembra essere messo alla prova. Per sapere come finirà, tocca aspettare ancora un po’. Una cosa è certa: se non è nuova fisica allora qualcuno si sta sbagliando con l’analisi dati. Detta così sembra una cosa scoraggiante, ma il bicchiere va visto mezzo pieno: se l’errore è tecnico, correggerlo ci farà fare comunque dei grandissimi passi in avanti.

Dopotutto, la scienza funziona così: sbagliando s’impara.