La stima della costante di Hubble: dobbiamo forse cambiare il modello standard che descrive com’è fatto l’universo?

La costante di Hubble è un parametro che descrive il tasso di espansione dell’universo e che si trova dappertutto nelle teorie che descrivono come funziona l’universo. L’importanza della costante di Hubble è dovuta al fatto che dipende un po’ da tutto: da quanta materia c’è nell’universo, da quanta energia oscura c’è nell’universo. Questo proprio perché, a sua volta, l’evoluzione dell’universo dipende da che cosa c’è nell’universo e in quali quantità.

Ci sono diversi modi per stimare la costante di Hubble, ma i principali sono due:

  1. usare la radiazione cosmica di fondo;
  2. usare stelle Cefeidi e supernovae di tipo Ia.

Il problema è che le stime ottenute con questi due metodi non tornano. Quando dico non tornano, non voglio solo dire che sono numeri diversi, ma voglio anche dire che sono stime molto diverse anche tenendo conto di eventuali errori sperimentali.

Ne avevamo già parlato in passato su questo blog, ma ora dobbiamo aggiornare la situazione visto che il 18 marzo 2019 è stato reso pubblico questo articolo di un gruppo di ricerca guidato da Adam Riess (premio Nobel per la fisica nel 2011). La situazione descritta nell’articolo è questa qui sotto.

Figura 1: stime della costante di Hubble negli ultimi anni (da Riess et al. 2019,ArXiv:1903.07603)

Dunque, ora con calma vi racconto che cosa vuol dire questo grafico.

Una sola costante, stime diverse

Guardiamo e analizziamo per bene la figura 1. Partiamo dai numeretti in basso: l’asse orizzontale mostra una scala di valori della costante di Hubble (indicata con H0 e con la sua unità di misura km/s/Mpc).

Poi concentriamoci sulle parti in blu e in rosso. Le parti in blu, indicate con la scritta Early, mostrano le stime ottenute con metodi che studiano l’universo lontano e giovane. In particolare, la linea blu con la scritta Planck18+LambdaCDM; questa linea indica l’intervallo di stima della costante di Hubble con la radiazione cosmica di fondo (con i dati del 2018 del satellite Planck) assumendo il modello LambdaCDM.

Che cos’è il modello LambdaCDM? È il modello standard della cosmologia, quello migliore che abbiamo al momento per descrivere com’è fatto l’universo. Questo modello ci dice che l’universo è descritto dalla teoria del Big Bang: l’universo si è espanso a partire da uno stato iniziale molto caldo e denso e ha un’età di 13,8 miliardi di anni. In più, l’universo è composto per il 5% dalla materia ordinaria, il 27 % di materia oscura e il 68% di energia oscura (e non abbiamo idea di che cosa siano materia oscura ed energia oscura). Insomma, questo in breve è il modello LambdaCDM. La stima della costante di Hubble ottenuta con i dati della radiazione di fondo parte assumendo questo modello.

Le parti in rosso, indicate con la scritta Late, mostrano le stime ottenute con metodi che misurano la distanza delle galassie, quindi con metodi che studiano l’universo più vicino e quindi vecchio. In particolare, la linea con la scritta Here indica la stima ottenuta da Riess et al..

Le altre linee rosse e blu indicano altre stime della costante di Hubble ottenute negli anni passati; come vedete, al di là delle piccole differenze, il confine tra le due diverse metodologie è netto: con la radiazione di fondo otteniamo una costante di Hubble che vale circa 67,5 km/s/Mpc; con Cefeidi e supernovae Ia otteniamo un valore di circa 74 km/s/Mpc.

Qual è il vero problema con la stima della costante di Hubble

Ma, come dicevo, il problema non è la differenza in sé di questi due valori, il problema è dato da quella doppia freccia nera che li separa e sui cui c’è scritto 4,4 sigma.

I sigma si trovano molto spesso quando si parla di scienza. Il numero di sigma associato a una misura indica il livello di confidenza di quella misura. Per esempio, un segnale ottenuto con 5 sigma di confidenza vuol dire che, statisticamente, c’è una possibilità su 3 milioni e mezzo di osservare proprio quel segnale assumendo che non ci sia nessun segnale osservato. Proviamo ad applicare questo concetto a un evento realmente accaduto: il bosone di Higgs è stato osservato proprio con un livello di confidenza pari a 5 sigma; questo vuol dire che c’è una possibilità su 3 milioni e mezzo di osservare quel tipo di segnale se il bosone di Higgs non esistesse.

Qua, nel caso della costante di Hubble non siamo a 5 sigma, ma ci andiamo molto vicino. Questo vuol dire che una probabilità davvero molto bassa di vedere una differenza tra i due metodi di stima, assumendo non ci sia alcun motivo per osservare questa differenza.

Ora, sia chiaro che 5 sigma non è una soglia assoluta e imprescindibile. Certo è che la differenza tra le diverse stime è già preoccupante da un po’.

Forse uno dei metodi contiene errori? Dunque, i metodi usati da Riess et al. sono metodi locali che si basano su osservazioni di stelle molto vicine che si trovano nella Grande Nube di Magellano, una delle piccole galassie satelliti della Via Lattea. Per ottenere la distanza di queste stelle sono stati usati i dati raccolti dal Telescopio Spaziale Hubble e dal satellite ESA Gaia. L’altro metodo, quello che si basa sui dati della radiazione di fondo, usa i dati super precisi e accurati del satellite ESA Planck. Tuttavia, i risultati dell’analisi di Planck sono dovuti al modello LambdaCDM: cioè si è confrontato il modello LambdaCDM con i dati di Planck e si è visto quali parametri del modello andassero bene. Così è stata stimata la costante di Hubble con questo metodo.

E quindi?

Quindi tutti gli indizi sembrerebbero puntare verso una modifica del modello LambdaCDM. Magari aggiungendo al modello altri dettagli, come per esempio il numero di neutrini che esistono nell’universo, interazione tra particelle di materia oscura, interazione tra materia ed energia oscura.

Queste modifiche al modello LambdaCDM potrebbero alzare la stima ottenuta con i dati di Planck sulla radiazione cosmica di fondo. Quindi questa discrepanza sulle stime della costante di Hubble ci sta indicando la strada per scoprire nuova fisica?

Può darsi: le misure di distanza delle galassie basate su Cefeidi e supernovae sono ormai tante e sembrano tutte convergere sul fatto che la costante di Hubble abbia un valore intorno a 74 km/s/Mpc. E, soprattutto, i dati nell’articolo di Riess et al. non fanno altro che confermare lavori precedenti, stavolta con il supporto di misure ancora più precise fatte dal satellite Gaia, costruito appositamente per misurare le distanze delle stelle.

Una possibilità ulteriore e futura per dirimere la questione sulla costante di Hubble potrebbe venire dalle onde gravitazionali. Infatti con le onde gravitazionali è possibile stimare la costante di Hubble usando il metodo delle sirene gravitazionali (potete trovare un riassunto a questo link). LIGO e Virgo torneranno in attività dal 1 aprile 2019 e quindi vediamo che succede.

Insomma, oggi più che mai il modello standard della cosmologia, il modello LambdaCDM sembra essere messo alla prova. Per sapere come finirà, tocca aspettare ancora un po’. Una cosa è certa: se non è nuova fisica allora qualcuno si sta sbagliando con l’analisi dati. Detta così sembra una cosa scoraggiante, ma il bicchiere va visto mezzo pieno: se l’errore è tecnico, correggerlo ci farà fare comunque dei grandissimi passi in avanti.

Dopotutto, la scienza funziona così: sbagliando s’impara.

LHCb ha osservato un’asimmetria tra materia e antimateria con i quark charm

Il 21 marzo 2019 è stato un giorno importante per la collaborazione di fisici che lavora all’esperimento LHCb al CERN. Infatti i dati raccolti dalla collaborazione, grazie all’acceleratore di particelle LHC, mostrano un’asimmetria tra materia e antimateria nei processi che coinvolgono una particella chiamata mesone D°.

Voi direte: embè? Avete ragione, detta così non si capisce niente: per capire perché ci sia stato tanto entusiasmo, prima bisogna raccontare un po’ il contesto in breve.

Che cos’è l’antimateria? Perché viviamo in un universo fatto solo di materia?

Ogni particella elementare di materia ha un’antiparticella associata. Le antiparticelle formano quella che si chiama antimateria.

Un’antiparticella e una particella hanno la stessa massa ma altre caratteristiche fisiche opposte. Per esempio, un elettrone è una particella di materia; l’antiparticella dell’elettrone si chiama positrone. Un positrone ha la stessa massa di un elettrone ma carica elettrica opposta (l’elettrone ha carica negativa, il positrone ha carica positiva).

Altro esempio: un atomo di idrogeno ha un protone (particella con carica positiva) nel nucleo e un elettrone che ci gira intorno. Un atomo di antiidrogeno invece ha un antiprotone (particella con la stessa massa del protone ma carica negativa) nel nucleo e un positrone che ci gira intorno.

Ora viene il bello. Quando una particella di materia si scontra con una particella di antimateria, quello che succede è che fanno puff, cioè particella e antiparticella scompaiono e si forma un fotone, cioè luce (attenzione, non per forza luce visibile, radiazione elettromagnetica con una certa frequenza). Questo processo di chiama annichilazione.

Ora, la domanda è: perché nell’universo c’è praticamente solo materia? Perché non abbiamo metà materia e metà antimateria?

L’asimmetria tra materia e antimateria

All’inizio dell’universo, subito dopo la fase del Big Bang (qualunque cosa sia accaduta!) deve esserci stata per forza un’asimmetria tra la quantità di materia e di antimateria e, in particolare, deve esserci stata più materia, altrimenti non saremmo qui a raccontarlo. Se materia e antimateria fossero state in parti esattamente uguali, allora ci sarebbe stata un’annichilazione di tutto e ci saremmo trovati con un universo fatto solo di luce.

Quindi quello che è successo è che magari c’era un sacco di antimateria subito dopo il Big Bang, ma questa antimateria è stata annichilita dalla materia ed è scomparsa. Siccome però c’era un po’ più materia a causa dell’asimmetria, alla fine eccoci qua in un universo completamente dominato dalla materia.

Non sappiamo il motivo di questa asimmetria. Ma sappiamo almeno quali condizioni devono essere soddisfatte affinché ci sia questa asimmetria all’inizio della storia dell’universo.

Ora, le leggi fisiche di solito sono abbastanza simmetriche, però se dobbiamo avere una asimmetria all’inizio dell’universo, allora qualche simmetria deve essere stata violata, è un ragionamento abbastanza logico.

Per esempio, per avere l’asimmetria tra materia e antimateria molto probabilmente è stata (ed è) violata la simmetria CP.

Ora vi racconto di che si tratta.

La violazione della simmetria CP

Nella simmetria CP abbiamo a che fare con due tipi di simmetrie messi insieme: le lettere C e P stanno rispettivamente per charge (carica) e parity (parità).

La simmetria C (charge) vuol dire che se in un sistema fisico scambiamo tutte le particelle con le rispettive antiparticelle allora le leggi fisiche non cambiano, il sistema si comporta come prima, cioè la simmetria C è conservata.

La simmetria P (parity) vuol dire che se in un sistema fisico si scambiano i valori di tutte le coordinate spaziali da positive a negative, allora le leggi fisiche non cambiano. Per esempio, se guardiamo un fenomeno allo specchio, la fisica dovrebbe funzionare allo stesso modo: in quel caso la simmetria P è conservata.

Se facciamo entrambe le cose, cioè sia scambiamo le particelle con le rispettive antiparticelle sia guardiamo le cose allo specchio, che cosa succede? Se non succede niente, allora in questo caso siamo di fronte a una simmetria CP; ma ci sono casi in cui abbiamo già misurato che questa simmetria è stata violata, cioè il sistema fisico dopo una trasformazione CP non si comporta più come prima. In questo caso siamo di fronte a una violazione CP.

La violazione CP è stata misurata già due volte ed entrambe le volte è valsa agli scienziati che l’hanno scoperta un premio Nobel per la fisica; la prima volta fu nel 1964 con James Cronin e Val Fitch che vinsero il premio nel 1980, la seconda volta fu nel 2001 con Kobayashi e Maskawa che vinsero il premio nel 2008. Premio, quest’ultimo, che avrebbe sicuramente meritato anche Nicola Cabibbo (ma questa è un’altra storia e la racconterò un’altra volta).

In entrambi i casi da Nobel, la violazione CP è stata osservata studiando delle particelle chiamate mesoni.

I mesoni e i quark

Le particelle fondamentali della fisica che conosciamo sono i leptoni, i quark e i bosoni di gauge (per esempio i fotoni) e il bosone di Higgs. Occupiamoci oggi solo dei quark.

I quark possono essere di sei tipi, dal meno massivo al più massivo: up, down, strange, charm, bottom, top.

I diversi tipi di quark possono formare altre particelle chiamate barioni o mesoni. I barioni sono formati da tre quark: per esempio un protone è formato da due quark up e un quark down. I mesoni sono particelle formate da un quark e un antiquark.

Per esempio, la violazione CP osservata nel 1964 è stata osservata in un mesone chiamato kaone neutro (mesone K), composto da un quark up e un antiquark strange. La violazione CP osservata nel 2001 invece è stata osservata nei mesoni B, particelle che possono avere un quark up o down e un antiquark bottom. In pratica, finora la violazione CP è stata osservata in particelle composte da quark up, down, strange e bottom.

La nuova scoperta di LHCb: violazione CP anche con quark charm

E ora arriviamo alla scoperta appena fatta al CERN: è stata osservata una violazione studiando i mesoni D°, cioè particelle formate da un quark charm e un antiquark up. Si tratta della prima volta che viene osservata la violazione CP anche in particelle con questo tipo di quark, quindi da qui il grande entusiasmo. Ora manca all’appello solo di osservare violazioni in particelle con quark top.

Questa è la prima pagina con l’abstract dell’articolo della scoperta fatta dalla collaborazione LHCb.

Il succo degli esperimenti è stato quello di misurare quanti mesoni D° e anti-mesoni D° c’erano nelle varie collisioni prodotte dentro LHC rispetto ad altre particelle. Tenendo tutto uguale sia per i mesoni D° sia per gli antimesoni D° ci si aspettava di misurare lo stesso numero di particelle.

E invece no. Gli esperimenti con gli antimesoni D° rappresentano una trasformazione CP (per esempio, perché cambiano tutte le cariche dei quark che compongono il mesone D°) e il fatto che i risultati ottenuti siano diversi implica una violazione della simmetria CP. Nel dettaglio, la differenza tra le misure con mesoni D° e antimesoni D° sono di circa il 10%.

Adesso tocca ai teorici: i risultati di questi esperimenti così importanti devono trovare conferme a livello delle teorie. Solo in questo modo sarà possibile fare qualche altro passo in avanti e capire meglio non solo la violazione CP ma soprattutto capire meglio l’origine dell’asimmetria tra materia e antimateria.


L’articolo scientifico: Observation of CP violation in charm decays

Onde gravitazionali e fiducia nella scienza

Non molto tempo fa, a novembre 2018, la rivista New Scientist aveva riportato (con tanto di copertina) di alcune ricerche che mettevano in dubbio l’osservazione delle onde gravitazionali fatta da LIGO nel 2015. Il problema sono le prime onde gravitazionali osservate da LIGO, cioè il segnale GW150914.Ne avevo parlato qui su Quantizzando e mi ero soprattutto soffermato sul fatto che i dati e i metodi di ricerca di LIGO e Virgo dovessero essere il più trasparenti possibile; in questo modo la comunità scientifica può svolgere in modo ottimale la sua attività di controllo e riproduzione di risultati ottenuti da altri.

Il dibattito è proseguito in questi mesi: da una parte LIGO, cioè coloro che hanno ottenuto i dati, dall’altra parte un gruppo di ricercatori danesi.

A novembre scorso un gruppo danese (composto da James Creswell, Sebastian von Hausegger, Andrew D. Jackson, Hao Liu, Pavel Naselsky) aveva sollevato dubbi su GW150914.

Poi, qualche mese fa, un altro gruppo (composto da Alex B. Nielsen, Alexander H. Nitz, Collin D. Capano, Duncan A. Brown) ha dato supporto ai risultati di LIGO: tutto OK, senza dubbio LIGO aveva osservato le onde gravitazionali in GW150914.

Tratto da: https://arxiv.org/pdf/1811.04071.pdf

E adesso? Il gruppo di Creswell ha scritto un nuovo articolo scientifico in cui ha riesaminato il lavoro del gruppo di Nielsen e ha trovato da ridire anche su quest’ultimo lavoro.

Secondo il gruppo di Creswell, nel lavoro di Nielsen et al. c’erano alcuni errori e il risultato della nuova analisi è ancora quello di dubbi sul segnale GW150914. A essere precisi, le conclusioni a cui Creswell et al. arrivano sono che l’interpretazione dei dati di GW150914, secondo loro, deve essere considerata ancora aperta. Il punto, sempre secondo loro, è che “è un’ovvieta che, se stai cercando onde gravitazionali, alla fine trovi onde gravitazionali”. Cioè, dicono: attenzione a quello che si chiama confirmation bias, ovvero il rischio di voler vedere nei dati esattamente ciò che si sta cercando.

Le conclusioni del nuovo articolo del gruppo di Creswell: https://arxiv.org/pdf/1903.02401.pdf

Lo so: detta così sembra una replica della storia già raccontata a novembre scorso. In realtà non è così, qui si è fatto qualcosa di diverso. La novità è che c’è stata collaborazione tra chi ha ottenuto risultati simili a quelli di LIGO (cioè il gruppo di Nielsen) e chi invece ha ottenuto risultati dubbi (il gruppo di Creswell). Infatti, Creswell et al. nel loro articolo ringraziano Nielsen et al. per la loro disponibilità a condividere codici, programmi e file della loro analisi. Insomma, un vero esempio di collaborazione scientifica, una cosa molto bella va detto.

Personalmente, ritengo che in generale le onde gravitazionali siano state osservate senza dubbio, visto che poi è arrivato anche Virgo oltre a LIGO a osservare gli stessi segnali negli stessi istanti. Per quanto riguarda la questione del segnale di GW150914, beh, tocca aspettare mi sa ancora qualche altro controllo e vedere gli sviluppi di questa faccenda.

Ma a prescindere da GW150914, questa vicenda insegna che gli scienziati devono parlarsi il più possibile; secondo me, ciò che deve accadere necessariamente adesso è che parta una collaborazione tra gli scienziati di LIGO e il gruppo danese di Creswell. Il dialogo, la disponibilità, la collaborazione: queste sono le uniche cose importanti in questa storia. Sono cose importanti soprattutto agli occhi del pubblico. Se da fuori questa storia viene percepita come una competizione eccessiva tra gruppi di ricerca, in cui gli scienziati si arroccano ciascuno dietro il proprio gruppo di ricerca, allora è naturale che l’impressione che si percepisce è quella di una sorta di indisponibilità a rivedere le proprie posizioni in generale.

Per il bene della scienza e di tutti, sarebbe utile dunque che le cose funzionino sempre nel modo in cui sono andate tra i gruppi di Creswell e Nielsen: condivisione e collaborazione tra chi non è in accordo su un risultato, senza alcuna trincea. In questo modo, e solo in questo modo, il pubblico può guardare con fiducia alla scienza come dibattito sano sulla conoscenza.

Se ciò però non accade, allora ecco che il pubblico perde subito fiducia nella scienza e negli scienziati. E se alla fine il pubblico perde (completamente) fiducia nella scienza allora, lo sappiamo benissimo, è abbastanza dura rimettere poi a posto i cocci.