Quanto vale la costante di Hubble?

Se seguite da un po’ Quantizzando allora sapete già della soap opera astrofisica più longeva di tutte, quella che riguarda la stima del valore della costante di Hubble, cioè quel parametro che ci racconta come si espande l’universo.

Oggi siamo alla puntata settemilaottocentoquindici, credo, ma potrei aver perso il conto.

Puntata 7815 o giù di lì. Una buona notizia arriva da lontano: è stata fatta una nuova misura precisissima del valore della costante di Hubble misurando le distanze delle galassie nell’universo grazie a vari telescopi, tra cui il telescopio spaziale Hubble. Ma purtroppo le cattive notizie restano: i conti non tornano con i dati della radiazione cosmica di fondo raccolti dal satellite ESA Planck. Che i conti non tornassero lo sapevamo già; ma ora questi nuovi precisissimi dati (raccolti e analizzati da un team di astrofisici di cui fa parte, tra gli altri, il premio Nobel Adam Riess) ci dicono che la discrepanza da i due valori ottenuti con metodi diversi è sempre più seria.

Hubble mentre legge in anteprima tutta la trama della soap opera sulla costante che porta il suo nome.

Come dite? Meglio fare un ripasso di tutto? Nessun problema, partiamo subito con un bel Nelle puntate precedenti, tranquilli.

Un prof amato

Edwin Hubble è stato uno degli astronomi più importanti della storia. Certo, ha avuto la fortuna di trovarsi al posto giusto al momento giusto, ma un po’ di fortuna non guasta quasi mai.
Hubble è ricordato proprio per la costante astronomica che porta il suo nome, la costante di Hubble, che è un parametro fondamentale per capire come evolve l’universo.

Prima di approdare all’osservatorio di Monte Wilson, California, e rivoluzionare la storia dell’astronomia, Hubble aveva fatto anche cose più terrene. Hubble era un uomo alto, un ottimo atleta, ed è stato anche un buon allenatore di basket, anche se ha svolto questo lavoro solo per un anno. Gli studenti della New Albany High School gli dedicarono l’annuario scolastico del 1914.
Lo stesso anno, poi, Hubble iniziò il suo PhD in astronomia all’Università di Chigago.
Finito il dottorato, la carriera di Hubble poteva iniziare. George Ellery Hale, fondatore dell’osservatorio di Monte Wilson, lo chiamò nel 1917 a lavorare con lui. Purtroppo però, c’era la Grande Guerra. E allora Hubble partì e rispose così a Hale: “Regret cannot accept your invitation. Am off to the war.

Al posto giusto nel momento giusto

Poi la guerra finì e Hubble fece tutto quello che sappiamo: puntò il telescopio Hooker, il più grande dell’epoca, verso Andromeda; là, analizzando la luce delle stelle di Andromeda, scoprì una Cefeide e determinò la distanza di Andromeda. Quindi capì che Andromeda non era una nebulosa, bensì un’altra galassia, come la nostra. Cioè capì che Andromeda non faceva parte della Via Lattea e che tutti gli oggetti di quel tipo erano altre galassie, di cui ora si poteva determinare la distanza.
Oltre alla distanza si poteva calcolare il redshift, cioè lo spostamento delle righe spettrali della luce della galassia. Hubble, nel 1929, trovò che più una galassia è lontana, più è alto il suo redshift: l’universo si espande, le galassie si stanno allontanando da noi.

La costante di Hubble

Il parametro che lega (in qualche modo anche complicato) redshift e distanza delle galassie è proprio la costante di Hubble, che spunta fuori praticamente ovunque in astrofisica quando ci sono in gioco incertezze sulle stime delle distanze astronomiche. Hubble stimò un valore della costante pari a circa 500 (km/s/Mpc, cioè con tutte le sue unità di misura che non vi sto a dire); un valore molto grande e fuori misura rispetto a ciò che sappiamo oggi, dettato soprattutto dalle incertezze, ancora una volta, sulla stima delle distanze (IL problema in astrofisica, credo che ormai l’abbiate capito, ma se volete approfondire andate qua). La costante di Hubble è costante nello spazio ma non nel tempo: questo vuol dire che oggi, in tutto l’universo il valore della costante di Hubble è lo stesso (e indichiamo, come già detto, il valore odierno con H_0); invece un miliardo di anni fa, il valore della costante di Hubble era diverso. Questa cosa non deve sorprendere: la costante di Hubble ci racconta del tasso di espansione dell’universo, e quindi ci sta che possa avere diversi valori in epoche diverse.

Come mai Hubble non ha mai vinto il premio Nobel?

Per un motivo molto semplice quanto ingenuo: il premio Nobel per la fisica non prendeva in considerazione, all’epoca, le scoperte nel campo dell’astronomia.

Risultato: non abbiamo dato il premio Nobel alla persona che ha scoperto che la nostra Galassia è solo una delle centinaia di miliardi di galassie dell’universo e inoltre che tutte queste galassie si stanno allontanando da noi.
Se esistesse, gli dovremmo dare, retroattivamente –  è chiaro, almeno il Premio Mindblowing nel 1929.

Ma la costante di Hubble oggi?

Bella domanda. No, dico davvero, è una domanda tosta e gli astrofisici vorrebbero tanto avere una risposta definitiva.
Le stime attuali sono per un valore di circa 70 km/s/Mpc, ma la faccenda non è così semplice. Oggi siamo nell’era dell’astrofisica che prova a spaccare il capello non in quattro, ma in sedici; cioè abbiamo a disposizione diversi modi per stimare la costante di Hubble e ogni stima ha la sua incertezza che deve fare i conti con tutte le altre stime.
C’è un gran dibattito, per esempio, sulle stime ottenute con la radiazione cosmica di fondo (CMB) e con misure locali di distanza delle galassie.
I dati CMB del satellite ESA Planck danno una stima per la costante di Hubble intorno a 67 km/s/Mpc, mentre misurando le distanze locali, come hanno fatto con i recenti dati del telescopio spaziale Hubble, si ottiene una stima di circa 73 km/s/Mpc. Indizi che abbiamo a che fare con una nuova fisica tutta da scoprire? Può darsi, non è chiaro.

Per capire meglio quale sia il problema, guardate questo grafico qui sotto in cui sono riportate diverse misure della costante di Hubble effettuate negli ultimi anni.

Grafico tratto da questo articolo di Wendy L. Freedman: https://arxiv.org/abs/1706.02739

In questo grafico abbiamo in rosso le stime ottenute confrontando il modello LCDM ai dati della radiazione di fondo, in blu invece le stime ottenute misurando le distanze delle galassie con i vari metodi della scala delle distanze.

Con il passare degli anni potete vedere come le barre d’errore stimate siano diventate sempre più piccole e come la discrepanza (o tensione, come viene chiamata in gergo astrofisico) sia diventata non più trascurabile.
Cavolo! Quindi che si fa? Quale stima è giusta? Dove sbattiamo la testa?

Ma cosa vuol dire questa tensione?

Potrebbe essere il segno di qualcosa di nuovo da scoprire. Si è pensato a una nuova specie di neutrini (vedi ultimo paragrafo di questo post) oppure a nuove “esotiche” (così dicono gli scienziati, ma forse meglio chiamarle alternative) forme di energia oscura che non siano la solita costante cosmologica.

Nel 2012 ci fu un workshop di tre giorni al Kavli Institute for Particle Astrophysics and Cosmology della Stanford University. I partecipanti all’incontro scrissero poi un articolo in cui fecero un resoconto delle cose importanti che si erano detti in quei giorni. Le cose fondamentali sono tre:

1) Misurare con precisione e accuratezza il valore della costante di Hubble può farci capire potenzialmente nuove cose e condurci verso nuove scoperte in fisica. In particolare riguardo la natura dell’energia oscura, della curvatura dell’universo (quindi un test della teoria dell’inflazione), le caratteristiche dei neutrini.

2) Bisogna arrivare a misure precise e accurate all’1%. Per farlo bisogna ridurre gli errori associati alla misura stimata, e quindi: migliorare la misura delle distanze delle galassie, usare sempre più supernovae (che vuol dire, costruire strumenti in grado di beccarne sempre più). In particolare, la cosa più difficile è misurare le distanze: bisogna tenere molte cose sotto controllo, non è facile, ma si può fare in teoria.

3) Usare più metodi possibili: avere diverse stime indipendenti è ossigeno puro in scienza per capire meglio cosa si sta misurando. In questa direzione, le neo-arrivate onde gravitazionali saranno importantissime (quest’ultima cosa l’aggiungo io, non c’era ancora, ovviamente, nell’articolo del workshop del 2012).

Sirene standard in arrivo

Nonostante l’eccitazione, giusta, per questi nuovi dati e per la possibilità di avere a che fare con della nuova fisica, credo che potrebbere essere molto saggio anche aspettare che ci arrivi una valanga di onde gravitazionali da misurare, magari con i prossimi aggiornamenti degli interferometri LIGO e Virgo. La cosa buona sarebbe beccare collisioni di stelle di neutroni, quelle che oltre alle onde gravitazionali emettono anche raggi gamma, cioè onde elettromagnetiche. Se si hanno a disposizione sia l’informazione elettromagnetica, sia quella gravitazionale, allora è possibile stimare in modo indipendente dal resto la distanza della galassia in cui è avvenuta la collisione. E con in mano la distanza ecco che si può stimare la costante di Hubble. Questo metodo è chiamato metodo delle sirene standard ed è molto potente (ne ho già parlato anche su Quantizzando, potete leggere il post qua); al momento di collisioni di stelle di neutroni ne abbiamo beccata solo una e quindi la stima è di 70 km/s/Mpc. Niente male come primo tentativo, in sintonia con le stime ottenute tramite gli altri metodi; ma gli errori con le sirene standard sono ancora piuttosto grandi, ci vogliono più sirene se vogliamo ottenere qualcosa di solido. In futuro riusciremo sicuramente a essere più precisi e potremo finalmente capire qual è la misura più vicina a quella statisticamente giusta.

Nelle prossime puntate

Tutto questo per dire che la stima del valore della costante di Hubble continuerà a essere un argomento centrale in astrofisica nei prossimi anni con tutte le nuove missioni e progetti spaziali che inizieranno a raccogliere dati. Tutto si gioca, come sempre in astrofisica, attorno alla stima delle barre di errore stimate attraverso i vari metodi.

Meglio essere preparati, c’è già parecchia tension in giro.

Abbiamo un nuovo problema con la materia oscura?

Secondo il modello LCDM, quello che descrive molto bene come è fatto l’universo in cui viviamo, l’universo è composto per il 68% di energia oscura, il 27% di materia oscura, il 5% di materia barionica (di cui siamo fatti noi e tutto ciò che vediamo), un po’ di radiazione luminosa.
Poi però ci sono un po’ di osservazioni che sembrano andare contro questo modello.

Gli astrofisici e il modello LCDM, in breve, a volte, ma anche spesso.

Per esempio, ci sono delle osservazioni recenti riguardo la materia oscura che sembrano essere non previste dalle simulazioni numeriche basate sul modello LCDM.

Per chi volesse approfondire, consiglio di ascoltare questa puntata del podcast Parsec, in cui ne parlo. Cliccate Play qui sotto per ascoltarla.

Per chi preferisce leggere, il problema è il seguente: se si prende un supercomputer, si scrive un codice numerico in grado di riprodurre tutti i calcoli del modello LCDM e si osserva che cosa viene fuori, ecco che viene fuori che attorno a galassie grandi, le galassie satelliti più piccole si distribuiscono spazialmente attorno in maniera casuale. Questo ci dicono le simulazioni numeriche.

Alcune dati fanno però vedere che attorno alla nostra Via Lattea, attorno alla vicina galassia di Andromeda e attorno alla un po’ più lontana galassia Centaurus A le galassie satelliti si distribuiscono su di un piano, cioè niente affatto casualmente.

Come si spiega questa discrepanza tra le previsioni delle simulazioni e i dati osservativi? Ecco, questo è il punto.

L’immagine qui sopra è tratta da un articolo di Marcel S. Pawlowski, il quale ha scritto un articolo di review sull’argomento. Si vedono le tre galassie che vi ho nominato al centro di ogni piccolo grafico e tutt’intorno le galassie satelliti. Come vedete, sono tutte praticamente distribuite su una fascia.

Questa cosa si era già vista in passato per la Via Lattea e Andromeda. Ma la cosa era stata messa da parte, forse giustamente, dicendo che dalle simulazioni comunque si può calcolare che la probabilità di avere tale situazione è molto piccola ma non nulla. Cioè, è raro avere le galassie satelliti distribuite su un piano, ma tutto sommato le simulazioni dicono che può accadere anche in un universo che funziona con il modello LCDM. Tutto questo, per esempio, è raccontato in questo articolo scientifico (tra i cui autori c’è un certo Carlos S. Frenk, di cui, siatene certi, un giorno parleremo di nuovo, o qui o su Quantizzando). E poi, la Via Lattea e Andromeda sono galassie vicine di casa, quindi tutto sommato se una ha le galassie satelliti su di un piano, allora non è poi così assurdo vedere che anche l’altra mostra lo stesso effetto (del resto le due galassie “danzano” gravitazionalmente).

Però, ora che sappiamo che anche Centaurus A mostra lo stesso effetto, beh, le cose cambiano. Perché se avere due galassie con questo effetto era una cosa rara, averne tre è ancora più raro. Servono più osservazioni, studiare più galassie e fare una statistica migliore. Questo potenzialmente potrebbe essere un grosso problema per il modello LCDM e nel resto di questa newsletter vorrei raccontarvi cosa vuol dire fare questa affermazione.

Il modello LCDM è quello che tutti gli astrofisici al momento accettano come buono per descrivere l’universo perché ci sono delle ottime ragioni per farlo. Il modello LCDM è in grado di riprodurre davvero molto bene i dati della radiazione cosmica di fondo, della distribuzione delle galassie su grande scala, l’espansione accelerata dell’universo, le abbondanze dei primi nuclei atomici che si sono formati subito dopo il Big Bang.

Ma, come tutti sanno e come riporta anche Pawlowski nella sua review, il fatto di riprodurre per bene tutto ciò non dimostra che il modello LCDM sia la teoria corretta per descrivere l’universo. Basta anche solo un’osservazione per rimettere tutto in gioco. Questa cosa è alla base del metodo scientifico: con le osservazioni e gli esperimenti verifichiamo se una teoria non è sbagliata, ma non potremo mai dire se è esatta. In fondo, si tratta pur sempre di teorie, idee umane sviluppate nel tentativo di spiegare come funziona l’universo. Non deve stupire il fatto che siamo di fronte a un processo che ci permette di capire le cose andando avanti a forza di dubbi.

Ora, il modello LCDM è molto bello e semplice da analizzare quando si vogliono studiare le cose che accadono nell’universo su scale molto ma molto grandi. Quando però si va nel piccolo, quando si entra nei condomini dell’universo, cioè su scale dell’ordine delle dimensioni delle galassie, ecco che il modello LCDM diventa più complicato da maneggiare. Per riuscire a essere padroni della teoria anche in questi contesti, ecco che ci vengono incontro le simulazioni numeriche (tipo questa).

Questo è un esempio di simulazione numerica dell’universo.

Si fa così: si parte con l’universo giovanissimo, quando le galassie non c’erano e tutto era più semplice. Le strutture che osserviamo oggi non si erano ancora formate e tutto era molto omogeno e isotropo come sembra indicarci (direttamente e non) la radiazione cosmica di fondo.

Partendo da questa situazione idilliaca, cioè partendo da queste condizioni iniziali, si scrive un codice numerico in grado di risolvere le equazioni del modello LCDM e di fare evolvere queste soluzioni nel tempo, fino ad arrivare ai giorni nostri.  Quello che viene fuori, poi, si confronta con l’universo reale. Da questo confronto vengono fuori le magagne come quella delle galassie satelliti e, praticamente sempre, la colpa è della materia oscura o dell’energia oscura.

Tutto ciò, come fa notare ancora una volta giustamente Pawlowski nella review, ci ricorda anche una cosa importante: con le simulazioni non è il modello LCDM in sé che viene testato, piuttosto una realizzazione di tale modello attraverso le simulazioni (sembra una supercazzola prematurata, ma è proprio così, ne riparleremo presto; se volete un punto di partenza, allora leggete questo vecchio articolo su Quantizzando).

Il problema dei piani di galassie satelliti è un problema per la cosmologia e l’astrofisica contemporanee. Serviranno nuovi dati, ci saranno nuove simulazioni, spunteranno fuori nuove teorie. La scienza va avanti grazie ai dubbi, e nuovi dubbi per fortuna non mancano mai agli scienziati. Diffidate sempre da chi vi racconta che la scienza è sinonimo di verità: la scienza serve a capire, ma si può capire qualcosa solo quando ci si fa qualche domanda.

 

Il primo storico lancio del Falcon Heavy è stato un successo

Il 6 febbraio 2018, SpaceX di Elon Musk ha lanciato il razzo Falcon Heavy per il suo primo test. È stato un successo, un evento epocale, straordinario. Epocale anche perché mette un altro tassello al progetto di privatizzazione dell’esplorazione spaziale, progetto che la NASA sta portando avanti insieme all’azienda privata di Musk. Solo il futuro potrà dirci se tutto ciò sarà un bene o un male.

Il Falcon Heavy è il più potente razzo al momento operativo e non c’è migliore descrizione di quella offerta dal sito ufficiale di SpaceX. Per leggere tutti i dettagli sul Falcon Heavy, con calma e con tante belle illustrazioni, andate qui.

Il Falcon Heavy trasportava una Tesla, un’auto elettrica, con a bordo un passeggero fantoccio, la tuta-starman. Obiettivo della missione è testare le caratteristiche e la funzionalità del razzo Falcon Heavy, e anche, altro obiettivo, è quello di mettere la Tesla in orbita attorno al Sole (precisamente tra la Terra e Marte). Tutto riuscito alla perfezione e il risultato è stato un po’ sboroneggiante, bisogna ammetterlo.

Qualora vi foste persi il lancio? Potete guardarlo qui!

Se volete vedere cosa sta facendo ora la tuta-starman? Potete guardarlo qui in live-streaming! (Non so fino a quando durerà lo streaming, e quindi fin quando questo link sarà operativo).

Tutto sommato, malgrado il pavoneggiarsi di Musk, si è trattato di un evento comunque storico e importante. SpaceX darà una grossa mano alla NASA nei prossimi anni e noi, volenti o nolenti, dovremo sperare nei soldi e negli sforzi di Musk per vedere di nuovo astronauti sulla Luna o, chissà, un giorno su Marte. Qui sotto un po’ di immagini e video del lancio del Falcon Heavy.

Schermata 2018-02-06 alle 21.45.27
Liftoff!
Schermata 2018-02-06 alle 21.49.49
Pensate che gioia per loro: hanno lavorato al progetto a lungo e con passione. Esultanza meritata, ottimo lavoro, davvero bravissimi.
Schermata 2018-02-06 alle 21.49.32
La Tesla con la tuta-starman e una citazione sul cruscotto: don’t panic!
Schermata 2018-02-06 alle 21.53.20
Falcon Heavy ha tre booster riciclabili. In questa foto due dei tre booster che sono tornati sulla Terra senza problemi. Taaac e taaac!
Schermata 2018-02-06 alle 22.50.29
Una foto, comunque sia, epica: un’auto nello spazio, la Terra sullo sfondo, la Guida Galattica per Autostoppisti e un asciugamano nel vano portaoggetti. Alla tuta-starman manca solo una birra.