A cinque anni dalla realizzazione della prima immagine dell’universo a microonde ottenuta dalla missione Planck dell’ESA, di fatto la più estesa ed accurata visione dell’universo primordiale oggi a nostra disposizione, il consorzio di Planck ha reso pubblica la cosiddetta legacy data release: l’ultima – definitiva – versione dei dati raccolti dalla strumentazione di bordo della sonda, che vede una importante partecipazione sia scientifica che tecnologica dell’Italia, con l’Agenzia Spaziale Italiana (ASI) e l’Istituto Nazionale di Astrofisica (INAF) in prima fila.
Questi dati confermano le predizioni indicate dal modello standard cosmologico, ma lasciano un enigma ancora aperto, quello sul corretto valore della costante di Hubble, che di fatto indica la velocità di espansione dell’universo. È anche su questo dato cruciale che si svolgeranno gli studi dei cosmologi, per riuscire a conoscere in maniera sempre più chiara la storia del nostro universo e la sua evoluzione.
Era il 21 marzo 2013. Scienziati e giornalisti scientifici da tutto il mondo si erano riuniti nella sede parigina dell’Agenzia spaziale europea (ESA) – o si erano collegati online – per assistere al momento in cui la missione Planck dell’ESA avrebbe svelato la sua “immagine” del cosmo. Un’immagine ottenuta non con la luce visibile ma con le microonde. A differenza della luce visibile ai nostri occhi, la cui lunghezza d’onda è inferiore al millesimo di millimetro, la radiazione che Planck stava rilevando misurava onde più lunghe, da pochi decimi di millimetro a pochi millimetri.
Ed era una radiazione emessa quando l’universo ebbe inizio. L’espressione che si usa per indicare questa radiazione nel suo complesso è fondo cosmico a microonde, o CMB (dall’inglese cosmic microwave background radiation). Misurando le differenze quasi impercettibili che questa radiazione presenta da una regione all’altra del cielo, era possibile leggere nell’immagine ottenuta da Planck l’età, l’espansione, la storia e il contenuto dell’universo.
Già due missioni della NASA, COBE nei primi anni Novanta e WMAP nel decennio successivo, avevano effettuato analoghe ricognizioni del cielo, ottenendo come risultato immagini simili. Immagini, però, che non avevano la precisione e la nitidezza di quelle prodotte da Planck. Grazie alla sua visione avremmo potuto cogliere l’impronta dell’universo primordiale a un livello di dettaglio mai ottenuto prima.
Quando l’immagine venne rivelata, i dati confermarono il modello, ma rimasero comunque alcune anomalie, sulle quali si sarebbero concentrate le ricerche successive Trascorsi cinque anni, con il rilascio della legacy data release il messaggio rimane lo stesso di allora, ed è ancora più forte. “È questo il principale lascito di Planck”, dice Jan Tauber, Planck project scientist dell’ESA. “Il modello standard della cosmologia ha superato, a oggi, tutti i test. E le misurazioni che lo dimostrano le ha compiute Planck”.
Alla base di tutti i modelli cosmologici c’è la teoria della relatività generale di Albert Einstein. Per riconciliare le equazioni relativistiche generali con un’ampia gamma di osservazioni, fra le quali il fondo cosmico a microonde, il modello standard della cosmologia include l’intervento di due componenti sconosciute. Primo, una materia che attrae, nota come materia oscura fredda (cold dark matter): a differenza della materia ordinaria, non interagisce con la luce. Secondo, una forma di energia che respinge, nota come energia oscura (dark energy): è la responsabile dell’espansione attualmente accelerata dell’universo. Insieme alla materia ordinaria che conosciamo, queste due componenti sono risultate essenziali per spiegare il cosmo. Ma si tratta di componenti esotiche: ancora non sappiamo cosa siano veramente.
Lanciato nel 2009, Planck ha raccolto dati fino al 2013. La sua prima release risale alla primavera di quell’anno. Oltre a produrre la mappa in temperatura del fondo cosmico a microonde con un’accuratezza senza precedenti, Planck ha misurato lapolarizzazione di quella radiazione; una caratteristica che contiene l’impronta dell’ultima interazione avvenuta tra la radiazione e le particelle di materia presenti nell’universo primordiale: porta dunque con sé informazioni aggiuntive e cruciali sulla storia del cosmo. Ma potrebbe anche contenere informazioni sui primissimi istanti del nostro universo, offrendoci dunque indizi per comprenderne la nascita.
La seconda release, prodotta nel 2015, raccoglieva tutti i dati raccolti durante l’intera durata della missione, dunque in totale otto survey dell’intero cielo. Oltre ai dati in temperatura, conteneva anche i dati in polarizzazione, ma alcune delle conclusioni alle quali si poteva giungere all’epoca avrebbero richiesto ulteriori conferme, ed erano dunque da maneggiare con cautela.Proprio in questo consiste la grande novità della release finale, questa del 2018. Ora che il consorzio di Planck ha completato una nuova elaborazione dei dati, la maggior parte delle anomalie è scomparsa: gli scienziati hanno adesso la certezza che sia la temperatura sia la polarizzazione sono determinate in modo accurato. Con questo risultato i cosmologi possono essere certi che la loro descrizione dell’universo come un luogo fatto di materia ordinaria, materia oscura fredda ed energia oscura, popolato da strutture il cui seme è stato gettato durante una fase iniziale d’espansione inflazionaria, è in gran parte corretta.
«Si conclude una missione di grande successo, che, fra i tanti obiettivi raggiunti, ha principalmente contribuito alla validazione del modello standard della cosmologia”, commenta Barbara Negri, Responsabile Unità Esplorazione ed Osservazione dell’Universo presso l’ASI. “L’Italia ha partecipato in maniera significativa alla missione Planck con la progettazione e realizzazione dello strumento LFI (Low Frequency Instrument) e con lo sviluppo del sottosistema di pre-amplificazione criogenica per il secondo strumento HFI (High Frequency Instrument). L’ASI ha fornito un importante supporto alla comunità scientifica coinvolta guidata dal PI italiano dello strumento LFI, Reno Mandolesi, e da Paolo de Bernardis per la partecipazione allo strumento HFI, e ha finanziato l’industria italiana per lo sviluppo della strumentazione scientifica».
«Finalmente possiamo elaborare un modello cosmologico basato esclusivamente sulla temperatura, o esclusivamente sulla polarizzazione, o infine sia sulla temperatura che sulla polarizzazione. E tutti e tre corrispondono», afferma Reno Mandolesidell’Università di Ferrara e associato INAF, principal investigator dello strumento LFI di Planck.
Rimangono però alcune stranezze che richiedono una spiegazione. Una in particolare è legata all’espansione dell’universo. Un’espansione il cui Il tasso è dato dalla cosiddetta costante di Hubble. Per calcolare la costante di Hubble, gli astronomi hanno tradizionalmente fatto affidamento a distanze calibrate presenti nel cosmo. Una tecnica possibile solo per l’universo relativamente locale: si misura la luminosità apparente di particolari tipi di stelle variabili a noi vicine e di particolari stelle che esplodono, la cui luminosità effettiva può essere stimata in modo indipendente. È una tecnica ben collaudata, sviluppata nel corso del secolo scorso a partire dal lavoro pioneristico di Henrietta Leavitt e successivamente applicata, alla fine degli anni Venti, da Edwin Hubble e dai suoi collaboratori, che avvalendosi di stelle variabili in galassie distanti e altre osservazioni riuscirono a dimostrare come l’universo stesse espandendosi.
Il valore per la costante di Hubble ottenuto dagli astronomi – facendo ricorso a un’ampia varietà di osservazioni all’avanguardia, fra le quali anche quelle dell’osservatorio che proprio da Hubble ha preso il nome, il telescopio spaziale Hubble della NASA e dell’ESA – è 73,5 km/s/Mpc, con un’incertezza di appena il due per cento. L’esoterica unità di misura esprime la velocità dell’espansione in km/s per ogni milione di parsec (Mpc) di separazione nello spazio, dove un parsec equivale a 3,26 anni luce.
Un secondo metodo per ottenere una stima della costante di Hubble si avvale invece del modello cosmologico che meglio si adatta all’immagine del fondo cosmico a microonde cosmica – dunque a una rappresentazione dell’universo quand’era molto giovane – per fornire una previsione del valore che la costante di Hubble dovrebbe avere oggi. Ebbene, applicato ai dati di Planck questo metodo fornisce un valore più basso: 67,4 km/s/Mpc. E con un margine d’incertezza assai ridotto, inferiore all’uno per cento. Ora, se da una parte è straordinario che due metodi radicalmente diversi per derivare la costante di Hubble – uno che si basa sull’universo locale e già maturo, l’altro sull’universo distante e ancora in fasce – arrivino a valori così simili, occorre d’altra parte ricordare che, in linea di principio, questi due valori, tenendo conto dei rispettivi margini d’errore, dovrebbero corrispondere.
Ma così non sembra essere. Da qui la “tensione”, l’anomalia. E la domanda diventa: come conciliare questi due risultati? Entrambe le parti in causa sono convinte che eventuali errori residui presenti nei loro metodi di misurazione siano ormai troppo ridotti per spiegare la discrepanza. È dunque possibile che ci sia qualcosa di un po’ particolare nel nostro ambiente cosmico locale, qualcosa che renda la misurazione nell’ambiente vicino in qualche modo anomala? Per esempio, sappiamo che la nostra galassia si trova in una regione dell’universo la cui densità è lievemente inferiore alla media, e questo potrebbe avere qualche effetto sul valore locale della costante di Hubble. Ma sfortunatamente la maggior parte degli astronomi ritiene che simili peculiarità non siano grandi a sufficienza per risolvere il problema.
Tuttavia, per quanto si tratti di una prospettiva emozionante, gli stessi risultati di Planck pongono forti vincoli a questa linea di pensiero, proprio perché si adattano così bene alla maggior parte delle osservazioni. Di conseguenza, nessuno è al momento in grado di fornire una spiegazione soddisfacente per le differenze tra le due misurazioni, e il punto interrogativo rimane. Questa è dunque l’eredità di Planck: con il suo universo quasi perfetto, la missione ha offerto ai ricercatori una conferma dei loro modelli, lasciando al tempo stesso alcuni dettagli irrisolti sui quali cimentarsi. In altre parole: il meglio di entrambi i mondi.
Lanciato il 14 maggio 2009 dall’Agenzia Spaziale Europea (Esa), Planck è il risultato di una collaborazione internazionale che coinvolge oltre cento istituti di ricerca fra Europea, Stati Uniti e Canada. Alla sua realizzazione l‘Italia ha contributo con un finanziamento dell’Agenzia Spaziale Italiana (Asi). Sul fronte dell’attività di ricerca, il progetto è stato realizzato con il contributo dell’Istituto Nazionale di Astrofisica (Inaf). Per l’industria hanno collaborato ingegneri e tecnici delle aziende Thales Alenia Space (Thales-Finmeccanica), Galileo e Pasquali Microwave System. Grazie a questa collaborazione è stato ideato, progettato e integrato in Italia uno dei due strumenti di Planck, il Lfi (Low Frequency Instrument), che può rilevare segnali dell’ordine del milionesimo di grado.
Principal Investigator di LFI è Reno Mandolesi, dell’Università di Ferrara e associato INAF. L’Italia ha contribuito anche al secondo strumento di Planck, Hfi (High Frequency Instrument), progettando e sviluppando il sottosistema di pre-amplificazione criogenica. Responsabile per la parte italiana è l’astrofisico Paolo de Bernardis dell’università Sapienza di Roma.