Mesurer l’histoire de l’expansion de l’Univers avec les grands relevés de Galaxies
24 Janvier 2025 à L’espace Henri Lasson
Ce soir nous avons assisté à la conférence d’Étienne Burtin, chercheur qui travaille aujourd’hui pour l’institut de recherche sur les lois fondamentales de l’univers au CEA Paris-Saclay.
Étienne a commencé sa carrière comme physicien des particules, puis s’est orienté vers la cosmologie observationnelle en participant à des programmes de recherche comme eBoss et maintenant Desi.
Il nous propose ce soir de nous partager les derniers résultats de la campagne de mesure des spectres de galaxies à l’aide du Dark Energy Spectroscopic Instrument
Nous vous proposons ici un résumé de cette conférence en empruntant une partie des slides d’Etienne.

La conférence a commencé par un rappel des principes de mesure de distance dans l’univers faisant intervenir la parallaxe puis les chandelles standard comme les Céphéide et les super novæ. Étienne a ensuite expliqué la manière de mesurer la vitesse de récession (d’éloignement) des galaxies en en mesurant le décalage vers le rouge de leur spectre de lumière.


Ces mesures ont mené à la découverte de l’expansion de l’univers en constatant une relation linéaire entre la distance et la vitesse. Plus une galaxie est éloignée plus elle s’éloigne vite.
La relation qui en découle s’appelle la loi de Hubble-Lemaitre en hommage à l’observateur Hubble et au théoricien qui avait prédit cette expansion en appliquant l’équation de la relativité générale à l’ensemble de l’univers.

Cette loi donne la relation entre la vitesse de récession et la distance d’un objet sous la forme V = H0.D où H0 est la constante de Hubble-Lemaitre
Étienne a ensuite rappelé la découverte de l’expansion accélérée de l’univers grâce aux mesures de distance des SN1A. Cette découverte a mené à l’établissement du modèle cosmologique ΛCDM devenu le modèle standard de la cosmologie.

Étienne a alors rappelé les différentes étapes de l’histoire de l’univers depuis le big bang. L’inflation, la nucléosynthèse, la surface de dernière diffusion, les âges sombres, jusqu’à la formation des galaxies et des grandes structures de l’univers.

Le modèle du Big bang a mené à la prévision de cette surface de dernière diffusion. Cela a été confirmé par la découverte du fond diffus cosmologique (CMB) en 1965. L’analyse du CMB par les satellites dédiés a permis de découvrir une échelle angulaire caractéristique pour laquelle les fluctuations de densité sont les plus importantes. Cette échelle de 1 degré correspond à une distance caractéristique qui correspond à la distance parcourue par l’onde acoustique dans le plasma primordial.


Cette mesure faite sur les données du CMB obtenues grâce aux satellites WMAP qui Planck doit avoir un impact sur la répartition de matière dans l’univers. En effet, cette distance caractéristique correspond à la distance moyenne entre les surdensités et donc aux endroits où la matière a statistiquement plus de chance de se regrouper. C’est ce qu’on appelle l’échelle d’oscillation acoustique des baryons (BAO).

La localisation des galaxies dans l’univers utilisant des campagne de mesure permet de confirmer la théorie. Pour pouvoir localiser ces galaxies il faut leurs coordonnées angulaires et leur distance.
Ces distances sont calculées grâce au décalage vers le rouge du spectre de chaque galaxie.
La capture du spectre d’une galaxie prends beaucoup de temps et donc d’heures de télescope.
Pour avoir une bonne précision statistique il faut mesurer 1 million de galaxies.

Une première campagne de mesure a utilisé le télescope Sloan de 2,5 m de 2000 à 2020. Il permettrait de faire 600 spectres par pose.

L’objet de cette conférence est de parler de la campagne qui a suivi, avec l’utilisation d’un télescope de 4m de diamètre pour faire 5000 spectre par pose.
Le télescope est localisé en Arizona:

Pour permettre de capturer 5000 spectres d’un coup il dispose de 5000 fibres optiques attachées à 5000 petits dispositifs mécaniques permettant d’ajuster la position exacte sur le plan focal du télescope.
On obtient ainsi 5000 spectres toutes les 20 min

Pour obtenir ces données il est d’abord nécessaire de sélectionner les sources à mesurer. Il faut être sûr d’avoir une galaxie est non une étoile.
Cette sélection est faite grâce à des relevés optiques 2D.
La sélection à permis de sélectionner 2 milliards de galaxies. Dans ces 2 milliards, 60 millions sont sélectionnées pour la campagne de mesure de spectres
On peut se faire une idée de ces données en regardant le site legacysurvey.org
Pour être capable de distinguer les galaxies des étoiles on utilise des filtres de couleurs. On peut créer des diagrammes de couleurs en faisant des opérations de soustraction entre différent filtres.
Étienne nous partage un des diagrammes utilisé où on voit clairement la séparation pour la galaxies « proches » c’est à dire dans les 6M d’années lumières (z=1)

Au delà de z=1 la luminosité des galaxies devient trop faible pour avoir un spectre exploitable en 20min
Pour les objets plus lointains on cherche alors les quasars. Ce sont des galaxie contenant un trou noir extrêmement actif et donc extrêmement brillant.
On utilise encore la méthode de sélection pas différence de couleur en ajoutant un peu d’IA pour être plus précis. On a pu sélectionner 500 000 quasars de cette manière.
Étienne nous partage quelques captures de Legacysurvey.org qui permet de voir les résultats

On peut voir sur l’une d’elles le champ couvert par chaque fibre optique et se rendre compte qu’il a fallu plusieurs passages au même endroit pour récupérer les spectres de chaque galaxie de chaque champ.

Photo du télescope de 4m sur une monture équatoriale en fer à cheval

Schéma du télescope où on voit le plan focal au dessus du miroir primaire ainsi que le jeu de fibres optiques qui rejoint un espace où elles sont associées à des cameras pour enregistrer leurs spectres

La slide suivante montre le jeu de lentilles utilisées pour corriger correctement le champ et avoir le meilleur champ corrigé possible sur le plan focal.


Les 2 slides suivantes comparent eBOSS et DESI en terme d’efficacité
Sur eBOSS il fallait préparer à la main des plaques trouées au bons endroits:

Sur DESI tout est automatique. Le positionnement des fibre se fait avec des petit bras robotisés
On gagne un temps énorme !

Les 5000 fibres optiques sont regroupées en 10 groupes de 500. Chaque groupe arrive sur un spectrographe.
La slide suivante montre le principe de capture des spectres. La lumière capturée par les fibres est subdivisée en 3 à l’aide de 2 miroirs dichroïques. Le but est ici de capturer 3 groupes de longueur d’onde: proche infra-rouge, rouge et bleu.
Les spectres sont capturés sur 3 camera CCD :

On voit sur la slide suivante, une image capturée avec les 500 spectres. A l’aide de logiciels on peut reconstituer le spectre complet de chaque galaxie. Cela permet de repérer les raies caractéristiques et de déduire le décalage vers le rouge.

Étienne nous présente ensuite un exemple des statistique liées à une nuit. On voit apparaitre en gris les zones prévues pour le relevé.


Une autre manière de représenter les données une année plus tard. On note l’échelle des distances jusqu’à a surface de dernière diffusion ainsi que les deux parties principales du relevé au dessus et en dessous de notre cercle galactique

Deux ans plus tard, le nombre de spectres obtenus permet de voir la structure filamenteuse des galaxies.

Comment analyser un tel ensemble de données.
Pour nous faire toucher du doigt comment tirer de l’information de toutes ces données, Étienne utilise un exemple plus parlant que sont les stations de transport en commun de l’Ile de France: Métro, Bus et RER. Voici l’équivalent en 2D de la campagne de mesure

Le principe est de pouvoir comparer ces données à une distribution qui serait aléatoire sur tout l’espace.

On voit qu’il y a une relation pratiquement linéaire entre la distance entre 2 stations et le nombre de paires de station à cette distance. Cela veut dire que la distribution est bien aléatoire. Une que fois cette distribution aléatoire générée on la soustrait aux mesures effectuées et on obtient la fonction de corrélation qui montre une prédominance de distances aux alentours de 300m. On va faire la même chose avec les galaxies.

Etienne nous explique alors comment la fonction de corrélation utilise les données de DESI

Pour les galaxies du relevé SDSS, on avait obtenu le résultat suivant montrant un petit pic matérialisant l’écart à une distribution aléatoire des galaxies.

Le diagramme suivant montre les résultat de Desi concernant cette distance caractéristique calculée à différentes distances (redshift). Elle montre l’écart des mesure à ce qu’on aurait du trouver. On observe qu’à redshift 5 et 6 on est bien en dessous de la valeur attendue

Le diagramme suivant montre les ellipses de contraintes permettant de tester le modèle Lambda CDM. Ces ellipses montrent la corrélation qui existe entre la densité de matière dans l’univers (Omega m) et le résultat obtenu par DESI et d’autre campagnes.
Les ellipses étant un peu allongées, la corrélation est importante.

On peut aussi obtenir une nouvelle valeur de H0 et la comparer aux autres mesures.
- BAO + BBN : Mesure H0 en utilisant la densité baryonique issue de la nucléosynthèse. Cette combinaison permet d’estimer la valeur de H0
- BAO + BBN + θ* : Ajoute la contrainte du CMB (la taille angulaire) pour une meilleure précision.
- BAO + r_d : Utilise une valeur spécifique de rd, permettant d’explorer des scénarios non standards.

Un autre résultat de DESI concerne la détermination du paramètre d’état de l’énergie noire. La valeur obtenue est très proche de -1 ce qui veut dire qu’il s’agirait effectivement de la constante cosmologique introduite dans l’équation de la relativité général d’Einstein.

Un autre résultat concerne la possible variation de l’énergie noire au cours du temps. Les résultats actuel ne permettent pas de tirer de conclusion:

Étienne partage d’autres résultats, en particulier sur la croissance des structure puis termine sa conférence sous des applaudissements nourris.
Il s’ensuit une séance de questions réponses montrant le grand intérêt qu’a suscité cette conférence.

Un très grand merci à Étienne pour avoir partagé avec passion les résultats de ce programme extraordinaire !
@Jocelyn