Il y a un siècle, les astronomes se déchiraient autour d’une question fondamentale : quelle est la véritable nature de ces mystérieuses « nébuleuses » observées dans le ciel ? Ces taches lumineuses font-elles partie de notre galaxie, la Voie lactée, ou sont-elles des objets lointains ? Ce « Grand Débat » a trouvé sa résolution en 1924, quand Edwin Hubble a démontré que ces nébuleuses étaient en réalité d’autres galaxies, éloignées de la nôtre.
Mais Hubble ne s’est pas arrêté là. En 1929, grâce à des analyses spectroscopiques de Vesto Slipher et ses propres observations avec Milton Humason, il a fait une découverte surprenante : plus une galaxie est lointaine, plus elle s’éloigne vite. Cette relation, connue aujourd’hui sous le nom de « loi de Hubble », suit une formule simple : la vitesse d’éloignement d’une galaxie est égale à la distance qui nous en sépare multipliée par H0, la « constante de Hubble ».
Cette découverte a révolutionné notre vision de l’Univers. Ce dernier n’est pas statique mais en expansion et la constante de Hubble représente le taux d’expansion actuel. Pour certains théoriciens, ce résultat n’était pas totalement inattendu. En effet, en appliquant les équations de la théorie de la relativité générale d’Albert Einstein à l’échelle de l’Univers avec le « principe cosmologique », selon lequel l’Univers aux grandes échelles est identique en tout point de l’espace (homogène), et dans toutes les directions dans lesquelles un observateur regarde (isotrope), des scientifiques comme Georges Lemaître, dès 1927, avaient compris que l’Univers ne pouvait pas être statique, et était probablement en expansion.
La découverte d’Edwin Hubble marque le début de l’ère de la cosmologie moderne, domaine de recherche dans lequel les spécialistes essayent de déterminer les lois qui sous-tendent la dynamique de l’Univers et son contenu. Mais, si les travaux de cet astronome ont mis fin au Grand Débat, la mesure de la constante de Hubble a fait émerger ces dernières années de nouvelles discussions intenses parmi les cosmologistes.
Depuis le calcul original d’Edwin Hubble (largement surestimé à environ 500 kilomètres par seconde et par mégaparsec, km/s/Mpc), des centaines d’évaluations de la constante H0 ont été réalisées. En un siècle, la précision de ces mesures s’est améliorée, atteignant maintenant environ 1 %, et indiquant que H0 est plus proche de 70 km/s/Mpc. Cependant, à mesure que la précision s’est accrue, une nouvelle énigme est apparue : nos deux meilleures méthodes d’estimation de H0 sont en désaccord à près de 10 %, soit bien plus que ne peuvent expliquer les incertitudes associées à chacune de ces approches.
Désaccord cosmique
Cette différence peut sembler anodine, pourtant les scientifiques ne parviennent pas à l’élucider. S’agit-il d’une difficulté dans les observations ou dans la théorie ? Toutes les pistes sont encore ouvertes et animent avec passion la communauté scientifique ! L’enjeu est d’importance, car le problème de la mesure de H0 est peut-être le signe d’une défaillance profonde et fondamentale de notre paradigme cosmologique. Certains parlent d’ailleurs de « tension cosmique ».
Jusqu’à présent, le modèle standard de la cosmologie, ou modèle du Big Bang, paraissait bien établi, au moins dans les grandes lignes. Il est bâti sur les équations de la relativité générale d’Einstein appliquées à l’Univers entier et nous apprend que celui-ci a débuté dans un état très dense et extrêmement chaud, puis s’est refroidi au cours de son expansion. Le modèle du Big Bang s’est peu à peu enrichi au cours du XXe siècle, au gré des nouvelles observations et d’une meilleure compréhension des lois de la physique.
Ce modèle, malgré ses nombreux succès, est néanmoins confronté à une faiblesse fondamentale qui concerne la composition de l’Univers. Actuellement, nous savons qu’il est constitué de 5 % de matière ordinaire (ou matière baryonique, celle des atomes de votre corps, des arbres, de la Terre, du Soleil, etc.), de 25 % de matière noire froide (CDM, pour cold dark matter en anglais), qui explique la vitesse de rotation des étoiles dans les galaxies spirales et la croissance des grandes structures (galaxies et amas de galaxies), et de 70 % d’énergie noire, responsable de l’accélération de l’expansion de l’Univers. Ce dernier phénomène a été découvert en 1998, et les propriétés de l’énergie noire sont compatibles avec celles d’une « constante cosmologique » dénotée Λ.
Il en résulte que, dans ce « modèle ΛCDM », la nature de la matière noire et celle de l’énergie noire, soit 95 % du bilan total, sont inconnues ! De nombreux cosmologistes espèrent que, de la même façon que le Grand Débat a bouleversé notre vision du monde, la résolution du problème de la constante de Hubble fera trembler le modèle standard cosmologique sur ses fondations. En effet, la mise en évidence de tensions a un intérêt épistémologique, celui d’offrir des pistes pour explorer les failles du modèle afin de l’améliorer ou d’en construire un nouveau. Nous sommes encore loin de pouvoir l’affirmer, mais cette tension cosmique est peut-être reliée à des propriétés de la matière noire ou de l’énergie noire. Autre possibilité, la solution pourrait reposer sur de nouvelles propriétés physiques de l’Univers, remettant en cause le principe cosmologique, ou même la relativité générale. Une hypothèse, parmi d’autres, est celle de l’« énergie noire précoce », un ingrédient supplémentaire du modèle, que j’ai proposé il y a quelques années avec des collègues. Nous travaillons encore activement à comprendre comment ce scénario influe sur différentes observations du cosmos et comment il pourra être mis à l’épreuve grâce à la prochaine génération de télescopes et d’observatoires, qui seront opérationnels d’ici à quelques années.
Mais avant d’explorer les pistes de résolution, il faut comprendre l’origine observationnelle du problème de la constante de Hubble. En effet, les deux grandes méthodes de mesures donnent des résultats incompatibles. La première approche repose sur le fond diffus cosmologique (CMB), un rayonnement prédit par le modèle du Big Bang et dont la détection, en 1964, par Arno Penzias et Robert Wilson, a été un moment clé dans l’histoire de la cosmologie. Cette découverte a confirmé que l’Univers a commencé dans un état très dense et extrêmement chaud, puis s’est peu à peu refroidi au cours de son expansion.
Soupe primordiale
Le scénario est le suivant. Alors que la température de l’Univers était encore supérieure à celle au cœur des étoiles, le contenu en matière était sous forme de particules fondamentales – principalement des protons et des électrons – interagissant à un rythme effréné avec les photons environnants. Dans ce plasma chaud, la compétition entre la gravité et la pression résultant de ces interactions a conduit, dans les zones affectées par des petites inhomogénéités de densité, à la propagation d’une onde « sonore », connue sous le nom d’« oscillation acoustique baryonique » (BAO).
Lorsque la température des photons est devenue assez basse, les protons et les électrons se sont combinés et ont formé des atomes neutres (l’hydrogène que l’on trouve dans toutes les étoiles). Cette étape dans l’histoire de l’Univers, la recombinaison, s’est produite environ 380 000 ans après le Big Bang. Après cette époque, les photons n’ont plus interagi avec l’hydrogène neutre et se sont propagés librement dans l’espace, constituant le fond diffus cosmologique. Or ce dernier a préservé certaines informations concernant les propriétés de l’Univers avant la recombinaison. Les astrophysiciens ont mesuré le CMB avec divers instruments, comme le télescope spatial Planck. Ils en ont établi une carte représentant la température du rayonnement dans les différentes directions du ciel. La température du CMB est globalement homogène et isotrope (confirmant les hypothèses du principe cosmologique) et vaut 2,725 kelvins. Des fluctuations apparaissent à l’échelle de 10 – 5 kelvin autour de cette valeur. C’est l’analyse des propriétés statistiques de ces fluctuations qui portent les précieuses informations sur l’Univers primordial.
Étalon standard
Notamment, l’onde sonore qui s’est propagée dans le plasma jusqu’au moment de la recombinaison a parcouru une distance de près de 350 000 années-lumière. Cela a imprimé un motif très spécifique dans la carte des fluctuations de température (et de polarisation) du CMB. En analysant les corrélations entre les petites fluctuations du CMB sur l’ensemble du ciel, nous reconstruisons ce motif – connu sous le nom d’« horizon sonore » – dont la taille observable aujourd’hui est à peu près la taille de la Lune dans le ciel.
Après la recombinaison, les baryons (les atomes), eux, se sont accumulés, sous l’effet de la gravité, dans des régions présentant des surdensités de matière noire et ont progressivement formé les structures (galaxies et amas de galaxies) que nous connaissons actuellement. De façon remarquable, comme la distribution de matière, elle-même affectée par cette oscillation acoustique jusqu’à la recombinaison, a engendré la formation des grandes structures, nous observons le motif de l’onde sonore dans la distribution à grande échelle de presque tous les traceurs à notre disposition. Par exemple, dans les relevés de galaxies, cela conduit à une échelle de distance caractéristique séparant les galaxies d’environ 350 millions d’années-lumière. Ainsi, en prenant l’horizon sonore du CMB comme référence, un « étalon standard », on peut en suivre l’évolution à différentes époques. On déduit alors les propriétés de l’expansion de l’Univers et les densités des différentes composantes de son contenu avec une précision de quelques pourcents. En combinant les relevés du CMB et des galaxies, les cosmologistes ont mesuré que le taux d’expansion actuel de l’Univers est d’environ 67 km/s/Mpc.
Cependant, cette méthode est indirecte. Il faut choisir un modèle qui décrit l’Univers primordial, pour calculer la valeur de l’étalon standard et en déduire celle de la constante de Hubble. Il est donc possible qu’un autre modèle donne une estimation différente. Ce scénario alternatif doit alors être capable de satisfaire toutes les contraintes observationnelles à notre disposition et, en particulier, obtenir la taille correcte de l’horizon sonore mesuré dans tous les différents traceurs, un succès hautement non trivial du modèle ΛCDM.
L’autre façon d’évaluer la constante H0, historiquement la plus ancienne, est beaucoup plus directe et repose sur la relation de Hubble (v = H0 × d). L’idée consiste à déterminer, d’une part, la vitesse de récession de galaxies, c’est-à-dire celle due à l’expansion cosmique, et leur distance à nous. Il est alors possible de construire un diagramme de vitesse par rapport à la distance, le « diagramme de Hubble ». La constante de Hubble est simplement la pente de la droite reliant toutes les mesures.
La vitesse de récession d’une galaxie s’obtient par des estimations du décalage de la longueur d’onde des photons émis par la galaxie (lorsqu’un objet s’éloigne de nous, la longueur d’onde du rayonnement qu’il émet s’étire, se décale « vers le rouge », ou redshift en anglais). La difficulté est de différencier le décalage dû à l’expansion de l’Univers de celui lié à des mouvements propres des galaxies, qui sont attirées par d’autres galaxies dans leur voisinage. Pour éviter ce problème, les astrophysiciens considèrent des objets très éloignés, à plus de 10 mégaparsecs (32 millions d’années-lumière), car, dans ce cas, la vitesse intrinsèque est négligeable devant la vitesse d’expansion cosmique.
Une échelle pour atteindre les étoiles
Cette dernière contrainte pose de nombreuses difficultés pour calculer des distances associées. L’approche la plus fiable est de nature géométrique : la méthode de la parallaxe. Elle consiste à mesurer le déplacement angulaire dans le ciel d’un objet (par exemple une étoile) à mesure que la Terre se déplace autour du Soleil, typiquement à des intervalles de six mois. Vous obtenez le même effet quand vous regardez votre pouce au bout de votre bras tendu devant vous et que vous le scrutez alternativement avec votre œil gauche, puis le droit. Votre doigt semble se décaler par rapport à l’arrière-plan. Pour l’étoile, comme nous connaissons la distance entre la Terre et le Soleil (par télémétrie radar), les règles de trigonométrie de base nous permettent de déduire la distance qui nous sépare de l’astre distant. Mais, plus un objet est lointain, plus l’angle mesuré dans le ciel devient vite trop petit pour être apprécié, nous ne pouvons pas utiliser cette méthode au-delà de la Voie lactée.
Pour des objets plus lointains, la solution consiste à évaluer le flux de lumière émis par ceux-ci. Ce flux est proportionnel à la luminosité intrinsèque des objets et inversement proportionnel au carré de la distance qui nous en sépare. Par exemple, si on connaît la luminosité intrinsèque d’une ampoule et qu’on mesure la luminosité telle qu’on la perçoit depuis un point éloigné, il est possible d’en déduire la distance entre elle et nous. Ainsi, les astrophysiciens cherchent des objets dont la luminosité intrinsèque est toujours la même et qu’ils nomment des « chandelles standard ».
Certaines explosions d’étoiles, les supernovæ, sont des exemples de chandelles standard. Elles peuvent atteindre la luminosité d’une galaxie entière sur une échelle de temps de quelques semaines. Les supernovæ « de type 1a » (SN1a) sont un type spécifique dont la luminosité maximale est universelle, car l’explosion se produit toujours pour une étoile de masse caractéristique. En effet, dans des systèmes binaires, composés d’une naine blanche et spécifiquement d’une étoile géante rouge, il est possible que la naine blanche accrète la matière de son compagnon jusqu’à atteindre une masse critique, la masse de Chandrasekhar (1,44 masse solaire), qui provoque l’effondrement de l’astre et son explosion en supernova. Cependant, la luminosité intrinsèque des SN1a ne peut être calculée à partir de principes physiques premiers. Elle doit être déterminée par l’observation. Pour cela, les astrophysiciens doivent construire une « échelle de distance », en calibrant la luminosité des SN1a à partir d’un autre type d’objets de luminosité connue (ou elle-même calibrée de proche en proche).
La façon de calibrer la luminosité des SN1a n’est pas unique. En pratique, il existe au moins deux méthodes de précisions similaires. L’une emploie des étoiles variables appelées « céphéides », tandis que l’autre fait appel à la « luminosité maximale de la branche des géantes rouges ».
Les céphéides sont des étoiles dont la luminosité oscille selon des principes physiques relativement bien compris. En 1912, l’astronome Henrietta Leavitt a montré que plus la période d’oscillation est longue, plus l’étoile est brillante à son maximum. Adam Riess, de l’université Johns-Hopkins, aux États-Unis, et codécouvreur de l’expansion accélérée de l’Univers en 1998, dirige le programme SH0ES qui a étudié des centaines de céphéides dans la Voie lactée à l’aide du satellite spatial Hubble. Grâce, notamment, aux mesures de parallaxe du satellite Gaia, l’équipe a calibré la relation entre période et luminosité des céphéides avec une précision sans précédent. Puis, en observant une quarantaine de SN1a dans des galaxies qui hébergent aussi ces étoiles variables, elle a réalisé la mesure la plus précise de la luminosité intrinsèque des SN1a.
À l’aide de cette construction de l’échelle de distance en trois étapes, la collaboration SH0ES a établi en 2022 que H0 = 73 km/s/Mpc avec une incertitude de 1 km/s/Mpc. Même en considérant les incertitudes, ce résultat est incompatible avec celui obtenu à partir du fond diffus cosmologique et le modèle ΛCDM. Les mesures de SH0ES ont été corroborées en 2024 par celles qui ont été tirées des observations du télescope spatial JWST, même si l’échantillon statistique est pour le moment plus petit que celui de Hubble. Néanmoins, ce résultat a déjà permis d’éliminer certaines erreurs potentielles des données de Hubble grâce, en particulier, à la résolution spatiale bien meilleure de JWST.
L’autre méthode de calibration est plus récente. La « pointe » de la branche des géantes rouges (dont le sigle anglais est TRGB) concerne des étoiles géantes rouges dans lesquelles la fusion de l’hélium démarre soudainement, on parle de « flash de l’hélium ». Après ce flash, les étoiles grandissent vite et leur luminosité diminue rapidement. La « pointe » correspond aux flashs les plus brillants et est mesurée pour une population de géantes rouges dans la Voie lactée et dans les galaxies proches.
En identifiant le TRGB dans les galaxies hôtes de SN1a, il devient possible de calibrer la luminosité intrinsèque des SN1a et finalement d’extraire H0. Wendy Freedman et Barry Madore dirigent le programme Carnegie-Chicago Hubble (CCHP) qui a extrait la calibration du TRGB grâce au télescope Hubble et a déterminé une valeur de H0 égale à 69,8 km/s/Mpc avec une incertitude de 1,7 km/s/Mpc. Tout comme le programme SH0ES, l’équipe de Wendy Freedman a mis à jour sa valeur de H0 en exploitant les données du télescope JWST, et a trouvé une valeur sensiblement identique (quoique moins précise à cause d’un échantillon statistique plus faible). Cette méthode ne montre pas d’écart significatif avec la prédiction du modèle ΛCDM. Cela suggère que, plutôt qu’un problème fondamental de ce dernier, la méthode des céphéides pourrait être affectée par un biais systématique (qui provient d’une mauvaise compréhension de certains processus physiques impliqués dans le phénomène considéré).
Ce résultat a suscité de vives discussions, qui ont culminé à l’été 2024 entre les équipes SH0ES et CCHP. Pour y voir plus clair, les membres du programme SH0ES ont eux aussi utilisé la méthode TRGB et ont obtenu une valeur de H0 = 72 km/s/Mpc (avec une incertitude de 2 km/s/Mpc), ce qui est très proche de la mesure calculée avec les céphéides. Ils ont cependant adopté des hypothèses différentes de l’équipe de Wendy Freedman, notamment sur les méthodes d’extraction de la pointe, ou encore sur l’impact de l’absorption de la lumière des géantes rouges par la poussière dans le Grand Nuage de Magellan (une galaxie naine proche de la Voie lactée).
Le débat se poursuit, car les désaccords entre les deux équipes se nichent dans les détails des méthodes de calibration du TRGB et des céphéides. À n’en pas douter, il en résultera une meilleure compréhension des erreurs systématiques des deux méthodes. Selon la collaboration SH0ES, ces effets systématiques sont pris en compte et n’ont pas d’impact significatif sur leur mesure. Cela reste cependant fortement discuté dans la communauté.
Multiplier les méthodes
Pour mieux comprendre le problème, une stratégie consiste à développer de nouvelles méthodes, indépendantes, pour évaluer la constante de Hubble. La combinaison de toutes les méthodes actuellement disponibles, même sans le résultat de SH0ES, suggère un niveau de tension statistiquement significatif avec la valeur du modèle ΛCDM (environ « trois sigmas » en termes techniques, ce qui se traduit par une probabilité inférieure à 0,3 % que l’écart entre les deux mesures soit dû à une fluctuation statistique). Une fois SH0ES inclus dans l’analyse, la tension dépasse 5 sigmas (moins de 0,000 1 % de chance d’expliquer l’écart par une fluctuation). La diversité des approches laisse supposer fortement qu’un seul effet systématique ne peut pas être responsable de cette tension.
La « tension de Hubble » a trois conséquences principales. Une valeur de H0 plus élevée que celle donnée par le modèle standard implique, tout d’abord, que les distances entre nous et les objets lointains seraient en fait plus petites (d’après la loi de Hubble, les distances évoluent comme 1/H0). Ensuite, l’Univers que nous observons aujourd’hui serait plus jeune (l’âge de l’Univers est aussi inversement proportionnel à H0). Enfin, les densités d’énergie noire et de matière noire, proportionnelles à la constante de Hubble au carré, seraient plus importantes.
Réduire l’horizon sonore
Il faut donc peut-être regarder du côté du modèle : comment le modifier pour que les analyses menées à partir du fond diffus cosmologique et des relevés de galaxies deviennent compatibles avec la valeur obtenue par SH0ES ? Il est nécessaire d’invoquer une composante de physique nouvelle. Mais celle-ci est fortement contrainte. En particulier, elle doit garantir que les oscillations acoustiques baryoniques (très bien expliquées par le modèle ΛCDM) restent bien calibrées. Quantitativement, il faut préserver la taille angulaire des oscillations acoustiques, qui est mesurée avec une précision de 0,1 % dans le CMB. Cette grandeur est le rapport de l’horizon sonore (définie par l’onde qui s’est propagée dans le plasma primordial) divisé par la distance qui nous sépare du fond diffus cosmologique. Or, si H0 est plus grand d’environ 10 %, alors cette distance est plus courte. La solution est claire : pour garder la même taille angulaire, il faut changer la taille de l’horizon sonore visible dans le CMB d’environ 10 %, c’est-à-dire réduire la distance parcourue par l’onde acoustique jusqu’au moment de la recombinaison.
Pour diminuer la taille de l’horizon sonore, un phénomène inconnu a dû se produire un peu avant la recombinaison. Il existe à l’heure actuelle trois solutions possibles qui restent viables : l’une implique l’existence d’un nouveau type de particule très légère, cousine des neutrinos et potentiellement connectée à la matière noire ; une autre suppose que la physique atomique était différente lors de la recombinaison, afin de changer le moment où les noyaux et les électrons se sont recombinés et l’onde a arrêté de se propager ; et enfin, la dernière piste se fonde sur de nouvelles propriétés de l’énergie noire, qui auraient contribué à la dynamique de l’Univers à des temps précoces (souvent nommés modèles d’« énergie noire précoce », ou EDE).
Avec mes collègues Marc Kamionkowski et Tanvi Karwal, de l’université Johns-Hopkins, et Tristan Smith, du Swarthmore College, aux États-Unis, nous avons été les premiers à proposer cette dernière solution fin 2018. C’est la voie qui est aujourd’hui la plus étudiée dans la communauté, et qui se décline en de nombreuses versions.
Dans ces modèles, l’énergie noire représente jusqu’à 10 % de la densité d’énergie totale de l’Univers environ 100 000 ans après le Big Bang, puis se dilue soudainement. Cette composante supplémentaire augmente le taux d’expansion de l’Univers (et donc la vitesse de refroidissement), ce qui réduit le temps laissé à l’onde pour se propager, et donc diminue la taille de l’horizon acoustique observée dans le CMB. Cerise sur le gâteau : les données récentes du télescope ACT, au Chili, qui bénéficie d’une meilleure résolution spatiale que Planck, favorisent le modèle d’EDE par rapport à ΛCDM ! Mais les dernières données d’ACT ne semblent pas être en tous points compatibles avec celles de Planck, et les scientifiques travaillent actuellement à comprendre l’origine des différences. De nouveaux programmes d’étude du CMB sont en préparation : l’observatoire Simons, au Chili, a pris ses premières données en 2024 et le satellite LiteBIRD doit être lancé en 2027. Nous avons calculé que les mesures de ces dispositifs permettront de détecter (ou d’exclure) sans ambiguïté la présence de l’EDE. Il nous faut donc être patients, mais la réponse est proche.
Les questions encore ouvertes de l’EDE
Si l’EDE est une bonne candidate pour résoudre la tension de la constante de Hubble, elle n’est pas une solution parfaite. Tout d’abord, les modèles n’expliquent pas pourquoi l’EDE existait à cette époque puis a disparu aussi vite, et potentiellement est réapparue des milliards d’années plus tard sous la forme de l’énergie noire qui provoque l’accélération de l’expansion de l’Univers actuelle. Récemment, des chercheurs ont proposé des mécanismes dynamiques qui déclenchent la disparition de l’EDE. Par exemple, une transition de phase (c’est-à-dire un changement d’état de la matière dû à la variation de température, comme lorsque l’eau liquide devient de la glace) dans le secteur de la matière noire, grâce à un couplage à l’EDE, pourrait faire varier ses propriétés rapidement. Un phénomène similaire pourrait avoir lieu si le champ d’EDE est couplé aux neutrinos, au moment où l’énergie de masse de ces derniers (dont la valeur est encore inconnue) devient importante devant leur énergie thermique. Ces idées restent cependant très hypothétiques.
Les scénarios d’EDE ont aussi des conséquences observationnelles non désirées, qui, à terme, pourraient disqualifier l’EDE comme une solution. En effet, ces dernières années, de grands relevés sur la structure à grande échelle de l’Univers, comme SDSS BOSS, KiDS et DES, ont mesuré l’amplitude des fluctuations de densité, c’est-à-dire la probabilité d’observer une surdensité ou une sous-densité par rapport à un Univers globalement homogène. Cette mesure est notée S8 (voir l’encadré page xx). Ces relevés ont identifié un décalage avec le modèle ΛCDM statistiquement intéressant. L’Univers semble avoir moins de fluctuations que prévu. Est-ce un nouvel indice d’un problème du modèle ? Les observations du télescope spatial Euclid, lancé en juillet 2023 et qui a dévoilé en 2024 ses premiers clichés, et de l’observatoire Vera-Rubin, au Chili, qui devrait opérer à partir de 2025, seront cruciales pour confirmer ces discordances.
À première vue, ce potentiel second problème du modèle ΛCDM est une très bonne nouvelle : si le problème de la tension de Hubble émerge de propriétés physiques encore inconnues et non incluses dans ΛCDM, il est très probable que celles-ci affectent d’autres observables. Le fait d’avoir deux tensions cosmiques est peut-être un indice qu’il manque effectivement quelque chose dans le modèle. Mais, pour l’heure, aucune des pistes étudiées ne parvient à soulager les deux tensions simultanément. En fait, l’existence même de la tension H0 semble aggraver la tension S8 car elle implique une augmentation de la densité de matière noire, ce qui produit davantage de structures. Un modèle comme l’EDE qui pourrait résoudre la première tension empire la seconde… La quête d’une solution commune à ces deux tensions reste ouverte à ce jour, mais les idées ne manquent pas.
La question est donc la suivante : comment procéder pour établir un nouveau modèle cosmologique ? Tout d’abord, il faut poursuivre les efforts expérimentaux pour clarifier si ces tensions sont le résultat d’erreurs systématiques ou non (que ce soit dû à des erreurs de mesure, ou à des effets astrophysiques « standard » que nous ne connaissons pas encore). Si c’était effectivement une pure erreur systématique, nous reviendrions à la « case départ », avec une cosmologie concordante avec ΛCDM et peu d’indices sur la nature de 95 % du contenu de l’Univers. Néanmoins, les futures expériences telles que LSST et Euclid du côté des grands relevés de galaxies, ou l’observatoire Simons au Chili et le satellite LiteBIRD, du côté des relevés du CMB, tenteront d’améliorer considérablement les mesures actuelles pour trouver des failles dans le paradigme ΛCDM.
En parallèle, l’astronomie des ondes gravitationnelles ouvre une direction très originale pour mesurer le taux d’expansion de l’Univers. La méthode dite des « sirènes standard » a été utilisée pour la première fois en 2017. Elle repose sur la mesure à la fois des ondes gravitationnelles et de la lumière émise par la fusion de deux étoiles à neutrons (on parle de « kilonova »). En 2017, la collaboration Ligo/Virgo a ainsi détecté une impulsion d’onde gravitationnelle environ deux secondes avant que la lumière de la kilonova GW170817 ne soit vue par différents télescopes sur Terre. L’analyse des ondes gravitationnelles donne la distance de la fusion des deux étoiles à neutrons, tandis que le redshift des émissions électromagnétiques donne la vitesse. Les chercheurs ont ainsi mesuré la constante de Hubble avec une précision d’environ 50 %. La détection d’autres kilonovæ dans les années à venir, et le développement de futurs observatoires d’ondes gravitationnelles, comme l’interféromètre spatial Lisa et le télescope Einstein, au sol, réduira la précision à quelques pourcents. Une telle mesure – si elle est divergente – aiderait certainement à convaincre la communauté de la réalité de la tension de Hubble et des limites du modèle ΛCDM.
Du côté théorique, il est essentiel de poursuivre l’effort d’amélioration des modèles et d’examiner les conséquences de ces modèles sur d’autres observables, au-delà du seul paramètre H0. Il semble raisonnable de penser que la source des tensions actuelles, sur la constante de Hubble et S8, a probablement laissé son empreinte sur d’autres traceurs. La détection d’autres grandeurs cosmologiques en conflit avec le modèle permettrait de confirmer que les tensions sont bien réelles et qu’il est nécessaire de changer le modèle. Cette démarche participerait à une vision « popperienne » de la science, là où un modèle dont le seul impact est de changer la valeur de H0 ou de S8 demeure d’un intérêt limité.
Le plus important reste que ces tensions cosmiques sont peut-être une porte ouverte sur l’Univers sombre. Elles nous donnent une nouvelle direction pour explorer les conséquences de la nouvelle physique, fondées sur des problèmes expérimentaux réels et potentiellement liées à des questions fondamentales. À partir d’approches phénoménologiques, nous pouvons espérer construire des modèles dont les conséquences vont même au-delà de la matière noire et de l’énergie noire. Il a, par exemple, été proposé que les tensions cosmologiques nous renseignent peut-être aussi sur les propriétés des neutrinos, ou bien sur l’asymétrie entre la matière et l’antimatière. Elles pourraient par ailleurs aider à relier l’énergie noire à l’inflation (une autre phase d’expansion accélérée aux tout premiers instants de l’Univers), et même suggérer de nouvelles propriétés de la gravité, bien que nous sommes encore très loin d’avoir fermement établi de telles connexions.
Nous vivons un moment très excitant dans le domaine de la cosmologie. Il est difficile de prévoir les conclusions que nous pourrons tirer de la grande variété d’observations dans la prochaine décennie, mais il est certain qu’à l’instar de la résolution du Grand Débat, il y a un siècle, celles-ci pourraient révolutionner notre vision de l’Univers.
Aller à la source