Utiliser la distribution de la matière noire pour tester notre modèle cosmologique —


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    Cela ressemble à un paradoxe classique : comment voyez-vous l’invisible ? Mais pour les astronomes modernes, c’est un véritable défi : comment mesurer la matière noire, qui par définition n’émet pas de lumière ?

    La réponse : vous voyez comment cela affecte les choses que vous peut voir. Dans le cas de la matière noire, les astronomes observent comment la lumière des galaxies lointaines se courbe autour d’elle.

    Une équipe internationale d’astrophysiciens et de cosmologistes a passé l’année dernière à percer les secrets de ce matériau insaisissable, en utilisant des simulations informatiques sophistiquées et les observations de l’une des caméras astronomiques les plus puissantes au monde, l’Hyper Suprime-Cam (HSC). L’équipe est dirigée par des astronomes de l’Université de Princeton et des communautés astronomiques du Japon et de Taïwan, en utilisant les données des trois premières années de l’étude du ciel HSC, une étude d’imagerie à grand champ réalisée avec le télescope Subaru de 8,2 mètres au sommet de Maunakea à Hawaii. Subaru est exploité par l’Observatoire astronomique national du Japon ; son nom est le mot japonais désignant l’amas d’étoiles que nous appelons les Pléiades.

    L’équipe a présenté ses conclusions lors d’un webinaire auquel ont participé plus de 200 personnes, et ils partageront leurs travaux lors de la conférence “Future Science with CMB x LSS” au Japon.

    “Notre objectif global est de mesurer certaines des propriétés les plus fondamentales de notre univers”, a déclaré Roohi Dalal, étudiant diplômé en astrophysique à Princeton. “Nous savons que l’énergie noire et la matière noire représentent 95 % de notre univers, mais nous comprenons très peu ce qu’elles sont réellement et comment elles ont évolué au cours de l’histoire de l’univers. Des amas de matière noire déforment la lumière des galaxies lointaines. par faible lentille gravitationnelle, un phénomène prédit par la théorie de la relativité générale d’Einstein. Cette distorsion est un effet vraiment, vraiment petit ; la forme d’une seule galaxie est déformée d’une quantité imperceptible. Mais lorsque nous effectuons cette mesure pour 25 millions de galaxies, nous sommes capables de mesurer la distorsion avec une précision assez élevée.”

    Pour passer directement à l’essentiel : l’équipe a mesuré une valeur pour la “compacité” de la matière noire de l’univers (connue des cosmologistes sous le nom de “S8“) de 0,776, ce qui correspond aux valeurs que d’autres études de lentilles gravitationnelles ont trouvées en examinant l’univers relativement récent – mais cela ne correspond pas à la valeur de 0,83 dérivée du fond cosmique des micro-ondes, qui remonte aux origines de l’univers.

    L’écart entre ces deux valeurs est faible, mais comme de plus en plus d’études confirment chacune des deux valeurs, cela ne semble pas être accidentel. Les autres possibilités sont qu’il y a une erreur ou une erreur non encore reconnue dans l’une de ces deux mesures ou que le modèle cosmologique standard est incomplet d’une manière intéressante.

    “Nous sommes encore assez prudents ici”, a déclaré Michael Strauss, président du département des sciences astrophysiques de Princeton et l’un des dirigeants de l’équipe HSC. “Nous ne disons pas que nous venons de découvrir que la cosmologie moderne est totalement fausse, car, comme Roohi l’a souligné, l’effet que nous mesurons est très subtil. Maintenant, nous pensons que nous avons bien fait la mesure. Et les statistiques montrent qu’il n’y a qu’une chance sur 20 que ce soit simplement dû au hasard, ce qui est convaincant mais pas complètement définitif. mesures, peut-être que nous constatons que c’est réel.”

    Cacher et découvrir les données

    L’idée qu’un certain changement est nécessaire dans le modèle cosmologique standard, qu’il reste un élément fondamental de la cosmologie à découvrir, est délicieusement séduisante pour certains scientifiques.

    “Nous sommes des êtres humains et nous avons des préférences. C’est pourquoi nous faisons ce que nous appelons une analyse” en aveugle “”, a déclaré Strauss. “Les scientifiques sont devenus suffisamment conscients d’eux-mêmes pour savoir que nous nous biaiserons, peu importe à quel point nous sommes prudents, à moins que nous ne menions notre analyse sans nous permettre de connaître les résultats jusqu’au bout. Pour moi, j’aimerais vraiment trouver quelque chose fondamentalement nouveau. Ce serait vraiment excitant. Mais parce que j’ai des préjugés dans cette direction, nous voulons faire très attention à ne pas laisser cela influencer toute analyse que nous faisons.

    Pour protéger leur travail de leurs préjugés, ils ont littéralement caché leurs résultats à eux-mêmes et à leurs collègues, mois après mois après mois.

    “J’ai travaillé sur cette analyse pendant un an et je n’ai pas pu voir les valeurs qui sortaient”, a déclaré Dalal.

    L’équipe a même ajouté une couche d’obscurcissement supplémentaire : ils ont exécuté leurs analyses sur trois catalogues de galaxies différents, un réel et deux avec des valeurs numériques compensées par des valeurs aléatoires.

    “Nous ne savions pas lequel d’entre eux était réel, donc même si quelqu’un voyait accidentellement les valeurs, nous ne saurions pas si les résultats étaient basés sur le vrai catalogue ou non”, a-t-elle déclaré.

    Le 16 février, l’équipe internationale s’est réunie sur Zoom – le soir à Princeton, le matin au Japon et à Taïwan – pour le “dévoilement”.

    “Cela ressemblait à une cérémonie, un rituel, que nous avons traversé”, a déclaré Strauss. “Nous avons dévoilé les données et exécuté nos parcelles, immédiatement nous avons vu que c’était génial. Tout le monde a dit:” Oh, ouf! et tout le monde était très content.”

    Dalal et sa colocataire ont fait éclater une bouteille de champagne ce soir-là.

    Une vaste enquête avec la plus grande caméra de télescope du monde

    HSC est la plus grande caméra sur un télescope de sa taille au monde, un manteau qu’il tiendra jusqu’à ce que l’observatoire Vera C. Rubin actuellement en construction dans les Andes chiliennes, commence le Legacy Survey of Space and Time (LSST) fin 2024. En fait, les données brutes de HSC sont traitées avec le logiciel conçu pour LSST. “Il est fascinant de voir que nos pipelines logiciels sont capables de gérer de si grandes quantités de données bien avant le LSST”, a déclaré Andrés Plazas, chercheur associé à Princeton.

    L’enquête utilisée par l’équipe de recherche couvre environ 420 degrés carrés du ciel, soit environ l’équivalent de 2000 pleines lunes. Ce n’est pas un seul morceau de ciel contigu, mais divisé en six morceaux différents, chacun de la taille que vous pourriez couvrir avec un poing tendu. Les 25 millions de galaxies qu’ils ont étudiées sont si éloignées qu’au lieu de voir ces galaxies telles qu’elles sont aujourd’hui, le HSC a enregistré comment elles étaient il y a des milliards d’années.

    Chacune de ces galaxies brille des feux de dizaines de milliards de soleils, mais parce qu’elles sont si éloignées, elles sont extrêmement faibles, jusqu’à 25 millions de fois plus faibles que les étoiles les plus faibles que nous pouvons voir à l’œil nu.

    “Il est extrêmement excitant de voir ces résultats de la collaboration HSC, d’autant plus que ces données sont les plus proches de ce que nous attendons de l’observatoire Rubin, sur lequel la communauté travaille ensemble”, a déclaré la cosmologiste Alexandra Amon, Senior Kavli Fellow à l’Université de Cambridge et chercheur principal au Trinity College, qui n’a pas participé à cette recherche. “Leur enquête approfondie donne de belles données. Pour moi, il est intrigant que HSC, comme les autres enquêtes indépendantes à faible lentille, indique une faible valeur pour S8 — c’est une validation importante, et excitante que ces tensions et tendances nous forcent à faire une pause et à réfléchir à ce que ces données nous disent sur notre Univers !”

    Le modèle cosmologique standard

    Le modèle standard de la cosmologie est “étonnamment simple” à certains égards, a expliqué Andrina Nicola de l’Université de Bonn, qui a conseillé Dalal sur ce projet lorsqu’elle était postdoctorale à Princeton. Le modèle postule que l’univers est composé de seulement quatre constituants de base : la matière ordinaire (atomes, principalement l’hydrogène et l’hélium), la matière noire, l’énergie noire et les photons.

    Selon le modèle standard, l’univers est en expansion depuis le Big Bang il y a 13,8 milliards d’années : il a commencé presque parfaitement sans à-coups, mais l’attraction de la gravité sur les fluctuations subtiles de l’univers a créé une structure : des galaxies enveloppées dans des amas de matière noire. — former. Dans l’univers actuel, les contributions relatives de la matière ordinaire, de la matière noire et de l’énergie noire sont d’environ 5 %, 25 % et 70 %, plus une infime contribution des photons.

    Le modèle standard est défini par seulement une poignée de chiffres : le taux d’expansion de l’univers ; une mesure de l’agglutination de la matière noire (S8); les contributions relatives des constituants de l’univers (les nombres 5 %, 25 %, 70 % ci-dessus) ; la densité globale de l’univers; et une quantité technique décrivant comment l’agrégation de l’univers à grande échelle est liée à celle à petite échelle.

    “Et c’est tout !” dit Strauss. “Nous, la communauté cosmologique, avons convergé vers ce modèle, qui est en place depuis le début des années 2000.”

    Les cosmologistes sont impatients de tester ce modèle en limitant ces nombres de diverses manières, par exemple en observant les fluctuations du fond cosmique des micro-ondes (qui est essentiellement l’image du bébé de l’univers, capturant à quoi il ressemblait après ses 400 000 premières années), modélisant l’expansion l’histoire de l’univers, mesurant l’agrégation de l’univers dans un passé relativement récent, et d’autres.

    “Nous confirmons un sentiment croissant dans la communauté qu’il existe un réel écart entre la mesure de l’agglutination dans l’univers primitif (mesurée à partir du CMB) et celle de l’ère des galaxies, il y a “seulement” 9 milliards d’années”, a déclaré Arun Kannawadi, chercheur associé à Princeton qui a participé à l’analyse.

    Cinq lignes d’attaque

    Le travail de Dalal fait une soi-disant analyse de l’espace de Fourier ; une analyse parallèle de l’espace réel a été dirigée par Xiangchong Li de l’Université Carnegie Mellon, qui a travaillé en étroite collaboration avec Rachel Mandelbaum, qui a terminé son AB de physique en 2000 et son doctorat. en 2006, tous deux de Princeton. Une troisième analyse, appelée analyse 3×2 points, adopte une approche différente pour mesurer le signal de lentille gravitationnelle autour de galaxies individuelles, afin de calibrer la quantité de matière noire associée à chaque galaxie. Cette analyse a été dirigée par Sunao Sugiyama de l’Université de Tokyo, Hironao Miyatake (ancien boursier postdoctoral de Princeton) de l’Université de Nagoya et Surhud More du Centre interuniversitaire d’astronomie et d’astrophysique de Pune, en Inde.

    Ces cinq séries d’analyses utilisent chacune les données HSC pour arriver à la même conclusion sur S8.

    Faire à la fois l’analyse de l’espace réel et l’analyse de l’espace de Fourier “était une sorte de vérification de la santé mentale”, a déclaré Dalal. Elle et Li ont travaillé en étroite collaboration pour coordonner leurs analyses, en utilisant des données en aveugle. Toute divergence entre ces deux éléments indiquerait que la méthodologie des chercheurs était erronée. “Cela nous en dirait moins sur l’astrophysique et plus sur la façon dont nous aurions pu merder”, a déclaré Dalal.

    “Nous ne savions pas jusqu’à la levée de l’insu que deux résultats étaient parfaitement identiques”, a-t-elle déclaré. “C’était miraculeux.”

    Sunao a ajouté: “Notre analyse 3×2 points combine l’analyse de lentille faible avec le regroupement des galaxies. Ce n’est qu’après la levée de l’aveugle que nous avons su que nos résultats étaient en bel accord avec ceux de Roohi et Xiangchong. Le fait que toutes ces analyses donnent le même réponse nous donne confiance que nous faisons quelque chose de bien !”

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *