2 accélérateurs trouvent des particules qui pourraient enfreindre les lois de la physique


  • FrançaisFrançais


  • Suivez-nous sur notre page Facebook et notre canal Telegram


    L’expérience du LHCb et de Belle ont trouvé des particules dans les patterns de désintégration qui enfreignent le modèle standard de la physique des particules. Et cela confirme des observations précédentes de l’expérience BaBar.

    Un excès de particules inexpliqué

    Chaque chose dans l’univers peut être fractionnée dans des parties fondamentales qu’on appelle des particules. Le modèle standard de la physique des particules décrit une petite collection de particules connues qui se combinent pour construire la matière et qui gouvernent les forces de la nature. Mais les physiciens savent que ces particules sont incomplètes puisqu’ils ne font pas partie de la matière noire ou de l’énergie noire qui constituent une grande masse de l’univers. Désormais, on a 2 expériences qui nous montrent des particules qui se comportent de manière anormale comparée à n’importe quelle loi de la physique. Et cela suggère l’existence de nouveaux types de particules au-delà du modèle standard. Les résultats ne sont pas encore totalement confirmés, mais le fait est que la collision dans ces 2 expériences a produit des effets similaires. Et ces résultats sont renforcés par une expérience similaire qu’on avait observée en 2012 dans une troisième collision de particules. Et ces résultats surprennent les scientifiques. C’est vraiment bizarre selon Mark Wize, un théoricien du California Institute of Technology. La différence est tellement grande et c’est sans doute la déviation la plus importante qu’on ait vue dans le modèle standard. Et le fait de trouver ces anomalies dans le modèle standard suggère une possibilité qui permettrait d’étendre le modèle standard au-delà des particules existantes.

    Ces résultats, qui font froncer les sourcils, proviennent de l’expérience LHCb du Grand collisionneur de Hadrons en Suisse et de l’expérience Belle au High Energy Accelerator Research Organization (KEK) au Japon. Les 2 ont observé une quantité supérieure de Leptons comparés à d’autres pendant la désintégration de particules appelée B Méson (crée à partir d’un Quark “bottom” et d’un antiquark). Les leptons sont une catégorie de particules qui incluent les électrons ainsi que leurs cousins plus lourds avec les muons et les taus. Le principe du modèle standard, qu’on connait comme l’universalité Lepton, stipule que tous les leptons doivent être traités de manière égale par l’interaction faible. L’interaction faible est la force fondamentale qui est responsable de la désintégration radioactive. Les expériences consistaient en une grande désintégration de B Méson qui auraient dû produire un nombre égal d’électrons, de muons et de taus, mais la désintégration a montré que la quantité de taus était supérieure.

    Pulvérisation des atomes

    Le LHC frappe des protons avec des protons tandis que l’accélérateur de Belle frappe des électrons avec leur homologue en antimatière qu’on appelle des positrons. Les 2 types de collision produisent parfois des B Mésons ce qui permet de mesurer le résultat final pendant la désintégration de mésons instables. Dans un papier publié dans la revue Physical Review Letters [cite source=’arxiv’]1506.08614[/cite], l’équipe du LHCb a annoncé qu’elle a observé un excès potentiel du taux de 25 à 30 % par rapport à la norme du modèle standard de physique. Belle a vu un résultat similaire même s’il est moins prononcé. Les travaux de Belle ont été publiés dans la revue Physical Review D [cite source=’arxiv’]1507.03233[/cite] (encore en évaluation). Les 2 équipes ont partagé leurs découvertes en mai 2015 pendant la conférence Flavor Physics & CP Violation 2015 qui s’est tenue à Nagoya au Japon.

    De manière intrigante, les 2 résultats correspondent avec de précédentes découvertes de 2012 (qui ont été étendues en 2013). Ces précédents résultats provenaient de l’expérience BaBar qui a été effectuée au SLAC National Accelerator Laboratory à Menlo Park en Californie. En soi, les résultats de LHCb et de Belle ne dévient pas trop du modèle standard selon Tom Browder qui est l’un des membres de l’équipe de l’expérience Belle à l’université d’Hawaii. Ce chercheur est aussi le porte-parole du prochain projet qui s’appelle Belle II. Ensemble avec BaBar, nous pouvons établir une moyenne mondiale (combinaison de tous les résultats) et nous arrivons à un Sigma de 3,9 par rapport au modèle standard. Le Sigma se réfère aux déviations standards, une mesure statistique d’une divergence, et de la norme admise par les physiciens pour signaler une nouvelle découverte. On doit atteindre un Sigma de 5 pour confirmer une nouvelle découverte. Même si le Sigma de 3,9 n’atteint pas la norme d’une nouvelle découverte, il indique que la chance pour que cet effet se produise de manière aléatoire est seulement de 0,011 %. Pour le moment, nous avons 3 suggestions, mais aucune conclusion sur cet effet très intéressant selon le théoricien Zoltan Ligeti du Lawrence Berkeley National Laboratory. Nous connaitrons la réponse finale dans quelques années lorsque nous aurons plus de données avec les expériences.

    Si la différence est réelle, plutôt qu’une simple erreur statistique, alors les chercheurs feront face au défi de découvrir sa signification. Cet effet n’a pas été prévu par les physiciens selon Ligeti. Il n’est pas facile de l’adapter aux modèles les plus populaires et dans ce sens, c’est très surprenant. Par exemple, on connait des concepts pour de nouvelles physiques avec des idées comme la supersymétrie. Ces nouvelles physiques veulent prédire le comportement en dehors du modèle standard. Mais le problème est que la supersymétrie ne prédit pas un effet de ce genre. La supersymétrie prédit des particules, qui ne sont pas encore découvertes, mais qui sont simplement le reflet de particules existantes. Et aucune des particules existantes ne peut produire ce type de violation sur l’universalité Lepton. Je ne pense pas que ces résultats pointent vers la supersymétrie selon Hassan Jawahery de l’université du Maryland et un membre de la collaboration LHCb. Mais il ne viole pas nécessairement la supersymétrie.

    Et encore une fois, si ces signaux sont réels, alors un nouveau genre de particule est probablement impliqué. Dans toutes les désintégrations de B Méson, on a l’apparition d’une particule virtuelle qui est massive et qui disparait rapidement. Ce phénomène étrange est permis par la mécanique quantique. Dans le modèle standard, cette particule virtuelle est toujours un Boson W (une particule qui transporte la force faible). Et cette particule interagit de manière égale avec tous les leptons. Mais si la particule virtuelle était quelque chose de plus exotique qui interagit avec chaque lepton de manière différente, alors selon sa masse, elle peut produire plus de Taus à la fin. La raison est que les Taus sont les Leptons les plus lourds et donc, ils pourraient interagir plus fortement avec la particule virtuelle.

    Un nouveau Higgs ou un Leptoquark ?

    Un candidat attirant pour cette particule virtuelle serait un nouveau Boson de Higgs qui serait plus lourd que la particule qu’on a découverte en fanfare en 2012 au LHC. On pense que ce Boson de Higgs qu’on a découvert donne leur masse à toutes les autres particules. Mais ce nouveau Higgs, en plus d’être plus lourd que le premier Boson de Higgs, pourrait avoir d’autres propriétés. Par exemple, pour affecter la désintégration des B Mésons, il posséderait une charge électromagnétique alors que le Boson de Higgs actuel n’en possède aucune. Cela signifierait que le Boson de Higgs qu’on a découvert n’est pas le seul qui soit responsable pour générer la masse de toutes les particules selon Jawahery. En fait, la supersymétrie prédit d’autres Bosons de Higgs, mais avec la formulation actuelle de ces nouveaux Higgs, on sait qu’ils ne pourraient pas créer une différence aussi grande que celle qu’on a observée dans l’expérience.

    Une autre option qui serait encore plus exotique serait une particule hypothétique appelée Leptoquark. Ce serait un composite entre un quark et un lepton et on ne l’a jamais observé dans la nature. Cette particule interagirait plus fortement avec le tau que par rapport au muon et à l’électron. Les Leptoquarks se produisent très naturellement dans certains types de modèles selon Ligeti. Mais il n’y a aucune raison qu’elle ait une masse faible telle qu’elle serait nécessaire pour expliquer ces données.

    Mais le fait est que les explications de ces théoriciens ne résolvent pas les problèmes les plus importants de la physique. Par exemple, la composition de la matière noire ou de l’énergie noire. Ces modèles n’ont rien d’exceptionnel, ils sont une espèce de soupe concoctée pour expliquer ce fait, mais ils ne perturbent pas les autres faits selon Wise. Mais même si les théoriciens ne sont pas confortables avec ces idées, on voit que la nature fait ce que la nature a l’habitude de faire.

    Il y a aussi une chance, même si elle est infime, que les physiciens ont mal calculé les prédictions du modèle standard. Et par conséquent, les règles existantes seraient toujours effectives. Il est possible que le calcul du modèle standard ne soit pas correct, mais de récents calculs n’ont montré aucun problème selon Michael Roney de l’université de Victoria au Canada et porte-parole de l’expérience BaBar. On peut aussi concevoir que les expériences ont raté une explication conventionnelle. Mais les conditions des expériences du LHCb et de BaBar sont très différentes. Dans BaBar, nous analysons continuellement les données de différentes manières, mais l’effet est toujours là.

    Les physiciens sont optimistes sur le fait qu’on aura la solution avec plus de données. En avril 2015, le LHC a commencé à faire des collisions à haute énergie ce qui permet de produire plus de B Mésons et donc plus de chances pour étudier cet effet. Pendant ce temps, Belle envisage une expérience améliorée avec un détecteur amélioré appelé Belle II qui commencera à collecter les données en 2018. Les 2 expériences trouveront suffisamment de données pour confirmer l’effet ou le faire disparaitre si c’est une erreur statistique. Pour Jawahery : Si cet effet est présent, alors nous devons réserver la prochaine décennie pour l’étudier. Car il ne suffit pas de savoir qu’il est bien présent, mais pourquoi il est là.

     

    Houssen Moshinaly

    Rédacteur en chef d'Actualité Houssenia Writing. Rédacteur web depuis 2009.

    Blogueur et essayiste, j'ai écrit 9 livres sur différents sujets comme la corruption en science, les singularités technologiques ou encore des fictions. Je propose aujourd'hui des analyses politiques et géopolitiques sur le nouveau monde qui arrive. J'ai une formation de rédaction web et une longue carrière de prolétaire.

    Pour me contacter personnellement :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *