La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

LHC : la physique à l'aube d'une nouvelle révolution ?

Présentations similaires


Présentation au sujet: "LHC : la physique à l'aube d'une nouvelle révolution ?"— Transcription de la présentation:

1 LHC : la physique à l'aube d'une nouvelle révolution ?

2 Comment la masse vient aux particules
Qu’est-ce que la masse? Le projet LHC Comment la masse vient aux particules Le projet LHC Remarques générales La recherche fondamentale est financée par les citoyens, auxquels les chercheurs doivent naturellement rendre des comptes. Or, le bénéfice que nous retirons de cette recherche n'est pas à court terme, et il n'est pas facile de l'illustrer précisément. Cependant, tous les progrès technologiques, souvent sources de mieux-être, reposent sur l'exploitation d'une découverte (d'une compréhension nouvelle d'un phénomène), issue d'une recherche "fondamentale". En d'autres termes, il n'est peut-être pas possible de dire ce que la recherche fondamentale apportera (notamment en physique nucléaire et des particules), mais sans recherche fondamentale, il ne peut y avoir de progrès de la société. La recherche fondamentale en physique nucléaire effectuée dans la première moitié du XXème siècle a eu des retombées bien connues en matière d'armement, mais aussi de production d'énergie. Elle continue d'en avoir, notamment dans le domaine médical, mais la motivation de la recherche en physique nucléaire et en physique des particules est uniquement fondamentale. Cependant, plus que dans d'autres branches de la recherche fondamentale, les chercheurs sont contraints, pour progresser, de concevoir (inventer), fabriquer (ou faire fabriquer) et de faire fonctionner des appareils compliqués. Le développement d'appareils de mesure est souvent l'occasion de faire progresser la technologie. Par exemple, les développements initiés par Georges Charpak (prix Nobel de Physique en 1992) pour des expériences de physique des particules ont permis des avancées considérables dans le domaine de l'imagerie médicale. Un laboratoire de recherche fondamentale peut en effet prendre le risque de mettre au point un appareil sur une durée très longue. Par ailleurs, ces développements sont de plus en plus effectués en partenariat avec des industriels (y compris des PME puisqu'il ne s'agit pas d'objets fabriqués en très grande série), qui en retirent de nouveaux savoir-faire leur permettant de se développer. Plan de l'exposé L'ambition de l'exposé est d'illustrer l'activité de recherche en physique des particules à l'aide d'un exemple important. Nous commençons par décrire le “Large Hadron Collider” (en français Grand Collisionneur de Hadrons), un accélérateur dont la construction va commencer à coté de Genève, et l'expérience ATLAS. Ensuite, nous précisons la question étudiée. Nous avons de sérieux espoirs de progresser de manière décisive, dans les années à venir, dans notre compréhension de ce qu'est la masse. Cela nous amène à expliquer comment l'état de “vide” est décrit dans le cadre théorique actuel, et à parler du phénomène de Higgs. Nous pouvons ensuite arriver à la troisième partie de l'exposé, qui montre que les mesures envisagées sont très difficiles et doivent en conséquence être très précises. Elles justifient la construction et la mise en oeuvre des appareils complexes et coûteux décrits au début de l'exposé. (T1) Le LHC, le détecteur ATLAS Particules, forces Masse et énergie Qu'est-ce que le vide ? Phénomène de Higgs Difficultés expérimentales Conclusions

3 Les dimensions caractéristiques du monde microscopique
Sur ce transparent sont reportées les dimensions caractéristiques du monde microscopique (au-delà du pouvoir séparateur de nos yeux). Remarquez que si, par un changement d'échelle, on amenait le rayon d'un atome à 1 km, celui d'un nucléon n'atteindrait qu'1 cm. Plus les objets étudiés sont petits, plus les appareils qui permettent d'en connaître la structure sont volumineux ! Pour examiner des molécules, un microscope électronique suffit, et il n'occupe que quelques m2. Pour étudier le noyau atomique, un cyclotron [ici AGOR(1)] tient dans un hall de quelques dizaines de m2. Mais, pour élucider la structure des composants du même noyau, l'accélérateur linéaire à électrons du SLAC(2) près de San-Francisco aux Etats-Unis a une longueur de 3,2 km pour atteindre une énergie de faisceau de 50 GeV. Enfin, pour traquer les constituants ultimes de la matière, il faut des énergies encore plus élevées obtenues par exemple aux accélérateurs du CERN(3). La photo en bas à droite représente une vue d'avion du site du CERN près de Genève. Le pointillé marque la frontière franco-suisse ; le petit cercle indique l'accélérateur SPS(4) (diamètre 2 km), tandis que le grand cercle indique le collisionneur LEP(5) dont le diamètre est de 9 km. La photo montre aussi, au premier plan, la piste de l'aéroport international de Genève-Cointrin, et les petites villes de Ferney-Voltaire et de Saint-Genis. Dans le lointain, on devine les premières pentes du Jura. Le LEP sera remplacé par une machine de même taille, le LHC(6), qui permettra d'atteindre des énergies de 14 TeV (14000 GeV) par collision en Un tel gigantisme implique des investissements financiers et humains importants. A chaque dimension caractéristique peut être associée une énergie typique, qui mesure la cohésion de l'objet étudié, ainsi qu'une température typique (par exemple, 1 MeV correspond à 10 milliards de degrés). C'est à ces domaines de longueur et d'énergie que s'intéresse l'IN2P3, l'institut du CNRS dans lequel nous travaillons. (1) Accélérateur Groningen-ORsay, cyclotron à aimants supra-conducteurs (2) Stanford Linear Accelerator Center (3) Laboratoire européen pour la physique des particules (anciennement Centre Européen de Recherche Nucléaire) (4) Super Proton Synchrotron (5) Large Electron-Positron Collider (6) Large Hadron Collider T2 T02

4 Quelques points de repère
Centre Européen de Recherche Nucléaire (CERN) Laboratoire européen de physique des particules Genève Environ chercheurs du monde entier Large Hadron Collider (LHC) Accélérateur / collisionneur 27 km de circonférence supraconducteur 2 milliards d ’euros (hors tunnel) démarrage en 2007 ATLAS expérience au LHC 1700 chercheurs et ingénieurs 30 pays 300 millions d ’euros Conception/construction : 10 ans Exploitation : 10 ans Quelques points de repère La physique des particules exige des efforts particulièrement bien coordonnés, car chaque expérience nécessite la conception et la construction d'appareils gigantesques, difficiles à mettre au point et coûteux. Pour mener à bien une expérience, les chercheurs sont de ce fait amenés à se regrouper en “collaboration” internationale, pour une durée de l'ordre de dix ans ou plus. Le nouvel accélérateur de particules LHC dont il sera question par la suite est un projet international dont le coût total est estimé à environ 2 milliards d ’euros. Cet appareil, auquel on a commencé de travailler dès 1989, sera opérationnel au CERN (Laboratoire Européen de Recherche installé près de Genève) en 2007. Auprès de cet appareil, on installera trois gros détecteurs. Le plus gros d'entre eux, ATLAS, se présente sous la forme d'un cylindre de diamètre 22 m et de longueur 28 m. Les informations qu'il fournit sur les constituants de la matière prennent la forme de plusieurs dizaines de millions de signaux électriques, qui sont chacun mesurés 40 millions de fois par seconde. Son coût sera d'environ 300 millions d ’euros. La collaboration ATLAS regroupe actuellement environ 1700 chercheurs et ingénieurs de plus de 30 pays sur les cinq continents, dont environ 200 français. La formation de cette collaboration de chercheurs et la définition de son projet de recherche (tel qu'on l'imagine a priori) ont duré de 1988 à La conception des différents éléments du détecteur, en cours depuis 1991, est terminée depuis La construction et l'assemblage iront de 1997 à Un an sera nécessaire pour faire fonctionner l'ensemble du détecteur et vérifier que les performances (précision des mesures...) sont bien celles espérées. Enfin, le détecteur sera utilisé de 2007 à 2015 environ, soit une durée totale de plus de vingt ans pour cette aventure. (T3)

5 Vue en coupe d ’un aimant du LHC
Le LHC L'accélérateur comporte deux tubes distants d’environ 20 cm, dans lesquels on a fait le vide. On y injecte des protons obtenus par ionisation d'hydrogène gazeux. Les protons d'un tube circulent en sens opposé aux protons de l'autre tube. Ces protons sont maintenus sur une trajectoire circulaire par un champ magnétique fourni par des aimants répartis tout le long des 27 km de la circonférence. Lorsqu'ils ont atteint l'énergie maximale de 7 TeV, le champ magnétique est de 8 teslas (T), ce qui nécessite d'employer des électro-aimants supraconducteurs, maintenus à la température de 2 kelvins (K). En plusieurs points de la circonférence, les protons sont accélérés par un champ électrique dû à une onde électromagnétique fournie par un klystron (un système qui permet de fournir des ondes électromagnétiques très puissantes et très bien contrôlées, principalement utilisés par les émetteurs de radio et de télévision, ainsi que par les radars).. En pratique, on injecte dans le LHC des protons déjà accélérés à 450 GeV par le SPS. En plusieurs points de la circonférence, les deux tuyaux se croisent, ce qui permet d'obtenir des collisions entre protons. Les protons ne sont pas uniformément répartis le long de la circonférence du LHC, mais au contraire groupés en 2835 “paquets” de 1011 protons chacun, de telle façon qu'en chaque point de collision, un croisement de deux paquets circulant en sens inverse l'un de l'autre ait lieu chaque 25 nanosecondes précisément. (T4) Les aimants supraconducteurs du LHC sont destinés à maintenir les protons sur une trajectoire circulaire. T04

6 Le détecteur ATLAS T05 Le détecteur ATLAS
Ainsi qu'on le verra dans la suite, les collisions proton-proton au LHC produisent de nombreuses particules. Le but du détecteur ATLAS est de caractériser les particules produites par chaque collision proton-proton. Il entoure donc, de la façon la plus hermétique possible, un point de collision du LHC. Pour des questions de commodité, et parce que l'émission de particules n'est pas identique dans toutes les directions de l'espace, le détecteur a la forme d'un cylindre (appelé “tonneau”) complété à chaque extrémité par des disques (appelés “bouchons”). Au centre, on trouve le détecteur interne qui sert à déterminer la trajectoire des particules chargées électriquement qui sont issues des collisions. Ces trajectoires sont courbées par le champ magnétique du solénoïde (2 T). On trouve ensuite des calorimètres qui arrêtent les particules, sauf les neutrinos et les muons ou toute nouvelle particule au comportement similaire, transformant leur énergie en un signal électrique mesurable. A l'extérieur, on trouve un aimant de grande dimension (bobines de couleur verte, champ toroïdal 0.7 T) et des trajectographes (figurés en bleu) pour mesurer la trajectoire des muons énergiques. (T5) T05

7 Éléments de détecteur Atlas
Eléments de détection Trajectographes Il s'agit de déterminer la trajectoire des particules produites dans chaque collision pour en mesurer les caractéristiques, en particulier leur quantité de mouvement. Cette dernière est obtenue à partir du rayon de chaque trajectoire dans le champ magnétique appliqué, d'autant plus grand que la quantité de mouvement est grande. Le principe de ces détecteurs est de placer autour du point d'interaction juste un peu de matière. En traversant cette matière, une particule en ionise quelques atomes. A l'aide d'un champ électrique, on récupère cette ionisation sur une ou plusieurs électrodes, et on utilise ces signaux pour déterminer le plus précisément possible l'endroit où la particule a traversé le détecteur. Remarquons que, plus on met de matière, plus le signal d'ionisation est important et donc facile à exploiter, mais plus la trajectoire de la particule est perturbée par cette traversée. On doit donc plutôt minimiser la quantité de matière, tout en garantissant la précision de positionnement du détecteur (difficultés de conception mécanique, notamment des supports) et en exploitant au mieux le signal électrique très faible (électronique à bas bruit, avec le plus souvent des contraintes en matière de puissance dissipée et de volume occupé). Calorimètres Un calorimètre est aussi de la matière installée sur le trajet des particules, mais cette fois avec une épaisseur suffisante pour “arrêter” les particules, absorber et mesurer leur énergie et leur point d'impact. Chaque particule interagit de diverses façons avec la matière du calorimètre, ce qui produit un grand nombre de particules secondaires. L'énergie de la particule incidente est déduite de la mesure de l'ionisation totale laissée par toutes les particules produites dans le calorimètre. La localisation de cette ionisation renseigne sur le point d'impact. L'extension de cette ionisation, tant en profondeur que latérale, renseigne sur la nature (électron, photon ou autre) de la particule incidente. Les matières utilisées le plus souvent sont le fer, le plomb ou l'uranium, selon les besoins et les contraintes de chaque calorimètre. Calorimètres dans ATLAS Dans ATLAS, un premier cylindre de calorimètre est optimisé pour la mesure des électrons et des photons. Il est segmenté en cellules de détection. L'amplitude de chaque signal à mesurer varie sur une large gamme (1 à ), ce qui nécessite une électronique particulièrement sophistiquée. De plus, comme l'ionisation est produite dans de l'argon liquide, le système est contenu dans un cryostat à la température de -185°C. Un second calorimètre, fait d'un sandwich fer-scintillateur au lieu de plomb-argon liquide, entoure le premier. Celui-là n'est segmenté qu'en cellules. Trajectographes dans ATLAS Chambres à pailles Ce détecteur est formé de la juxtaposition de tubes (“pailles”), qui chacun, contiennent du gaz (mélange argon-méthane, sous pression le plus souvent). L'ionisation du gaz est recupérée sur des fils de tungstène très fins (20 à 50 microns de diamètre) grâce à une tension de l'ordre de 2000 volts. Il s'agit d'une évolution des chambres à fils inventées par Georges Charpak en 1967. ATLAS utilise diverses formes de chambres à pailles : le trajectographe interne utilise un cylindre formé de pailles. Le diamètre de chaque paille est de 4 mm, et sa longueur de 40 à 140 cm. Comme une seule particule traverse plusieurs pailles contiguës, on espère une précision perpendiculairement aux pailles de 0,06 mm en mesurant le temps mis par l'ionisation pour atteindre chaque fil. Le signal de chaque paille est amplifié, et traité avec d'autant plus de soin que, en plus du point d'impact, on espère déterminer la nature de la particule (électron ou pas) à partir de l'amplitude des signaux vus dans les pailles. le trajectographe à muons est formé de trois cylindres de diamètres 9, 14 et 20 mètres et de longueur 26 mètres. Dans ce cas, les fils ont jusqu'à 6 mètres de long, mais on ambitionne de connaître la position du fil par rapport à son support avec une précision meilleure que 0.02 mm. En effet, la flèche des trajectoires de muons les plus énergiques est de l'ordre du millimètre sur plusieurs mètres. Il y a au total fils dans le trajectographe à muons. Détecteurs à micro-pistes de silicium La matière des détecteurs les plus proches du point de collision est du silicium (épaisseur de l'ordre de 0,3 mm). Sur certains d'entre eux, l'ionisation est recueillie sur des pistes métalliques déposées sur la surface (pas typique des pistes : 0,1 mm x 100 mm) grâce à une tension de quelques dizaines de volts entre les deux faces. La précision obtenue dans la direction perpendiculaire aux pistes est de l'ordre de 0,01 à 0,02 mm. Elle est surtout limitée par les incertitudes de positionnement de ce détecteur par rapport aux autres éléments de détection. Le détecteur ATLAS comporte 6 cylindres coaxiaux, dont le plus grand mesure 1,2 m de diamètre et 1,8 m de long. Ce système est complété par des disques de silicium à chaque extrémité des cylindres. Il y a au total plus de 6 millions de pistes (et donc 6 millions d'amplificateurs électroniques, installés à proximité immédiate des détecteurs eux-mêmes, car il est impensable d'installer 6 millions de câbles allant du détecteur à son électronique). Le passage d'un grand nombre de particules détruit progressivement la structure du cristal de silicium. On doit alors appliquer des tensions plus importantes pour collecter l'ionisation (jusqu'à 100 Volts au lieu de 50), ce qui entraîne des courants parasites gênants à cause de l'effet Joule. De plus, le détecteur devient peu à peu inefficace. La manière de traiter le silicium pour limiter les dégâts a fait l'objet de nombreuses études utilisant des technologies “militaires” (comme l'électronique associée à l'armement nucléaire et aux satellites) Éléments de détecteur Atlas Trajectographes : chambres à pailles précision ~ 0,1 mm Micropistes de silicium précision : 0,01 à 0,02 mm Calorimètre : - arrêter la particule, mesurer son énergie et son point d’impact - la particule cède son énergie en interagissant avec le détecteur - une fraction est cédée par ionisation  signal électrique mesurable

8 Simulation d'une collision proton-proton dans ATLAS
Ce transparent veut suggérer la complexité des mesures envisagées avec ATLAS : une collision entre deux protons accélérés par le LHC a été simulée par ordinateur. On a ensuite simulé la réponse du détecteur ATLAS à cette collision, et présenté cette information de façon à visualiser au mieux ce qui s'est passé. On observe la trajectoire des particules chargées électriquement produites dans la collision. Ces particules sont très nombreuses (de l'ordre de plusieurs centaines), ce qui est le cas général. Le champ magnétique créé par ATLAS permet de courber les trajectoires d'autant plus que la particule est moins énergique. Dans l'exemple présent de collision simulée, l'une des particules produites est une particule de Higgs, dont on suppose l'existence, et qu'on va chercher à découvrir avec ATLAS. Cette particule de Higgs s'est désintégrée en deux électrons et deux positons dont les traces sont indiquées en jaune. On devine que la complexité du détecteur vient de la complexité de l'état final des collisions. T7

9 Physique des particules
Préjugé de simplicité et d’universalité Tout l’univers est un assemblage (complexe) d’éléments simples Antiquité : 4 éléments eau, air, terre, feu  : de plus en plus d’éléments simples Progrès décisif : classification “ périodique ” (D. Mendeleiev, 1869) Ranger par poids atomique croissant. Colonne : ~ mêmes propriétés chimiques Révélateur de lois plus générales… Tous les atomes ont la même structure : Noyau (Z protons + N neutrons) Z électrons qui “ gravitent ” autour du noyau La Physique des particules Cette branche de la physique étudie la matière dans ses détails les plus petits. Sa motivation est très similaire à celle de bon nombre de chimistes jusqu'à la fin du XIXème Siècle. Nous partageons en effet des préjugés de simplicité et d'universalité, cherchant à interpréter la matière comme une association complexe d'un petit nombre d'éléments simples (dans le langage des chimistes du XIXème) ou de particules élémentaires (dans notre langage actuel). On a longtemps supposé que ces éléments simples étaient au petit nombre de quatre : eau, air, Terre, feu. Puis, il est devenu clair que la réalité était plus compliquée. On a identifié 10, puis 20, puis 50 corps simples, ce qui heurtait le préjugé d'un Univers descriptible avec des lois simples : pourquoi y a-t-il tant d'ingrédients différents pour faire l'Univers ? Un progrès décisif a été accompli en 1869 par Dimitri Mendeleiev, qui a classé les divers éléments simples en fonction de leur activité chimique et de leur masse molaire, prouvant qu'il existe des lois plus générales reliant entre eux ces éléments simples. C'était le premier pas d'un long chemin vers la découverte de la structure atomique : chaque élément simple correspond à un type d'atome, et tous les atomes ont la même structure avec un noyau central autour duquel gravitent des électrons (modèle proposé par Ernest Rutherford en 1911). Mentionnons pour l'anecdote que le physicien qui a vraiment compris que toute la physique de son époque devait s'interpréter en termes d'atomes, Ludwig Boltzmann, s'est suicidé en 1906, désespéré par le scepticisme que son hypothèse atomique rencontrait. Il faut dire qu'un atome est tellement petit (de l'ordre du dix-millionième de millimètre) qu'on a du mal à imaginer à quoi cela peut ressembler, et comment on peut le mesurer et le décrire. (T8) Tableau périodique des éléments

10 Atomes, Noyaux, Particules
Les constituants élémentaires de la matière Atomes, Noyaux, Particules On a ensuite découvert que le noyau atomique est formé de protons et de neutrons (James Chadwick, 1932). On sait depuis 30 ans que la taille des protons et neutrons est de l'ordre du cent-millième de celle de l'atome et qu'ils sont formés de deux types de quarks (appelés haut et bas). Il existe quatre autres types de quarks, mais ce ne sont pas des composants essentiels de la matière ordinaire. Ils apparaissent notamment comme constituants de particules “instables”, qui se désintègrent en un temps très court (quelques dizaines de nanosecondes au plus) pour donner ultimement de la matière ordinaire (électrons, neutrinos, photons et plus rarement protons et neutrons). Ces quarks ont aussi des noms évocateurs : étrange, charme, beauté, sommet. Remarquons cependant qu'on utilise souvent le nom anglais (up, down pour les deux premiers quarks, strange, charm, beauty, top pour les quatre autres). Par ailleurs, de même que la chimie s'intéresse aux réactions entre éléments simples, la physique des particules s'intéresse aux interactions entre particules élémentaires. Albert Einstein a montré que les ondes lumineuses peuvent être considérées comme un faisceau de particules appelées photons. L'interaction électro-magnétique (théorie unifiée des interactions électriques et magnétiques, formalisée par James Maxwell en 1864) peut s'interpréter comme un échange de photons. De même, l'interaction nucléaire (appelée aussi interaction forte) qui lie les quarks entre eux pour former protons et neutrons s'interprète comme un échange de particules appelées gluons. Enfin, l'interaction faible, responsable de la radioactivité  s'interprète comme un échange de particules appelées W et Z, découvertes au CERN en 1983. Ainsi, nous décrivons la matière comme un assemblage de particules que nous appelons “élémentaires”, trop petites pour que la technique expérimentale du moment permette de mesurer leur taille et d'observer leur éventuelle complexité. On en a identifié 18 espèces. De même qu'en chimie, nous attendons de l'étude détaillée d'ingrédients élémentaires de la matière qu'elle révèle des lois encore plus générales que celles connues jusqu'à maintenant, et réduise le nombre et la diversité de ce qu'on appelle particules élémentaires. (T9) T09

11 Forces et particules virtuelles
Les quatre interactions de la nature sont décrites par l ’échange de particules Forces et particules virtuelles Le transparent illustre comment une force répulsive résulte d'un échange de particules : une personne envoie un (ou plusieurs) ballon(s) à une autre ; de ce fait, les bateaux dans lesquels ces personnes se tiennent s'éloignent l'un de l'autre. De la même façon, deux particules de charge électrique de même signe “s'envoient” des photons et se repoussent mutuellement. Plus généralement, toutes les interactions (répulsives et attractives) s'interprètent comme un échange de particules. Les particules échangées lors d'une interaction ne sont pas mesurables directement. De telles particules sont appelées “virtuelles”. Cependant, la notion de particule virtuelle est plus compliquée. Ainsi, les photons, les particules W et Z, les gluons ne sont pas systématiquement virtuels mais peuvent au contraire être réels dans certains processus, tandis que des électrons, des neutrinos ou des quarks peuvent être virtuels. (T10) T10

12 Masse, énergie F = m a Force
accélération (variation de vitesse) masse : mesure l’inertie du système Force Masse et énergie La masse est une caractéristique fondamentale de la matière, qui mesure la capacité d'un système à résister lorsqu'on essaye de modifier son mouvement. En d'autres termes, la masse d'un système isolé est le coefficient de proportionnalité entre la force qui lui est appliquée et l'accélération qui en résulte. Par ailleurs, Albert Einstein a proposé que la masse ne soit qu'une forme particulière d'une grandeur plus générale : l'énergie. L'énergie peut aussi exister sous forme d'énergie cinétique (masses en mouvement) ou sous diverses autres formes. Conformément à cette idée, de l'énergie peut être transformée en masse ou vice-versa. Ainsi, lorsqu'une particule accélérée va heurter une autre particule, on peut dans certaines conditions créer de nouvelles particules (donc de la masse) à partir de l'énergie cinétique qu'on a fournie au projectile. Il n'y a donc pas conservation de la masse dans les réactions entre particules. Ce point est illustré par le cliché de chambre à bulles montrant une collision entre un neutrino et un proton qui produit finalement plus de dix particules. En revanche, l'énergie est conservée dans toutes les théories échafaudées jusqu'ici. (T11) “Beaucoup” de particules “grande” masse MAIS : pourquoi une particule “élémentaire” a-t-elle une masse ? E = mc2 Equivalence masse-énergie (Einstein, 1905) Vitesse de la lumière dans le vide Conservation de l’énergie

13 Masse des particules élémentaires
Toutes les particules d'une espèce (par exemple tous les électrons), dans tout l'Univers, ont les mêmes propriétés : ils ont notamment la même masse 0,9 x 10 -27 g et la même charge électrique. Qui plus est, tous les quarks ont une charge électrique qui est, soit 1/3 de la charge de l'électron (comme le quark bas), soit -2/3 de la charge de l'électron (comme le quark haut). Les autres particules ont une charge électrique soit nulle, soit égale, soit opposée à la charge de l'électron. La notion de charge électrique n'introduit donc essentiellement qu'un paramètre libre dans la théorie : la charge de l'électron. On ne sait pas prédire la masse des particules. De plus, les masses des différentes espèces de particules sont très différentes les unes des autres, sans aucune relation numérique simple entre elles. Par exemple, la masse du muon est 206,769 fois celle de l'électron et la masse du quark sommet mentionné précédemment est environ fois celle de l'électron. Il n'est pas satisfaisant de devoir postuler cet état de fait : on aimerait au contraire pouvoir prédire ces nombres, et qu'ils soient reliés simplement les uns aux autres. On préférerait pouvoir attribuer la masse des particules à un phénomène simple qui expliquerait pourquoi certaines masses sont beaucoup plus grandes que d'autres... (T12)

14 Masse et phénomène de Higgs
On n'a été capable de développer une théorie de l'interaction électromagnétique que parce que le photon, particule responsable de cette interaction a une masse nulle. Comme les particules responsables de l'interaction faible (W et Z) sont très lourdes ( fois la masse de l'électron), on ne pouvait pas utiliser la même démarche dans ce cas. Peter Higgs a trouvé une "astuce" pour résoudre ce problème, ce qui démontre du même coup que les interactions électromagnétiques et les interactions faibles (radioactivité), dont les manifestations sont en apparence très différentes, ne sont en fait qu'un seul et même phénomène, qu'on peut décrire par une théorie unique (appelée théorie électro-faible, qui a valu en 1979 le prix Nobel à Sheldon Glashow, Abdus Salam et Steven Weinberg). Tout repose sur la définition précise d'un état très particulier dans la nature : le vide. Qu'y a-t-il dans le vide ? La notion de "vide" est accessible au sens commun : il n'y a rien dans le vide. Cependant, c'est, en pratique, une notion délicate : on a longtemps débattu de l'horreur supposée de la nature pour le vide. Plus scientifiquement, lorsqu'on effectue le meilleur vide possible dans une enceinte, il est satisfaisant de vérifier que les ondes sonores ne s'y propagent pas, mais il est alors surprenant que les ondes lumineuses s'y propagent. Comment font-elles ? Qu'est-ce qui les porte ? Dès le XVIIème siècle, on a introduit en physique la notion “d’éther” : lorsqu'on pompe, on enlève tout, sauf l'éther ; le vide n'existe pas dans la nature, tout baigne dans l'éther. Mais la théorie de la relativité restreinte s'avère incompatible avec cette notion : si la lumière se propageait grâce à l'éther, alors sa vitesse par rapport à l'éther devrait être constante, et un observateur se déplaçant par rapport à l'éther devrait mesurer une vitesse de la lumière différente d'un observateur immobile. L'expérience montre qu'il n'en est rien. L'explication moderne de la propagation de la lumière dans le vide fait appel aux particules chargées virtuelles, présentes à tout instant dans le vide. Par exemple, une paire électron-positon peut apparaître spontanément dans le vide, et disparaître presque aussitôt. Il en résulte que le vide contient en permanence des électrons et des positons, ce qui lui confère sa polarisabilité, c'est-à-dire en particulier sa capacité à transporter les ondes électromagnétiques. Par ailleurs, l'énergie n'est définie qu'à une constante additive près : seules les différences d'énergie sont définies sans ambiguïté (voir en particulier l'énergie potentielle, ou le potentiel électrique). Mais pour qu'une théorie soit complète, il faut définir l'état d'énergie minimale (qu'on peut éventuellement choisir comme égale à 0). Jusqu'à un passé récent, le bon sens avait conduit à baptiser cet état "vide", et à postuler qu'il ne contient aucune particule directement observable (c'est-à-dire qu'il ne comprend que des particules virtuelles). Cependant, lorsqu'on cherche à être plus rigoureux, on s'aperçoit que la définition du vide est ambiguë. Qui plus est, il est mathématiquement possible que l'état d'énergie minimale contienne des particules non virtuelles. .../ Remarquons cependant que l'on ne peut pas isoler et observer directement l'une quelconque de ces particules (bien qu'elles ne soient pas virtuelles), à moins de fournir de l'énergie. En effet, il faut pour cela s'éloigner de l'état d'énergie minimale. En ce sens, l'état d'énergie minimale, qu'on continue à appeler “vide” par abus de langage, correspond toujours à l'acception courante du terme. Phénomène de Higgs Higgs a postulé, qu'à cause du vide, les particules W et Z ont une masse, et les manifestations des interactions électromagnétiques et faibles sont très différentes à basse énergie. On suppose en fait l'existence d'une ou de plusieurs espèces de particules (appelées depuis particules de Higgs), présentes dans l'état d'énergie minimale. Lorsqu'un W ou un Z se trouve dans le vide, il est en fait en interaction constante avec les particules de Higgs qui l'entourent, et ce sont ces interactions qui lui confèrent sa masse, en contraignant sa mise en mouvement lorsqu'on applique une force. On explique ainsi la masse de toutes les particules. La diversité de ces masses résulte de la diversité des intensités d'interaction (on dit "couplages") entre les diverses particules et les particules de Higgs. Remarquons que cette interaction n'est pas une force de frottement (qui serait, elle, proportionnelle à la vitesse et pas à l'accélération). La hiérarchie... Ce développement théorique permet d'expliquer les masses par un phénomène unique, relativement simple à décrire. C'est un progrès très important. Cependant, il ne fournit aucune explication au fait que les masses sont différentes d'une espèce à l'autre : il dit seulement que cela vient du fait que les couplages aux particules de Higgs sont différents. De plus, on ne peut pratiquement rien dire de la masse de la particule de Higgs. Cependant, l'idée brillante de Higgs cesserait d'expliquer quoi que ce soit si cette masse devait être supérieure à environ 2 millions de fois la masse de l'électron. D'autres développements théoriques disent qu'il pourrait exister plusieurs types de particules de Higgs, certains lourds et d'autres légers. Cela fournirait une explication naturelle aux grands écarts de masse des particules. (T13) Qu'est-ce que le vide ? Présence de particules virtuelles (indétectables directement) fugitives Présence de "particules de Higgs"... ...responsables de l'inertie des particules mais on n’a encore jamais vu le Higgs...

15 >> il faut plus d’énergie pour produire des Higs
Si on avait produit un Higgs, on l’aurait détecté (on sait comment faire) >> il faut plus d’énergie pour produire des Higs Energie cinétique >> masse >> le projet LHC du CERN Large Hadron Collider Laboratoire européen de physique des particules (Genève) Découvrir et étudier le Higgs si sa masse est entre 2 x 105 me et 2 x 106 me Et si c'était vrai ? La particule de Higgs n'a encore jamais été observée. A priori, on peut y voir deux raisons : soit elle est visible mais on n'a pas su la reconnaître, soit on n'a pas été jusqu'à présent capable d'en produire. Comme on l'a dit précédemment, les Higgs qui peuplent le vide ne sont pas observables à moins de fournir suffisamment d'énergie. Le Higgs est une particule instable. La connaissance de sa masse permettrait de calculer avec précision ses modes de production et de désintégration. Des expériences ont exploré les domaines de masse accessibles et ont fourni une limite inférieure à la masse du Higgs, au moins égale à fois la masse de l'électron. Dit autrement, l'énergie qu'un accélérateur a pu fournir aux particules (sous forme d'énergie cinétique) n'a pu créer par collision une masse suffisante pour faire une particule de Higgs. Le seul espoir d'observer la particule de Higgs est donc d'augmenter l'énergie des collisions. Pour cette raison, on construit le LHC dans le but d'observer la particule de Higgs si elle existe, même si elle est aussi lourde que 2 millions de fois la masse de l'électron. Et si cela n'était pas vrai ? Notre compréhension détaillée des phénomènes observés jusqu'ici nous permet d'affirmer que "quelque chose" de nouveau doit être observé lorsqu'on augmente l'énergie des collisions jusqu'à disposer de 2 millions de fois la masse de l'électron. On pourrait par exemple découvrir, comme cela s'est déjà passé à plusieurs reprises dans le passé, que les particules que nous déclarons "élémentaires" aujourd'hui, du seul fait que leurs dimensions sont trop petites pour être mesurables, sont faites de composants. On pourrait alors rêver d'expliquer les grandes différences de masses entre particules par le fait que certaines particules sont plus complexes que d'autres. De nombreux chercheurs théoriciens ont exploré cette voie et ont imaginé de nombreux modèles différents, plus ou moins compliqués, dont l'un pourrait s'avérer la bonne description de la nature. (T14) Un maximum selon la théorie...

16 Difficultés de la mesure
observation du Higgs TRES RARE: 1 collision sur mille milliards (1012) 1. Taux de collision élevé: 700 millions/s pour observer quelques Higgs par jour >> Irradiation, rapidité des mesures 2. Bien séparer les bons événements des mauvais >> Précision de mesure 1+2 Trier vite et bien en 2 µs, éliminer 99,9% des événements en quelques ms, éliminer 99,99999% >> enregistrer 1 événement et en rejeter 10 7 aucun droit à l’erreur… puis… continuer le tri Difficultés de la mesure Le Higgs : une perle rare Le LHC provoquera des collisions entre protons ayant une énergie cinétique suffisante pour produire à coup sûr des particules de Higgs s'il en existe. Mais dans ces collisions, on produira le plus souvent des réactions déjà bien connues et donc moins intéressantes. On s'attend à ne produire une particule de Higgs que dans une collision sur un milliard environ. Cela complique énormément la recherche. En premier lieu, on ne pourra pas mettre en évidence une particule de Higgs si sa désintégration ressemble trop à d'autres réactions peu intéressantes. (Comparer la simulation d’un Higgs à 4 électrons à celle d’une collision p-p donnant deux  jets, beaucoup plus fréquent). En pratique, sur 1000 Higgs produits, seuls quelques uns seront identifiables. En choisissant un taux de collisions de 800 millions par seconde, on espère observer quelques Higgs par jour. Pas question de traîner… Le taux énorme de collisions est obtenu de la manière suivante : 40 millions de fois par seconde, un paquet de protons croise un autre paquet de protons. A cette occasion, environ 23 collisions proton-proton ont lieu simultanément, et on mesure les particules produites ( il y en a plusieurs milliers). Les détecteurs doivent donc réagir rapidement aux particules. Pour ceux qui réagissent en plus de 25 nanosecondes (milliardièmes de seconde), on observe non seulement les milliers de particules produites dans la collision du moment, mais aussi les particules produites dans les collisions précédentes et suivantes (phénomène appelé empilement), ce qui complique encore plus le travail, et dégrade la précision des mesures. Mais, à l'inverse, un détecteur rapide est souvent moins précis qu'un détecteur lent. Il faut donc trouver le bon compromis entre rapidité et empilement. Une grande quantité d'informations Pour être prêts à toutes les surprises, on enregistre un maximum d'informations concernant les collisions. Ces informations sont, au départ, de nombreux signaux électriques fournis par les détecteurs. Ces signaux sont mesurés, et les mesures exprimées sous forme de nombres. Ces nombres représentent alors plusieurs giga-octets (c'est-à-dire, milliards de caractères). Malgré les progrès rapides de la technologie informatique, il est impensable d'enregistrer toutes ces informations. Il faut donc éliminer d'emblée les collisions qui sont à coup sûr inintéressantes. En deux microsecondes (millionièmes de seconde), on pourra ainsi éliminer 999 collisions sur mille. En une milliseconde, on pourra ne conserver qu'une collision sur 10 millions, et ne rien enregistrer des autres. Remarquez qu'on n'a pas droit à l'erreur à ce niveau : il serait dramatique d'éliminer sans s'en rendre compte des phénomènes intéressants (par exemple, imprévus). L'organisation du tri en ligne des données est donc de la plus haute importance. L'information correspondant aux collisions sélectionnées reste encore très volumineuse et compliquée à exploiter par informatique. Elle représente un péta-octet par an (soit un million de milliards de caractères). Pour comparaison, cela représente plus de mille fois la taille du fichier annuel mondial des transactions par cartes bancaires, et n'est comparable qu'à ce qu'on produit dans deux ou trois centres de calcul au monde pour la prédiction à moyen terme de la météorologie et dans l'étude des climats. (T15) le bon les mauvais

17 Simulation d'une collision proton-proton dans le détecteur ATLAS

18 Importance de la précision des mesures
Exemple : H  g g Découverte du Higgs grâce à sa désintégration en deux photons en 2005, au LHC ? Importance de la précision des mesures Il faut maintenant savoir que les appareils de détection ne seront pas parfaits, qu'on pourra manquer des Higgs authentiques et au contraire prendre pour un Higgs quelque chose qui n'en est pas un. Supposons que le Higgs cherché se désintègre quelquefois en deux photons, et souvenons-nous que la masse est une caractéristique importante des particules. On va en conséquence retenir toutes les collisions où deux photons au moins ont été observés. Le détecteur permet de mesurer l'énergie et le point d'impact dans le calorimètre, de ces photons. A partir de ces mesures, on peut considérer successivement toutes les paires de photons de la collision et calculer quelle serait la masse de la particule hypothétique dont ils seraient issus. Lorsqu'ils ne viennent pas de la désintégration d'une même particule, on trouvera n'importe quoi. En revanche, si les deux photons proviennent de la désintégration d'un Higgs, on trouvera la masse de ce Higgs, aux erreurs de mesure près. On forme la distribution des masses calculées pour un grand nombre de collisions avec au moins deux photons dans l'état final. En d'autres termes, on divise l'axe des masses en intervalles consécutifs, et on compte pour chaque intervalle le nombre de collisions pour lesquelles la masse est dans l'intervalle. Ce nombre est porté sur l'axe vertical du graphique. Un Higgs qui se désintègre en deux photons se manifestera par une accumulation autour d'une valeur donnée de masse, c'est à dire par un pic dans le graphique. Si les mesures d'énergie et de quantité de mouvement sont précises, le calcul de masse le sera aussi, et l'accumulation sera localisée et bien visible. Au contraire, si les mesures sont insuffisamment précises, les résultats seront trop étalés et impossible à discerner du fond. Le graphique en bas à droite du transparent montre que, les performances prévues du calorimètre (résultat lui-même de plus de 5 ans de recherche) sont suffisantes pour espérer observer la désintégration du Higgs en deux photons si la masse de celui-ci est voisine de 100 GeV, mais qu'une précision moindre serait insuffisante. L'argument développé est plus général : la précision des mesures est un paramètre crucial, en grande partie responsable du gigantisme du détecteur. (T17)

19 Conclusion Recherche de la particule de Higgs
Compréhension de la masse Thèmes importants dans les années à venir Mesures difficiles (Rareté du Higgs) Détecteur ATLAS au LHC Pari technologique Collaboration mondiale Beaucoup d’argent - Beaucoup de travail Beaucoup d’enthousiasme En guise de conclusion La découverte de la particule de Higgs, si elle existe, nécessite un accélérateur compliqué et coûteux. Elle nécessite aussi des détecteurs aux performances jamais encore atteintes. Particulièrement importante est la précision des mesures, malgré le très grand nombre de particules vues simultanément, et malgré l'exigence de rapidité des mesures. On doit également faire face à une quantité gigantesque d'informations, qui oblige à en éliminer d'emblée la majeure partie. L'infime partie restante est encore très volumineuse, et on devra innover en matière de traitement informatique pour exploiter ces données et mettre en évidence la trace des quelques particules de Higgs, et des autres phénomènes recherchés, sans pour autant passer à coté de l'imprévu... La conception et la mise au point de l'expérience ATLAS requièrent une compétence tant en mécanique, qu'en électronique et en informatique. Dans tous ces domaines, le travail effectué a déjà permis et permettra encore à la technologie de progresser. Lorsque le détecteur sera en fonctionnement, alors c'est à notre compréhension des lois fondamentales de la nature qu'il permettra de progresser. Certains des 1700 chercheurs et ingénieurs impliqués aujourd'hui dans l'expérience ne participeront pas à celle-ci pendant toute sa durée. Cependant, c'est probablement plus de 1000 chercheurs et ingénieurs qui auront finalement consacré vingt ans de leur vie à ce qui n'était au début qu'une simple hypothèse. Soyez convaincus qu'aucun d'entre eux ne doute que le jeu en vaut largement la chandelle. (T18)


Télécharger ppt "LHC : la physique à l'aube d'une nouvelle révolution ?"

Présentations similaires


Annonces Google