Spelling suggestions: "subject:"collisionneurs"" "subject:"collisionneur""
11 |
Resommation des corrections radiatives QCD et violation de la saveur non-minimale pour la production de particules supersymétriques auprès des collisionneurs hadroniquesFuks, Benjamin 26 June 2007 (has links) (PDF)
Les sections efficaces de production hadronique de particules supersymétriques ont été largement étudiées par le passé, aussi bien à l'ordre dominant qu'à l'ordre sous-dominant en QCD perturbative. Les corrections radiatives incluent de larges termes logarithmiques qu'il faut resommer à tous les ordres afin d'obtenir des prédictions consistantes. Dans ce travail, nous effectuons une première étude détaillée des effets de resommation pour la production hadronique de particules supersymétriques. Nous nous concentrons sur la production de type Drell-Yan de sleptons et sur la production associée d'un slepton et d'un sneutrino dans des scénarios de supergravité minimale et de brisure de supersymétrie véhiculée par interactions de jauge, et nous présentons des distributions d'impulsion transverse et de masse invariante, ainsi que des sections efficaces totales.<br /><br />Dans les modèles supersymétriques non minimaux, de nouveaux effets de violation de la saveur peuvent avoir lieu. Dans ce cas, la structure de saveur dans le secteur des squarks ne peut pas être déduite directement du couplage trilinéaire entre les supermultiplets de Higgs et de fermions. Nous effectuons une analyse numérique de l'espace des paramètres permis dans le cas de scénarios de supergravité minimale avec violation de la saveur non minimale, cherchant les régions permises par les mesures de précision électrofaibles, les observables à basse énergie et les données cosmologiques. La dépendance des sections efficaces à l'ordre dominant pour la production hadronique de squarks et de jauginos par rapport à la violation de la saveur non minimale est étudiée en détails.
|
12 |
Conception d'un système de verrouillage sur de fonctionnement pour les collisionneurs linéairesNouvel, Patrice 18 December 2013 (has links) (PDF)
Pour les accélérateurs de particules à hautes énergies, le système de verrouillage est une partie clé de la protection de la machine. Le verrouillage de la machine est l'inhibition du faisceau dès lors qu'un équipement critique tombe en panne et/ou qu'un faisceau est de faible qualité. Pour un système de verrouillage, sa sûreté de fonctionnement est la caractéristique la plus importante. Cette thèse présente le développement d'un système de verrouillage pour les collisionneurs linéaires avec une application au projet CLIC (Compact Linear Collider). Son élaboration s'appuie sur la norme d'ingénierie IEEE 1220 et se décline en quatre parties. Tout d'abord, les spécifications sont établies. Une attention particulière est portée sur la sûreté de fonctionnement, plus précisément, la fiabilité et la disponibilité du système. La deuxième étape est la proposition d'un design. Celui-ci est basé sur une analyse fonctionnelle, les interfaces du système et l'architecture du CLIC. Troisièmement, une étude de faisabilité est effectuée en appliquant les concepts dans un environnement opérationnel. Finalement, la dernière étape est la vérification matérielle. Le but est de prouver que le design proposé est capable de remplir le cahier des charges établi.
|
13 |
Refined predictions for cosmic rays and indirect dark matter searches / Raffinement des prédictions théoriques pour la physique du rayonnement cosmiqueGenolini, Yoann 10 July 2017 (has links)
Il y a tout juste cent ans que les premières mesures du taux d'ionisation de l'air ont dévoilé que la terre est sans cesse bombardée par une pluie de particules énergétiques provenant du Cosmos. D'un point de vue astrophysique, l'origine de ces particules hautement relativistes, appelés rayons cosmiques (CRs), ainsi que leur mécanisme d'accélération restent très peu connus. Le paradigme actuel suppose une injection sporadique des CRs accélérés par la propagation d'ondes de choc au cours de la mort de certaines étoiles (SNRs).Les mesures récentes des flux de CRs (par les expériences PAMELA et AMS-02 par exemple) inaugurent une nouvelle ère de précision dans la mesure où les incertitudes statistiques sont désormais considérablement réduites. Dans ce mémoire de thèse, nous proposons et approfondissons de nouvelles pistes théoriques de manière à maximiser l'information extraite de ces nouvelles données.Après une introduction générale sur la physique des CRs, nous nous concentrons sur les espèces dites primaires, qui sont produites directement par les SNRs. De la nature discrète des SNRs et de la méconnaissance quasi-complète de leurs positions et de leurs ages résulte une incertitude théorique qui nécessite d'être estimée pour la prédiction des flux observés sur Terre. Jusqu'alors ces prédictions se contentent de calculer la moyenne d'ensemble de ce flux. Dans cette partie nous exposons la théorie statistique que nous avons élaborée, permettant de calculer la probabilité d'une déviation du flux mesuré par rapport à la moyenne d'ensemble. Nous sommes amenés à utiliser une version généralisée du théorème de la limite centrale, avec lequel nous montrons que la loi de probabilité est intimement reliée à la distribution des sources et qu'elle converge vers une loi stable. Cette dernière diffère de la loi gaussienne par sa queue lourde en loi de puissance. Le cadre théorique développé ici peut non seulement être étendu à d'autres observables du rayonnement cosmique, mais aussi enrichi en incluant une description plus complète des corrélations entre les sources. De plus, la méthode que nous avons développée peut être appliquée à d'autres problèmes de physique/astrophysique impliquant des distributions à queue lourde.Deuxièmement nous nous penchons sur les CRs dits secondaires (comme le bore), qui sont produits par les collisions des espèces primaires avec le milieu interstellaire. Plus précisément nous nous concentrons sur le rapport du flux du bore sur celui du carbone qui est traditionnellement utilisé pour comprendre la propagation des CRs. Ainsi, tout porte à croire que les mesures extrêmement précises de ce rapport nous donneraient de fortes contraintes sur les scénarios de propagation. Malheureusement il n'en est rien et nous montrons que le calcul théorique dépend fortement de certaines hypothèses telles que le lieu de production des secondaires et le choix du jeux de sections efficaces d’interaction. Nous estimons à au moins 20 % les incertitudes sur les paramètres de propagation dérivés jusqu'à maintenant. Grâce aux nouvelles données de l'expérience AMS-02, nous présentons les points de départ de notre nouvelle analyse pour laquelle nous utilisons le code semi-analytique USINE.Finalement, dans une troisième partie, nous utilisons ces données de précision pour réactualiser les analyses portant sur la recherche indirecte de matière noire. En effet, les CRs d'antimatière seraient -au même titre que le bore- des particules secondaires. La prédiction de leur fond astrophysique repose sur une connaissance précise de la propagation des CRs et de leurs interactions dans la Galaxy. Nous les traitons ici sous les hypothèses habituelles et réévaluons les flux de positrons et d'antiprotons à la lumière des nouvelles données d'AMS-02. Nous discutons ensuite les conséquences pour la matière noire et les possibles explications astrophysiques d'éventuels excès observés. / A hundred years ago, pioneering observations of air ionization revealed that the Earth is showered with particles coming from the Galaxy and beyond. Because of their high energies, these particles coined cosmic-rays are still a crucial tool in the field of particle physics, complementary to man-made accelerators. From an astrophysical point of view, the origin of cosmic-rays and the mechanisms which accelerate them are still very poorly known. The present paradigm involves sporadic production associated with the expanding shock waves from dying stars (SNRs).Recent experiments (notably PAMELA and, more recently, AMS-02) are ushering us into a new era of measurements of cosmic-ray fluxes with greatly reduced statistical uncertainties. In this dissertation, we propose and investigate new theoretical refinements of our predictions to fully benefit from these advances.After a general introduction on cosmic-ray physics, we first focus on the so-called primary species which are directly produced by SNRs. In this context of precision measurements, the discreteness of the sources in space and time, together with a substantial ignorance of their precise epochs and locations (with the possible exception of the most recent and close ones) may lead to significant uncertainties in the predictions of the fluxes at the Earth. So far, the conventional approach just relied on average trends. Here, we elaborate a statistical theory in order to compute the probability for the actual flux to depart from its ensemble average. Using the generalized version of the central limit theorem, we demonstrate that the probability distribution function of the flux is intimately related to the source distribution and follows a stable law with a heavier tail than the Gaussian distribution. Our theoretical framework can not only be extended to other cosmic-ray observables, such as the lepton flux, but also can be enriched to include a more comprehensive description of the correlations between the sources. Moreover the method which we have developed may be applied to a variety of problems in physics/astrophysics involving heavy tail distributions.Secondly, we concentrate on secondary CRs, like the boron nuclei, which are thought to be produced only by the collisions of cosmic-rays on the interstellar medium. More precisely, the ratio of the boron to carbon fluxes is a traditional tool used to understand and gauge the propagation of cosmic-rays in the Galaxy. Hence a very precise measurement of this ratio should imply stringent constraints on the propagation scenario. However we show that its theoretical derivation strongly depends on where these secondary species are produced as well as on the chosen set of nuclear cross-sections. Hence we assess at the 20% level the theoretical uncertainties on the so far derived propagation parameters. As new data from AMS-02 were freshly released, we present the starting points of a comprehensive new analysis for which we use the semi-analytical code USINE.Finally these high precision measurements offer new opportunities for a number of astroparticle problems, such as indirect dark matter searches which is the main thrust of the third part of the thesis. Antimatter cosmic rays are thought to be secondary species and their relatively low fluxes make them a channel of choice to look for rare processes such as dark matter annihilation. Nonetheless, the predictions of the expected backgrounds rely on a precise modeling of cosmic-ray propagation and interactions in the Galaxy. We treat them under commonly used simplified assumptions and discuss two studies where we re-evaluate the anti-proton and the positron fluxes in the light of the new AMS-02 data. Then we discuss the implications for dark matter and astrophysical explanations.
|
14 |
Etude de la production de jets en diffraction à HERA, à l'aide du spectromètre à protons VFPS / Study of jet production in diffraction at HERA with the VFPSDelvax, Julie 24 September 2010 (has links)
Ce travail consiste en l'étude des événements diffractifs avec production de jets pour lesquels le proton diffusé est détecté dans le spectromètre à protons, VFPS, au sein de l'expérience H1 auprès du collisionneur HERA.<p><p>L'objectif est de mesurer la section efficace de ce processus et de la confronter aux prédictions théoriques de la Chromo Dynamique Quantique (QCD). Ces prédictions reposent sur le théorème de factorisation collinéaire, via l'universalité des densités de partons (PDF).<p><p>Les analyses précédentes de la Collaboration H1 ont montré un bon accord entre les données et les prédictions dans le domaine de l'électro-production supportant la factorisation. Cependant, en photo-production, une brisure de la factorisation a été observée.<p><p>Dans ce travail, le nouveau spectromètre à protons VFPS a été utilisé afin de détecter le proton diffusé lors de l'interaction diffractive, permettant de supprimer le bruit de fond dominant dans les mesures précédentes et de réduire d'autres sources d'incertitudes expérimentales.<p><p><p>La section efficace de production de jets dans le domaine de l'électro-production est extraite et comparée aux prédictions QCD au NLO. Ces prédictions sont basées sur les fonctions de distribution de partons (PDF) extraites des mesures antérieures par la Collaboration H1.<p><p>Les sections efficaces obtenues dans ce travail sont en accord tant d'un point de la normalisation que de celui de la dépendance en les différentes variables cinématiques avec les prédictions théoriques.<p><p>Nous pouvons en conclure l'universalité des PDF telle que prédite par le théorème de factorisation. De plus, l'analyse des sections efficaces différentielles permet de montrer que les prédictions basées sur des PDF extraites à partir d'une combinaison de mesures en diffraction inclusive et de production de jets semble être favorisée.<p><p>La production de jets en diffraction dans le domaine de la photo-production est également étudiée dans cette thèse. On y traite de la mise en place d'un nouveau sous-déclencheur permettant de sauvegarder les données sur banques. Les données en photo-production ont été comparées aux données simulées par un programme par Monte Carlo. Le bon accord entre les deux échantillons permet de s'assurer que les différents effets détecteurs ont été correctement pris en compte et montre que la mesure de la section efficace est faisable.<p> / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
15 |
Chromodynamique Quantique aux collisionneurs hadroniques : Vers une automatisation du calcul des processus multi-particules à l'ordre d'une boucle. Application à la production de deux photons et d'un jetMahmoudi, Farvah 29 June 2004 (has links) (PDF)
Le futur collisionneur du CERN (le LHC) possède un fantastique potentiel de découverte à condition d'avoir une prédiction quantitative de la QCD. Pour ce faire, il est nécessaire d'effectuer des calculs dans l'approximation NLO de manière à réduire la dépendance de la section efficace en fonction des échelles non physiques. Pour obtenir des résultats dans cette approximation, il faut calculer les sections efficaces des sous-processus partoniques contribuant à la réaction étudiée à l'ordre le plus bas ainsi que les corrections virtuelles (une boucle) et réelles. Le calcul des corrections virtuelles reste très compliqué si le nombre de particules externes est supérieur à quatre ou si les particules externes (internes) sont massives.<br />Dans cette thèse est proposée une méthode automatique pour effectuer les calculs à une boucle et à cinq pattes, et qui peut être généralisée aux cas de particules massives.<br />Dans une première partie, nous décrirons divers outils et méthodes nécessaires à de tels calculs. Nous les appliquerons ensuite au calcul de la réaction (gluon + gluon -> photon + photon + gluon), qui intéresse les expérimentateurs des expériences ATLAS et CMS comme bruit de fond à la recherche du Higgs, notamment pour décrire correctement la queue de la distribution transverse du boson de Higgs. Sera alors présenté le résultat explicite de cette amplitude pour chaque configuration d'hélicités sous une forme compacte et une représentation clairement invariante de jauge. Nous terminerons par une étude phénoménologique de cette réaction.
|
16 |
Mesure de la diffusion Compton à haute virtualité à Hera IIRoland, Benoît 22 September 2008 (has links)
La these de doctorat intitulee ``Mesure de la diffusion Compton a haute virtualite a HERA II'<p>a ete realisee au sein du service de physique des particules elementaires de l'ULB sous<p>la direction de mon promoteur Laurent Favart<p>et porte sur l'analyse des donnees enregistrees par l'experience H1 situee aupres du collisionneur<p>electron-proton HERA du laboratoire DESY a Hambourg. <p><p>L'analyse presentee concerne l'etude d'un processus diffractif exclusif particulier,<p>le processus de diffusion Compton a haute virtualite ou DVCS (Deeply Virtual Compton Scattering), e p -> e p gamma, qui correspond a <p>la diffusion gamma* p -> gamma p$ d'un photon<p>hautement virtuel par le proton, dans le domaine cinematique 6.5 < Q^2 < 80 GeV2,<p>30 < W < 140 GeV et / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
17 |
Recherche de Supersymétrie à l’aide de leptons de même charge électrique dans l’expérience ATLASTrépanier, Hubert 08 1900 (has links)
La théorie de la Supersymétrie est étudiée ici en tant que théorie complémentaire au Modèle Standard, sachant que celui-ci n'explique qu'environ 5% de l'univers et est incapable de répondre à plusieurs questions fondamentales en physique des particules. Ce mémoire contient les résultats d'une recherche de Supersymétrie effectuée avec le détecteur ATLAS et utilisant des états finaux contenant entre autres une paire de leptons de même charge électrique ou trois leptons. Les données proviennent de collisions protons-protons à 13 TeV d'énergie dans le centre-de-masse produites au Grand Collisionneur de Hadrons (LHC) en 2015. L'analyse n'a trouvé aucun excès significatif au-delà des attentes du Modèle Standard mais a permis tout de même de poser de nouvelles limites sur la masse de certaines particules supersymétriques. Ce mémoire contient aussi l'étude exhaustive d'un bruit de fond important pour cette analyse, soit le bruit de fond provenant des électrons dont la charge est mal identifiée. L'extraction du taux d'inversion de charge, nécessaire pour connaître combien d'événements seront attribuables à ce bruit de fond, a démontré que la probabilité pour que la charge d'un électron soit mal identifiée par ATLAS variait du dixième de pourcent à 8-9% selon l'impulsion transverse et la pseudorapidité des électrons. Puis, une étude fut effectuée concernant l'élimination de ce bruit de fond via l'identification et la discrimination des électrons dont la charge est mal identifiée. Une analyse multi-variée se servant d'une méthode d'apprentissage par arbres de décision, basée sur les caractéristiques distinctives de ces électrons, montra qu'il était possible de conserver un haut taux d'électrons bien identifiés (95%) tout en rejetant la grande majorité des électrons possédant une charge mal identifiée (90-93%). / Since the Standard Model only explains about 5% of our universe and leaves us with a lot of open questions in fundamental particle physics, a new theory called Supersymmetry is studied as a complementary model to the Standard Model. A search for Supersymmetry with the ATLAS detector and using final states with same-sign leptons or three leptons is presented in this master thesis. The data used for this analysis were produced in 2015 by the Large Hadron Collider (LHC) using proton-proton collisions at 13 TeV of center-of-mass energy. No excess was found above the Standard Model expectations but we were able to set new limits on the mass of some supersymmetric particles. This thesis describes in detail the topic of the electron charge-flip background, which arises when the electric charge of an electron is mis-measured by the ATLAS detector. This is an important background to take into account when searching for Supersymmetry with same-sign leptons. The extraction of charge-flip probabilities, which is needed to determine the number of charge-flip events among our same-sign selection, was performed and found to vary from less than a percent to 8-9% depending on the transverse momentum and the pseudorapidity of the electron. The last part of this thesis consists in a study for the potential of rejection of charge-flip electrons. It was performed by identifying and discriminating those electrons based on a multi-variate analysis with a boosted decision tree method using distinctive properties of charge-flip electrons. It was found that we can reject the wide majority of mis-measured electrons (90-93%) while keeping a very high level of efficiency for well-measured ones (95%).
|
18 |
Étude phénoménologique des interactions violant la symétrie de R-parité dans les théories supersymétriquesMoreau, Grégory 27 November 2000 (has links) (PDF)
L'extension supersymétrique du Modèle Standard peut contenir des interactions violant la symétrie dite de R-parité. La présence de tels couplages engendrerait une violation des nombres leptonique et/ou baryonique et modifierait en profondeur la phénoménologie de la supersymétrie auprès des futurs collisionneurs de particules. Nous avons développé des tests des interactions violant la R-parité. D'une part, nous avons étudié des signaux clairs de la production d'un seul partenaire supersymétrique de particule du Modèle Standard, qui implique les couplages violant la R-parité, dans le cadre de la physique aux prochains collisionneurs leptoniques et hadroniques. Les résultats montrent que de fortes sensibilités pourront être obtenues sur les paramètres de brisure douce de la supersymétrie et indiquent la possibilité d'une amélioration d'un à deux ordres de grandeur des limites indirectes actuelles sur les valeurs de plusieurs constantes de couplage violant la R-parité. De plus, il a été vérifié que l'analyse de la production d'un seul superpartenaire offre l'opportunité de reconstruire de façon indépendante du modèle théorique diverse masses de superpartenaires avec une grande précision. D'autre part, nous avons étudié des effets de violation de la symétrie CP aux futurs collisionneurs leptoniques dans la production de paire de fermions de saveurs différentes, ou de leur superpartenaire, permettant de mettre en évidence d'éventuelles phases complexes des constantes de couplage violant la R-parité. Nous avons vu notamment que la production d'un quark top accompagné d'un quark charmé permet de tester la violation de CP dans le secteur hadronique. La conclusion de ces travaux est que les phases complexes de certaines constantes de couplage violant la R-parité pourraient être observées, et plus particulièrement dans un scénario où ces couplages exhiberaient une grande hiérarchie dans l'espace des saveurs
|
19 |
Théorie et Phénoménologie du MSSM avec des Scalaires LourdsBernal, Nicolas 30 September 2008 (has links) (PDF)
Ce mémoire de thèse sera consacré à l'étude de quelques aspects phénoménologiques de la supersymétrie avec, comme principaux sujets, d'une part, la physique du MSSM dans le cas où les superparticules scalaires sont lourdes et les implications possibles auprès de collisionneurs à haute énergie tels que le LHC et, d'autre part, les caractéristiques des particules de matière noire et leurs détermination auprès des collisionneurs et dans des expériences d'astroparticules.
|
20 |
Contraintes sur les diquarks scalaires à partir des processus à haute énergiePascual Dias, Bruna 07 1900 (has links)
Le Modèle standard de la physique de particules explique avec beaucoup de succès comment les particules fondamentales interagissent entre elles. Néanmoins, ce modèle n’est pas capable d’expliquer certains défis contemporains du domaine, comme la grande quantité de paramètres libres, le problème de la hiérarchie ou l’identité de la matière sombre. Pour expliquer ces phénomènes, il faut chercher la physique au-delà du Modèle standard. De sorte à satisfaire les contraintes provenant des mesures expérimentales, on peut considérer l’addition d’une seule nouvelle particule au Modèle standard qui se couple à deux quarks, le diquark. Sa contribution aux processus hadroniques offre une opportunité d’obtenir des limites dans ses paramètres à partir des données expérimentales contemporaines. Ceci nous permettrait d’évaluer son potentiel et d’identifier les processus auxquels cette particule peut contribuer. Parmi les états de diquarks possibles, on trouve les diquarks scalaires Dᵘ et Dᵈ, qui possèdent un couplage antisymétrique à des paires de quarks droitiers du type up ou du type down, respectivement. L’obtention des contraintes sur les valeurs de leur masse Mᴰ et leurs couplages aux quarks (x^q, y^q), où q = u, d, est l’objectif central de ce travail. Pour cela, on considère tout d’abord des recherches directes dans la production de dijet, la signature expérimentale des désintégrations de ces particules. Ensuite, on sonde l’influence indirecte du diquark Dᵘ dans les mesures expérimentales de la section efficace de production d’un seul quark top. Les données expérimentales obtenues dans le Grand collisionneur d’hadrons (LHC) pour ces processus à haute énergie sont utilisées pour comparer les prédictions théoriques de ces modèles et quantifier leur viabilité en fournissant de nouvelles contraintes sur ses paramètres. On est capable d’améliorer les contraintes trouvées dans la littérature de |xᵘ| ≤ 14,4 à |xᵘ| ≤ 0,13–0,15 pour Dᵘ et de |xᵈyᵈ| ≤ 0,022 avec |yᵈ| ≤ 0,17 à |xᵈ| ≤ 0,15–0,17 pour Dᵈ, les deux avec une masse de Mᴰ = 600 GeV. De plus, l’analyse des données pour la production d’un seul quark top montre que la réduction de l’espace de phase des pᵀ peut améliorer encore plus ces contraintes. / The Standard Model of particle physics explains with great success how fundamental particles interact. However, this model cannot explain some contemporary challenges of the domain, such as the large number of free parameters, the hierarchy problem or the identity of dark matter. To explain these phenomena, we need to search for physics beyond the Standard Model. In order to satisfy the existing constraints from experimental measurements, we can consider the addition of a single new particle to the Standard Model that couples to two quarks, a diquark. Its contribution to hadronic processes offers an opportunity to set limits on its parameters from contemporary experimental data. This would allow us to evaluate their potential and identify processes to which they can contribute. Among the possible diquark states, we find the scalar diquarks Dᵘ and Dᵈ, which have an antisymmetric coupling to pairs of right-handed up-type or down-type quarks, respectively. To obtain constraints on their mass Mᴰ and on their couplings to quarks (x^q, y^q), where q = u, d, is the main goal of this work. In order to do so, we start by considering direct searches in the production of dijet, the experimental signature of the decay of these particles. Afterwards, we probe the indirect influence of the Dᵘ diquark to the experimental measurements of the single-top-production cross section. Recent data for both of these processes from the Large Hadron Collider (LHC) is used to compare the theoretical predictions of these models and quantify their viability by providing new constraints on its parameters. We are able to improve the constraints found in the literature from |xᵘ| ≤ 14.4 to |xᵘ| ≤ 0.13–0.15 for Dᵘ and from |xᵈyᵈ| ≤ 0.022 to |yᵈ| ≤ 0.17 to |xᵈ| ≤ 0.15–0.17 for Dᵈ, both with masses of Mᴰ = 600 GeV. Other than that, the analysis of the data from single top production shows that the reduction of the pᵀ space can further improve these constraints.
|
Page generated in 0.0751 seconds