• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 44
  • 6
  • Tagged with
  • 115
  • 115
  • 90
  • 57
  • 42
  • 36
  • 34
  • 34
  • 32
  • 25
  • 24
  • 22
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Towards a measurement of the angle γ of the Unitarity Triangle with the LHCb detector at the LHC (CERN) : calibration of the calorimeters using an energy flow technique and first observation of the Bs0 -> D0K*0

Martens, Aurélien 09 September 2011 (has links) (PDF)
A ce jour la détermination de l'angle γ du Triangle d'Unitarité de la matrice de Cabibbo-Kabayashi-Maskawa est statistiquement limitée par la rareté des transitions b→ u. La précision obtenue en combinant les résultats des expériences BABAR et BELLE est proche de 10°. L'expérience LHCb auprès du LHC présente un fort potentiel d'amélioration pour ce paramètre de violation de CP, notamment via la désintégration Bd0 -> D0K*0, un des canaux clés de cette mesure. Les désintégrations D0 -> Kπ, D0 -> Kππ0 et D0 -> Kπππ sont étudiées dans cette thèse. L'utilisation de désintégrations faisant intervenir des π0 nécessite un bon étalonnage en énergie des calorimètres électromagnétiques. Une méthode d'étalonnage intercellules du ECAL basée sur le flux d'énergie, permet d'obtenir une inter-calibration de l'ordre de 1,5 %, l'échelle d'énergie absolue étant obtenue par des méthodes indépendantes non étudiées ici. La détermination du rapport d'embranchement de la désintégration Bs0 -> D0K*0, première étape du programme aboutissant à la mesure de la violation de CP dans le canal Bd0 -> D0K*0, est réalisée relativement au rapport d'embranchement de Bd0 -> D0ρ0. Le résultat final obtenu avec 36 pb−1 de données collectées par LHCb en 2010 reste dominé par l'erreur statistique :BR(Bs0 -> D0K*0)/BR(Bd0 -> D0ρ0) = 1, 48 ± 0, 34 (stat) ± 0, 15 (syst) ± 0, 12 (fd/fs).
62

Reconstruction des électrons et recherche de couplages anormaux dans le canal pp->ZZ->4l avec le détecteur CMS auprès du LHC

Sabes, David 19 October 2012 (has links) (PDF)
La thèse en physique des particules que j'ai effectuée au sein de l'équipe CMS (Compact Muon Solenoid) du Laboratoire Leprince-Ringuet de l'École Polytechnique porte sur l'analyse de la production de di-bosons pp→ZZ+X et la recherche de couplages anormaux et ce, dans le cadre de l'expérience CMS et des données accumulées à l'aide du grand collisionneur de hadrons du CERN, le LHC. Elle débute avec le démarrage du LHC en fin 2009 et l'étude et l'optimisation de la reconstruction des électrons via la combinaison de deux algorithmes afin d'améliorer les performances à bas moment transverse. Les critères de sélection des événements caractéristiques des désintégrations de bosons Z, assurant une sélection pure d'électrons, ont été étudiés. Les efficacités de reconstruction des électrons pour les données 2010 et 2011 ainsi que leurs erreurs statistiques et systématiques ont été mesurées et ces mesures ont ensuite été utilisées par la collaboration CMS pour les analyses 2010 et 2011. Une étude des caractéristiques des radiations dans l'état final (Final State Radiation) affectant les leptons issus de la désintégration du Z a été menée. Un algorithme en vue de récupérer les photons FSR et reconstruire pleinement la masse du Z a été développé et optimisé. Il corrige 4.2% des cas ZZ→4μ tout en assurant une pureté de sélection des photons FSR de 95.6%. L'analyse physique développée dans cette thèse porte sur la recherche et l'extraction de limites sur les couplages trilinéaires neutres. L'existence de ces couplages est interdite dans le formalisme du Modèle Standard mais peut cependant être introduite dans un Lagrangien effectif par l'ajout de deux termes de couplages f4Z et f5Z dans le cas du couplage ZZZ, en vue de la recherche d'une nouvelle physique. La présence de ces couplages anormaux se traduit généralement par une augmentation de la section efficace de production des di-bosons ZZ ainsi que par les déformations des distributions cinématiques des Z ou encore de la masse des 4 leptons par rapport à l'attendu Modèle Standard. Dans le cadre de l'analyse du canal pp→ZZ→4l, une sélection pure des événements a été établie et les distributions différentielles du moment transverse et de la rapidité des bosons Z sont également présentées. Une recherche des couplages anormaux est effectuée en utilisant une méthode de repondération des distributions simulées et des limites sont extraites par la technique CLs. Les limites obtenues avec un niveau de confiance de 95% sont: -0.0116< f4Z <0.0116 et -0.0119< f5Z <0.0119.
63

Etude du système de déclenchement électronique pour le projet HL-LHC et recherche de nouvelle physique dans le spectre de masse invariante top anti-top au sein de l'expérience CMS du LHC

Beaupère, Nicolas 19 September 2012 (has links) (PDF)
Ce manuscrit décrit mon travail de thèse au sein de l'expérience CMS du collisioneur LHC. Il présente les deux sujets sur lesquels j'ai travaillé : un sujet orienté détecteur et un sujet orienté analyse de données. Le premier sujet, orienté détecteur, se situe dans le cadre du projet HL-LHC qui prévoit une augmentation de la luminosité instantanée d'un facteur cinq. Une telle augmentation et la conservation du système de haut niveau du déclenchement (HLT), engendre de nouvelles contraintes sur le détecteur CMS. Notamment au niveau du système de déclenchement électronique. La collaboration CMS envisage d'implanter ce dernier au sein du détecteur de traces. La méthode des mémoires associatives est proposée. Elle nécessite toutefois une présélection intelligente des signaux électriques pour être utilisable. La méthode de la largeur des amas est proposée pour présélectionner les signaux. L'optimisation de cette méthode, en particulier des paramètres géométriques des modules et des seuils appliqués pour la présélection des signaux électrique, est le résultat de mon travail. Il est détaillé tout au long de la partie III de ce manuscrit. Le deuxième sujet concerne l'analyse des données récoltées par CMS durant l'année 2011. Cette analyse a pour objectif de rechercher de nouvelles particules dans le spectre de masse invariante top anti-top. De par sa grande masse, proche de la brisure électrofaible, le quark top joue un rôle prépondérant dans de nombreuses extensions du Modèle Standard. L'observation de résonances étroites dans le spectre pourrait en être le signe. L'analyse est subdivisée en trois parties : la sélection des évènements top anti-top, la reconstruction de la masse invariante top anti-top et une étude statistique pour quantifier la présence de nouvelle physique. Les résultats de ce travail sont des limites sur la section efficace de production de nouvelles particules. Ils sont présentés dans la partie IV du manuscrit.
64

Analyse de la désintégration rare B0 ->K*0 e+e- dans l'expérience LHCb

Nicol, M. 05 December 2012 (has links) (PDF)
Grâce a la grande section efficace de production de paires b \bar b, LHC offre une excellente occasion de faire des études de courants neutre changeant la saveur. Ces transitions sont sensibles aux effets de nouvelle physique. Cette these porte sur l'analyse des événements B0 → K∗ 0 e+e− qui permettent de mesurer la fraction de photon avec une polarisation droite et donc de rechercher des signaux de nouvelle physique émis dans la transition b → sγ . En effet, dans le Modele Standard, la polarisation des photons est gauche. La paire e+e−, lors que la masse invariante de la paire de leptons est basse, provient d'un photon virtuel et permet donc de sonder la polarisation de celui-ci. Cette mesure se fait grâce a l'étude des distribution angulaires de cette désintégration a quatre corps. Une première étape est la mesure du rapport d'embranchement dans le domaine de masse 30-1000 MeV/c2 . En effet, cette désintégration n'a jamais été observée dans cette région, y compris auprès des usines a B a cause du très faible rapport d'embranchement. Cette analyse comportant des électrons de basse impulsion transverse est expérimentalement complexe dans un environnement tel que celui du LHC. La mesure est faite relativement au rapport d'embranchement de la désintégration B0 → J/ψ (e + e−)K∗0 . En effet, cela permet de s'affranchir de nombreux effets expérimentaux ainsi que de la détermination absolue des efficacites. Le résultat, repose sur les donnees collectees par LHCb en 2011 et correspondant a une luminosité intégrée de 1 fb−1 : B(B 0 → K∗ 0 e+e−)30−1000 MeV/c = (3.19+0.75 −0.68 (stat) ± 0.22(syst) ± 0.15(PDG)) × 10− 7 en utilisant la valeur PDG pour le rapport d'embranchement de la désintégration B0 → J/ψ (e + e−)K∗0 . La dernière partie de la thèse porte sur des études Monte Carlo qui montrent que la précision sur la fraction de photon avec une polarisation droite que l'on peut espérer obtenir avec l'inclusion des données de 2012 est d'environ 0.1, comparable a la moyenne mondiale obtenue avec des méthodes differentes.
65

Analyse de la désintégration rare B->K*ee dans l'expérience LHCb

Nicol, Michelle 05 December 2012 (has links) (PDF)
Grâce à la grande section efficace de production de paires bb, LHC offre une excellente occasion de faire des études de courants neutres changeant la saveur. Ces transitions sont sensibles aux effets de nouvelle physique. Cette thèse porte sur l'analyse des événements B->K*ee qui permettent de mesurer la fraction de photon avec une polarisation droite et donc de rechercher des signaux de nouvelle physique émis dans la transition b ->s. En effet, dans le Modèle Standard, la polarisation des photons est gauche. La paire e+e-, lors que la masse invariante de la paire de leptons est basse, provient d'un photon virtuel et permet donc de sonder la polarisation de celui-ci. Cette mesure se fait grâce à l'étude des distribution angulaires de cette désintégration à quatre corps. Une première étape est la mesure du rapport d'embranchement dans le domaine de masse 30-1000MeV=c2. En effet, cette désintégration n'a jamais été observée dans cette région, y compris auprès des usines a B a cause du très faible rapport d'embranchement. Cette analyse comportant des électrons de basse impulsion transverse est expérimentalement complexe dans un environnement tel que celui du LHC. La mesure est faite relativement au rapport d'embranchement de la désintégration B->J/Psi(ee)K*. En effet, cela permet de s'affranchir de nombreux effets expérimentaux ainsi que de la détermination absolue des efficacités. Le résultat, repose sur les données collectées par LHCb en 2011 et correspondant a une luminosité intégrée de 1 fb-1: B(B->K*ee)30-1000MeV = (3:19+0:75-0:68(stat) +/- 0:21(syst) =/-0.15(PDG)) x10-7 en utilisant la valeur PDG pour le rapport d'embranchement de la désintégration B->J/Psi(ee)K*. La dernière partie de la thèse porte sur des études Monte Carlo qui montrent que la précision sur la fraction de photon avec une polarisation droite que l'on peut espérer obtenir avec l'inclusion des données de 2012 est d'environ 0.1, comparable à la moyenne mondiale obtenue avec des méthodes différentes.
66

Tests phénoménologiques de la chromodynamique quantique perturbative à haute énergie au LHC

Ducloué, Bertrand 08 July 2014 (has links) (PDF)
Dans la limite des hautes énergies, la petite valeur de la constante de couplage de l'interaction forte peut être compensée par l'apparition de grands logarithmes de l'énergie dans le centre de masse. Toutes ces contributions peuvent être du même ordre de grandeur et sont resommées par l'équation de Balitsky-Fadin-Kuraev-Lipatov (BFKL). De nombreux processus ont été proposés pour étudier cette dynamique. L'un des plus prometteurs, proposé par Mueller et Navelet, est l'étude de la production de deux jets vers l'avant séparés par un grand intervalle en rapidité dans les collisions de hadrons. Un calcul BFKL ne prenant en compte que les termes dominants (approximation des logarithmes dominants ou LL) prédit une augmentation rapide de la section efficace avec l'augmentation de l'intervalle en rapidité entre les jets ainsi qu'une faible corrélation angulaire. Cependant, des calculs basés sur cette approximation ne purent pas décrire correctement les mesures expérimentales de ces observables au Tevatron. Dans cette thèse, nous étudions ce processus à l'ordre des logarithmes sous-dominants, ou NLL, en prenant en compte les corrections NLL aux facteurs d'impact, qui décrivent la transition d'un hadron initial vers un jet, et à la fonction de Green, qui décrit le couplage entre les facteurs d'impact. Nous étudions l'importance de ces corrections NLL et trouvons qu'elles sont très importantes, ce qui conduit à des résultats très différents de ceux obtenus à l'ordre des logarithmes dominants. De plus, ces résultats dépendent fortement du choix des échelles présentes dans ce processus. Nous comparons nos résultats avec des données récentes de la collaboration CMS sur les corrélations angulaires des jets Mueller-Navelet au LHC et ne trouvons pas un bon accord. Nous montrons que cela peut être corrigé en utilisant la procédure de Brodsky-Lepage-Mackenzie pour fixer le choix de l'échelle de renormalisation. Cela conduit à des résultats plus stables et une très bonne description des données de CMS. Finalement, nous montrons que, à l'ordre des logarithmes sous-dominants, l'absence de conservation stricte de l'énergie-impulsion (qui est un effet négligé dans un calcul BFKL) devrait être un problème beaucoup moins important qu'à l'ordre des logarithmes dominants.
67

Calculs de précision dans un modèle supersymétrique non minimal / Precision calculations in the next-to-minimal supersymmetric extension of the standard model

Bizouard, Vincent 30 October 2015 (has links)
Malgré les nombreux succès du Modèle Standard de la physique des particules, plusieurs éléments montrent qu'il ne s'agit que d'une théorie effective à basse énergie. En effet, la masse des neutrinos et la matière noire ne sont pas expliqués dans ce modèle, qui ne prend pas en compte non plus la gravitation dont la version quantique n'a toujours pas été établie. De plus, les divergences quadratiques des corrections à la masse du boson de Higgs dans ce modèle pose un problème de naturalité. Tous ces problèmes indiquent la nécessité de trouver une nouvelle physique, qui doit être décrite par une extension du Modèle Standard. Une des possibilités est d'ajouter une nouvelle symétrie de l'espace-temps, la Supersymétrie, reliant les bosons et le fermions. Dans son extension miminale, la Supersymétrie permet déjà de résoudre le problème de la matière noire en proposant un candidat naturel, le neutralino, et de supprimer les dangereuses corrections quadratiques à la masse du boson de Higgs.Dans cette thèse, les travaux se sont concentrés sur une extension supersymétrique non minimale du Modèle Standard, le NMSSM. Afin de confronter la théorie aux expériences, il est nécessaire de calculer précisément les différentes observables. Ces calculs étant complexes, il est naturel de les automatiser, ce qui a été réalisé à l'aide du code SloopS. Avec ce code, nous avons pu dans un premier temps nous intéresser à la désintégration du boson de Higgs en un photon et un boson Z. Ce mode de désintégration a la particularité d'être généré directement à une boucle, ce qui le rend sensible à la présence de nouvelles particules. Il a commencé à être mesuré lors du Run 1 du LHC et les données vont continuer à s'accumuler avec le Run actuel (Run 2). La possibilité d'une déviation du signal mesuré avec celui prédit par le modèle Standard, requiert donc une analyse théorique préliminaire, que nous avons effectué dans le cadre du NMSSM. Nous nous sommes ensuite intéressé aux corrections radiatives pour des processus plus généraux.Il a d'abord fallu réaliser et implémenter la renormalisation dans SloopS afin de réguler les divergences apparaissant dans ces calculs à une boucle. Puis nous avons pu utiliser le modèle renormalisé pour calculer les corrections radiatives aux masses et largeurs de désintégration des différentes particules supersymétriques et des bosons de Higgs, en comparant les résultats obtenus dans différents schémas de renormalisation. / Although the Standard Model has been very successful so far, it presents several limitations showing that it is only an effective low energy theory. For example, the neutrino masses or dark matter are not predicted in this model. Gravity is also not taken into account and we expect that it plays a quantum role at energies around the Planck mass. Moreover, radiative corrections to the Higgs boson mass suffer from quadratic divergences. All these problems underline the fact that new physics should appear, and this has to be described by an extension of the Standard Model. One well-motivated possibility is to add a new space-time symetry, called Supersymmetry, which link bosons and fermions. In its minimal extension, Supersymmetry can already solve the dark matter paradox with a natural candidate, the neutralino, and provide a cancellation of the dangerous quadratic corrections to the Higgs boson mass.In this thesis, we focussed on the Next-to-Minimal SuperSymmetric extension of the Standard Model, the NMSSM. To compare theoretical predictions with experiments, physical observables must be computed precisely. Since these calculations are long and complex, automatisation is desirable. This was done by developping SloopS, a program to compute one-loop decay width and cross-section at one-loop order in Supersymmetry. With this code, we first analysed the decay of the Higgs boson in a photon and a Z boson. This decay mode is induced at the quantum level and thus is an interesting probe of new physics. Its measurement has been started during Run 1 of the LHC and is continued now in Run 2. The possibility of deviation between the measured signal strength and the one predicted by the Standard Model motivates a careful theoretical analysis in beyond Standard Models which we realised within the NMSSM. Our goal was to compute radiative corrections for any process in this model. To cancel the ultraviolet divergences appearing in higher order computations, we had to carry out and implement the renormalisation of the NMSSM in SloopS. Finally, it was possible to use the renormalised model to compute radiatives corrections to masses and decay widths of Higgs bosons and supersymmetric particles in the NMSSM and to compare the results between different renormalisation schemes.
68

Recherche de nouveaux phénomènes dans les événements diphoton avec le détecteur ATLAS / Search for new phenomena in diphoton events with the ATLAS detector

Buat, Quentin 31 July 2013 (has links)
Dans cette thèse, je présente mes travaux de recherche réalisés avec les données de collision proton-proton enregistrées par le détecteur ATLAS. Les événements étudiés possèdent un état final avec au moins deux photons et une grande masse invariante du système diphoton. Le lot de données enregistré pendant l'année 2011 dans des collisions avec une énergie de 7 TeV dans le centre de masse proton-proton correspond à une luminosité intégrée d'environ 5 fb-1. Ces données ont été comparées aux prédictions du Modèle Standard de la Physique des Particules. En l'absence de différences significatives, des contraintes ont été imposées sur les paramètres de modèles prévoyant l'existence de dimensions supplémentaires. A titre d'exemple, le premier graviton de Kaluza-Klein du modèle de Randall-Sundrum a été contraint d'être plus massif que 2.23 TeV, améliorant d'environ 1 TeV la contrainte du Tevatron. Les résultats obtenus ont fait l'objet d'une publication de la part de la collaboration ATLAS. En 2012, le LHC a réalisé des collisions proton-proton avec une énergie dans le centre de masse de 8 TeV. En outre, la luminosité intégrée a été environ quatre fois supérieure qu'en 2011. Les résultats préliminaires obtenus avec ce lot de données sont présentés dans ce document. La revue interne de ces résultats au sein de la collaboration ATLAS est en cours en vue d'une publication en 2013. La détection et la caractérisation des électrons et des photons reposent essentiellement sur le calorimètre à argon liquide du détecteur ATLAS. La procédure qui permet d'évaluer la qualité des mesures de ces particules a été mise en place au début de la prise de données. Ma contribution à son élaboration est décrite dans ce document. / In this thesis, I describe my research based on proton-proton collision data collected by the ATLAS detector. The study uses events with at least two photons in the final state and a large invariant mass of the diphoton system. A dataset of proton-proton collisions at a center-of-mass energy of 7 TeV corresponding to an integrated luminosity of approximately 5 fb-1 has been recorded in 2011. This sample has been compared to the predictions of the Standard Model of Particle Physics. Given the good agreement of the data with these predictions, limits have been set on the parameters of models that postulate extra spatial dimensions. As an example, the lightest Kaluza-Klein graviton in the Randall-Sundrum model has been constrained to be more massive than 2.23 TeV, superseding the Tevatron limits by approximately 1 TeV. These results have been published by the ATLAS collaboration. In 2012, the LHC has delivered proton-proton collisions at a center-of-mass energy of 8 TeV. The corresponding integrated luminosity is four times larger than that of the 2011 dataset. Preliminary results based on this dataset are presented in this document. The ATLAS-internal review of these results is ongoing, and a publication is targeted for 2013. The detection and the characterization of electrons and photons are mainly based on the liquid argon calorimeter of the ATLAS detector. A procedure to assess the quality of the measurements of these particles has been established at the beginning of the data taking. My contributions to its development are described in this document.
69

Search for the standard Higgs boson produced in association with a pair of top quark in the multi-leptons channel in the CMS experiment / Recherche du boson de Higgs standard produit en association avec une paire de quarks top dans le canal multi-leptons dans l'expérience CMS

Coubez, Xavier 15 September 2017 (has links)
La découverte en 2012 de la dernière particule élémentaire prédite par le Modèle Standard, le boson de Higgs, a ouvert une nouvelle ère en physique des particules. L’un des objectifs est désormais de sonder les couplages du boson de Higgs aux autres particules afin de confirmer la validité du modèle. Le travail de cette thèse a porté dans un premier temps sur l’identification de jets issus de quark b dès le système de déclenchement. L’objectif est de permettre de sélectionner un millier d’événements parmi les quarante millions produits chaque seconde au LHC en identifiant des objets présents dans l’état final de processus de physique intéressants tels que la production associée d’un boson de Higgs se désintégrant en paire de quark b avec un boson Z se désintégrant en neutrinos non détectés. Dans un second temps, l’étude du couplage du boson de Higgs au quark top, particule la plus massive au sein du Modèle Standard a été réalisée. Après l’étude d’un bruit de fond important de la production associée d’un boson de Higgs et d’une paire de quarks top, une nouvelle méthode a été utilisée pour améliorer la discrimination entre le signal et les principaux bruits de fond. Cette analyse a conduit à la première évidence expérimentale du couplage entre le boson de Higgs et le quark top. / The discovery in 2012 of the last elementary particle predicted by the Standard Model, the Higgs boson, has opened a new era in particle physics. One of the objectives now is to probe the coupling of the Higgs boson to other particles in order to confirm the validity of the model. The work of this thesis focused initially on the identification of jets coming from b quark at trigger level. The goal is to allow for the selection of one thousand events among the forty million produced every second at the LHC, by identifiying objects present in the final states of interesting physics processes such as the associated production of a Higgs boson decaying in a pair of b quark with a Z boson decaying into undetected neutrinos. The work then moved to the study of the coupling of the Higgs boson to the quark top, most massive particle in the Standard Model. After a study of one of the important background of the associated production of the Higgs boson and a top quark pair, a new method called matrix element method has been used to improve the discrimination between signal and background. This analysis has led to the first experimental evidence of coupling between the Higgs boson and the top quark.
70

Calorimétrie à argon liquide et recherche de nouvelle physique via l'étude de paires de quarks top boostés dans l'expérience ATLAS au LHC / Liquid argon calorimetry and search for new physics using boosted top quarks with the ATLAS experiment at the LHC

Camincher, Clément 06 October 2017 (has links)
Le modèle standard de la physique des particules, bien qu'étant une réussite incontestable n'explique toujours pas certaines observations, ce qui pourrais indiquer la présence d'une nouvelle physique. L'expérience ATLAS cherche à mettre en évidence ces nouveaux phénomènes en analysant les collisions de protons du LHC.Le prérequis pour toute analyse est d'avoir des données de bonne qualité. La première partie de cette thèse présente donc une étude sur les bouffées de bruit cohérent présentes dans les calorimètres à argon liquide d'ATLAS. Ce bruit a été traité pour garder un haut niveau de qualité des données.La deuxième partie de cette thèse se place dans le cadre de la recherche de nouvelle physique. Une résonance est cherchée dans le spectre en masse invariante des paires de quarks top. L'étude se concentre sur le cas des quarks top boostés se désintégrant de manière électronique. Cette topologie n'ayant jusqu'à présent pas été optimisée par la collaboration ATLAS, le travail de cette thèse a consisté à définir et développer une nouvelle méthode appelée "electron-in-jet removal" permettant d'améliorer la reconstruction des quarks top dans un tel régime.Cette méthode donne accès à des électrons qui auparavant étaient rejetés. Il faut donc mesurer les facteurs correctifs à appliquer pour corriger les imperfections de la simulation de ces électrons. Des mesures préliminaires de facteurs d'échelle d'identification sur les électrons se trouvant dans un jets ont ainsi été menées. Deux méthodes sont présentées ainsi qu'une réflexion sur les perspectives à apporter à ces mesures. / The standard model of particle physics is a very predictive theory, but it still fails to explain some observations and so leads to the idea of the existence of new physics. To discover it experimentally, the ATLAS collaboration analyses the proton-proton collisions provided by the LHC.Analyses need data of good quality. Hence, the first part of this document describes a work to characterize the coherent noise bursts observed in the liquid argon calorimeters of the ATLAS experiment. Such noise has been studied and cured to ensure a high level of data quality.The second part of this thesis takes place in the context of a new physics search using top quark pairs. This study is focused on the case where boosted top quarks decay electronically. The reconstruction of top quarks in such cases was never optimized by the ATLAS collaboration. Therefore this study has lead to the definition and implementation of a new method called "electron-in-jet removal" improving significantly the top quark reconstruction in such topologies.This new method gives access to electrons that were previously removed. The correction factor applied to correct the imperfections of the simulation should then be computed for those electrons. Some preliminary measurements have been performed for the cases where the electron is within a jet. Two methods are presented as well as thoughts about future implementations.

Page generated in 0.2108 seconds