• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 22
  • 4
  • Tagged with
  • 59
  • 26
  • 21
  • 16
  • 15
  • 15
  • 14
  • 13
  • 13
  • 12
  • 10
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Etudes semi-analytiques des conditions de déclenchement et de saturation des auto-oscillations dans des moteurs thermoacoustiques de géométries diverses

Guédra, Matthieu 19 October 2012 (has links) (PDF)
Les moteurs thermoacoustiques sont des oscillateurs autonomes constitués d'un résonateur acoustique partiellement occupé par un matériau poreux (stack) soumis à un important gradient de température grâce à un apport de chaleur externe. Lorsque le gradient de température imposé le long du stack devient supérieur à un certain gradient critique, appelé seuil de déclenchement, l'interaction fluide-parois se traduit par l'amplification d'une onde acoustique auto-entretenue de fort niveau sur le mode le plus instable du résonateur. L'objet des travaux présentés dans ce mémoire est double. D'une part, il est de proposer un formalisme pour la description du fonctionnement de moteurs thermoacoustiques facilement généralisable à l'ensemble de ces systèmes, qu'ils soient à ondes stationnaires ou à ondes progressives. D'autre part, il est de proposer une approche expérimentale pour la caractérisation du noyau thermoacoustique (incluant le stack et la portion de guide inhomogène en température), qui permette de décrire le comportement de systèmes thermoacoustiques sans formuler d'hypothèses sur la forme du champ de température ou la géométrie du stack.Une modélisation analytique des conditions marginales de stabilité et du taux d'amplification de l'onde est tout d'abord proposée, basée sur l'écriture des matrices de transfert des différents éléments qui constituent le moteur. Ces matrices de transfert associées aux conditions aux limites du système étudié conduisent à une équation caractéristique dont la forme dépend de la géométrie de moteur considérée. La solution de cette équation est une pulsation acoustique complexe dont la partie imaginaire correspond au coefficient d'amplification thermoacoustique.La mesure de la matrice de transfert du noyau thermoacoustique constitue la partie expérimentale des travaux exposés. Elle est réalisée pour différentes conditions de chauffage au moyen d'une méthode à quatre microphones. Dans un premier temps, les résultats expérimentaux sont introduits dans le modèle développé précedemment pour prédire le seuil de déclenchement de divers moteurs thermoacoustiques équipés de ce noyau. Les résultats obtenus grâce à cette méthode sont très proches des observations expérimentales, validant ainsi le banc de mesure et le modèle décrivant les conditions de stabilité. Dans un second temps, les données expérimentales sont utilisées pour affiner un modèle analytique décrivant les mécanismes couplés de propagation acoustique et de transport de la chaleur dans le noyau thermoacoustique : ceci permet notamment d'ajuster les valeurs de paramètres acoustiques et thermiques au moyen d'une méthode inverse.Au-delà du seuil de déclenchement, l'amplification et la saturation de l'onde résultent pour une bonne part du transport de chaleur thermoacoustique et de la convection forcée liée à la génération d'un écoulement redressé (vent acoustique), ces deux mécanismes étant généralement responsables d'une dynamique d'évolution complexe de l'amplitude de pression acoustique au cours du régime transitoire. La dernière partie de ces travaux est consacrée à l'introduction de ces deux effets dans le modèle décrit ci-avant, donnant ainsi accès à la description du régime transitoire de l'onde. Une modélisation simplifiée des transports de chaleur associés au vent acoustique de Rayleigh est notamment proposée, qui permet de montrer que cet effet joue vraisemblablement un rôle important dans la dynamique des régimes transitoires observés expérimentalement dans un générateur thermoacoustique quart d'onde.
32

Sonde muonique et instrumentation associée pour l'étude du plasma de quarks et de gluons dans l'expérience ALICE

Guerin, F. 30 November 2006 (has links) (PDF)
ALICE est le détecteur du LHC dédié à l'étude des collisions d'ions lourds ultra-relativistes. Le principal objectif de cette expérience est la mise en évidence et l'étude d'une nouvelle phase de la matière nucléaire prédite par la théorie de la chromodynamique quantique (QCD) : le Plasma de Quarks et de Gluons (PQG). Une des signatures possibles est la suppression des taux de production des quarkonia par écrantage de couleur dans les collisions d'ions lourds, dans lesquelles la formation d'un plasma est attendue. Le spectromètre à muons permettra de mesurer les taux de production des quarkonia (J/Psi, Upsilon) dans les collisions d'ions lourds via leur canal de désintégration dimuonique. Un système de déclenchement rapide, associé au spectromètre à muons, est chargé de sélectionner les événements contenant au minimum un muon ou un dimuon à l'aide d'un algorithme de recherche de traces. L'étude des performances du système de déclenchement du spectromètre à muons, réalisée à l'aide de simulations Monte-Carlo, sera présentée dans ce mémoire en mettant l'accent sur l'efficacité et la fréquence de déclenchement du système dans le cas des collisions Pb-Pb et Ar-Ar. Nous présenterons également la reconstruction du spectre en masse des dimuons de signes opposé avec le spectromètre à muons d'ALICE. A partir de ce spectre, les taux de production des états Upsilon seront extraits pour un mois de collisions Pb-Pb au LHC et pour diverses tranches en centralité.
33

Observation du boson de Higgs dans sa désintégration en gamma+gamma et recherche de sa désintégration en Z+gamma avec le détecteur ATLAS

Liu, Kun 24 June 2014 (has links) (PDF)
Ce travail de thése concerne la recherche du boson de Higgsa laide de canaux de désinégration contenant des photons dans létat final, baée sur les données enregistrées par le détecteur ATLAS en 2011 et 2012, a une énergie dans le centre de masse des collisions proton-proton center-mass-energy et 8 TeV. La sélection deséévenements, les principaux bruits de fond, les propriéés du signal, la discrimination statistique entre signal et bruits de fond, ainsi que l'interprétation des ésultats en terme de boson de Higgs du moéle standard sont discués. Dans le canal de désinégration H to gamma+gamma, un excés par rapport au niveau de bruit de fond est clairement visible a une masse mH=126,8 +- 0,2(stat) +- 0,7(syst) GeV et avec une significativité locale de7,4 sigma. En revanche, dans le canal de désinégration rareH to Z+gamma, aucun excés n'est obseré dans la feétre de masse allant de 120 a 150 GeV. Ce résultat est interpéé comme une limiteégalea 11 fois la valeur de la section efficace de production pp to H to Z+gamma prédite par le moéle standard pour une masse du boson de Higgs de mH = 125,5 GeV, proche de celle mesurée dans les canaux engamma+gamma et en quatre leptons. Une reconstruction et une identification efficace des photons, ainsi qu'une connaissance précise des performances du systéme de éclenchement et de l'algorithme d'identification, sont des aspects importants de ces mesures. Une grande partie de ce manuscrit est ainsi consacréea la description de l'optimisation de ces performances et des activités de mesures que j'ai réalisées pendant ces trois années.
34

Observation du boson de Higgs dans sa désintégration en γγ et recherche de sa désintégration en Zγ avec le détecteur ATLAS

Liu, Kun 24 June 2014 (has links) (PDF)
Ce travail de thèse concerne la recherche du boson de Higgs à l'aide de canaux de désintégration contenant des photons dans l'état final, basée sur les données enregistrées par le détecteur ATLAS en 2011 et 2012, à une énergie dans le centre de masse des collisions √ proton-proton s = 7 et 8 TeV. La sélection des évévenements, les principaux bruits de fond, les propriétés du signal, la discrimination statistique entre signal et bruits de fond, ainsi que l'interprétation des résultats en terme de boson de Higgs du modèle standard sont discutés. Dans le canal de désintégration H → γγ, un excès par rapport au niveau de bruit de fond est clairement visible à une masse m H = 126, 8 ± 0, 2(stat) ± 0, 7(syst) GeV et avec une significativité locale de 7, 4σ. En revanche, dans le canal de désintégration rare H → Zγ, aucun excès n'est observé dans la fenêtre de masse allant de 120 à 150 GeV. Ce résultat est interprété comme une limite égale à 11 fois la valeur de la section efficace de production pp → H → Zγ prédite par le modèle standard pour une masse du boson de Higgs de m H = 125, 5 GeV, proche de celle mesurée dans les canaux en γγ et en quatre leptons. Une reconstruction et une identification efficace des photons, ainsi qu'une connaissance précise des performances du système de déclenchement et de l'algorithme d'identification, sont des aspects importants de ces mesures. Une grande partie de ce manuscrit est ainsi consacrée à la description de l'optimisation de ces performances et des activités de mesures que j'ai réalisées pendant ces trois années.
35

Déclenchement du Détecteur Externe de DELPHI. Mesure des paramètres du Modèle Standard dasn les désintégrations muoniques du Z0.

Vibert, Laurent 22 May 1991 (has links) (PDF)
Le travail présenté dans cette thèse a été effectué sur l'expérience DELPHI située auprès du collisionneur LEP. Nous commençons par décrire l'appareillage, son fonctionnement et ses performances ainsi que les types de bruit de fond simulant les désintégrations du Z0. Nous décrivons ensuite le fonctionnement du déclenchement dans DELPHI et plus spécifiquement dans le Détecteur Externe. Son efficacité de déclenchement de premier et second niveaux est calculée et le travail effectué pour la réalisation d'un troisième niveau est exposé. Une méthode originale destinée à rejeter les événements hors temps est également présentée. Nous continuons par une description théorique du canal électron-positron en deux muons puis par une étude des critères de sélection de ces événements ainsi que leurs différentes corrections. Nous présentons ensuite les résultats obtenus par trois méthodes pour la section efficace et l'asymétrie avant-arrière dans le canal muonique. Un ajustement sur les données fournit la valeur des constantes de couplage axiale et vectorielle ainsi que celle de l'angle faible. Finalement une étude sur la distribution en acolinéarité des événements et la comparaison avec les prédictions d'un Monte-Carlo est exposée.
36

Analysis of debris-flow occurrence in active catchments of the French Alps using monitoring stations / Analyse de l'occurrence de laves torrentielles dans des bassins à forte susceptibilité à partir d'un jeu de données issu de stations de mesure

Bel, Coraline 16 June 2017 (has links)
Les crues – telles que les laves torrentielles – engendrées dans les torrents lors de fortes précipitations peuvent mobiliser de grande quantité de sédiments. Lorsqu'elles atteignent les zones urbanisées, elles peuvent mettre en dangers à la fois les personnes et les biens. Les approches visant à réduire le risque torrentiel se basent largement sur des seuils intensité-durée de pluie qui déterminent les conditions minimum de déclenchement d’une lave torrentielle. Pourtant, ces seuils sont sujets à une forte variabilité liée, non seulement aux différences inter-sites, mais aussi à la méthode appliquée lors de leur établissement. De plus, ils peuvent entraîner des fausses prédictions, l’intensité et la durée de l’épisode de pluie n’étant pas les seules variables explicatives. Ce travail de thèse vise (i) à fournir un cadre méthodologique rigoureux pour l’établissement des seuils de pluie afin de limiter les sources de variabilité, et (ii) à améliorer leurs performances en considérant à la fois les facteurs de déclenchement et de prédisposition. Il s’appuie sur les données d’un observatoire des crues torrentielles, mis en place dans les Alpes françaises en 2011 sur les torrents très actifs du Manival et du Réal. Dans un premier temps, les images et mesures hautes-fréquences collectées entre 2011 et 2016 ont été analysées afin de détecter et de caractériser les crues torrentielles. Pour appréhender la diversité des écoulements observés, une classification phénoménologique a été proposée. Dans un second temps, la condition minimum intensité-durée de pluie requise pour déclencher une lave torrentielle a été établie. La sensibilité du seuil à la définition d’un épisode de pluie a été évaluée. Dans un troisième temps, un modèle de régression logistique a été implémenté pour discriminer les épisodes de pluies critiques qui n’ont pas engendré de lave torrentielle. Il a permis de sélectionner les variables explicatives les plus pertinentes. Finalement, des pistes de travail ont été avancées pour (i) passer de conditions critiques établies à une échelle locale vers une échelle régionale, en perspective d’une application au sein d’un système d’alerte dédié aux risques hydrométéorologiques, et (ii) passer des conditions de déclenchement d’une lave torrentielle dans la zone de production sédimentaire aux conditions de propagation jusqu'aux zones à enjeux. / Flows – such as debris flows – caused by heavy rainfalls in torrents can mobilise a huge amount of sediments. When they reach the urbanised areas, they may endanger the people’s safety or cause damages. Approaches aimed at mitigating torrential risk widely rely on rainfall intensity-duration thresholds which determine the minimum debris-flow triggering conditions. However, these thresholds suffer from a high variability related not only to inter-site differences but also to the method applied to design them. In addition, they are likely to cause false prediction because the intensity and the duration of the rainfall event are not the only explanatory variables. This PhD research work aim (i) to provide a rigorous methodological framework for designing rainfall threshold in order to limit the variability sources, and (ii) to improve their performances by including both the triggering and the predisposing factors. It is supported by field observations stemming from high-frequency monitoring stations installed since 2011 on two very active debris flow-prone torrents in the French Alps: the Manival and the Réal. First, the images and data gathered between 2011 and 2016 were analysed in order to detect and characterise the sediment laden-flows. To deal with the variety of recorded flows, a phenomenological classification was performed. Second, the minimum intensity-duration threshold for debris-flow triggering was assessed. The threshold sensitivity to the rainfall event definition was estimated. Third, a logistic regression model was used to discriminate the critical rainfall events which do not lead to a debris flow. It makes it possible to select the most relevant explanatory variables. At last, several avenues of work were proposed (i) to move the knowledge of debris-flow initiation conditions from a local to a regional level, with a view to application in a warning system dedicated to hydrometeorological risks, and (ii) to improve the ability to predict, not the debris-flow triggering in the production zone, but the debris-flow propagation up to the area concerned.
37

Search for the standard Higgs boson produced in association with a pair of top quark in the multi-leptons channel in the CMS experiment / Recherche du boson de Higgs standard produit en association avec une paire de quarks top dans le canal multi-leptons dans l'expérience CMS

Coubez, Xavier 15 September 2017 (has links)
La découverte en 2012 de la dernière particule élémentaire prédite par le Modèle Standard, le boson de Higgs, a ouvert une nouvelle ère en physique des particules. L’un des objectifs est désormais de sonder les couplages du boson de Higgs aux autres particules afin de confirmer la validité du modèle. Le travail de cette thèse a porté dans un premier temps sur l’identification de jets issus de quark b dès le système de déclenchement. L’objectif est de permettre de sélectionner un millier d’événements parmi les quarante millions produits chaque seconde au LHC en identifiant des objets présents dans l’état final de processus de physique intéressants tels que la production associée d’un boson de Higgs se désintégrant en paire de quark b avec un boson Z se désintégrant en neutrinos non détectés. Dans un second temps, l’étude du couplage du boson de Higgs au quark top, particule la plus massive au sein du Modèle Standard a été réalisée. Après l’étude d’un bruit de fond important de la production associée d’un boson de Higgs et d’une paire de quarks top, une nouvelle méthode a été utilisée pour améliorer la discrimination entre le signal et les principaux bruits de fond. Cette analyse a conduit à la première évidence expérimentale du couplage entre le boson de Higgs et le quark top. / The discovery in 2012 of the last elementary particle predicted by the Standard Model, the Higgs boson, has opened a new era in particle physics. One of the objectives now is to probe the coupling of the Higgs boson to other particles in order to confirm the validity of the model. The work of this thesis focused initially on the identification of jets coming from b quark at trigger level. The goal is to allow for the selection of one thousand events among the forty million produced every second at the LHC, by identifiying objects present in the final states of interesting physics processes such as the associated production of a Higgs boson decaying in a pair of b quark with a Z boson decaying into undetected neutrinos. The work then moved to the study of the coupling of the Higgs boson to the quark top, most massive particle in the Standard Model. After a study of one of the important background of the associated production of the Higgs boson and a top quark pair, a new method called matrix element method has been used to improve the discrimination between signal and background. This analysis has led to the first experimental evidence of coupling between the Higgs boson and the top quark.
38

Etude et développement d'un système LIBS portable hautes performances de nouvelle génération et d'une source de marquage UV à faible durée d'impulsion / Study and developpement of a new generation portable LIBS system and of a short pulse UV laser for marking

Roux, Clément 04 November 2016 (has links)
Le travail de thèse décrit plusieurs sources lasers originales spécifiquement développées pour deux applications particulières que sont la spectroscopie LIBS (Laser Induced Breakdown Spectroscopy) et le marquage de câbles par laser. Les travaux sur la LIBS ont eu pour principaux objectifs de proposer de nouvelles solutions pour rapprocher les performances de la LIBS portable de celles de la LIBS de laboratoire et d’évaluer leur potentiel sur des applications géologiques. De nouvelles solutions de spectromètres (technologie SWIFTS) et de lasers compacts ont ainsi été évaluées et ont conduit par exemple à la réalisation d’un nouveau pistolet d’analyse LIBS portable. Les deux sources laser disposent de performances spécifiques : une première source compacte de très bonne qualité de faisceau émettant à 532 nm permettant d'obtenir une forte résolution spatiale adaptée à de la cartographie chimique de surface et une deuxième source infrarouge d'encombrement minimum et de qualité de faisceau plus faible mais d'une grande robustesse. La source laser développée pour le marquage par balayage est donc un laser Nd:YVO4 impulsionnel, quelques watts moyens, émettant dans l’ultraviolet à 355 nm. L’architecture originale utilisée, le « Cavity-Dumped », permet d’obtenir une durée d’impulsion constante (2 ns) quelle que soit la fréquence de répétition et donc une puissance crête élevée même à cadence importante. La très bonne qualité de faisceau observée a aussi permis d’obtenir un spot laser de très faible diamètre compatible avec un marquage précis et bien contrasté. / This work describes three original laser sources developed specifically for Laser Induced Breakdown Spectroscopy (LIBS) and wire marking. The main goal of the work on the LIBS was to propose new solutions to make portable LIBS as efficient as laboratory LIBS and to evaluate their potential in geological applications. New spectrometers (based on SWIFTS technology) and compact lasers were evaluated and they led to the realization of a portable LIBS gun. The two types of analyze possible which are in situ analysis and chemical cartography of the sample surface led to design two specific lasers: a first compact source emitting at 532 nm with a high beam quality allowing a high spatial resolution and a second one with a lower beam quality but much more robust. The laser developed for marking is a Q-switched Nd:YVO4 emitting in the UV at 355 nm. The original architecture used, the “Cavity-Dumped”, make the pulse duration constant (2 ns) with any repetition rate so that the peak power is high even if the repetition rate is important. The very good beam quality observed makes the laser spot very small so that the marking is very precise and contrasted.
39

On the way to the determination of the Neutrino Mass Hierarchy with JUNO / Vers la détermination de la hiérarchie de masse des neutrinos avec l'expérience JUNO

Huang, Qinhua 06 November 2019 (has links)
L'expérience JUNO est une expérience basée sur un détecteur à scintillateur liquide ayant pour objectif principal de déterminer la hiérarchie de masse des neutrinos. JUNO atteindra une sensibilité de trois écarts standards en 6 ans, avec une résolution en énergie sans précédent, meilleure que 3% à 1MeV. Le détecteur central de JUNO est un détecteur à scintillateur liquide de 20 kilotonnes, construit avec une couverture de photocathode élevée (78%) et une bonne transparence. La couverture de photocathode est assurée par 18000 photomultiplicateurs de 20 pouces et 25000 de 3 pouces, ce qui permet d'atteindre un rendement d'environ 1200 photoélectrons par MeV. Malgré les 700m d'épaisseur de roche protégeant le détecteur des rayonnements cosmiques, le bruit de fond induit par les muons atmosphériques est toujours considéré comme non négligeable par rapport au signal attendu pour la détermination de la hiérarchie de masse. Pour faire face à ce bruit de fond, un détecteur appelé "Top Tracker" permet d'améliorer la détection de ces muons. Cette thèse concerne les travaux d'optimisation pour cette expérience actuellement en cours de construction, et dont les prises de données commenceront en 2021.Pour les photomultiplicateurs de 20 pouces, deux nouvelles géométries de concentrateurs de lumière sont étudiées afin de vérifier leurs performances pour augmenter le rendement photoélectronique et donc la résolution en énergie de JUNO. La distribution spatiale et le schéma de câblage des photomultiplicateurs de 3 pouces font aussi l'objet d'études pour assurer une performance optimale du système.Cette thèse aborde ensuite la conception du système de déclenchement du Top Tracker. En effet, ce détecteur doit posséder un tel système pour rejeter les signaux produits par la radioactivité naturelle dans la caverne. Les résultats montrent qu'un système à 2 niveaux doté d'algorithmes optimisés est efficace pour la suppression de ces signaux et qu'il est ainsi possible d'obtenir une efficacité de détection des muons de 93%. Une discussion sur la contribution du Top Tracker à la suppression et à la mesure du bruit de fond induit par les muons atmosphériques est également incluse. / The JUNO experiment is a multi-purpose liquid scintillator neutrino experiment with the main objective of determining the neutrino mass hierarchy (nuMH) with a significance better than 3sigma. To achieve this goal, it is crucial that JUNO has an unprecedented energy resolution of 3% at 1 MeV. Therefore, the JUNO Central Detector (CD) will be built with 20000 ton high transparency liquid scintillator and high photomultiplier tube (PMT) photocathode coverage of 78%, which is provided by 18000 20"-PMTs (LPMTs) and 25000 3"-PMTs (SPMTs). At the same time, the background induced by atmospheric muons should be vetoed by using reconstructed muon tracks. The Top Tracker (TT) is a muon tracker installed on top of the CD for precise muon tracking.This thesis details firstly the optimisation of the LPMT and the SPMT systems, which are directly related to the antineutrino calorimetry. New designs of light concentrator tailored for the JUNO LPMT are studied in order to verify their performance on increasing the JUNO photoelectron yield. By comparing different configurations, the relation between the SPMT system performance and the non-uniform distribution of the SPMT emplacements is studied, and the scheme used for cabling between SPMTs and their Under Water Boxes (UWBs) is studied to ensure a minimal performance degradation in case of UWB failure.Afterwards, this thesis reports on the design and optimisation of the TT trigger algorithms. Due to the background induced by natural radioactivity in the JUNO cavern, the TT cannot work correctly without a trigger system. The results show that a 2-level trigger with the optimised trigger algorithm is effective for the background suppression and thus a muon detection efficiency of 93% can be achieved.A discussion about the TT contribution to the suppression and the measurement of the atmospheric muon-induced background, is also included.
40

Search for Higgs boson pair production in the bbtautau decay channel with the CMS detector at the LHC / Recherche de la production de paires de bosons de Higgs dans le canal de désintégration bbtautau avec le détecteur CMS auprès du LHC

Cadamuro, Luca 05 October 2017 (has links)
Cette thèse présente une recherche de la production de paires de bosons de Higgs en utilisant les données des collision proton-proton à sqrt(s) = 13 TeV enregistrées avec les détecteur CMS auprès du LHC du CERN. Les évènements avec les deux boson de Higgs se désintégrant en une paire de quark b et de leptons tau (HH -> bb tau+tau-) sont utilisés pour l’exploration des mécanismes de production résonante et non-résonante.La mesure de la production de HH est expérimentalement difficile à cause de la petite section efficace prévue par le modèle standard de la physique des particules. Sa recherche est néanmoins motivée par les informations qu’elle peut révéler sur la nature de la brisure de la symétrie électrofaible. La production de HH donne accès à l’auto-couplage trilineaire du boson de Higgs et, par conséquent, à la forme du potentiel scalaire. En plus, elle est sensible à la présence de physique au-délà du modèle standard. La présence de nouvelles résonances se désintégrant en HH et de couplages anormales du boson de Higgs sont étudiées dans ce travail.Les leptons tau ont un rôle de premier plan dans cette recherche et un effort important a été consacré à l’amélioration de leur efficacité de sélection par le système de déclenchement de l’expérience CMS. En particulier, le déclenchement de premier niveau (L1) a été amélioré pour faire face aux nouvelles conditions des collisions du Run II du LHC, marqué par une augmentation de l’énergie dans le centre de masse et de la luminosité instantanée. Ce nouveau système de déclenchement permet de développer un algorithme spécifique pour la reconstruction des leptons tau se désintégrant en hadrons (tauh) et un neutrino.Cet algorithme se fonde une technique avancée de regroupement dynamique de l’énergie et utilise des critères dédiés pour la réjection du bruit de fond. Le développement, l’implementation, et la vérification de son fonctionnement pour le redémarrage du LHC sont présentés ici. La performance de l’algorithme est initialement évaluée grâce à une simulation et puis mesurée avec les données de l’expérience CMS. Son excellente performance est un element essentiel dans la recherche de la production de HH.L’investigation du processus HH -> bb tau+tau- utilise les trois canaux de désintégration du système tau+tau- avec au moins un tauh dans l’état final. La sélections et categorisation des évènements sont conçues pour optimiser la sensibilité de la recherche, et des techniques d’analyse multivariés sont mises en place pour distinguer le signal du bruit de fond.Les résultats sont présentés en utilisant une luminosité intégrée de 35.9 fb-1. Ils sont compatibles, dans les incertitudes expérimentales, avec les prédictions du modèle standard pour les bruits de fond. Des limites supérieures à la production résonante de HH sont évaluées et interprétées dans le contexte du modèle standard supersymmétrique minimal. Les limites supérieures à la production non-résonante permettent de contraindre l’espace des paramètres des couplages anormales du boson de Higgs. Les limites supérieures observées et attendues correspondent respectivement à environ 30 et 25 fois la prédiction du modèle standard. Ils représentent l’un des résultats les plus sensibles à la production de HH atteint jusqu'à présent au LHC.Les perspectives pour l‘observation de la production de HH au LHC sont enfin discutées. Les résultats précédemment obtenus sont extrapolés à une luminosité intégrée de 3000 fb-1 sous des différentes assomptions pour la performance du détecteur et de l’analyse. / This thesis describes a search for Higgs boson pair (HH) production using proton-proton collision data collected at sqrt(s) = 13 TeV with the CMS experiment at the CERN LHC. Events with one Higgs boson decaying into two bottom quarks and the other decaying into two tau leptons (HH -> bb tau+tau-) are explored to investigate both resonant and nonresonant production mechanisms. The measurement of HH production is experimentally challenging because of the tiny cross section predicted by the standard model of particle physics (SM). However, this process can reveal invaluable information on the nature of electroweak symmetry breaking by giving access to the Higgs boson trilinear self-coupling and, consequently, to the shape of the scalar potential itself. Moreover, HH production is sensitive to the presence of physics beyond the SM. Both the presence of new states decaying to HH and of anomalous Higgs boson couplings are investigated in this work.Tau leptons have a key role in this search and considerable effort has been devoted to ensure a high efficiency in their selection by the trigger system of the CMS experiment. In particular, the CMS Level-1 (L1) trigger was upgraded to face the increase in the centre-of-mass energy and instantaneous luminosity conditions expected for the LHC Run II operations. The upgrade opened up the possibility to develop an efficient and dedicated algorithm to reconstruct tau leptons decaying to hadrons (tauh) and a neutrino.The tau algorithm implements a sophisticated dynamic energy clustering technique and dedicated background rejection criteria. Its development, optimisation, implementation, and commissioning for the LHC restart are presented. The algorithm performance is initially demonstrated using a simulation and subsequently measured with the data collected with the CMS experiment. The excellent performance achieved is an essential element of the search for HH production.The investigation of the HH -> bb tau+tau- process explores the three decay modes of the tau+tau- system with at least one tauh object in the final state. A dedicated event selection and categorisation is developed and optimised to enhance the sensitivity, and multivariate techniques are applied for the first time to these final states to separate the signal from the background.Results are derived using an integrated luminosity of 35.9 fb-1. They are found to be consistent, within uncertainties, with the SM background predictions. Upper limits on resonant production are set and interpreted in the context of the minimal supersymmetric standard model. Upper limits on nonresonant production constrain the parameter space for anomalous Higgs boson couplings. The observed and expected upper limit are about 30 and 25 times the SM prediction, respectively, corresponding to one of the most stringent limits set so far at the LHC.Finally, prospects for future measurements of HH production at the LHC are evaluated by extrapolating the current results to an integrated luminosity of 3000 fb-1 under different detector and analysis performance scenarios.

Page generated in 0.0683 seconds