• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 108
  • 43
  • 15
  • Tagged with
  • 166
  • 166
  • 83
  • 52
  • 45
  • 44
  • 34
  • 32
  • 30
  • 30
  • 23
  • 22
  • 21
  • 21
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Two Bayesian learning approaches to image processing / Traitement d’images par deux approches d’apprentissage Bayésien

Wang, Yiqing 02 March 2015 (has links)
Cette thèse porte sur deux méthodes à patch en traitement d’images dans le cadre de minimisation du risque Bayésien. Nous décrivons un mélange d’analyses factorielles pour modéliser la loi à priori des patchs dans une seule image et l’appliquons au débruitage et à l’inpainting. Nous étudions aussi les réseaux de neurones à multi-couches d’un point de vue probabiliste comme un outil permettant d’approcher l’espérance conditionnelle, ce qui ouvre quelques voies pour réduire leurs tailles et coût d’apprentissage. / This work looks at two patch based image processing methods in a Bayesian risk minimization framework. We describe a Gaussian mixture of factor analyzers for local prior modelling and apply it in the context of image denoising and inpainting. We also study multilayer neural networks from a probabilistic perspective as a tool for conditional expectation approximation, which suggests ways to reduce their sizes and training cost.
62

Ferroelectric tunnel junctions : memristors for neuromorphic computing / Jonctions tunnel ferroélectriques : memristors pour le calcul neuromorphique

Boyn, Sören 03 May 2016 (has links)
Les architectures d’ordinateur classiques sont optimisées pour le traitement déterministe d’informations pré-formatées et ont donc des difficultés avec des données naturelles bruitées (images, sons, etc.). Comme celles-ci deviennent nombreuses, de nouveaux circuits neuromorphiques (inspirés par le cerveau) tels que les réseaux de neurones émergent. Des nano-dispositifs, appelés memristors, pourraient permettre leur implémentation sur puce avec une haute efficacité énergétique et en s’approchant de la haute connectivité synaptique du cerveau.Dans ce travail, nous étudions des memristors basés sur des jonctions tunnel ferroélectriques qui sont composées d’une couche ferroélectrique ultramince entre deux électrodes métalliques. Nous montrons que le renversement de la polarisation de BiFeO3 induit des changements de résistance de quatre ordres de grandeurs et établissons un lien direct entre les états de domaines mixtes et les niveaux de résistance intermédiaires.En alternant les matériaux des électrodes, nous révélons leur influence sur la barrière électrostatique et les propriétés dynamiques des memristors. Des expériences d’impulsion unique de tension montrent un retournement de polarisation ultra-rapide. Nous approfondissons l’étude de cette dynamique par des mesures d’impulsions cumulées. La combinaison de leur analyse avec de l’imagerie par microscopie à force piézoélectrique nous permet d’établir un modèle dynamique du memristor. Suite à la démonstration de la spike-timing-dependent plasticity, une règle d’apprentissage importante, nous pouvons prédire le comportement de notre synapse artificielle. Ceci représente une avance majeure vers la réalisation de réseaux de neurones sur puce dotés d’un auto-apprentissage non-supervisé. / Classical computer architectures are optimized to process pre-formatted information in a deterministic way and therefore struggle to treat unorganized natural data (images, sounds, etc.). As these become more and more important, the brain inspires new, neuromorphic computer circuits such as neural networks. Their energy-efficient hardware implementations will greatly benefit from nanodevices, called memristors, whose small size could enable the high synaptic connectivity degree observed in the brain.In this work, we concentrate on memristors based on ferroelectric tunnel junctions that are composed of an ultrathin ferroelectric film between two metallic electrodes. We show that the polarization reversal in BiFeO3 films can induce resistance contrasts as high as 10^4 and how mixed domain states are connected to intermediate resistance levels.Changing the electrode materials provides insights into their influence on the electrostatic barrier and dynamic properties of these memristors. Single-shot switching experiments reveal very fast polarization switching which we further investigate in cumulative measurements. Their analysis in combination with piezoresponse force microscopy finally allows us to establish a model describing the memristor dynamics under arbitrary voltage signals. After the demonstration of an important learning rule for neural networks, called spike-timing-dependent plasticity, we successfully predict new, previously unexplored learning curves. This constitutes an important step towards the realization of unsupervised self-learning hardware neural networks.
63

Learning representations of speech from the raw waveform / Apprentissage de représentations de la parole à partir du signal brut

Zeghidour, Neil 13 March 2019 (has links)
Bien que les réseaux de neurones soient à présent utilisés dans la quasi-totalité des composants d’un système de reconnaissance de la parole, du modèle acoustique au modèle de langue, l’entrée de ces systèmes reste une représentation analytique et fixée de la parole dans le domaine temps-fréquence, telle que les mel-filterbanks. Cela se distingue de la vision par ordinateur, un domaine où les réseaux de neurones prennent en entrée les pixels bruts. Les mel-filterbanks sont le produit d’une connaissance précieuse et documentée du système auditif humain, ainsi que du traitement du signal, et sont utilisées dans les systèmes de reconnaissance de la parole les plus en pointe, systèmes qui rivalisent désormais avec les humains dans certaines conditions. Cependant, les mel-filterbanks, comme toute représentation fixée, sont fondamentalement limitées par le fait qu’elles ne soient pas affinées par apprentissage pour la tâche considérée. Nous formulons l’hypothèse qu’apprendre ces représentations de bas niveau de la parole, conjontement avec le modèle, permettrait de faire avancer davantage l’état de l’art. Nous explorons tout d’abord des approches d’apprentissage faiblement supervisé et montrons que nous pouvons entraîner un unique réseau de neurones à séparer l’information phonétique de celle du locuteur à partir de descripteurs spectraux ou du signal brut et que ces représentations se transfèrent à travers les langues. De plus, apprendre à partir du signal brut produit des représentations du locuteur significativement meilleures que celles d’un modèle entraîné sur des mel-filterbanks. Ces résultats encourageants nous mènent par la suite à développer une alternative aux mel-filterbanks qui peut être entraînée à partir des données. Dans la seconde partie de cette thèse, nous proposons les Time-Domain filterbanks, une architecture neuronale légère prenant en entrée la forme d’onde, dont on peut initialiser les poids pour répliquer les mel-filterbanks et qui peut, par la suite, être entraînée par rétro-propagation avec le reste du réseau de neurones. Au cours d’expériences systématiques et approfondies, nous montrons que les Time-Domain filterbanks surclassent systématiquement les melfilterbanks, et peuvent être intégrées dans le premier système de reconnaissance de la parole purement convolutif et entraîné à partir du signal brut, qui constitue actuellement un nouvel état de l’art. Les descripteurs fixes étant également utilisés pour des tâches de classification non-linguistique, pour lesquelles elles sont d’autant moins optimales, nous entraînons un système de détection de dysarthrie à partir du signal brut, qui surclasse significativement un système équivalent entraîné sur des mel-filterbanks ou sur des descripteurs de bas niveau. Enfin, nous concluons cette thèse en expliquant en quoi nos contributions s’inscrivent dans une transition plus large vers des systèmes de compréhension du son qui pourront être appris de bout en bout. / While deep neural networks are now used in almost every component of a speech recognition system, from acoustic to language modeling, the input to such systems are still fixed, handcrafted, spectral features such as mel-filterbanks. This contrasts with computer vision, in which a deep neural network is now trained on raw pixels. Mel-filterbanks contain valuable and documented prior knowledge from human auditory perception as well as signal processing, and are the input to state-of-the-art speech recognition systems that are now on par with human performance in certain conditions. However, mel-filterbanks, as any fixed representation, are inherently limited by the fact that they are not fine-tuned for the task at hand. We hypothesize that learning the low-level representation of speech with the rest of the model, rather than using fixed features, could push the state-of-the art even further. We first explore a weakly-supervised setting and show that a single neural network can learn to separate phonetic information and speaker identity from mel-filterbanks or the raw waveform, and that these representations are robust across languages. Moreover, learning from the raw waveform provides significantly better speaker embeddings than learning from mel-filterbanks. These encouraging results lead us to develop a learnable alternative to mel-filterbanks, that can be directly used in replacement of these features. In the second part of this thesis we introduce Time-Domain filterbanks, a lightweight neural network that takes the waveform as input, can be initialized as an approximation of mel-filterbanks, and then learned with the rest of the neural architecture. Across extensive and systematic experiments, we show that Time-Domain filterbanks consistently outperform melfilterbanks and can be integrated into a new state-of-the-art speech recognition system, trained directly from the raw audio signal. Fixed speech features being also used for non-linguistic classification tasks for which they are even less optimal, we perform dysarthria detection from the waveform with Time-Domain filterbanks and show that it significantly improves over mel-filterbanks or low-level descriptors. Finally, we discuss how our contributions fall within a broader shift towards fully learnable audio understanding systems.
64

La reconstruction et l'identification des photons dans l'expérience CMS au LHC : applications à la recherche de bosons de Higgs dans le canal H $\rightarrow \gamma\gamma$ / The photon reconstruction and identification in the CMS detector : Higgs boson search in the two photons decay channel with the CMS experiment at LHC

Brun, Hugues 29 February 2012 (has links)
Le Modèle Standard de la physique des particules explique avec succès les données expérimentales. L'origine de la masse des bosons W et Z est expliquée à l'aide du mécanisme de Higgs qui permet de briser la symétrie de jauge de l'interaction électro-faible. Cependant ce mécanisme prédit l'existence d'une particule, appelée le boson de Higgs, qui n'a pas été observée pour l'instant. Cette particule est recherchée au LHC en particulier dans les expériences ATLAS et CMS. Les premiers résultats utilisant les données du LHC permettent d'exclure, avec un niveau de confiance de 95%, un boson de Higgs qui aurait la section efficace du Modèle Standard entre 128 et 600 GeV/c$^2$ et les résultats plus anciens du LEP ont exclu un boson de Higgs plus léger que 114.4 GeV/c$^2$. Dans l'intervalle de masse restant, le canal de désintégration du Higgs en deux photons est le canal idéal pour la recherche du boson de Higgs car, malgré son faible rapport d'embranchement (environ quelques pour mille) et grâce à son état final clair, il permet d'obtenir une résonance de faible largeur dans le spectre de masse invariante des événements di-photons. La manière dont un photon est reconstruit dans CMS sera d'abord décrite et la compréhension de cette reconstruction avec les premières données du LHC présentée. Du fait de la faible largeur de la résonance du boson de Higgs à basse masse, un grand intérêt doit être porté à la résolution sur l'énergie des photons. C'est pourquoi, nous étudierons les corrections apportées à cette énergie. Ensuite, comme les pions neutres qui se désintègrent en deux photons sont le principal bruit de fond aux photons dans les données, nous verrons comment utiliser la forme du dépôt d'énergie dans le calorimètre électromagnétique de CMS à l'aide d'un réseau de neurones artificiels pour discriminer ces pions neutres des vrais photons. La chromodynamique quantique est la source d'un large nombre d'événements di-photons qui forment la majorité du bruit de fond à la désintégration du boson de Higgs. La mesure de la section efficace de ces processus et de leur cinématique aide aussi à la compréhension du Modèle Standard. La possibilité d'utiliser le pouvoir discriminant du réseau de neurones pour mesurer le nombre d'événements diphotons dans les données, a été étudiée. Les mésons neutres sont aussi un bruit de fond pour les photons issus de la désintégration du boson de Higgs. L'amélioration de l'identification à l'aide d'une coupure sur la variable de sortie du réseau de neurones a donc été évaluée : la conséquence de cette amélioration en termes de limite sera présentée sur le premier 1.6fb$^1$ des données de 2011 enregistrées par l'expérience CM / The Standard Model of particle physics successfully explains the majority of experimental high energy physics data. The masses of the W and Z, the vector bosons of the electroweak theory, are explained with a spontaneous breaking of the gauge symmetry. This symmetry breaking is performed, using the Higgs mechanism, by introducing a new scalar field, whose quantum, the Higgs boson, is intensively searched at LHC. Theoretical considerations suggest that the mass of the Higgs boson should be lower than 1 TeV/c$^2$ and the fit of precision electroweak measurements constrains the Higgs boson mass to be less than 158 GeV/c$^2$. Direct searches at LEP have excluded the Higgs boson with masses lower than 114.4 GeV/c$^2$, and direct searches at the Tevatron have led to an exclusion of masses between 147 and 180 GeV/c$^2$. The fit of precision electroweak measurements constrains the Higgs boson mass to be less than 158 GeV/c$^2$ (all these limits are at the 95% confidence level). The photon reconstruction in CMS is detailed in this thesisand its understanding with the first LHC data will be shown. Because of the narrow Higgs resonance, a particular attention as to be put on the photon energy resolution. Neutral pions decaying in two photons are the main background to the prompt photons: the possibility of using a neural network based on shower shape in ECAL is studied. These neutral mesons are also one important background to the photons from Higgs boson decay. The improvement of the photon identification, thanks to a cut on the neural network output, is evaluated: the result in term of limits for the first 1.6fb$^1$ of 2011 data is presented
65

Estimation du risque de mort subite par arrêt cardiaque a l'aide de méthodes d'apprentissage artificiel / Risk stratification for sudden cardiac death based on machine learning

Cappelaere, Charles-Henri 31 January 2014 (has links)
Depuis le début des années 2000, le défibrillateur automatique implantable (DAI) est prescrit de manière prophylactique aux populations à risque de mort subite. Nombre de ces implantations semblent prématurées, ce qui pose problème en raison des complications post-opératoires encourues. Il apparaît donc important de mieux définir la population à risque de mort subite, afin d'optimiser la sélection des patients.Le pouvoir prédictif de mort subite des différents descripteurs du Holter a fait l'objet de nombreuses études univariées, sans permettre d'amélioration des critères de sélection. Dans ce mémoire, nous présentons l'analyse multivariée des descripteurs du Holter que nous avons menée. Nous avons extrait l'ensemble des descripteurs calculables sur la base étiquetée d'enregistrements de patients, victimes ou non d'arythmies traitées par le DAI, dont nous disposons. À l'aide de connaissances physiologiques sur l'arythmogenèse, nous avons réalisé une sélection des descripteurs les plus pertinents. Puis, par une méthode originale de conception et d'évaluation de classifieur, nous avons construit un classifieur ad hoc, basé, sur les connaissances physiologiques de l'arythmogenèse ; ce classifieur discrimine les patients à risque, des patients pour lesquels l'implantation ne paraît pas opportune.Au vu des performances atteintes, il semble possible d'améliorer la fiabilité des indications d'implantation prophylactique, à l'aide de méthodes d'apprentissage statistique. Pour valider cette conclusion, il paraît néanmoins nécessaire d'appliquer la méthode exposée dans la présente étude à une base de données de plus grande dimension, et de contenu mieux adapté à nos objectifs. / Implantable cardioverter defibrillators (ICD) have been prescribed for prophylaxis since the early 2000?s, for patients at high risk of SCD. Unfortunately, most implantations to date appear unnecessary. This result raises an important issue because of the perioperative and postoperative risks. Thus, it is important to improve the selection of the candidates to ICD implantation in primary prevention. Risk stratification for SCD based on Holter recordings has been extensively performed in the past, without resulting in a significant improvement of the selection of candidates to ICD implantation. The present report describes a nonlinear multivariate analysis of Holter recording indices. We computed all the descriptors available in the Holter recordings present in our database. The latter consisted of labelled Holter recordings of patients equipped with an ICD in primary prevention, a fraction of these patients received at least one appropriate therapy from their ICD during a 6-month follow-up. Based on physiological knowledge on arrhythmogenesis, feature selection was performed, and an innovative procedure of classifier design and evaluation was proposed. The classifier is intended to discriminate patients who are really at risk of sudden death from patients for whom ICD implantation does not seem necessary. In addition, we designed an ad hoc classifier that capitalizes on prior knowledge on arrhythmogenesis. We conclude that improving prophylactic ICD-implantation candidate selection by automatic classification from Holter recording features may be possible. Nevertheless, that statement should be supported by the study of a more extensive and appropriate database.
66

Modélisation à haut niveau d'abstraction de l'intégrité du signal dans les bus de communication / High-level modeling of signal integrity in communication buses

Wang, Ruomin 15 July 2014 (has links)
En raison de l'évolution technologique, l'analyse de l'intégrité du signal est devenue de plus en plus critique dans la conception des systèmes électroniques. Plusieurs méthodes d'analyse ont été proposées et sont utilisées. Cependant, l'hétérogénéité croissante des systèmes et la réduction du temps de mise sur le marché des applications font que les concepteurs ont besoin de nouvelles méthodes travaillant à haut niveau d'abstraction, afin qu'elles puissent être intégrées facilement à un modèle au niveau système de l'application, et ainsi analyser l'intégrité du signal au plus tôt dans le cycle de conception. Dans cette thèse, nous proposons une méthode basée sur deux types de blocs complémentaires, nommés blocs fonctionnels et blocs non-fonctionnels, décrits à l'aide d'un même langage (C/C++ et SystemC/SystemC-AMS), et donc aisément simulables dans un unique environnement. Les blocs fonctionnels servent à modéliser les comportements idéaux du système. Les comportements non-idéaux, engendrés par les problèmes d'intégrité du signal, sont modélisés dans les blocs non-fonctionnels à l'aide de réseaux de neurones. Pour valider notre méthodologie, deux applications autour des bus I2C et USB 3.0 ont été modélisées. Les résultats de simulations démontrent la faisabilité de notre méthodologie. En la comparant à des modèles de référence, notre méthode permet de réduire de façon remarquable le temps de simulation (99% par rapport à un modèle SPICE) et l'écart moyen est d'environ 3%. Notre méthode offre enfin certaines possibilités de flexibilité et de modularité. Dans le futur, cette méthode originale pourra être intégrée au flot de conception de systèmes cyber-physiques. / As a result of continuing growth of electronic technology, signal integrity analysis has now become a more and more critical challenge in the electronic systems design process. To address this issue, designers have introduced several approaches. However, due to the higher heterogeneity of modern applications, along with time-to-market constraints, a new modeling methodology is required to provide the system?s signal integrity performance at a high-level of abstraction. Moreover, it should be easily interoperable with the system?s functional model. The aim of this work is to propose a new modeling methodology for signal integrity analysis that can meet these requirements. Our method is based on the combination of two kinds of blocks, named functional blocks and non-functional blocks. They are built in C/C++ or SystemC/SystemC-AMS, in order to be easily simulated in a single environment. The functional block is used to model the ideal behavior of the system. The non-functional block is used to represent the highly nonlinear and non-ideal behaviors, caused by signal integrity issues. In the non-functional block, neural networks are used to model these non-ideal behaviors. To validate our method, we developed two applications based on I2C and USB 3.0 applications. Our method greatly increases simulation speed (99% faster than a SPICE model), while achieving a relative absolute error around 3%. Finally, our method is a flexible and modular approach since models can easily be parameterized and interoperable. In the future, this original method for high-level modeling of signal integrity could be integrated in the forthcoming design flows of cyber-physical systems.
67

Cognitive management of SLA in software-based networks / Gestion cognitive de SLA dans un contexte NFV

Bendriss, Jaafar 14 June 2018 (has links)
L’objectif de la thèse est d’étudier la gestion de bout en bout des architectures à la SDN, et comment nos briques OSS (Operation Support System) doivent évoluer: cela implique d’étudier les processus métier associés, leurs implémentations ainsi que l’outillage nécessaire. Les objectifs de la thèse sont donc de répondre aux verrous suivants:1. Identifier les changements impliqués par l’émergence de ces réseaux programmables sur les architectures de gestions en termes d’exigences ou "requirements". L’étude peut être focalisée sur un type de réseau, mobile par exemple. 2. Identifier l’évolution à apporter aux interfaces de gestions actuelles: quelles alternatives aux FCAPS (fault, configuration, accounting, performance, and security) ? Quels changements à apporter aux couches de gestions allant du gestionnaire d’équipement ou "Element Management System" jusqu’au OSS ? / The main goal of the PhD activities is to define and develop architecture and mechanisms to ensure consistency and continuity of the operations and behaviors in mixed physical/virtual environments, characterized by a high level of dynamicity, elasticity and heterogeneity by applying a cognitive approach to the architecture where applicable. The target is then to avoid the "build it first, manage it later" paradigm. The research questions targeted by the PhD are the following: 1. Identify the changes on Network Operation Support Systems implementation when using SDN as a design approach for future networks. The study could be restricted to mobile networks for example, or sub-part of it (CORE networks, RAN, data centers, etc); 2.Identify the needed evolution at the management interfaces level: a. Shall we need alternative to the well-known FCAPS and do we still need the element management system? b. What will change to provision an SDN based service? c. How to ensure resiliency of SDN based networks?
68

DEVELOPPEMENT D'UN ALGORITHME DE SUIVI DE LA VEGETATION A LARGE ECHELLE

Weiss, Marie 04 December 1998 (has links) (PDF)
L'objectif de ce travail est de développer un algorithme utilisant des réseaux neuronaux pour estimer des variables biophysiques des couverts végétaux à partir des données du capteur VEGETATION : la fraction de trou dans différentes directions de visée, l'indice foliaire, la fraction de rayonnement photosynthétiquement actif absorbé par le couvert, l'angle moyen d'inclinaison des feuilles, et la teneur en chlorophylle intégrée au niveau du couvert. Une base de données a été élaborée à partir de simulations de modèles de transfert radiatif dans la végétation. Ceci nous a permis de développer des réseaux de neurones pour estimer les différentes variables biophysiques considérées. L'estimation se fait à partir des réflectances bidirectionnelles mesurées par VEGETATION durant un cycle orbital, associées à l'angle zénithal solaire lors de l'acquisition de ces données. L'analyse de sensibilité à l'hétérogénéité intrapixellaire montre que les variables de type fraction de trou et fAPAR sont beaucoup moins sensibles que les variables de type LAI. La validation de l'algorithme sur des données expérimentales montre la robustesse de la méthode lorsque le nombre de données bidirectionnelles acquises durant le cycle orbital est faible. Par ailleurs, elle confirme que les performances d'estimation des variables biophysiques sont affectées non seulement par la représentativité du couvert et des conditions d'observation qui lui sont associées dans la base d'apprentissage, mais aussi par les hypothèses inhérentes aux modèles de transfert radiatif utilisés pour générer cette base. Nous mettons également en évidence la sensibilité de l'algorithme à des bruits de natures diverses (mesure, correction atmosphérique, ...). Les résultats obtenus sur les données expérimentales sont satisfaisants et aboutissent à un écart quadratique moyen inférieur à 0,1. L'intérêt des réseaux de neurones apparaît donc clairement, en particulier vis à vis des approches basées sur les indices de végétation.
69

L'interaction 3D adaptative : une approche basée sur les méthodes de traitement de données multi-capteurs

Boudoin, Pierre 06 October 2010 (has links) (PDF)
La réalité virtuelle est un domaine touchant à plusieurs disciplines. Par le biais de l'interaction 3D l'Homme peut accomplir des tâches dans un environnement virtuel en utilisant des techniques d'interaction 3D. Ces techniques sont souvent mono-tâches et s'appuient sur l'utilisation de matériel de réalité virtuelle bien spécifique. Le passage d'une tâche de l'interaction 3D à une autre est le plus souvent à la charge de l'utilisateur, ou bien du programmeur. Cependant de nombreux problèmes sont présents dans ces systèmes, dits de réalité virtuelle. En effet, des problèmes matériels le plus souvent dû aux technologies utilisées sont présents et peuvent induire un comportement erratique du système. De plus, il peut arriver que les techniques d'interaction 3D ne soient pas adaptées à l'application de réalité virtuelle, ou que celles-ci soient trop complexes à utiliser pour le novice. Tous ces problèmes nuisent à l'immersion de l'être humain dans l'environnement virtuel ainsi qu'aux performances de l'interaction 3D et donc à l'accomplissement de la tâche dans l'application de réalité virtuelle. L'objectif de ce travail est de proposer un système d'interaction 3D adaptative. Par interaction 3D adaptative, on cherche à définir une interaction 3D qui soit continue tant au niveau des données qu'au basculement d'une tâche à l'autre. Nous avons donc modélisé et conçu un ensemble de composants pour accomplir cet objectif. Nous avons modélisé une technique d'interaction 3D pouvant être utilisé de manière continue même lors du basculement d'une tâche. Nous avons également conçu un système qui permet d'automatiser le basculement d'une tâche de l'interaction 3D vers une autre en estimant la tâche que souhaite accomplir l'utilisateur. Enfin, un dernier composant a pour rôle d'améliorer la précision et de garantir la continuité du tracking.
70

La reconstruction et l'identification des photons dans l'expérience CMS au LHC. Applications à la recherche de bosons de Higgs dans le canal H $\rightarrow \gamma\gamma$

Brun, Hugues 29 February 2012 (has links) (PDF)
Le Modèle Standard de la physique des particules explique avec succès les données expérimentales. L'origine de la masse des bosons W et Z est expliquée à l'aide du mécanisme de Higgs qui permet de briser la symétrie de jauge de l'interaction électro-faible. Cependant ce mécanisme prédit l'existence d'une particule, appelée le boson de Higgs, qui n'a pas été observée pour l'instant. Cette particule est recherchée au LHC en particulier dans les expériences ATLAS et CMS. Les premiers résultats utilisant les données du LHC permettent d'exclure, avec un niveau de confiance de 95%, un boson de Higgs qui aurait la section efficace du Modèle Standard entre 128 et 600 GeV/c$^2$ et les résultats plus anciens du LEP ont exclu un boson de Higgs plus léger que 114.4 GeV/c$^2$. Dans l'intervalle de masse restant, le canal de désintégration du Higgs en deux photons est le canal idéal pour la recherche du boson de Higgs car, malgré son faible rapport d'embranchement (environ quelques pour mille) et grâce à son état final clair, il permet d'obtenir une résonance de faible largeur dans le spectre de masse invariante des événements di-photons. La manière dont un photon est reconstruit dans CMS sera d'abord décrite et la compréhension de cette reconstruction avec les premières données du LHC présentée. Du fait de la faible largeur de la résonance du boson de Higgs à basse masse, un grand intérêt doit être porté à la résolution sur l'énergie des photons. C'est pourquoi, nous étudierons les corrections apportées à cette énergie. Ensuite, comme les pions neutres qui se désintègrent en deux photons sont le principal bruit de fond aux photons dans les données, nous verrons comment utiliser la forme du dépôt d'énergie dans le calorimètre électromagnétique de CMS à l'aide d'un réseau de neurones artificiels pour discriminer ces pions neutres des vrais photons. La chromodynamique quantique est la source d'un large nombre d'événements di-photons qui forment la majorité du bruit de fond à la désintégration du boson de Higgs. La mesure de la section efficace de ces processus et de leur cinématique aide aussi à la compréhension du Modèle Standard. La possibilité d'utiliser le pouvoir discriminant du réseau de neurones pour mesurer le nombre d'événements diphotons dans les données, a été étudiée. Les mésons neutres sont aussi un bruit de fond pour les photons issus de la désintégration du boson de Higgs. L'amélioration de l'identification à l'aide d'une coupure sur la variable de sortie du réseau de neurones a donc été évaluée : la conséquence de cette amélioration en termes de limite sera présentée sur le premier 1.6fb$^1$ des données de 2011 enregistrées par l'expérience CMS.

Page generated in 0.0517 seconds