• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 5
  • 5
  • Tagged with
  • 62
  • 14
  • 12
  • 12
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • 10
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Vision numérique avec peu d'étiquettes : segmentation d'objets et analyse de l'impact de la pluie

Tremblay, Maxime 18 May 2021 (has links)
Un besoin ayant toujours existé dans le domaine de la vision numérique est celui d'avoir accès à des ensembles d'images annotées. Les avancements scientifiques et technologiques ont exacerbé les besoins en données étiquetées; un modèle d'apprentissage profond peut nécessiter des milliers, voire des centaines de milliers (dépendamment de la complexité du problème), d'images étiquetées. Cela peut causer un problème puisque générer de grands ensembles de données étiquetées est une tâche longue et ardue. Est-il possible de travailler en vision numérique sans avoir à collecter et étiqueter des ensembles de données de plus en plus grands ? Dans le cadre de cette thèse, nous tentons de répondre à cette question sur deux fronts différents. Premièrement, nous avons développé une approche de détection et segmentation d'objets nécessitant peu de données d'entraînement. Cette approche, inspirée des modèles par les bag-of-words, modélise l'apparence et la forme des objets de façon éparse; la modélisation de la forme se fait par l'entremise d'un nouveau descripteur de forme. Deuxièmement, nous nous sommes penchés sur le fait que certains ensembles de données sont difficilement capturables et étiquetables. Nous nous sommes concentrés sur un exemple particulier, c'est-à-dire générer un ensemble d'images de scènes extérieures avec de la pluie dont les annotations consistent au taux de précipitation (mm/h). Notre solution consiste à augmenter des images réelles avec de la pluie synthétique. Si ces images augmentées sont suffisamment réalistes, il est possible d'expérimenter sur celles-ci comme si elles étaient des images de pluie réelle. Dans nos expérimentations, nous avons évalué l'effet de la pluie sur différents algorithmes de vision numérique et nous avons augmenté la robustesse de ceux-ci sur des images contenant de la vraie pluie.
12

Occurrence et évaluation des risques des allergènes alimentaires dans des produits de consommation avec étiquetage préventif vendus au Canada

Manny, Emilie 22 August 2023 (has links)
Thèse ou mémoire avec insertion d’articles. / Mise en contexte : Les allergènes alimentaires peuvent se retrouver fortuitement par contamination croisée dans des produits de consommation préemballés. Pour prévenir les personnes allergiques, les industries agroalimentaires peuvent utiliser des mentions préventives, telles que « peut contenir X », « X » correspondant aux allergènes pouvant être présents dans le produit destiné à la consommation. Avec l'augmentation de l'utilisation de l'étiquetage préventif, le nombre de produits disponibles pour les personnes allergiques aux aliments a diminué. En effet, l'offre alimentaire étant moindre, certaines personnes allergiques prennent le risque de consommer ces produits, et parfois sans subir de réaction allergique. Des études internationales se sont intéressées à l'occurrence (ou la présence) de ces allergènes dans les produits préemballés avec mention préventive. La majorité des études a révélé que moins de 10 % des produits alimentaires contenaient les allergènes mentionnés dans l'étiquetage préventif, relevant leur surutilisation par les industries alimentaires. Cependant, l'occurrence des allergènes dans les produits préemballés n'est pas bien connue au Canada, avec uniquement une étude publiée en 2003 sur la présence d'arachides dans des barres de chocolat. Objectifs : Présenter le portrait canadien de l'occurrence de quatre allergènes prioritaires (lait, œuf, arachide et noisette) par contamination croisée dans des produits de consommation avec étiquetage préventif, et évaluer le risque de réaction allergique lorsqu'un des produits analysés est consommé par un individu allergique. L'objectif principal est de présenter aux industries alimentaires des seuils d'action pour ces quatre allergènes pour mieux gérer l'utilisation de l'étiquetage préventif tout en protégeant un maximum d'allergiques alimentaires. Méthode : Les catégories alimentaires les plus à risque de contenir des allergènes (responsables de la majorité des rappels d'aliments dus aux quatre allergènes ciblés) ont été sélectionnées. Les produits alimentaires avaient une mention préventive pour un ou plusieurs des quatre allergènes sélectionnés (lait, œufs, arachides, noisettes). Environ 3800 échantillons ont été analysés pour leur contenu en un ou plusieurs allergènes alimentaires (lait = 1225 échantillons; œufs = 840 échantillons; arachides = 871 échantillons; noisettes = 863 échantillons) par des méthodes ELISA quantitatives. Une évaluation quantitative du risque de réaction allergique a ensuite été réalisée pour l'allergène et les catégories alimentaires avec les occurrences les plus élevées, en utilisant des simulations de Monte Carlo de second degré. En tenant compte des données de consommation de l'Enquête sur la Santé des Collectivités Canadiennes de 2015 (ESCC-2015) et sur des essais cliniques menés chez des individus allergiques, des seuils d'action d'allergènes destinés aux industries alimentaires sont proposés. Résultats : L'occurrence était <10 % pour tous les allergènes à l'exception du lait (lait = 23 %, 2,5 - 6471 ppm; œufs = 7 %, 0,3 - 777 ppm; arachides = 5 %, 0,6 - 28,1 ppm; noisettes = 9 %, 0,4 - 2167 ppm). Le chocolat noir détenait l'occurrence (93%) et les niveaux de protéines de lait les plus élevés. L'exposition moyenne liée à la présence de lait dans le chocolat noir, les biscuits et les produits de boulangerie étaient respectivement de 24 mg, 0,2 mg, et 3,9 mg de protéines de lait. Sachant qu'un seuil clinique de 0,2 mg de protéines de lait permet de protéger 99 % de la population allergique au lait, toutes les valeurs d'exposition étant supérieures à ce seuil, les risques de réaction allergique sont réels. En effet, le risque de réaction allergique après consommation de chocolat noir était estimé à 16 %, à 4 % après consommation de produits de boulangerie, et à 0,6 % pour des biscuits. Une méthode de détermination de seuils d'action allergènes destinés à l'industrie a été développée en tenant compte des seuils cliniques (noisettes = 0,1 mg; lait, œufs, arachides = 0,2 mg) et des données de consommation de l'ESCC-2015. Ces seuils industriels étaient dépendant de la quantité consommée en une occasion, obtenue d'après l'ESCC-2015, ces seuils étant davantage conservateurs lorsque la quantité ingérée d'un aliment était élevée. Conclusion : L'occurrence des allergènes alimentaires dans les produits préemballés avec étiquetage préventif est relativement faible, à l'exception du lait (allergène) dans le chocolat noir. Des seuils industriels basés sur des données d'exposition canadiennes pourraient être utilisés comme outil d'évaluation et de gestion du risque allergique pour aider à mieux utiliser l'étiquetage préventif, et par conséquent améliorer l'offre alimentaire destinée aux personnes allergiques alimentaires. / Background: The inadvertent presence of food allergens in prepackaged products can be due to cross-contamination occurring in food industries. To warn allergic consumers that the product might not be suitable for them, food industries use precautionary allergen labeling (PAL), like "may contain X" - "X" corresponding to the allergens that might be present in the product intended for consumption. The use of PAL seems to be increasing, thus reducing the food offer towards allergic individuals. Having less products available, some allergic consumers take the risk of consuming foods with PAL, sometimes without experiencing symptoms of an allergic reaction. International studies reviewed the occurrence (or presence) of these allergens in prepacked foods with PAL. Most studies found that less than 10% of prepacked foods did contain the allergens mentioned in the PAL statement, suspecting PAL overuse by food industries. However, the occurrence of allergens is not well known in Canada, with only one study published in 2003 available on the presence of peanuts in chocolate bars. Objectives: Focusing on four priority allergens (milk, egg, peanut, hazelnut), provide the portrait of allergen cross-contamination in products with PAL sold in Canada and evaluate the risk of having an allergic reaction when an allergic individual adopts a risky behaviour by eating products with PAL. The main objective is to propose guidelines for food industries, such as industrial allergen action levels, to improve the use of precautionary allergen labeling while protecting a maximum of allergic individuals. Methods: High risk food categories were identified from past publications and foods involved in most recalls due to allergens in Canada. Food products chosen had a PAL statement for one or more of the selected allergens (milk, eggs, peanuts, hazelnuts). About 3,800 products were analyzed for their allergen content (milk=1,225; eggs=840; peanuts=871; hazelnuts=863) by quantitative ELISA methods. A quantitative risk assessment was undergone for the allergen and food categories with the highest occurrences, using second order Monte Carlo simulations. Industrial allergen action levels are proposed, computed using consumption data from the Canadian Community Health Survey of 2015 (CCHS-2015) and data from allergen clinical trials. Results: The occurrence of all allergens except milk was under 10% (milk=23%, 2.5 - 6471 ppm; eggs=7%, 0.3 - 777 ppm; peanuts=5%, 0.6 - 28.1 ppm; hazelnuts=9%, 0.4 - 2167 ppm). Dark chocolate had the highest occurrence (93%) and contamination levels for milk proteins. The average milk protein exposure in dark chocolate, cookies and baked goods were 24mg, 0.2mg, and 3.9mg milk proteins, respectively. All exposures were superior to the clinical threshold of 0.2mg milk proteins protecting 99% of the milk-allergic population. Thus, allergic reactions are expected to happen in 1% and more in milk-allergic individuals. The estimated risk of having and allergic reaction was 16% after consumption of dark chocolate, 4% for baked goods, and 0.6% for cookies. Clinical thresholds (hazelnuts=0.1mg; milk, eggs, peanuts=0.2mg) were used to calculate industrial allergen action levels for food manufacturers, depending on the quantity of the food commodity consumed on a single occasion (CCHS-2015). The greater the amount of food ingested, the more conservative the allergen action levels would be. Conclusion: The allergen occurrence in prepackaged products with PAL remains relatively low, except for the presence of milk in dark chocolate. The use of industrial allergen action levels based on Canadian exposure data can be used as a management and evaluation tool to determine the necessary use of PAL, and consequently improve the food offer towards allergic individuals.
13

Mesure de la violation de CP dans les désintégrations Bs -> J/psi phi auprès du détecteur LHCb

Maurice, Emilie 18 July 2012 (has links) (PDF)
La mesure de la phase phis violant la symétrie CP dans les désintégrations Bs -> J/psi phi est une des analyses phares de l'expérience LHCb. Le Modèle Standard prédit cette observable avec une faible incertitude théorique. La présence de Nouvelle Physique notamment dans les diagrammes en boucle de l'oscillation Bs - anti Bs peut significativement modifier la mesure de cette phase. Durant cette thèse, nous avons participé à différents aspects de l'analyse des désintégrations Bs -> J/psi phi. Nous avons proposé une sélection multi-variables, basée sur un algorithme d'arbres de décision boostés. Cette nouvelle sélection augmente le nombre de signal Bs -> J/psi phi de 19% mais nécessite une correction temporelle. Une étude portant sur l'origine des distorsions angulaires caractéristiques des désintégrations Bs -> J/psi phi a aussi été menée. Il s'avère que la principale source de distorsion est la géométrie du détecteur LHCb. Nous avons aussi contribué à un autre élément clef de cette analyse : l'étiquetage de la saveur. Afin de connaître la saveur initiale des mésons B, un algorithme d'étiquetage a été développé. Il exploite les traces chargées provenant du hadron B de côté opposé. Nous avons participé à son optimisation ainsi qu'à son étalonnage en étudiant les désintégrations Bd -> J/psi K*. En utilisant l'intégralité des données enregistrées en 2011, soit 1 fb-1, après optimisation et calibration de cet algorithme, la puissance d'étiquetage dans le canal Bs -> J/psi phi est : (2.29 +- 0.07 +- 0.26) %. La valeur de phis mesurée est alors : \phis = -0.001 +- 0.101 +- 0.027 rad dans les désintégrations Bs -> J/psi phi. L'analyse combinée de Bs -> J/psi phi avec les désintégrations Bs -> J/psi \pi+ \pi- donne la meilleure mesure mondiale de \phis = -0.002 +- 0.083 +- 0.027 rad. Cette mesure est compatible avec le Modèle Standard, mais ses incertitudes laissent possible la présence de Nouvelle Physique.
14

Intégration de ressources lexicales riches dans un analyseur syntaxique probabiliste / Integration of lexical resources in a probabilistic parser

Sigogne, Anthony 03 December 2012 (has links)
Cette thèse porte sur l'intégration de ressources lexicales et syntaxiques du français dans deux tâches fondamentales du Traitement Automatique des Langues [TAL] que sont l'étiquetage morpho-syntaxique probabiliste et l'analyse syntaxique probabiliste. Dans ce mémoire, nous utilisons des données lexicales et syntaxiques créées par des processus automatiques ou par des linguistes afin de donner une réponse à deux problématiques que nous décrivons succinctement ci-dessous : la dispersion des données et la segmentation automatique des textes. Grâce à des algorithmes d'analyse syntaxique de plus en plus évolués, les performances actuelles des analyseurs sont de plus en plus élevées, et ce pour de nombreuses langues dont le français. Cependant, il existe plusieurs problèmes inhérents aux formalismes mathématiques permettant de modéliser statistiquement cette tâche (grammaire, modèles discriminants,...). La dispersion des données est l'un de ces problèmes, et est causée principalement par la faible taille des corpus annotés disponibles pour la langue. La dispersion représente la difficulté d'estimer la probabilité de phénomènes syntaxiques apparaissant dans les textes à analyser mais qui sont rares ou absents du corpus ayant servi à l'apprentissage des analyseurs. De plus, il est prouvé que la dispersion est en partie un problème lexical, car plus la flexion d'une langue est importante, moins les phénomènes lexicaux sont représentés dans les corpus annotés. Notre première problématique repose donc sur l'atténuation de l'effet négatif de la dispersion lexicale des données sur les performances des analyseurs. Dans cette optique, nous nous sommes intéressé à une méthode appelée regroupement lexical, et qui consiste à regrouper les mots du corpus et des textes en classes. Ces classes réduisent le nombre de mots inconnus et donc le nombre de phénomènes syntaxiques rares ou inconnus, liés au lexique, des textes à analyser. Notre objectif est donc de proposer des regroupements lexicaux à partir d'informations tirées des lexiques syntaxiques du français, et d'observer leur impact sur les performances d'analyseurs syntaxiques. Par ailleurs, la plupart des évaluations concernant l'étiquetage morpho-syntaxique probabiliste et l'analyse syntaxique probabiliste ont été réalisées avec une segmentation parfaite du texte, car identique à celle du corpus évalué. Or, dans les cas réels d'application, la segmentation d'un texte est très rarement disponible et les segmenteurs automatiques actuels sont loin de proposer une segmentation de bonne qualité, et ce, à cause de la présence de nombreuses unités multi-mots (mots composés, entités nommées,...). Dans ce mémoire, nous nous focalisons sur les unités multi-mots dites continues qui forment des unités lexicales auxquelles on peut associer une étiquette morpho-syntaxique, et que nous appelons mots composés. Par exemple, cordon bleu est un nom composé, et tout à fait un adverbe composé. Nous pouvons assimiler la tâche de repérage des mots composés à celle de la segmentation du texte. Notre deuxième problématique portera donc sur la segmentation automatique des textes français et son impact sur les performances des processus automatiques. Pour ce faire, nous nous sommes penché sur une approche consistant à coupler, dans un même modèle probabiliste, la reconnaissance des mots composés et une autre tâche automatique. Dans notre cas, il peut s'agir de l'analyse syntaxique ou de l'étiquetage morpho-syntaxique. La reconnaissance des mots composés est donc réalisée au sein du processus probabiliste et non plus dans une phase préalable. Notre objectif est donc de proposer des stratégies innovantes permettant d'intégrer des ressources de mots composés dans deux processus probabilistes combinant l'étiquetage ou l'analyse à la segmentation du texte / This thesis focuses on the integration of lexical and syntactic resources of French in two fundamental tasks of Natural Language Processing [NLP], that are probabilistic part-of-speech tagging and probabilistic parsing. In the case of French, there are a lot of lexical and syntactic data created by automatic processes or by linguists. In addition, a number of experiments have shown interest to use such resources in processes such as tagging or parsing, since they can significantly improve system performances. In this paper, we use these resources to give an answer to two problems that we describe briefly below : data sparseness and automatic segmentation of texts. Through more and more sophisticated parsing algorithms, parsing accuracy is becoming higher for many languages including French. However, there are several problems inherent in mathematical formalisms that statistically model the task (grammar, discriminant models,...). Data sparseness is one of those problems, and is mainly caused by the small size of annotated corpora available for the language. Data sparseness is the difficulty of estimating the probability of syntactic phenomena, appearing in the texts to be analyzed, that are rare or absent from the corpus used for learning parsers. Moreover, it is proved that spars ness is partly a lexical problem, because the richer the morphology of a language is, the sparser the lexicons built from a Treebank will be for that language. Our first problem is therefore based on mitigating the negative impact of lexical data sparseness on parsing performance. To this end, we were interested in a method called word clustering that consists in grouping words of corpus and texts into clusters. These clusters reduce the number of unknown words, and therefore the number of rare or unknown syntactic phenomena, related to the lexicon, in texts to be analyzed. Our goal is to propose word clustering methods based on syntactic information from French lexicons, and observe their impact on parsers accuracy. Furthermore, most evaluations about probabilistic tagging and parsing were performed with a perfect segmentation of the text, as identical to the evaluated corpus. But in real cases of application, the segmentation of a text is rarely available and automatic segmentation tools fall short of proposing a high quality segmentation, because of the presence of many multi-word units (compound words, named entities,...). In this paper, we focus on continuous multi-word units, called compound words, that form lexical units which we can associate a part-of-speech tag. We may see the task of searching compound words as text segmentation. Our second issue will therefore focus on automatic segmentation of French texts and its impact on the performance of automatic processes. In order to do this, we focused on an approach of coupling, in a unique probabilistic model, the recognition of compound words and another task. In our case, it may be parsing or tagging. Recognition of compound words is performed within the probabilistic process rather than in a preliminary phase. Our goal is to propose innovative strategies for integrating resources of compound words in both processes combining probabilistic tagging, or parsing, and text segmentation
15

Apprentissage statistique pour l'étiquetage de musique et la recommandation

Bertin-Mahieux, Thierry January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
16

Structuration de collections d'images par apprentissage actif crédibiliste

Goëau, Hervé 25 May 2009 (has links) (PDF)
L'indexation des images est une étape indispensable pour valoriser un fond d'archive professionnel ou des collections d'images personnelles. Le "documentaliste" se doit de décrire précisément chaque document collecté dans la perspective de le retrouver. La difficulté est alors d'interpréter les contenus visuels et de les associer entre eux afin de couvrir différentes catégories qui peuvent être souvent très subjectives. Dans ce travail, nous nous inspirons du principe de l'apprentissage actif pour aider un utilisateur dans cette tâche de structuration de collections d'images. A partir de l'analyse des contenus visuels des images, différentes stratégies de sélection active sont développées afin d'aider un utilisateur à identifier et cerner des catégories pertinentes selon son point de vue. Nous proposons d'exprimer ce problème de classification d'images avec apprentissage actif dans le cadre du Modèle des Croyances Transférables (MCT). Ce formalisme facilite la combinaison, la révision et la représentation des connaissances que l'on peut extraire des images et des classes existantes à un moment donné. La méthode proposée dans ce cadre permet ainsi une représentation détaillée de la connaissance, notamment en représentant explicitement les cas d'appartenances à aucune ou à de multiples catégories, tout en quantifiant l'incertitude (liée entre autre au fossé sémantique) et le conflit entrainé par l'analyse des images selon différentes modalités (couleurs, orientations). Une interface homme-machine a été développée afin de valider notre approche sur des jeux de tests de référence, des collections d'images personnelles et des photographies professionnelles issues de l'Institut National de l'Audiovisuel. Une évaluation a été conduite auprès d'utilisateurs professionnels et a montré des résultats très positifs en termes d'utilité, d'utilisabilité et de satisfaction.
17

Étiquetage des quarks b par un détecteur de vertex à pixels dans l'expérience ATLAS auprès du LHC

Vacavant, Laurent 13 June 1997 (has links) (PDF)
Dans ce travail, les potentialités du détecteur ATLAS pour l'identification des jets issus de quark beau sont étudiées. L'étiquetage topologique, basé sur le paramètre d'impact des traces chargées, est utilisé. Une bonne identification de ces jets sera très précieuse au LHC, en particulier durant les premières années de fonctionnement pour mettre en évidence le cas échéant un boson de Higgs d'une masse comprise entre 80 GeV/c2 et 120 GeV/c2. Pour évaluer les performances dans ce domaine, un algorithme de recherche et reconstruction des traces chargées exploitant la simulation détaillée du détecteur interne d'ATLAS a été réalisé. La recherche est initiée dans les détecteurs à pixels. L'efficacité et la qualité de reconstruction assurent une bonne discrimination entre les jets b et les autres jets. Après simulation complète et reconstruction d'événements H->bbbar, H->gg, H->uubar, H->ssbar et H->ccbar (mH = 100 GeV/c2), les réjections moyennes des jets non-b pour une efficacité d'étiqueter les jets b de 50% sont: Rg = 39+-5 Ru = 60+-9 Rs = 38+-5 Rc = 9+-1 Les résultats de l'analyse des données prises lors de tests en faisceau des premiers prototypes de matrices de détecteurs à pixels en technologie résistante aux radiations justifient les potentialités de ce type de détecteur pour la recherche de traces et la mesure précise de leur paramètre d'impact.
18

Étiquetage grammatical symbolique et interface syntaxe-sémantique des formalismes grammaticaux lexicalisés polarisés

Morey, Mathieu 03 November 2011 (has links) (PDF)
Les travaux de cette thèse portent sur l'analyse syntaxique et sémantique de la phrase, en utilisant pour l'analyse syntaxique un formalisme grammatical lexicalisé polarisé et en prenant comme exemple les grammaires d'interaction. Dans les formalismes grammaticaux lexicalisés, les polarités permettent de contrôler explicitement la composition des structures syntaxiques. Nous exploitons d'abord le besoin de composition exprimé par certaines polarités pour définir une notion faible de réduction de grammaire applicable à toute grammaire lexicalisée polarisée. Nous étudions ensuite la première phase de l'analyse syntaxique des formalismes lexicalisés: l'étiquetage grammatical. Nous exploitons là encore le besoin de composition de certaines polarités pour concevoir trois méthodes symboliques de filtrage des étiquetages grammaticaux que nous implantons sur automate. Nous abordons enfin l'interface syntaxe-sémantique des formalismes lexicalisés. Nous montrons comment l'utilisation de la réécriture de graphes comme modèle de calcul permet concrètement d'utiliser des structures syntaxiques riches pour calculer des représentations sémantiques sous-spécifiées.
19

Mise en oeuvre de l'étiquetage des jets issus de quarks beaux dans l'expérience ATLAS au LHC

Lapoire, C. 22 September 2010 (has links) (PDF)
Le Modèle Standard de la physique des particules prédit l'existence du boson de Higgs, dont le canal de désintégration privilégié à basse masse est la production de paires de quarks beaux. L'identification des jets issus de tels quarks dans le détecteur ATLAS, situé sur l'anneau du LHC, tient donc un rôle majeur dans la physique des particules moderne. Dans ce document, un aper//çu des méthodes d'étiquetage de ces jets b utilisées dans ATLAS ainsi que l'optimisation d'un algorithme en particulier, JetProb, sont présentés. La préparation à la mesure de l'efficacité de ces algorithmes dans les données est également développée. Enfin, après la prise de données à 900 GeV au centre de masse puis à l'énergie record de 7 TeV en 2009-2010, les premiers résultats concernant l'étude des traces chargées et la mise en place de l'étiquetage des jets b dans les données ont été obtenus et sont rassemblés ici. La comparaison avec la simulation montre un bon accord et les premiers candidats jets b et événements top observés sont étudiés.
20

Recherche du boson de Higgs chargé dans le canal H+ -> tb et étiquetage des jets b avec l'expérience ATLAS auprès du LHC.

Zaidan, R. 17 September 2009 (has links) (PDF)
La seule particule du Modèle Standard qui n'a toujours pas été découverte est le boson de Higgs, qui serait à l'origine de la masse des particules élémentaires. Dans le Modèle Standard Supersymétrique Minimal (MSSM), le secteur de Higgs consiste en cinq bosons dont deux sont chargés. La recherche du boson de Higgs chargé dans le canal gg ! ¯tbH+(H+ ! t¯b), constitue l'objet principal de cette analyse. Nous présentons une analyse qui fait usage d'une fonction de vraisemblance pour résoudre les combinatoires et reconstruire la masse du boson de Higgs chargé, et de l'étiquetage des jets b pour la supression du bruit de fond t¯t+jets. Nous montrons aussi les difficultés apportées par le bruit de fond combinatoire et affectant le pouvoir de découverte de ce canal. La présence de 4 quarks b dans l'état final que nous recherchons rend l'étiquetage des jets b très important pour l'analyse. Une partie de ce travail y a été consacrée. Nous présentons dans le cadre de la préparation aux premiéres données, plusieurs études d´dédiées à l'optimisation et la compréhension des performances. Nous présentons aussi la mise en œuvre d'un algorithme d'étiquetage simple (JetProb) qui sera utilisé pour les analyses qui seront faites avec les premiéres données.

Page generated in 0.0353 seconds