• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 22
  • 4
  • Tagged with
  • 59
  • 26
  • 21
  • 16
  • 15
  • 15
  • 14
  • 13
  • 13
  • 12
  • 10
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Études de la violation de CP dans les désintégrations B0 -> DK*0 et des performances du système de déclenchement hadronique avec le détecteur LHCb au CERN

Martin Sanchez, Alexandra 25 June 2013 (has links) (PDF)
Dans le Modèle Standard de la physique des particules, le mécanisme Cabibbo-Kobayashi-Maskawa (CKM) décrit le phénomène du mélange des quarks. De ses paramètres, l'angle gamma est celui connu avec la moins grande précision. Les mesures directes donnent une incertitude d'environ 15º, importante comparée à celle sur la valeur extraite des ajustements globaux, de 3º. Pour vérifier la cohérence du Modèle Standard, gamma doit être mesuré précisément. Cela est possible en utilisant des processus au niveau des arbres, où seules des contributions du Modèle Standard sont attendues, ou avec des processus impliquant des boucles, qui peuvent être sensibles à des effets au-delà. Des différences entre la mesure de gamma avec des diagrammes en arbres et avec des boucles pourraient être donc une indication de nouvelle physique. Cette thèse présente la première mesure des observables CP dans la désintégration B0 -> DK*0. Celle-ci est sensible à gamma du fait de l'interférence entre l'amplitude des diagrammes b -> u et b -> c, au niveau des arbres. L'asymétrie CP dans le mode B0 -> D(K+K-)K*0 et le rapport des largeurs partielles avec B0 -> D(K+pi-)K*0 sont mesurés avec 1 /fb de données récoltées par l'expérience LHCb en 2011,A_KK_d = -0,452 +/- 0,230 +/- 0,025 = A_CP+,R_KK_d = 1,360 +/- 0,366 +/- 0,075 = R_CP+. L'asymétrie CP du mode supprimé B0 -> D(K-pi+)K*0 et le rapport des largeurs partielles avec le favorisé B0 -> D(K+pi-)K*0 sont mesurés avec 3 /fb de données récoltées en 2011 et 2012,A_sup_d = -0,094 +/- 0,318 = A_ADS,R_d = 0,075 +/- 0,023 = R_ADS. Les études réalisées sur le système de déclenchement hadronique de l'expérience LHCb sont aussi présentées.
42

Probing the Quark-Gluon Plasma from bottomonium production at forward rapidity with ALICE at the LHC / Etude du plasma de quarks et gluons via la production à l’avant de bottomonium dans l’expérience ALICE au LHC

Marchisone, Massimiliano 06 December 2013 (has links)
Les collisions d’ions lourds ultrarelativistes ont pour objectif principal l'étude des propriétés de la matière nucléaire soumise à températures et densités d'énergie extrêmes. La chromodynamique quantique (QCD) prédit, dans ces conditions, l’existence d’une nouvelle phase de la matière dans laquelle les constituants des hadrons sont déconfinés en un plasma de quarks et gluons (QGP). Les saveurs lourdes (charme et beauté) sont produites lors de processus durs aux premiers instants des collisions, avant de traverser le milieu. Par conséquent, la mesure des quarkonia (mésons cc et bb) est particulièrement intéressante pour l'étude du QGP : leur dissociation, due notamment à l’écrantage de couleur, est sensible à la température initiale du système. Les mesures effectuées au SPS et RHIC ont permis de mettre en évidence plusieurs caractéristiques du milieu produit, mais ont aussi laissé plusieurs questions sans réponse. Avec une énergie 14 fois supérieure à celle du RHIC, l’accélérateur LHC (Large Hadron Collider) au CERN, entré en fonctionnement fin 2009, a ouvert une nouvelle ère pour l'étude des propriétés du QGP. ALICE (A Large Ion Collider Experiment) est une des quatre grandes expériences fonctionnant auprès du LHC et dont le but principal est l'étude du plasma de quarks et gluons produit dans les collisions d'ions plomb à une énergie de 2.76 TeV par nucléon. Elle enregistre aussi des collisions pp afin de fournir la référence indispensable pour l'étude des collisions noyau-noyau et proton-noyau et de tester les calculs perturbatifs de QCD dans la région des faibles valeurs de la variable d'échelle x de Bjorken. Les quarkonia, ainsi que les saveurs lourdes ouvertes et les mésons légers, sont mesurés dans ALICE suivant leur mode de désintégration muonique avec le spectromètre à muons situé à petit angle polaire. Il est constitué d'un ensemble d’absorbeurs, d’un dipôle chaud, de cinq stations de trajectographie (Muon Tracking) et de deux stations de déclenchement (Muon Trigger). Le travail présenté dans cette thèse a été réalisé de 2011 à 2013 pendant les premières années de prise de données dans l’expérience ALICE. Après une introduction à la physique des ions lourds à hautes énergies et une description du setup expérimental, une étude des performances du Muon Trigger en Pb-Pb est proposée. En particulier, la stabilité dans le temps du détecteur et son efficacité de fonctionnement sont contrôlées. Le cluster size, correspondant au nombre moyen de voies adjacentes touchées par particule détectée, est étudié en fonction des différents variables. Les valeurs expérimentales sont comparées à des simulations afin de fournir une paramétrisation de cet effet. Finalement, la production du méson Ç en collisions Pb-Pb est analysée en détail et comparée à celle en collisions pp à la même énergie. Les résultats obtenus sont comparés aux mesures du J/ψ par ALICE, aux mesures par CMS et à des prédictions de modèles théoriques. / The main goal of ultrarelativistic heavy-ion collisions is the study of the properties of the matter at very high temperatures and energy densities. Quantum chromodynamics (QCD) predicts in these conditions the existence of a new phase of the matter whose components are deconfined in a Quark-Gluon Plasma (QGP). Heavy quarks (charm e bottom) are produced in the first stages of the collisions, before to interact with the medium. Therefore, the measurement of the quarkonia (cc and bb mesons) is of particular interest for the study of the QGP: their dissociation mainly due to the colour screening is sensible to the initial temperature of the medium. Previous measurements at the SPS and RHIC allowed to understand some characteristics of the system produced, but they also opened many questions. With an energy 14 times higher than RHIC, the LHC (Large Hadron Collider) at CERN opened a new era for the study of the QGP properties. ALICE (A Large Ion Collider Experiment) is the LHC experiment fully dedicated to the study of the Quark-Gluon Plasma produced in Pb-Pb collisions at an energy of 2.76 TeV per nucleon. The experiment also participates to the proton-proton data taking in order to obtain the fundamental reference for the study of ion-ion and proton-ion collisions and for testing the predictions at very small Bjorken-x values of the perturbative QCD. Quarkonia, D and B mesons and light vector mesons are measured at forward rapidity by a Muon Spectrometer exploiting their (di)muonic decay. This detector is composed of a front absorber, a dipole magnet, five stations of tracking (Muon Tracking) and two stations of trigger (Muon Trigger). The work presented in this thesis has been carried out from 2011 to 2013 during the first period of data taking of ALICE. After a detailed introduction of the heavy-ion physics and a description of the experimental setup, the performance of the Muon Trigger in Pb–Pb collisions are shown. A particular attention is devoted to the stability of the detector during the time and to the trigger effectiveness. Moreover, the cluster size, corresponding to the number of adjacent strips hit by a particle, is studied as a function of different variables. The experimental results will be compared to simulations in order to obtain a good parametrization of this phenomenon. Finally, the Ç production in Pb-Pb collisions is carefully analysed and compared to that in pp collisions at the same energy. The results are then compared to the J/ψ measurements obtained by ALICE, to the CMS results and to some theoretical predictions.
43

Conditions d’ordonnançabilité pour un langage dirigé par le temps / Scheduling conditions for a time-triggered language

Kloda, Tomasz 29 September 2015 (has links)
Les travaux réalisés dans le cadre de cette thèse ont pour objectif de proposer un langage de description temporelle pour des systèmes temps-réel et d’établir les conditions de leur ordonnançabilité sous l’algorithme Earliest Deadline First (EDF). Les langages de description temporelle permettent de spécifier le comportement temporel d’une application indépendamment de son comportement fonctionnel. Le programmeur déclare dans ces langages à quels instants précis doivent être déclenchées et terminées les activités du système. Cette gestion du temps, précise et explicite, apporte au système son caractère déterministe. Le langage proposé, Extended Timing Definition Language (E-TDL), étend des langages dirigés par le temps existants, en particulier Giotto et TDL, en introduisant un nouveau modèle de tâche donné par quatre paramètres : phase, pire temps d’exécution, temps d’exécution logique TEL (intervalle de temps séparant le lancement de la tâche et sa terminaison) et période. L’introduction de ce nouveau modèle de tâche nécessite de revisiter en particulier le problème de l’ordonnançabilité des tâches pour EDF. Cette thèse propose et développe une analyse basée sur la fonction de demande pour des ensembles de tâches décrites en E-TDL et s’exécutant en contexte monoprocesseur. Une condition nécessaire et suffisante est obtenue au travers d’une analyse précise des intervalles séparant les activations de tâches au sein de différents modules s’exécutant indépendamment et pouvant changer de mode à des instants prédéfinis. Une borne de la longueur des intervalles sur lesquels doit s’opérer la vérification est déterminée. Un outil mettant en œuvre cette analyse a été développé. / The goal of this research is to define a time-triggered language for modeling real-time systems and to provide the conditions for their schedulability under Earliest Deadline First (EDF). Time-triggered languages separate the functional part of applications from their timing definition. These languages permit to model the real-time system temporal behavior by assigning system activities to particular time instants. We propose a new time-triggered framework, Extended Timing Definition Language (E-TDL), that enhances the basic task model used in Giotto and TDL while keeping compositional and modular structure brought by the latter. An E-TDL task is characterized by: an offset, a worst case execution time, a Logical Execution Time (a time interval between task release and its termination) and a period. The schedulability analysis of the system based on this new task model should be, in particular for EDF, investigated. We develop, on the concept of the processor demand criterion, conditions for the feasibility of an E-TDL system running on a single CPU under EDF. A necessary and sufficient condition is obtained by considering the global schedules that are made up of execution traces occurring at the same time in distinct modules that are able to switch their modes at predefined instants. We estimate a maximal length of the interval on which the schedulability condition must be checked. A tool suite performing the schedulability analysis of the E-TDL systems is developed.
44

JEM-EUSO prototypes for the detection of ultra-high-energy cosmic rays (UHECRs) : from the electronics of the photo-detection module (PDM) to the operation and data analysis of two pathnders / Prototypes de JEM-EUSO pour la détection des rayons cosmiques d’ultra-haute énergie (UHECRs) : de l’électronique du module de photo-détection (PDM) à l’exploitation et l’analyse des données de deux pathfinders

Jung, Aera 30 May 2017 (has links)
L’expérience JEM-EUSO (traduction de Observatoire spatial de l’univers extrême à bord du module de l'expérience japonaise) est conçu pour observer les UHECR en détectant la lumière fluorescente UV émise par la gerbe qui se développe lorsque les UHECR interagissent avec l'atmosphère terrestre. Les gerbes atmosphériques sont constituées de dizaines de milliards de particules secondaires ou plus traversant l'atmosphère quasiment à la vitesse de la lumière, excitant les molécules d'azote qui émettent ensuite de la lumière dans la gamme UV. Alors que cette « technique de fluorescence » est habituellement utilisée au sol, en opérant ainsi à partir de l'espace, JEM-EUSO, pour la première fois, fournira des statistiques élevées sur ces événements. Avec un large champ de vue de ± 30 °, JEM-EUSO pourra observer depuis l’espace un volume d'atmosphère beaucoup plus grand que ce qui est possible du sol, en collectant un nombre sans précédent d'événements UHECR aux plus hautes énergies.Pour les quatre prototypes d’expériences construites par la collaboration, nous avons développé un ensemble commun d'électronique, en particulier le système central d'acquisition de données capable de fonctionner au sol, sur des ballons à haute altitude et dans l'espace.Ces expériences utilisent toutes un détecteur composé d'un module de détection de photo (PDM) identique aux 137 qui seront présents sur la surface focale JEM-EUSO. La lumière UV générée par les gerbes atmosphériques à haute énergie passe le filtre UV et frappe les tubes à photomultiplicateurs multi-anodes (MAPMT). Les photons UV sont alors transformés en électrons, qui sont multipliés par les MAPMT et le courant qu’ils créent est amplifié par des cartes ASIC de circuit intégré (EC-ASIC), qui effectuent également le comptage des photons et l'estimation de charge. Une carte FPGA nommé PDM board s'interface avec ces cartes ASIC, fournissant des paramètres d'alimentation et de configuration à ces cartes ASIC, collecte alors les données et exécute le déclenchement d’acquisition de niveau 1.Dans le cadre de ces travaux, je me suis occupée de la conception, du développement, de l'intégration et du test la carte FPGA PDM board pour les missions EUSO-TA et EUSO-Balloon ainsi que des tests d'algorithme de déclenchement autonomes d’acquisitions et j'ai également analysé les données de vol d’EUSO-Balloon et de la campagne sol EUSO-TA d’octobre 2015.Dans cette thèse, je donnerai un bref aperçu des rayons cosmiques à haute énergie, y compris de leur technique de détection et des principales expériences pour les détecter (chapitre 1), je décrirai JEM-EUSO et ses pathfinders (chapitre 2), je présenterai les détails de la conception et de la fabrication du PDM (chapitre 3) et de la carte FPGA PDM board (chapitre 4), ainsi que des tests d'intégration d’EUSO-TA et d’EUSO-Balloon (chapitre 5). Je ferai un rapport sur la campagne EUSO-Balloon de 2014 (chapitre 6) et sur ses résultats (chapitre 7), y compris une analyse spécifique développée pour rechercher des variations globales de l'émissivité UV au sol et j’appliquerai une analyse similaire aux données collectées sur le site de Telescope Array (Chapitre 8). Enfin, je présenterai la mise en œuvre et le test du déclencheur de premier niveau (L1) dans la carte de contrôle FPGA (chapitre 9). Un bref résumé de la thèse sera donné au chapitre 10. / The JEM-EUSO (Extreme Universe Space Observatory on-board the Japanese Experiment Module) international space mission is designed to observe UHECRs by detecting the UV fluorescence light emitted by the so-called Extensive Air Shower (EAS) which develop when UHECRs interact with the Earth’s atmosphere. The showers consist of tens of billions or more secondary particles crossing the atmosphere at nearly the speed of light, which excite nitrogen molecules which then emit light in the UV range. While this so-called “fluorescence technique'” is routinely used from the ground, by operating from space, JEM-EUSO will, for the first time, provide high-statistics on these events. Operating from space, with a large Field-of-View of ±30 °, allows JEM-EUSO to observe a much larger volume of atmosphere, than possible from the ground, collecting an unprecedented number of UHECR events at the highest energies.For the four pathfinder experiments built within the collaboration, we have been developing a common set of electronics, in particular the central data acquisition system, capable of operating from the ground, high altitude balloons, and space.These pathfinder experiments all use a detector consisting of one Photo-detection Modules (PDMs) identical to the 137 that will be present on the JEM-EUSO focal surface. UV light generated by high-energy particle air showers passes the UV filter and impacts the Multi-anode Photomultiplier Tubes (MAPMT). Here UV photons are converted into electrons, which are multiplied by the MAPMTs and fed into Elementary Cell Application-Specific Integrated Circuit (EC-ASIC) boards, which perform the photon counting and charge estimation. The PDM control board interfaces with these ASIC boards, providing power and configuration parameters, collecting data and performing the level 1 trigger. I was in charge of designing, developing, integrating, and testing the PDM control board for the EUSO-TA and EUSO-Balloon missions as well as the autonomous trigger algorithm testing and I also performed some analysis of the EUSO-Balloon flight data and data from the EUSO-TA October 2015 run.In this thesis, I will give a short overview of high-energy cosmic rays, including their detection technique and the leading experiments (Chapter 1), describe JEM-EUSO and its pathfinders including a description of each instrument (Chapter 2), present the details of the design and the fabrication of the PDM (Chapter 3) and PDM control board (Chapter 4), as well as the EUSO-TA and EUSO-Balloon integration tests (Chapter 5). I will report on the EUSO-Balloon campaign (Chapter 6) and results (Chapter 7), including a specific analysis developed to search for global variations of the ground UV emissivity, and apply a similar analysis to data collected at the site of Telescope Array (Chapter 8). Finally, I will present the implementation and testing of the first-level trigger (L1) within the FPGA of the PDM control board (Chapter 9). A short summary of the thesis will be given in Chapter 10.
45

Sismicité, couplages sismique-asismiques et processus transitoires de déformation dans un système de failles actives : le rift de Corinthe, Grèce / Seismicity, seismic-aseismic couplings and transient deformation processes in an active fault system : the Corinth rift, Greece

Duverger, Clara 29 November 2017 (has links)
La partie ouest du rift de Corinthe, en Grèce, s'ouvre à une vitesse d'environ 15 mm par an générant un taux de déformation parmi les plus élevés au monde, quelques séismes destructeurs de magnitude M>6 par décennie, et une forte activité microsismique irrégulière spatialement et temporellement. Afin de mieux comprendre les mécanismes liés à cette déformation crustale et de préciser les structures majeures actives, ce travail de recherche exploite la base de données sismologiques du Corinth Rift Laboratory de 2000 à 2015 en analysant finement les microséismes et leur évolution spatio-temporelle. La relocalisation globale des sources sismiques ainsi que leur classification en multiplets ont permis de préciser la géométrie des failles et d'identifier des comportements mécaniques différents. La zone ouest, au milieu du golfe, est affectée par des variations de pressions de fluides dans une couche géologique, entraînant des migrations des essaims de microséismes à des vitesses d'environ 50 m par jour. Les multiplets profonds de la partie centrale, près de la côte nord, sont persistants et semblent déclenchés par des épisodes de glissements lents asismiques sur un détachement immature pouvant atteindre la croûte ductile. Le faible pourcentage de déclenchement dynamique par les ondes sismiques suggère que l'état global du système de failles n'est pas au seuil critique de rupture. La magnitude des séismes est corrélée à l'impulsivité initiale de la rupture. Ces résultats précisent la dynamique de déformation du rift, les interactions sismique-asismiques, et permettront d'améliorer les modèles d'aléas sismiques de la région / The western part of the Corinth Rift in Greece is opening at about 15 mm per year, generating one of the highest deformation rates in the world, some destructive earthquakes of magnitude M>6 per decade, and high microseismic activity irregular in space and time. In order to better understand the mechanisms related to this crustal deformation and to specify the major active structures, this research work makes use of the seismological database of the Corinth Rift Laboratory from 2000 to 2015 by finely analyzing microearthquakes and their spatio-temporal evolution. The global relocation of the seismic sources and their classification into multiplets enable to refine the geometry of the faults and to identify different mechanical behaviors. The western zone, in the middle of the gulf, is affected by fluctuations of fluid pore pressures in a geological layer, resulting in microseismic swarm migrations at a velocity of about 50 m per day. The deep multiplets of the central part, near the northern coast, are persistent and appear to be triggered by episodes of slow aseismic slip along an immature detachment, which can reach the ductile crust. The low percentage of dynamic triggering by passing seismic waves suggests that the overall state of the fault system is not at the critical breaking point. The magnitude of earthquakes is correlated with the initial impulsiveness of the rupture. These results specify the dynamics of the rift deformation, the seismic-aseismic interactions, and will make possible the improvement of the seismic hazard models of the region
46

Etude et réalisation d'une chaine d'instrumentation numérique rapide pour l'identification des ions

Legou, Thierry 05 January 2002 (has links) (PDF)
Ce travail traite d'un système d'Identification Rapide des Ions et de Spectroscopie (IRIS), développé pour la recherche des noyaux de fusion super-lourds. La mesure de l'énergie du noyau, ainsi que l'enregistrement de sa chaîne de décroissance alpha, imposent à l'instrumentation des contraintes spécifiques. Celles-ci concernent la dynamique d'énergie que l'instrumentation doit accepter, mais aussi son temps de récupération après implantation du noyau de fusion dans le détecteur. Le système IRIS est placé en sortie d'un préamplificateur de charge, lui-même connecté à un détecteur (Si) de particule. Le principe du système consiste à numériser le signal de sortie du préamplificateur auquel deux traitements numériques du signal sont appliqués. Le premier traitement a pour but de détecter l'interaction de la particule avec le détecteur. Le second traitement permet de mesurer la charge créée dans le détecteur lors de l'interaction. Le caractère programmé des traitements autorise de nombreuses possibilités concernant tant le choix de la nature des traitements que celui des réglages de leurs paramètres de fonctionnement. Après avoir montré l'impossibilité d'utiliser une chaîne d'électronique conventionnelle pour la détection des noyaux de fusion, la structure d'IRIS est présentée ainsi que différents traitements numériques (étude et tests).
47

Etude de la résolution angulaire du télescope à neutrinos ANTARES

Oppelt, Anne 09 April 2001 (has links) (PDF)
L'astrophysique des neutrinos de haute énergie est une branche relativement récente dans l'astrophysique des particules. L'observation de ces neutrinos nécessite la construction de nouveaux types de télescopes immenses. Après une phase de recherche et de développement pendant laquelle elle a démontré la faisabilité d'une telle entreprise en milieu sous-marin, la collaboration ANTARES construit maintenant un télescope à neutrinos avec une surface de 0,1 km². Le détecteur, exposé à un taux élevé de bruit de fond ambiant, doit être capable de reconnaître un faible signal physique, ce qui nécessite un déclenchement à la fois puissant et efficace. Nous présentons ici une analyse des différentes possibilités d'un déclenchement local. A l'issue de cette étude, la définition du déclenchement final du détecteur est devenue possible. Nous présentons également une étude des performances du détecteur envisagé. L'analyse nécessite la simulation d'événements de très haute énergie (TeV-PeV). A ces énergie les programmes de simulation utilisent des hypothèses différentes, ce qui a nécessité une comparaison de leurs résultats avant utilisation. Une caractéristique importante d'un télescope à neutrinos est sa résolution angulaire. Celle d'ANTARES, obtenue dans cette thèse est de l'ordre de 0,5° pour les muons ascendants et inférieure à 1° pour les muons descendants. Une détection de l'ombre de la Lune, dont nous avons étudié la faisabilité, permet de vérifier ce résultat après 2-5 ans de prise de données.
48

Recherche indirecte et inclusive de matière noire avec le spectromètre spatial AMS-02

Brun, Pierre 08 June 2007 (has links) (PDF)
AMS02 est un détecteur de physique des particules destiné à 3 ans de prise de données sur la Station Spatiale Internationale. Il permettra de mesurer simultanément les flux de rayons cosmiques chargés et de photons entre 1 GeV et 1 TeV, avec une grande capacité d'identification. Les performances de ce spectromètre se fondent sur la redondance des mesures de sous-détecteurs spécifiques: un compteur de temps de vol, un détecteur à rayonnement de transition, un trajectographe au Silicium entouré d'un aimant supra-conducteur, un compteur Cerenkov et un calorimètre électromagnétique (Ecal).<br /><br />Le Ecal fait l'objet d'études détaillées, avec la qualification d'un système autonome de déclenchement de l'acquisition dédié à l'astronomie gamma. Il permet d'augmenter la sensibilité aux photons et d'améliorer la reconstruction des événements électromagnétiques. La partie analogique du système de déclenchement a été testée sur banc et lors de deux tests en faisceau du Ecal au CERN. La calibration en vol du calorimètre avec des rayons cosmiques est étudiée, elle comprend deux volets : l'inter-calibration des canaux avec des protons au minimum d'ionisation et un étalonnage absolu avec des électrons. Dans les deux cas, de possibles procédures sont présentées, et les temps nécessaires à la calibration en vol sont calculés pour démontrer sa faisabilité.<br /><br />Une partie de cette thèse traite de la recherche indirecte de matière noire et de la sensibilité d'AMS02. Comptant pour 84% de la masse de l'Univers, la matière noire pourrait consister en de nouvelles particules. Agglomérées dans notre Galaxie, elles pourraient s'annihiler par paires et constituer une source exotique de rayons cosmiques primaires. La recherche d'excès dans les flux d'antiparticules (antiprotons, positons, antideutérons) et de rayons gamma semble la plus prometteuse. Un outil de calcul numérique est développé pour la prédiction des flux exotiques dans le cadre de la supersymétrie et de modèles à dimensions supplémentaires. Des études phénoménologiques concernant l'amplification du signal en présence de zones à haute densité de matière noire sont menées. Le cas particulier de la concentration de particules de matière noire dans le voisinage de trous noirs de masse intermédiaire est envisagé et fait l'objet de prédictions quantitatives. Enfin, les outils développés sont utilisés pour estimer la sensibilité d'AMS02, en particulier pour quantifier sa capacité à reconstruire l'état final d'annihilation en combinant les canaux, et ainsi remonter au modèle de nouvelle physique.
49

Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHC

Ferro, Cristina 14 May 2012 (has links) (PDF)
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l'expérience CMS auprès du LHC. L'état final considéré est le canal semi-leptonique "tau+jets". Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d'un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l'algorithme "probabilité par jet". Cet algorithme pour lequel j'ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d'impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l'important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d'environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l'aide d'un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l'objet d'une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard.
50

Mesure de la section efficace de production de paires de quarks top dans le canal tau+jets dans l'expérience CMS auprès du LHC / Measurement of the tt production cross section in the tau+jets channel in pp collisions at √S=7TeV [sqrt(S)=7TeV]

Ferro, Cristina 14 May 2012 (has links)
Cette thèse a pour sujet la mesure de la section efficace de production de paires de quarks top-antitop dans l’expérience CMS auprès du LHC. L’état final considéré est le canal semi-leptonique ”tau+jets”. Un boson W issu de la désintégration du quark top se désintègre en un tau hadronique et neutrino tandis que le second boson W se désintègre en une paire quark-antiquark. La conduite de cette analyse a nécessité le développement d’un nouveau mode de déclenchement des données (trigger) incluant la présence de quatre jets dont un identifié en tant que tau hadronique. La configuration de ce trigger ainsi que son efficacité ont été étudiés dans cette thèse. Un échantillon de données correspondant à 3.9 fb−1 a été enregistré avec ce trigger et analysé. Les leptons taus ont été reconstruits grâce à un algorithme identifiant leurs résonances intermédiaires tandis que les jets de quarks beaux issus de la désintégration des quarks tops ont été identifiés grâce à l’algorithme ”probabilité par jet”. Cet algorithme pour lequel j’ai mis en oeuvre une procédure de calibration depuis 2009 utilise le paramètre d’impact des traces de particules chargées pour calculer leur probabilité de venir du vertex primaire. Des études de performance de cet algorithme sont également présentées dans cette thèse. Afin de séparer le signal de l’important bruit de fond majoritairement constitué des processus multijets QCD et W+jets un réseau de neurones utilisant des variables dites d’environnement (aplanarité, HT, M(τ,jets), énergie transverse manquante...) a été développé. La section efficace a été extraite à l’aide d’un ajustement par méthode du maximum de vraisemblance de la sortie du réseau de neurones. Les incertitudes systématiques ont fait l’objet d’une étude détaillée. La valeur de la section efficace mesurée, σ(top-antitop) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, est en accord avec la section efficace prédite par le modèle standard. / In this thesis we present the first measurement in the CMS experiment of the top-antitop production cross section in the tau+jets final state. To perform this measurement we designed a specific trigger requiring the presence of four jets, one of them being identified as an hadronic tau. The performance of this trigger has been studied in this thesis. A dataset of 3.9 fb-1 was collected with this trigger and analyzed. At offline level we needed to apply a sophisticated tau identification technique to identify the tau jets, based on the reconstruction of the intermediate resonances of the hadronic tau decay modes. Another crucial point was the b-jet identification, both to identify the b-jets in the final state and to modelize the background using a data driven technique. The studies done on the b-tag algorithms along the PhD period are also presented with particular attention to the ”Jet Probability” algorithm. It is the algorithm for which I performed the calibration since 2009 as well as the one used to tag the b-jets from the top decays. A neural network has been developed to separate the top-antitop events from the W+jets and multijet backgrounds. A binned likelihood fit to the neural network output distribution is done in order to extract the signal contribution from the background. A detailed estimation of the systematic uncertainties on the cross section measurement is also presented. The result for the cross section measurement, σ(tt) = 156 ± 12 (stat.) ± 33 (syst.) ± 3 (lumi) pb, is in perfect agreement with the standard model expectation.

Page generated in 0.0666 seconds