• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 13
  • 10
  • Tagged with
  • 111
  • 34
  • 27
  • 22
  • 15
  • 14
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

L’étalonnage des instruments de mesure en physique expérimentale : le cas du télescope spatial James Webb

Calvi, Carlo 08 1900 (has links)
Philosophes et scientifiques ont souvent adopté la version orthodoxe de l’étalonnage qui consiste à normaliser un instrument en utilisant un phénomène connu. Le lien essentiel entre concepts théoriques et données empiriques, en philosophie de la mesure, a engendré la formulation de principes de coordination, synthétiques a priori, et révisables. La pensée opérationaliste a voulu limiter l’étendue des concepts aux opérations de mesure effectivement réalisables. La perspective cohérentiste en philosophie de la mesure a opéré une récupération de l’épistémologie coordinationniste et de l’opérationalisme, en s’appuyant sur un nombre minime de principes ontologiques. Les modèles d’un instrument impliquent un engagement à la séparation entre les théories idéalisées et les choses matérielles. Toutefois, philosophes et métrologues ont préconisé l’exigence d’un riche contenu théorique dans la modélisation des instruments de mesure. Selon d’autres contributions, le privilège épistémique de la mesure précède une théorie d’arrière-plan et sa robustesse réside dans le libre contact avec les données empiriques. De plus, le régime d’applicabilité d’une théorie dicte ses conditions aux limites, qui guident l’expérimentateur dans la conception d’instruments de mesure et fournissent le fondement de l’opérationnalisation du sens des termes théoriques. Je soutiens un pluralisme opérationnel, des opérations de mesure impliquant différents indicateurs physiques, accompagné d'un cohérentisme dynamique. Le programme d’étalonnage du télescope spatial James Webb est un cas significatif. Les observations des étoiles d’étalonnage par différents procédés sont utilisées pour calculer les facteurs qui convertissent une mesure en unités instrumentales en unités physiques. / Philosophers and scientists have often adopted the orthodox version of calibration which involves standardizing an instrument using a known phenomenon. The essential link between theoretical concepts and empirical data, in the philosophy of measurement, has generated the formulation of principles of coordination, synthetic a priori, and revisables. Operationalist thinking wanted to limit the scope of concepts to operations of measurement that are actually achievable. The coherentist perspective in the philosophy of measurement has operated a recovery of coordinationist epistemology and operationalism, relying on a minimal number of ontological principles. Models of an instrument involve a commitment to separation between idealized theories and material things. However, philosophers and metrologists have advocated the requirement of a rich theoretical content in the modeling of measuring instruments. According to other contributions, the epistemic privilege of measurement precedes a background theory and its robustness lies in the free contact with empirical data. Moreover, the applicability regime of a theory dictates its boundary conditions, which guide the experimenter in the design of measuring instruments and provide the basis for operationalizing the meaning of theoretical terms. I support operational pluralism, measurement operations involving different physical indicators, accompanied by dynamic coherentism. The James Webb Space Telescope calibration program is a significant case. Observations of calibration stars by various methods are used to calculate the factors that convert a measurement in instrumental units to physical units.
92

Conception d'un banc de calibration pour l'étalonnage de capteurs de frottement pariétal

Coulaud, Maxime 19 April 2018 (has links)
Ce mémoire de maîtrise présente le travail effectué pour concevoir et réaliser un canal hydrodynamique. Ce canal permettra un étalonnage rapide et précis de capteurs de frottement de type film chaud. Lors de ce projet, des simulations numériques ont été effectuées pour valider le rapport de forme et la longueur de développement du canal permettant d’atteindre un écoulement pleinement développé et bidimensionnel. Une étude structurelle et hydraulique du canal a ensuite permis de vérifier le respect du cahier des charges. Enfin, des mesures de vitesse dans la veine d’essai ont été effectuées à l’aide d’un système LDV. Les profils obtenus ont montré que l’écoulement peut être considéré pleinement développé et bidimensionnel dans cette zone. Cependant, quelques différences par rapport à la littérature et aux simulations numériques ont été détectées. L’étude de l’influence de certains paramètres a permis de déterminer des pistes d’amélioration pour une estimation plus précise du frottement. / This Master’s thesis presents the design of a hydraulic tunnel. The bench should allow calibrating wall shear stress hot-film probes easily and rapidly. During this project, 3D CFD simulations have been performed to find minimum aspect ratio and minimum length of development to reach 2D fully developed flow. Then, mechanical and hydraulic analyses have been carried out to determine if the design conforms to specifications. After manufacturing, velocity and pressure measurements have been performed respectively with a LDV system and differential pressure sensor. By comparing different velocity profiles, it has been confirmed that the flow in test section is 2D fully developed. However, some discrepancies with the literature and the CFD simulations have been detected. The study of some parameters allowed to determine possible causes for these differences and to propose future studies to improve wall shear stress estimation.
93

Étalonnage au sol de l’instrument SIMBIO-SYS à bord de la mission ESA/BEPICOLOMBO / Ground calibration of the SIMBIO-SYS instrument for the ESA/BEPICOLOMBO mission

Rodriguez-Ferreira, Julian 26 January 2015 (has links)
La mission BepiColombo est une des pierres angulaires du programme scientifique de l'ESA. Elle permettra l'étude de la planète Mercure grâce à deux sondes mises en orbite autour de la planète. Une des deux sondes, Mercury Planetary Orbiter (MPO) développée par l'ESA, sera dédiée à l'étude de la surface et de l'intérieur de la planète. La mission est prévue pour un lancement en 2016 et une arrivée sur Mercure en janvier 2024. L’IAS est responsable de l’étalonnage de l'ensemble d'imageurs SIMBIO-SYS (Spectrometer and Imagers for MPO BepiColombo-Integrated Observatory SYStem) composé d’une caméra haute résolution (HRIC), d’une caméra stéréoscopique (STC) et d’un imageur hyperspectral visible et proche-infrarouge (VIHI). Ces instruments devraient profondément modifier nos connaissances de la composition et de la géomorphologie de la surface de Mercure. Ma thèse a consisté à participer à la définition et à la mise en place des caractéristiques et des fonctionnalités du dispositif expérimental d'étalonnage qui se compose principalement d’une cuve à vide contenant les instruments, d’un banc optique rassemblant les sources d'étalonnage et les éléments optiques qui reconstituent les conditions d'observation de Mercure, des interfaces mécaniques permettant le positionnement de l'expérience à l'intérieur de la cuve, des interfaces thermiques visant à explorer les températures de fonctionnement des différentes parties des expériences, des interfaces informatiques assurant la communication avec l'expérience et le pilotage du dispositif d'étalonnage en fonction des tests à réaliser. J’ai modélisés et validé expérimentalement certaines performances du dispositif. Enfin, j’ai défini en étroite collaboration avec les équipes italiennes co-responsables des trois instruments les différentes séquences d’étalonnage qui seront utilisées lors de l’étalonnage. / BepiColombo is one of the cornerstones of the scientific program of ESA. It will study the planet Mercury with two spacecrafts in orbit around the planet. One of the two spacecrafts, the Mercury Planetary Orbiter (MPO), will be dedicated to the study of the surface and interior of the planet. The mission is scheduled for launch in 2016 and arrival at Mercury in January 2024. IAS is responsible for the calibration of the imaging system SIMBIO-SYS (Spectrometers and Imagers for MPO BepiColombo Integrated Observatory-SYStem) which consists of a high-resolution camera (HRIC), a stereoscopic camera (STC) and a visible and near-infrared hyperspectral imager (VIHI). These instruments should deeply change our understanding of the composition and geomorphology of Mercury surface. My research subject allowed me to participate in all the activities concerning the definition, implementation and validation of the calibration facilities at the IAS. These facilities are divided into different sub-systems: a thermal vacuum chamber containing the instrument during all the calibration campaign that shall simulate the environmental conditions (temperature and pressure), an optical bench with optical components and radiometrically calibrated sources reproducing the observational conditions as it will be seen by the instrument once placed in Mercury’s orbit, mechanical interfaces allowing the positioning and guidance of the instrument when placed inside the vacuum chamber with the required precision and accuracy, thermal interfaces facilitating the thermal excursion of the detectors, software interfaces so as to automatize and control the entire system. I developed a radiometric model of the calibration system and instrument to refine the calibration sources. In parallel, I performed several measurements of some subsystems so as to validate the optical assembly and to improve its control. Finally as a result of a close collaboration with the three Italian scientific teams of the instrument, I elaborate the fully package of the calibration sequences and the detailed instrument configuration that will be used during the calibration campaign.
94

Large imaging surveys for cosmology: cosmic magnification and photometric calibration

Boucaud, Alexandre 27 September 2013 (has links) (PDF)
Ce travail de thèse se focalise sur l'usage de grands sondages pour extraire de l'information sur la cosmologie. Une photométrie de précision joue un rôle clé dans cette quête à travers la détermination de redshifts photométriques ainsi que la propagation des erreurs dans les résultats cosmologiques ; thème unissant les deux parties de cette thèse. Après une revue de la cosmologie et des mesures favorisant le modèle ΛCDM, ainsi qu'une description du Large Synoptic Survey Telescope (LSST), la première partie de ce travail se porte sur l'étude de la variation des principaux constituants de l'atmosphère sur la photométrie au sol, au niveau du site du LSST à Cerro Pachón, au Chili. Nous utilisons des données récentes sur l'ozone, la vapeur d'eau et les aérosols pour en construire une simulation de longue durée et estimer quantitativement l'influence des gradients spatiaux et temporels de ces constituants sur la procédure de la calibration du LSST. La deuxième partie de ce travail débute par une description théorique de l'effet de lentille gravitationnelle, avec un accent sur le lentillage faible. Après une comparaison des avantages et inconvénients inhérents aux mesures de cisaillement cosmique, nous explorons l'utilisation de l'amplification cosmique conjointement à la séparation tomographique en redshift permise par le LSST afin de contraindre les modèles. Nous trouvons que l'amplification cosmique, bien qu'affectée par le clustering intrinsèque, représente une sonde prometteuse du biais des galaxies et de l'énergie noire, complémentaire au cisaillement cosmique, et qui augmente la robustesse des contraintes cosmologiques provenant des mêmes relevés.
95

Contributions aux problèmes de l'étalonnage extrinsèque d'affichages semi-transparents pour la réalité augmentée et de la mise en correspondance dense d'images / Contributions to the problems of extrinsic calibration semitransparent displays for augmented reality and dense mapping images

Braux-Zin, Jim 26 September 2014 (has links)
La réalité augmentée consiste en l'insertion d'éléments virtuels dans une scène réelle, observée à travers un écran. Les systèmes de réalité augmentée peuvent prendre des formes différentes pour obtenir l'équilibre désiré entre trois critères : précision, latence et robustesse. On identifie trois composants principaux : localisation, reconstruction et affichage. Nous nous concentrons sur l'affichage et la reconstruction. Pour certaines applications, l'utilisateur ne peut être isolé de la réalité. Nous proposons un système sous forme de "tablette augmentée" avec un écran semi transparent, au prix d'un étalonnage adapté. Pour assurer l'alignement entre augmentations et réalité, il faut connaître les poses relatives de l'utilisateur et de la scène observée par rapport à l'écran. Deux dispositifs de localisation sont nécessaires et l'étalonnage consiste à calculer la pose de ces dispositifs par rapport à l'écran. Le protocole d'étalonnage est le suivant : l'utilisateur renseigne les projections apparentes dans l'écran de points de référence d'un objet 3D connu ; les poses recherchées minimisent la distance 2D entre ces projections et celles calculées par le système. Ce problème est non convexe et difficile à optimiser. Pour obtenir une estimation initiale, nous développons une méthode directe par l'étalonnage intrinsèque et extrinsèque de caméras virtuelles. Ces dernières sont définies par leurs centres optiques, confondus avec les positions de l'utilisateur, ainsi que leur plan focal, constitué par l'écran. Les projections saisies par l'utilisateur constituent alors les observations 2D des points de référence dans ces caméras virtuelles. Un raisonnement symétrique permet de considérer des caméras virtuelles centrées sur les points de référence de l'objet, "observant" les positions de l'utilisateur. Ces estimations initiales sont ensuite raffinées par ajustement de faisceaux. La reconstruction 3D est basée sur la triangulation de correspondances entre images. Ces correspondances peuvent être éparses lorsqu'elles sont établies par détection, description et association de primitives géométriques ou denses lorsqu'elles sont établies par minimisation d'une fonction de coût sur toute l'image. Un champ dense de correspondance est préférable car il permet une reconstruction de surface, utile notamment pour une gestion réaliste des occultations en réalité augmentée. Les méthodes d'estimation d'un tel champ sont basées sur une optimisation variationnelle, précise mais sensible aux minimums locaux et limitée à des images peu différentes. A l'opposé, l'emploi de descripteurs discriminants peut rendre les correspondances éparses très robustes. Nous proposons de combiner les avantages des deux approches par l'intégration d'un coût basé sur des correspondances éparses de primitives à une méthode d'estimation variationnelle dense. Cela permet d'empêcher l'optimisation de tomber dans un minimum local sans dégrader la précision. Notre terme basé correspondances éparses est adapté aux primitives à coordonnées non entières, et peut exploiter des correspondances de points ou de segments tout en filtrant implicitement les correspondances erronées. Nous proposons aussi une détection et gestion complète des occultations pour pouvoir mettre en correspondance des images éloignées. Nous avons adapté et généralisé une méthode locale de détection des auto-occultations. Notre méthode produit des résultats compétitifs avec l'état de l'art, tout en étant plus simple et plus rapide, pour les applications de flot optique 2D et de stéréo à large parallaxe. Nos contributions permettent d'appliquer les méthodes variationnelles à de nouvelles applications sans dégrader leur performance. Le faible couplage des modules permet une grande flexibilité et généricité. Cela nous permet de transposer notre méthode pour le recalage de surfaces déformables avec des résultats surpassant l'état de l'art, ouvrant de nouvelles perspectives. / Augmented reality is the process of inserting virtual elements into a real scene, observed through a screen. Augmented Reality systems can take different forms to get the desired balance between three criteria: accuracy, latency and robustness. Three main components can be identified: localization, reconstruction and display. The contributions of this thesis are focused on display and reconstruction. Most augmented reality systems use non-transparent screens as they are widely available. However, for critical applications such as surgery or driving assistance, the user cannot be ever isolated from reality. We answer this problem by proposing a new “augmented tablet” system with a semi-transparent screen. Such a system needs a suitable calibration scheme:to correctly align the displayed augmentations and reality, one need to know at every moment the poses of the user and the observed scene with regard to the screen. Two tracking devices (user and scene) are thus necessary, and the system calibration aims to compute the pose of those devices with regard to the screen. The calibration process set up in this thesis is as follows: the user indicates the apparent projections in the screen of reference points from a known 3D object ; then the poses to estimate should minimize the 2D on-screen distance between those projections and the ones computed by the system. This is a non-convex problem difficult to solve without a sane initialization. We develop a direct estimation method by computing the extrinsic parameters of virtual cameras. Those are defined by their optical centers which coincide with user positions, and their common focal plane consisting of the screen plane. The user-entered projections are then the 2D observations of the reference points in those virtual cameras. A symmetrical thinking allows one to define virtual cameras centered on the reference points, and “looking at” the user positions. Those initial estimations can then be refined with a bundle adjustment. Meanwhile, 3D reconstruction is based on the triangulation of matches between images. Those matches can be sparse when computed by detection and description of image features or dense when computed through the minimization of a cost function of the whole image. A dense correspondence field is better because it makes it possible to reconstruct a 3D surface, useful especially for realistic handling of occlusions for augmented reality. However, such a field is usually estimated thanks to variational methods, minimizing a convex cost function using local information. Those methods are accurate but subject to local minima, thus limited to small deformations. In contrast, sparse matches can be made very robust by using adequately discriminative descriptors. We propose to combine the advantages of those two approaches by adding a feature-based term into a dense variational method. It helps prevent the optimization from falling into local minima without degrading the end accuracy. Our feature-based term is suited to feature with non-integer coordinates and can handle point or line segment matches while implicitly filtering false matches. We also introduce comprehensive handling of occlusions so as to support large deformations. In particular, we have adapted and generalized a local method for detecting selfocclusions. Results on 2D optical flow and wide-baseline stereo disparity estimation are competitive with the state of the art, with a simpler and most of the time faster method. This proves that our contributions enables new applications of variational methods without degrading their accuracy. Moreover, the weak coupling between the components allows great flexibility and genericness. This is the reason we were able to also transpose the proposed method to the problem of non-rigid surface registration and outperforms the state of the art methods.
96

Prélude à l'analyse des données du détecteur Virgo: De l'étalonnage à la recherche de coalescences binaires

Beauville, Fabrice 18 July 2005 (has links) (PDF)
Le détecteur d'ondes gravitationnelles Virgo traverse actuellement sa phase de mise en route, ou commissionning , qui précède la recherche de sources astrophysiques, à laquelle il est destiné. Le travail décrit dans cette thèse s'est concentré sur la préparation de méthodes d'analyses des données, et sur leur application à des prises de données effectuées au cours de la progression du détecteur. Ces méthodes sont donc décrites ainsi que leur validation et les résultats obtenus sur les données.<br /><br />La première partie de cette analyse concerne la réponse du détecteur aux ondes gravitationnelles. D'abord, la procédure d'étalonnage consiste à mesurer cette réponse, pour en déduire la sensibilité du détecteur aux différentes fréquences ; elle a permis de suivre l'évolution de Virgo sur les deux dernières années. Elle est suivie de la reconstruction du signal gravitationnel, processus qui compense les effets de cette réponse sur les données et en soustrait certains bruits.<br /><br />La deuxième partie concerne la recherche de signaux de coalescences binaires dans les données reconstruites. La méthode étudiée est une implémentation alternative - recherche multi-bandes ou multi-band template analysis- de la méthode optimale, la mise en oeuvre de cette dernière étant limitée par les moyens de calculs. L'équivalence de cette implémentation alternative avec la méthode usuelle est vérifiée, grâce à des tests en simulation. La méthode est ensuite appliquée aux deux prises de données les plus récentes, avec le double objectif de se préparer aux futures recherches astrophysiques et de caractériser le fonctionnement actuel du détecteur. La préparation des futures analyses en collaboration avec l'expérience LIGO est abordée enfin, sous la forme d'une première comparaison quantitative des chaînes d'analyses pour la recherche de coalescences binaires des deux expériences.
97

Étude de la sensibilité de H.E.S.S. 2 en dessous de 300 GeV et recherche indirecte de matière noire dans les données de H.E.S.S.

Masbou, Julien 29 September 2010 (has links) (PDF)
Le système de télescopes H.E.S.S. (High Energy Stereoscopic System) est une expérience constituée de quatre imageurs Cherenkov atmosphériques destinés à observer les rayons gamma de plus de 100 GeV et jusqu'à quelques dizaines de TeV. En 2012, une seconde phase de l'expérience consistera en l'ajout d'un cinquième télescope de 28 mètres de diamètre au centre du système existant. Au seuil de déclenchement de 15 GeV, les événements ne seront visibles que par ce grand télescope, une nouvelle méthode de reconstruction est proposée. A l'aide de plusieurs réseaux de neurones, l'énergie de gerbes électromagnétiques est bien reconstruite avec une discrimination du fond hadronique efficace à partir de 30 GeV. A basse énergie, la sensibilité totale permettra de détecter une source de quelques pourcent du Crabe en 50 heures. Cette méthode est testée sur les données de H.E.S.S. et s'avère compétitive ; une extension est présentée pour les événements stéréoscopiques. Les tests mis en place pour l'étalonnage des photomultiplicateurs sont présentés ainsi que les résultats obtenus. Un modèle de propagation de rayons cosmiques a été développé pour étudier l'émission du fond diffus gamma. Pour cela, il a fallu propager les protons et les noyaux hélium dans la galaxie et estimer le taux de pions neutres issus des interactions avec le milieu. La méthode de génération des cartes est décrite jusqu'à leur établissement. Dans le cas de H.E.S.S., j'ai estimé les sensibilités pour les comparer aux flux prédits par la modélisation. La galaxie naine sphéroïdale du Sagittaire a été étudiée comme source présumée de matière noire. Pour cela, les données ont été réparties en angles zénithaux similaires pour étudier l'effet du seuil de l'analyse dans les observations en utilisant les analyses les plus performantes de la collaboration H.E.S.S. Les sensibilités de détection ont été améliorées. Aucun excès d'événements notable n'a été observé.
98

Etude du comportement mécanique de micropieux modèles en chambre d'étalonnage. Application aux effets de groupe

Francis, Roméo 27 October 1997 (has links) (PDF)
Ce travail de recherche s'inscrit dans le cadre de l'étude du comportement mécanique des micropieux, avec application aux effets de groupe. Il s'appuie sur la réalisation d'essais de chargement de micropieux modèles en chambre d'étalonnage, en vue de quantifier les interactions entre modèles lorsque ceux-ci sont disposés en groupes élémentaires, avec un entr'axe suffisamment faible. On met en particulier en évidence l'effet de paramètres tels que l'entr'axe, l'ordre d'installation des modèles, l'état de contrainte appliqué au massif sur le développement d'interactions entre les modèles et l'on en tire des conclusions préliminaires concernant des améliorations possibles aux méthodes de mise en place actuellement utilisées. Une approche des courbes de mobilisation du frottement latéral et de la résistance en pointe est aussi proposée et l'on s'intéresse finalement au cas des sollicitations cycliques, avec application à un programme de stabilité cyclique.
99

Localisation et modélisation tridimensionnelles par approximations successives du modèle perspectif de caméra

Christy, Stéphane 17 August 1998 (has links) (PDF)
Dans le cadre de cette thèse, nous proposons un algorithme générique permettant de résoudre le problème de calcul de pose et le problème de reconstruction avec un modèle perspectif de caméra. Étant donnés une image et un modèle 3D de la scène (ou objet) visible dans l'image, le calcul de pose consiste à calculer la position et l'orientation de la caméra par rapport à la scène. Nous étudions successivement le cas de correspondances 2D 3D de points, et le cas des droites. La méthode proposée améliore de manière itérative la pose calculée avec un modèle affine de caméra (orthographique à l'échelle ou paraperspectif) pour converger, à la limite, vers une estimation de la pose calculée avec un modèle perspectif de caméra. Nous étudions les relations mathématiques et géométriques existant entre les modèles orthographique à l'échelle, paraperspectif et perspectif de caméra. Nous introduisons une façon simple de prendre en compte la contrainte d'orthogonalité associée à une matrice de rotation. Nous analysons la sensibilité de la méthode par rapport aux erreurs d'étalonnage de la caméra et nous définissons les conditions expérimentales optimales par rapport à un étalonnage imprécis. Nous étudions la convergence de la méthode sur la base de considérations numériques et expérimentales et nous testons son efficacité avec des données synthétiques et réelles. Dans un second temps, nous étendons les algorithmes de calcul de pose précédents au problème de la reconstruction euclidienne avec un modèle perspectif de caméra, à partir d'une séquence d'images. La méthode proposée converge en quelques itérations, est efficace du point de vue calculatoire, et ne souffre pas de la nature non linéaire du problème traité. Comparativement à des méthodes telles que la factorisation ou les invariants affines, notre méthode résout le problème de l'ambiguïté de signe d'une façon très simple et fournit des résultats bien plus précis. Nous décrivons la nouvelle méthode en détail, et comparons la complexité de la méthode proposée avec une méthode de minimisation non linéaire. Nous présentons ensuite une seconde approche du problème de reconstruction euclidienne en considérant un modèle affine de caméra non étalonnée montée sur le bras d'un robot. Nous montrons comment utiliser l'information euclidienne fournie par le déplacement du robot afin d'obtenir une reconstruction euclidienne, et expliquons comment obtenir l'étalonnage du modèle affine de caméra ainsi que l'étalonnage caméra-pince. Afin de pouvoir utiliser en pratique ces algorithmes de reconstruction, nous présentons une méthode de poursuite de points caractéristiques sur une séquence monoculaire d'images, puis sur une séquence stéréoscopique. Nous proposons également une méthode pour obtenir une précision sous-pixellique des positions des points dans les images pour un faible coût calculatoire.
100

Recherche d'évènements à deux quarks top de même charge avec le détecteur ATLAS. Etalonnage du calorimètre hadronique d’ATLAS avec un système laser / Search of events with two same-sign top quarks with the ATLAS detector. Calibration of the ATLAS hadronic calorimeter with a laser system

Dubreuil, Emmanuelle 17 October 2014 (has links)
Le Modèle Standard de la physique des particules permet de décrire le comportement des particules et leurs interactions. L’une d’elles, le quark top, est la particule élémentaire la plus lourde connue à ce jour. Cette propriété lui confère un rôle privilégié dans les théories dites de Nouvelle Physique, il pourrait se coupler préférentiellement aux nouvelles particules prédites par ces modèles.Cette thèse a été menée auprès du détecteur ATLAS installé au LHC. La première partie de ce travail a porté sur l’étalonnage du calorimètre hadronique, une partie du détecteur servant entre autres à mesurer l’énergie des hadrons produits lors des collisions. Ce calorimètre est étalonné grâce à un système laser, qui envoie des pulses de lumière dans les 9852 canaux du calorimètre. Cette étude a permis de corriger les canaux dont le gain dérive en appliquant des facteurs correctifs aux données. La deuxième partie de cette thèse a été consacrée à la recherche d’évènements à deux quarks top de même charge. La topologie avec deux leptons de même charge permet d’avoir une signature claire et présente peu de bruits de fond prédits par le Modèle Standard. Deux versions de l’analyse sont présentées : l’une avec une partie des données enregistrées par ATLAS en 2012, la deuxième plus optimisée avec le lot complet de données de 2012. Ces optimisations ont améliorées d’un facteur 3 la sensibilité sur le signal. N’ayant pas observé d’excès dans les données, une limite sur la section efficace de production d’évènements à deux quarks top de même charge a été calculée dans le cadre de deux modèles effectifs. / The Standard Model of particle physics is used to describe the behavior of the particles and their interactions. One of them, the top quark, is the heaviest elementary particle. This property gives it a favored role in the New Physics theories, it could interact preferentially with new particles predicted by these models.This thesis was performed using the ATLAS detector at LHC. The first part of this work was on the calibration of the ATLAS hadronic calorimeter, part of the detector which is used to measure the energy of the hadrons produced during the collisions. The hadronic calorimeter is calibrated with a laser system, which sends pulses to the 9852 calorimeter’s channels. With this study, drifting channels were corrected by applying correction factors on the data.The second part of this thesis was dedicated to the search of events with two same-sign top quarks. The topology with a same-sign dilepton pair is used to have a clear signature and show only a few Standard Model backgroud processes. Two versions of this analysis are discussed : one of them with a part of the data collected in 2012 and the other one, with a lot of optimizations and with the complete dataset of 2012. These optimizations permits to improve the sensitivity of the signal by a factor 3. Without any excess observed in the data events, it is possible to calculate a limit on the cross section of the same-sign top quarks pair and interpreted in the case of two effective models.

Page generated in 0.0406 seconds