• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 13
  • 10
  • Tagged with
  • 109
  • 34
  • 27
  • 22
  • 15
  • 14
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Étalonnage au sol de l’instrument SIMBIO-SYS à bord de la mission ESA/BEPICOLOMBO / Ground calibration of the SIMBIO-SYS instrument for the ESA/BEPICOLOMBO mission

Rodriguez-Ferreira, Julian 26 January 2015 (has links)
La mission BepiColombo est une des pierres angulaires du programme scientifique de l'ESA. Elle permettra l'étude de la planète Mercure grâce à deux sondes mises en orbite autour de la planète. Une des deux sondes, Mercury Planetary Orbiter (MPO) développée par l'ESA, sera dédiée à l'étude de la surface et de l'intérieur de la planète. La mission est prévue pour un lancement en 2016 et une arrivée sur Mercure en janvier 2024. L’IAS est responsable de l’étalonnage de l'ensemble d'imageurs SIMBIO-SYS (Spectrometer and Imagers for MPO BepiColombo-Integrated Observatory SYStem) composé d’une caméra haute résolution (HRIC), d’une caméra stéréoscopique (STC) et d’un imageur hyperspectral visible et proche-infrarouge (VIHI). Ces instruments devraient profondément modifier nos connaissances de la composition et de la géomorphologie de la surface de Mercure. Ma thèse a consisté à participer à la définition et à la mise en place des caractéristiques et des fonctionnalités du dispositif expérimental d'étalonnage qui se compose principalement d’une cuve à vide contenant les instruments, d’un banc optique rassemblant les sources d'étalonnage et les éléments optiques qui reconstituent les conditions d'observation de Mercure, des interfaces mécaniques permettant le positionnement de l'expérience à l'intérieur de la cuve, des interfaces thermiques visant à explorer les températures de fonctionnement des différentes parties des expériences, des interfaces informatiques assurant la communication avec l'expérience et le pilotage du dispositif d'étalonnage en fonction des tests à réaliser. J’ai modélisés et validé expérimentalement certaines performances du dispositif. Enfin, j’ai défini en étroite collaboration avec les équipes italiennes co-responsables des trois instruments les différentes séquences d’étalonnage qui seront utilisées lors de l’étalonnage. / BepiColombo is one of the cornerstones of the scientific program of ESA. It will study the planet Mercury with two spacecrafts in orbit around the planet. One of the two spacecrafts, the Mercury Planetary Orbiter (MPO), will be dedicated to the study of the surface and interior of the planet. The mission is scheduled for launch in 2016 and arrival at Mercury in January 2024. IAS is responsible for the calibration of the imaging system SIMBIO-SYS (Spectrometers and Imagers for MPO BepiColombo Integrated Observatory-SYStem) which consists of a high-resolution camera (HRIC), a stereoscopic camera (STC) and a visible and near-infrared hyperspectral imager (VIHI). These instruments should deeply change our understanding of the composition and geomorphology of Mercury surface. My research subject allowed me to participate in all the activities concerning the definition, implementation and validation of the calibration facilities at the IAS. These facilities are divided into different sub-systems: a thermal vacuum chamber containing the instrument during all the calibration campaign that shall simulate the environmental conditions (temperature and pressure), an optical bench with optical components and radiometrically calibrated sources reproducing the observational conditions as it will be seen by the instrument once placed in Mercury’s orbit, mechanical interfaces allowing the positioning and guidance of the instrument when placed inside the vacuum chamber with the required precision and accuracy, thermal interfaces facilitating the thermal excursion of the detectors, software interfaces so as to automatize and control the entire system. I developed a radiometric model of the calibration system and instrument to refine the calibration sources. In parallel, I performed several measurements of some subsystems so as to validate the optical assembly and to improve its control. Finally as a result of a close collaboration with the three Italian scientific teams of the instrument, I elaborate the fully package of the calibration sequences and the detailed instrument configuration that will be used during the calibration campaign.
92

Large imaging surveys for cosmology: cosmic magnification and photometric calibration

Boucaud, Alexandre 27 September 2013 (has links) (PDF)
Ce travail de thèse se focalise sur l'usage de grands sondages pour extraire de l'information sur la cosmologie. Une photométrie de précision joue un rôle clé dans cette quête à travers la détermination de redshifts photométriques ainsi que la propagation des erreurs dans les résultats cosmologiques ; thème unissant les deux parties de cette thèse. Après une revue de la cosmologie et des mesures favorisant le modèle ΛCDM, ainsi qu'une description du Large Synoptic Survey Telescope (LSST), la première partie de ce travail se porte sur l'étude de la variation des principaux constituants de l'atmosphère sur la photométrie au sol, au niveau du site du LSST à Cerro Pachón, au Chili. Nous utilisons des données récentes sur l'ozone, la vapeur d'eau et les aérosols pour en construire une simulation de longue durée et estimer quantitativement l'influence des gradients spatiaux et temporels de ces constituants sur la procédure de la calibration du LSST. La deuxième partie de ce travail débute par une description théorique de l'effet de lentille gravitationnelle, avec un accent sur le lentillage faible. Après une comparaison des avantages et inconvénients inhérents aux mesures de cisaillement cosmique, nous explorons l'utilisation de l'amplification cosmique conjointement à la séparation tomographique en redshift permise par le LSST afin de contraindre les modèles. Nous trouvons que l'amplification cosmique, bien qu'affectée par le clustering intrinsèque, représente une sonde prometteuse du biais des galaxies et de l'énergie noire, complémentaire au cisaillement cosmique, et qui augmente la robustesse des contraintes cosmologiques provenant des mêmes relevés.
93

Contributions aux problèmes de l'étalonnage extrinsèque d'affichages semi-transparents pour la réalité augmentée et de la mise en correspondance dense d'images / Contributions to the problems of extrinsic calibration semitransparent displays for augmented reality and dense mapping images

Braux-Zin, Jim 26 September 2014 (has links)
La réalité augmentée consiste en l'insertion d'éléments virtuels dans une scène réelle, observée à travers un écran. Les systèmes de réalité augmentée peuvent prendre des formes différentes pour obtenir l'équilibre désiré entre trois critères : précision, latence et robustesse. On identifie trois composants principaux : localisation, reconstruction et affichage. Nous nous concentrons sur l'affichage et la reconstruction. Pour certaines applications, l'utilisateur ne peut être isolé de la réalité. Nous proposons un système sous forme de "tablette augmentée" avec un écran semi transparent, au prix d'un étalonnage adapté. Pour assurer l'alignement entre augmentations et réalité, il faut connaître les poses relatives de l'utilisateur et de la scène observée par rapport à l'écran. Deux dispositifs de localisation sont nécessaires et l'étalonnage consiste à calculer la pose de ces dispositifs par rapport à l'écran. Le protocole d'étalonnage est le suivant : l'utilisateur renseigne les projections apparentes dans l'écran de points de référence d'un objet 3D connu ; les poses recherchées minimisent la distance 2D entre ces projections et celles calculées par le système. Ce problème est non convexe et difficile à optimiser. Pour obtenir une estimation initiale, nous développons une méthode directe par l'étalonnage intrinsèque et extrinsèque de caméras virtuelles. Ces dernières sont définies par leurs centres optiques, confondus avec les positions de l'utilisateur, ainsi que leur plan focal, constitué par l'écran. Les projections saisies par l'utilisateur constituent alors les observations 2D des points de référence dans ces caméras virtuelles. Un raisonnement symétrique permet de considérer des caméras virtuelles centrées sur les points de référence de l'objet, "observant" les positions de l'utilisateur. Ces estimations initiales sont ensuite raffinées par ajustement de faisceaux. La reconstruction 3D est basée sur la triangulation de correspondances entre images. Ces correspondances peuvent être éparses lorsqu'elles sont établies par détection, description et association de primitives géométriques ou denses lorsqu'elles sont établies par minimisation d'une fonction de coût sur toute l'image. Un champ dense de correspondance est préférable car il permet une reconstruction de surface, utile notamment pour une gestion réaliste des occultations en réalité augmentée. Les méthodes d'estimation d'un tel champ sont basées sur une optimisation variationnelle, précise mais sensible aux minimums locaux et limitée à des images peu différentes. A l'opposé, l'emploi de descripteurs discriminants peut rendre les correspondances éparses très robustes. Nous proposons de combiner les avantages des deux approches par l'intégration d'un coût basé sur des correspondances éparses de primitives à une méthode d'estimation variationnelle dense. Cela permet d'empêcher l'optimisation de tomber dans un minimum local sans dégrader la précision. Notre terme basé correspondances éparses est adapté aux primitives à coordonnées non entières, et peut exploiter des correspondances de points ou de segments tout en filtrant implicitement les correspondances erronées. Nous proposons aussi une détection et gestion complète des occultations pour pouvoir mettre en correspondance des images éloignées. Nous avons adapté et généralisé une méthode locale de détection des auto-occultations. Notre méthode produit des résultats compétitifs avec l'état de l'art, tout en étant plus simple et plus rapide, pour les applications de flot optique 2D et de stéréo à large parallaxe. Nos contributions permettent d'appliquer les méthodes variationnelles à de nouvelles applications sans dégrader leur performance. Le faible couplage des modules permet une grande flexibilité et généricité. Cela nous permet de transposer notre méthode pour le recalage de surfaces déformables avec des résultats surpassant l'état de l'art, ouvrant de nouvelles perspectives. / Augmented reality is the process of inserting virtual elements into a real scene, observed through a screen. Augmented Reality systems can take different forms to get the desired balance between three criteria: accuracy, latency and robustness. Three main components can be identified: localization, reconstruction and display. The contributions of this thesis are focused on display and reconstruction. Most augmented reality systems use non-transparent screens as they are widely available. However, for critical applications such as surgery or driving assistance, the user cannot be ever isolated from reality. We answer this problem by proposing a new “augmented tablet” system with a semi-transparent screen. Such a system needs a suitable calibration scheme:to correctly align the displayed augmentations and reality, one need to know at every moment the poses of the user and the observed scene with regard to the screen. Two tracking devices (user and scene) are thus necessary, and the system calibration aims to compute the pose of those devices with regard to the screen. The calibration process set up in this thesis is as follows: the user indicates the apparent projections in the screen of reference points from a known 3D object ; then the poses to estimate should minimize the 2D on-screen distance between those projections and the ones computed by the system. This is a non-convex problem difficult to solve without a sane initialization. We develop a direct estimation method by computing the extrinsic parameters of virtual cameras. Those are defined by their optical centers which coincide with user positions, and their common focal plane consisting of the screen plane. The user-entered projections are then the 2D observations of the reference points in those virtual cameras. A symmetrical thinking allows one to define virtual cameras centered on the reference points, and “looking at” the user positions. Those initial estimations can then be refined with a bundle adjustment. Meanwhile, 3D reconstruction is based on the triangulation of matches between images. Those matches can be sparse when computed by detection and description of image features or dense when computed through the minimization of a cost function of the whole image. A dense correspondence field is better because it makes it possible to reconstruct a 3D surface, useful especially for realistic handling of occlusions for augmented reality. However, such a field is usually estimated thanks to variational methods, minimizing a convex cost function using local information. Those methods are accurate but subject to local minima, thus limited to small deformations. In contrast, sparse matches can be made very robust by using adequately discriminative descriptors. We propose to combine the advantages of those two approaches by adding a feature-based term into a dense variational method. It helps prevent the optimization from falling into local minima without degrading the end accuracy. Our feature-based term is suited to feature with non-integer coordinates and can handle point or line segment matches while implicitly filtering false matches. We also introduce comprehensive handling of occlusions so as to support large deformations. In particular, we have adapted and generalized a local method for detecting selfocclusions. Results on 2D optical flow and wide-baseline stereo disparity estimation are competitive with the state of the art, with a simpler and most of the time faster method. This proves that our contributions enables new applications of variational methods without degrading their accuracy. Moreover, the weak coupling between the components allows great flexibility and genericness. This is the reason we were able to also transpose the proposed method to the problem of non-rigid surface registration and outperforms the state of the art methods.
94

Prélude à l'analyse des données du détecteur Virgo: De l'étalonnage à la recherche de coalescences binaires

Beauville, Fabrice 18 July 2005 (has links) (PDF)
Le détecteur d'ondes gravitationnelles Virgo traverse actuellement sa phase de mise en route, ou commissionning , qui précède la recherche de sources astrophysiques, à laquelle il est destiné. Le travail décrit dans cette thèse s'est concentré sur la préparation de méthodes d'analyses des données, et sur leur application à des prises de données effectuées au cours de la progression du détecteur. Ces méthodes sont donc décrites ainsi que leur validation et les résultats obtenus sur les données.<br /><br />La première partie de cette analyse concerne la réponse du détecteur aux ondes gravitationnelles. D'abord, la procédure d'étalonnage consiste à mesurer cette réponse, pour en déduire la sensibilité du détecteur aux différentes fréquences ; elle a permis de suivre l'évolution de Virgo sur les deux dernières années. Elle est suivie de la reconstruction du signal gravitationnel, processus qui compense les effets de cette réponse sur les données et en soustrait certains bruits.<br /><br />La deuxième partie concerne la recherche de signaux de coalescences binaires dans les données reconstruites. La méthode étudiée est une implémentation alternative - recherche multi-bandes ou multi-band template analysis- de la méthode optimale, la mise en oeuvre de cette dernière étant limitée par les moyens de calculs. L'équivalence de cette implémentation alternative avec la méthode usuelle est vérifiée, grâce à des tests en simulation. La méthode est ensuite appliquée aux deux prises de données les plus récentes, avec le double objectif de se préparer aux futures recherches astrophysiques et de caractériser le fonctionnement actuel du détecteur. La préparation des futures analyses en collaboration avec l'expérience LIGO est abordée enfin, sous la forme d'une première comparaison quantitative des chaînes d'analyses pour la recherche de coalescences binaires des deux expériences.
95

Étude de la sensibilité de H.E.S.S. 2 en dessous de 300 GeV et recherche indirecte de matière noire dans les données de H.E.S.S.

Masbou, Julien 29 September 2010 (has links) (PDF)
Le système de télescopes H.E.S.S. (High Energy Stereoscopic System) est une expérience constituée de quatre imageurs Cherenkov atmosphériques destinés à observer les rayons gamma de plus de 100 GeV et jusqu'à quelques dizaines de TeV. En 2012, une seconde phase de l'expérience consistera en l'ajout d'un cinquième télescope de 28 mètres de diamètre au centre du système existant. Au seuil de déclenchement de 15 GeV, les événements ne seront visibles que par ce grand télescope, une nouvelle méthode de reconstruction est proposée. A l'aide de plusieurs réseaux de neurones, l'énergie de gerbes électromagnétiques est bien reconstruite avec une discrimination du fond hadronique efficace à partir de 30 GeV. A basse énergie, la sensibilité totale permettra de détecter une source de quelques pourcent du Crabe en 50 heures. Cette méthode est testée sur les données de H.E.S.S. et s'avère compétitive ; une extension est présentée pour les événements stéréoscopiques. Les tests mis en place pour l'étalonnage des photomultiplicateurs sont présentés ainsi que les résultats obtenus. Un modèle de propagation de rayons cosmiques a été développé pour étudier l'émission du fond diffus gamma. Pour cela, il a fallu propager les protons et les noyaux hélium dans la galaxie et estimer le taux de pions neutres issus des interactions avec le milieu. La méthode de génération des cartes est décrite jusqu'à leur établissement. Dans le cas de H.E.S.S., j'ai estimé les sensibilités pour les comparer aux flux prédits par la modélisation. La galaxie naine sphéroïdale du Sagittaire a été étudiée comme source présumée de matière noire. Pour cela, les données ont été réparties en angles zénithaux similaires pour étudier l'effet du seuil de l'analyse dans les observations en utilisant les analyses les plus performantes de la collaboration H.E.S.S. Les sensibilités de détection ont été améliorées. Aucun excès d'événements notable n'a été observé.
96

Etude du comportement mécanique de micropieux modèles en chambre d'étalonnage. Application aux effets de groupe

Francis, Roméo 27 October 1997 (has links) (PDF)
Ce travail de recherche s'inscrit dans le cadre de l'étude du comportement mécanique des micropieux, avec application aux effets de groupe. Il s'appuie sur la réalisation d'essais de chargement de micropieux modèles en chambre d'étalonnage, en vue de quantifier les interactions entre modèles lorsque ceux-ci sont disposés en groupes élémentaires, avec un entr'axe suffisamment faible. On met en particulier en évidence l'effet de paramètres tels que l'entr'axe, l'ordre d'installation des modèles, l'état de contrainte appliqué au massif sur le développement d'interactions entre les modèles et l'on en tire des conclusions préliminaires concernant des améliorations possibles aux méthodes de mise en place actuellement utilisées. Une approche des courbes de mobilisation du frottement latéral et de la résistance en pointe est aussi proposée et l'on s'intéresse finalement au cas des sollicitations cycliques, avec application à un programme de stabilité cyclique.
97

Localisation et modélisation tridimensionnelles par approximations successives du modèle perspectif de caméra

Christy, Stéphane 17 August 1998 (has links) (PDF)
Dans le cadre de cette thèse, nous proposons un algorithme générique permettant de résoudre le problème de calcul de pose et le problème de reconstruction avec un modèle perspectif de caméra. Étant donnés une image et un modèle 3D de la scène (ou objet) visible dans l'image, le calcul de pose consiste à calculer la position et l'orientation de la caméra par rapport à la scène. Nous étudions successivement le cas de correspondances 2D 3D de points, et le cas des droites. La méthode proposée améliore de manière itérative la pose calculée avec un modèle affine de caméra (orthographique à l'échelle ou paraperspectif) pour converger, à la limite, vers une estimation de la pose calculée avec un modèle perspectif de caméra. Nous étudions les relations mathématiques et géométriques existant entre les modèles orthographique à l'échelle, paraperspectif et perspectif de caméra. Nous introduisons une façon simple de prendre en compte la contrainte d'orthogonalité associée à une matrice de rotation. Nous analysons la sensibilité de la méthode par rapport aux erreurs d'étalonnage de la caméra et nous définissons les conditions expérimentales optimales par rapport à un étalonnage imprécis. Nous étudions la convergence de la méthode sur la base de considérations numériques et expérimentales et nous testons son efficacité avec des données synthétiques et réelles. Dans un second temps, nous étendons les algorithmes de calcul de pose précédents au problème de la reconstruction euclidienne avec un modèle perspectif de caméra, à partir d'une séquence d'images. La méthode proposée converge en quelques itérations, est efficace du point de vue calculatoire, et ne souffre pas de la nature non linéaire du problème traité. Comparativement à des méthodes telles que la factorisation ou les invariants affines, notre méthode résout le problème de l'ambiguïté de signe d'une façon très simple et fournit des résultats bien plus précis. Nous décrivons la nouvelle méthode en détail, et comparons la complexité de la méthode proposée avec une méthode de minimisation non linéaire. Nous présentons ensuite une seconde approche du problème de reconstruction euclidienne en considérant un modèle affine de caméra non étalonnée montée sur le bras d'un robot. Nous montrons comment utiliser l'information euclidienne fournie par le déplacement du robot afin d'obtenir une reconstruction euclidienne, et expliquons comment obtenir l'étalonnage du modèle affine de caméra ainsi que l'étalonnage caméra-pince. Afin de pouvoir utiliser en pratique ces algorithmes de reconstruction, nous présentons une méthode de poursuite de points caractéristiques sur une séquence monoculaire d'images, puis sur une séquence stéréoscopique. Nous proposons également une méthode pour obtenir une précision sous-pixellique des positions des points dans les images pour un faible coût calculatoire.
98

Recherche d'évènements à deux quarks top de même charge avec le détecteur ATLAS. Etalonnage du calorimètre hadronique d’ATLAS avec un système laser / Search of events with two same-sign top quarks with the ATLAS detector. Calibration of the ATLAS hadronic calorimeter with a laser system

Dubreuil, Emmanuelle 17 October 2014 (has links)
Le Modèle Standard de la physique des particules permet de décrire le comportement des particules et leurs interactions. L’une d’elles, le quark top, est la particule élémentaire la plus lourde connue à ce jour. Cette propriété lui confère un rôle privilégié dans les théories dites de Nouvelle Physique, il pourrait se coupler préférentiellement aux nouvelles particules prédites par ces modèles.Cette thèse a été menée auprès du détecteur ATLAS installé au LHC. La première partie de ce travail a porté sur l’étalonnage du calorimètre hadronique, une partie du détecteur servant entre autres à mesurer l’énergie des hadrons produits lors des collisions. Ce calorimètre est étalonné grâce à un système laser, qui envoie des pulses de lumière dans les 9852 canaux du calorimètre. Cette étude a permis de corriger les canaux dont le gain dérive en appliquant des facteurs correctifs aux données. La deuxième partie de cette thèse a été consacrée à la recherche d’évènements à deux quarks top de même charge. La topologie avec deux leptons de même charge permet d’avoir une signature claire et présente peu de bruits de fond prédits par le Modèle Standard. Deux versions de l’analyse sont présentées : l’une avec une partie des données enregistrées par ATLAS en 2012, la deuxième plus optimisée avec le lot complet de données de 2012. Ces optimisations ont améliorées d’un facteur 3 la sensibilité sur le signal. N’ayant pas observé d’excès dans les données, une limite sur la section efficace de production d’évènements à deux quarks top de même charge a été calculée dans le cadre de deux modèles effectifs. / The Standard Model of particle physics is used to describe the behavior of the particles and their interactions. One of them, the top quark, is the heaviest elementary particle. This property gives it a favored role in the New Physics theories, it could interact preferentially with new particles predicted by these models.This thesis was performed using the ATLAS detector at LHC. The first part of this work was on the calibration of the ATLAS hadronic calorimeter, part of the detector which is used to measure the energy of the hadrons produced during the collisions. The hadronic calorimeter is calibrated with a laser system, which sends pulses to the 9852 calorimeter’s channels. With this study, drifting channels were corrected by applying correction factors on the data.The second part of this thesis was dedicated to the search of events with two same-sign top quarks. The topology with a same-sign dilepton pair is used to have a clear signature and show only a few Standard Model backgroud processes. Two versions of this analysis are discussed : one of them with a part of the data collected in 2012 and the other one, with a lot of optimizations and with the complete dataset of 2012. These optimizations permits to improve the sensitivity of the signal by a factor 3. Without any excess observed in the data events, it is possible to calculate a limit on the cross section of the same-sign top quarks pair and interpreted in the case of two effective models.
99

Etude du couplage du quark top au boson de Higgs dans l'expérience ATLAS / Evidence for the associated production of ttH with the ATLAS detector

Chomont, Arthur 29 September 2017 (has links)
La découverte du boson de Higgs au LHC en 2012 est la plus récente confirmation de la validité du modèle standard, théorie décrivant les particules élémentaires et leurs interactions fondamentales. De nombreuses études ont été mises en place pour étudier les différentes caractéristiques de cette particule récemment découverte. Ce travail se concentre sur la recherche du processus ttH dans l’expérience ATLAS, pour réaliser une première mesure directe du couplage de Yukawa du boson de Higgs au quark top, paramètre important dans les modèles de physique au-delà du modèle standard. La première partie de ce travail a porté sur l’automatisation de l’étalonnage du calorimètre hadronique à tuiles du détecteur ATLAS (TileCal ) par un système laser. Une description de ce système qui permet un étalonnage régulier de toutes les cellules du calorimètre est tout d’abord présentée. Ensuite, l’algorithme d’automatisation de ce processus d’étalonnage, qui a été écrit lors de ce travail, est décrit. Le but final de cet algorithme est de faciliter et accélérer la correction des canaux dont le gain dérive. Une deuxième partie concerne la recherche du processus ttH par l’étude des états finals multi-leptons et particulièrement avec deux leptons de même charge électrique et au moins 4 jets dont 1 étiqueté b. L’estimation des bruits de fond instrumentaux et le traitement statistique réalisé sont décrits en détail dans le document pour deux versions de l’analyse. Une première version correspondant aux données de l’année 2015 et du début 2016, soit une luminosité intégrée de 13.2f b −1 de données, aboutit à une précision insuffisante pour conclure sur la présence du processus ttH. Une deuxième version de l’analyse, optimisée avec l’utilisation d’analyses multivariées sur l’ensemble des données 2015 et 2016, se conclut par une observation du processus ttH lors de la combinaison de l’ensemble des états finals ttH. La signification statistique observée est alors de 4.2σ pour une signification statistique attendue de 3.8σ. Ce résultat est donc en accord avec la prédiction du modèle standard. / Discovery of Higgs boson at LHC in 2012 is the most recent confirmation of the validity of Standard Model, theory describing elementary particles and their interactions. Many analysis now target the extraction of properties of the newly-discovered particle. A direct measurement in the ATLAS experiment of the top Yukawa coupling, one of these properties, is targeted in this work through ttH process. This coupling is of particular interest because of its strong sensitivity to New Physics. The first part of the work is about the automation of the calibration of the hadronic tile calorimeter of the ATLAS detector. A detailed description of the laser system used for a regular calibration of the calorimeter is done as well as of the calibration itself. Then more details on the algorithm written for the automation of the calibration are given. The final goal of this algorithm is to ease and fasten the calibration of channels with gain variation. The second part is dedicated to the search for ttH process through multilepton final states with emphasis on final state with two same-sign leptons, at least four jets and at least 1 b-tagged jet. Estimation of reducible backgrounds and statistical treatment of the analysis are detailed. A first version of the analysis with 13.2f b −1 , corresponding to 2015 and mid-2016 LHC data, ends with a final precision too low to extract any conclusion on the tt̄H process. In a second version of the analysis, improvements are made using multivariate analysis and adding more signal regions. The results from the multilepton analysis is combined with results from other ttH analysis, targeting other Higgs decays, to attain a final observed sentivity of 4.2σ. Thus an evidence for ttH production can be claimed from this combination. The final results give good agreement with Standard Model prediction.
100

Perception visuelle pour les drones légers

Skowronski, Robin 03 November 2011 (has links)
Dans cette thèse, en collaboration avec l'entreprise AéroDRONES, le Laboratoire Bordelais de Recherche en Informatique et l'INRIA, nous abordons le problème de la perception de l'environnement à partir d'une caméra embarquée sur un drone léger. Nous avons conçu, développé et validé de nouvelles méthodes de traitement qui optimisent l'exploitation des données produites par des systèmes de prise de vue aéroportés bas coût. D'une part, nous présentons une méthode d'autocalibrage de la caméra et de la tourelle d'orientation, sans condition spécifique sur l'environnement observé. Ensuite nous proposons un nouvel algorithme pour extraire la rotation de la caméra calibrée entre deux images (gyroscope visuel) et l'appliquons à la stabilisation vidéo en temps réel. D'autre part, nous proposons une méthode de géoréférencement des images par fusion avec un fond cartographique existant. Cette méthode permet d'enrichir des bases de données de photos aériennes, en gérant les cas de non-planéité du terrain. / The last decade has seen the emergence of many Unmanned Aerial Vehicles (UAV) which are becoming increasingly cheap and miniaturized. A mounted video-camera is standard equipment and can be found on any such UAVs. In this context, we present robust techniques to enhance autonomy levels of airborne vision systems based on mini-UAV technologies. First, we present a camera autocalibration method based on central projection based image \dimension{2}-invariants analysis and we compare it to classical Dual Image of the Absolute Conic (DIAC) technique. We present also a method to detect and calibrate turret's effectors hierarchy. Then, we propose a new algorithm to extract a calibrated camera self-rotation (visual gyroscope) and we apply it to propose a real-time video stabilizer with full perspective correction.

Page generated in 0.0395 seconds