• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 126
  • 44
  • 25
  • Tagged with
  • 194
  • 103
  • 46
  • 44
  • 39
  • 38
  • 30
  • 30
  • 29
  • 28
  • 25
  • 25
  • 24
  • 24
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Caractérisation des modules de détection de la caméra ECLAIRs pour la mission SVOM / Varacterizing the detection module paving the ECLAIRs camera for the SVOM gamma-ray buts mission

Nasser, Guillaume 29 September 2015 (has links)
Cette thèse s'inscrit dans le cadre de la mission Sino-française SVOM (Space-based multi-band Variable Object Monitor) dédiée à l'étude des sursauts gamma à l'horizon 2020. Ces explosions cosmologiques très intenses apparaissent aléatoirement sur le ciel comme des bouffées de photons très brèves (de quelques milli-secondes à quelques minutes). Ils sont engendrés par la formation catastrophique de trous noirs dans le cœur de certaines étoiles massives en effondrement gravitationnel ou par la coalescence de deux objets compacts et se caractérisent par de puissants jets ultra-relativistes orientés vers la Terre. SVOM permettra d'étudier la nature des progéniteurs, les mécanismes d'accélération des particules et les processus d'émission associés, la géométrie des jets et leurs compositions. Le satellite implémentera une charge utile multi-longueur d'onde dont le cœur sera la caméra grand-champ à masque codé, ECLAIRs, en charge de la détection et de la localisation des sursauts gamma entre 4 et 150 keV. Ma thèse a pour objectif de caractériser les performances scientifiques des modules de détection XRDPIX (i.e. un hybride de 8x4 détecteurs couplés à une électronique bas bruit) qui paveront le plan de détection, DPIX, de la caméra. Pour ce faire, je discute ma méthodologie pour caractériser les impacts des paramètres instrumentaux sur les performances des XRDPIX en me basant sur les résultats des nombreuses campagnes de tests que j'ai menées sur plusieurs modules au moyen d'un banc de test vide-thermique dédié et de sources radioactives. J'étudie la contribution des différentes sources de bruit en développant un modèle me permettant de contrôler la qualité du processus d'hybridation des détecteurs avec leur électronique de proximité. Je délimite la zone de fonctionnement optimale pour le vol des modules de détection en étudiant statistiquement l'impact des différents paramètres instrumentaux sur leur bruit et leur efficacité de comptage. Je mets en évidence l'apparition de comportements instables sur quelques voies dans certaines configurations. Je discute le protocole expérimental mis en place pour caractériser la nature de ces instabilités ainsi que les solutions envisagées. J'optimise les critères de sélection des détecteurs pour le modèle de vol à partir de mesures spectroscopiques et de courant de fuite effectuées sur une population de 12000 détecteurs. Finalement, je présente les résultats d'essais réalisés à l'accélérateur TANDEM pour caractériser l'impact des particules chargées (protons de 20 MeV et particules alpha de 30 MeV) sur la chaine électronique d'ECLAIRs. / Gamma-ray bursts (GRBs) are short and very intense flashes of X-/gamma-ray photons lasting from few milliseconds to hundreds of seconds appearing randomly over the sky. These cosmological events are thought to be due to the catastrophic formation of newly formed black holes following the collapse of some massive stars or after the coalescence of two compact objects and resulting in the launch of powerful ultra-relativistic jets orientated towards the Earth. The Sino-French mission SVOM (Space-based multi-band Variable Object Monitor) is dedicated to the study of these extreme and fascinating transient events and expected to be launched in 2020s. The satellite will implement a multi-wavelength science payload amongst which the core will be the large-field coded-mask camera ECLAIRs in charge of the detection and the localisation of GRBs in the 4-150 keV range. The ECLAIRs detection plane, DPIX, is made of 80x80 Schottky CdTe semi-conductor detectors and the front-end electronics. During my PhD, I mainly worked on the characterization of the scientific performance of the elementary detection modules called XRDPIX (i.e. a hybrid made of 8x4 detectors coupled with a low-noise ASIC) that will paved the DPIX. The main goal is then to derive the best suitable choice of the instrumental parameters in order to optimize the camera in-flight performance. In the manuscript, I discuss the methodology I used to explore the instrument parameter space. I describe the various testing protocoles that I created and the different tests that I performed using several XRDPIX modules in a thermal-vacuum chamber and irradiated with radioactive sources. I discuss in detail the results and the various observables that I used to define the optimal in-flight operating zone of the detection plane. I also study the contribution of the different noise sources coming from the detectors and the electronic chain with a model I designed in order to control the quality of the hybridization process. I also highlight evidence for instable behaviors of some XRDPIX channels. I describe the experiments performed in order to investigate their nature and I discuss the possible solutions to mitigate their impacts of the overall XRDPIX performance. Finally, I study the impact of particles on the ECLAIRs X/?-ray camera electronic chain.
42

Phenotyping wheat by combining ADEL-Wheat 4D structure model with proximal remote sensing measurements along the growth cycle / Phénotypage du blé en combinant le modèle de structure ADEL-Wheat 4D avec des mesures de télédétection proximale tout au long du cycle de croissance

Shouyang, Liu 08 December 2016 (has links)
La production agricole doit augmenter plus rapidement pour répondre à la demande alimentaire mondiale dans un avenir proche. Le phénotypage, c'est-à-dire la surveillance quantitative des variables de l'état des cultures et du fonctionnement quantitatif de la canopée, a été reconnu comme le goulot d'étranglement pour accélérer le progrès génétique et augmenter le rendement. Le phénotypage sur le terrain est obligatoire car il permet d'évaluer les génotypes dans des conditions naturelles de champ. Les progrès technologiques des capteurs, de la communication et de l'informatique favorisent le développement de systèmes de phénotypage à haut débit au cours de la dernière décennie. Toutefois, l'interprétation des mesures de phénotypage n' a fait l'objet que d'une attention limitée, ce qui a entraîné une sous-exploitation des potentiels des systèmes actuels. Cette thèse se concentre sur l'interprétation des mesures de phénotypage au champ sur les cultures de blé. Il comprend trois aspects complémentaires qui illustrent les potentiels du traitement d'image avancé, de l'inversion du modèle et de l'assimilation des données pour l'interprétation des mesures de phénotypage afin d'accéder à de nouveaux caractères ou d'améliorer la précision avec laquelle les caractères déjà accessibles ont été récupérés. Plusieurs plateformes (phénotypette, phénomobile, drones) et capteurs (caméras haute résolution RVB, LiDAR) ont été utilisés tout au long de cette étude. Les positions précises des plantes le long et à travers la rangée ont été décrites à partir d'images RVB haute résolution. Des modèles statistiques pour l'espacement des plantes le long du rang et la distance au centre du rang ont ensuite été proposés et calibrés. L'influence du profil de semis sur la fraction verte, facilement mesurable avec les techniques de phénotypage, a ensuite été évaluée. Le modèle statistique utilisé pour décrire la distribution de l'espacement des plantes le long de la rangée a été utilisé pour étudier la taille d'échantillonnage optimale et la méthode d'estimation de la densité des plantes. Enfin, une méthode a été mise au point pour estimer automatiquement la densité végétale à partir des images RVB haute résolution. Les résultats montrent une précision relativement élevée lorsque la résolution spatiale est suffisamment élevée et lorsque les observations sont effectuées avant que les plantes n'aient atteint trois stades de feuilles. Il est relativement facile d'obtenir une estimation précise du DG en utilisant des observations passives à un stade précoce. Toutefois, les performances se dégradent en cas de conditions DG élevées en raison du problème de saturation. L'utilisation du LiDAR avec sa capacité à apporter des informations sur la troisième dimension a été étudiée comme un moyen possible d'atténuer l'effet de saturation basé sur les régularités entre les couches supérieures et plus profondes de la canopée, comme décrit par le modèle ADEL_Wheat. Le LiDAR utilisé équipe la plate-forme de phénotypage phénomobile. Les résultats montrent une amélioration significative des performances lors de l'utilisation des observations LiDAR par rapport à l'estimation classique basée sur la fraction verte, assimilation de l'évolution temporelle des fractions vertes dans le modèle ADEL-Wheat. La surveillance de la dynamique de l'architecture de la canopée pour obtenir les premiers traits de vigueur de la culture est très recherchée par les sélectionneurs. Les résultats montrent que peu de paramètres du modèle ADEL-Wheat sont effectivement accessibles à partir de cette technique d'assimilation. De plus, il permet également d'estimer avec une bonne précision les propriétés émergentes de la canopée telles que le GAI et le nombre de tiges avec plus de 3 feuilles. Sur la base de ces résultats novateurs, des conclusions sont finalement tirées sur les limites de cette étude et sur les travaux futurs à entreprendre pour un phénotypage efficace sur le terrain à haut débit. / Crop production has to increase faster to meet the global food demand in the near future. Phenotyping, i.e. the monitoring crop state variables and canopy functioning quantitatively, was recognized as the bottleneck to accelerate genetic progress to increase the yield. Field phenotyping is mandatory since it allows evaluating the genotypes under natural field conditions. The technological advances of sensors, communication and computing foster the development of high-throughput phenotyping systems during the last decade. However, only limited attentions was paid in the interpretation of phenotyping measurements, leading to an under-exploitation of the potentials of current systems. This thesis focuses on advancing the interpretation of field phenotyping measurements over wheat crops. It includes three complementary aspects that illustrate the potentials of advanced image processing, model inversion and data assimilation for the interpretation of phenotyping measurements to access new traits or improve the accuracy with which already accessible traits have been retrieved. Several platforms (phenotypette, phenomobile, UAV) and sensors (RGB high resolution cameras, LiDAR) were used along this study.Characterization of the sowing pattern and density. The precise plant positions along and across the row was described from high resolution RGB images. Statistical models for the spacing of plants along the row and distance to the row center were then proposed and calibrated. The influence of the sowing pattern on the green fraction that can be easily measured with phenotyping techniques was then evaluated. The statistical model used to describe the distribution of plant spacing along the row was exploited to investigate the optimal sampling siz and method for plant density estimation. Finally, a method was developed to automatically estimate the plant density from the high resolution RGB images. Results show a relatively high accuracy when the spatial resolution is high enough and when observations are made before plants have reached 3 leaves stages.ADEL-Wheat model assisted Estimation of GAI from LiDAR measurements. It is relatively easy to achieve accurate GAI estimate using passive observations at early stages. However, the performances degrade for high GAI conditions due to the saturation problem. The use of LiDAR with its capacity to bring information on the third dimension was investigated as a possible way to alleviate the saturation effect based on the regularities between top and deeper canopy layers as described by the ADEL_Wheat model. The LiDAR used is equipping the phenomobile phenotyping platform. Focus was put on the stage of maximum GAI development when saturation effects are the largest. Results show a significant improvement of performances when using LiDAR observations as compared to classical green fraction based estimation.Assimilation of green fractions temporal evolution into ADEL-Wheat model. Monitoring the dynamics of canopy architecture to get early vigor traits of the crop is highly desired by breeders. The feasibility and interest of a phenotyping data assimilation approach was evaluated based on in silico experiments using the ADEL_Wheat model simulations. The green fraction observed from several view directions and dates is the variable that is assimilated. A sensitivity analysis was conducted to evaluate the effect of the number and spacing of the observation dates as well as the number of view directions used. Results show that few parameters of the ADEL-Wheat model are actually accessible from this assimilation technique. Further, it allows also estimating with a good accuracy emerging canopy properties such as the GAI and the number of stems with more than 3 leaves. Based on these innovative results, conclusions are finally drawn on the limits of this study and on the future work to undertake for efficient field high-throughput phenotyping
43

Robust, refined and selective matching for accurate camera pose estimation / Sélection et raffinement de mises en correspondance robustes pour l'estimation de pose précise de caméras

Liu, Zhe 13 April 2015 (has links)
Grâce aux progrès récents en photogrammétrie, il est désormais possible de reconstruire automatiquement un modèle d'une scène 3D à partir de photographies ou d'une vidéo. La reconstruction est réalisée en plusieurs étapes. Tout d'abord, on détecte des traits saillants (features) dans chaque image, souvent des points mais plus généralement des régions. Puis on cherche à les mettre en correspondance entre images. On utilise ensuite les traits communs à deux images pour déterminer la pose (positions et orientations) relative des images. Puis les poses sont mises dans un même repère global et la position des traits saillants dans l'espace est reconstruite (structure from motion). Enfin, un modèle 3D dense de la scène peut être estimé. La détection de traits saillants, leur appariement, ainsi que l'estimation de la position des caméras, jouent des rôles primordiaux dans la chaîne de reconstruction 3D. Des imprécisions ou des erreurs dans ces étapes ont un impact majeur sur la précision et la robustesse de la reconstruction de la scène entière. Dans cette thèse, nous nous intéressons à l'amélioration des méthodes pour établir la correspondance entre régions caractéristiques et pour les sélectionner lors de l'estimation des poses de caméras, afin de rendre les résultats de reconstruction plus robustes et plus précis. Nous introduisons tout d'abord une contrainte photométrique pour une paire de correspondances (VLD) au sein d'une même image, qui est plus fiable que les contraintes purement géométriques. Puis, nous proposons une méthode semi-locale (K-VLD) pour la mise en correspondance, basée sur cette contrainte photométrique. Nous démontrons que notre méthode est très robuste pour des scènes rigides, mais aussi non-rigides ou répétitives, et qu'elle permet d'améliorer la robustesse et la précision de méthodes d'estimation de poses, notamment basées sur RANSAC. Puis, pour améliorer l'estimation de la position des caméras, nous analysons la précision des reconstructions et des estimations de pose en fonction du nombre et de la qualité des correspondances. Nous en dérivons une formule expérimentale caractérisant la relation ``qualité contre quantité''. Sur cette base, nous proposons une méthode pour sélectionner un sous-ensemble des correspondances de meilleure qualité de façon à obtenir une très haute précision en estimation de poses. Nous cherchons aussi raffiner la précision de localisation des points en correspondance. Pour cela, nous développons une extension de la méthode de mise en correspondance aux moindres carrés (LSM) en introduisant un échantillonnage irrégulier et une exploration des échelles d'images. Nous montrons que le raffinement et la sélection de correspondances agissent indépendamment pour améliorer la reconstruction. Combinées, les deux méthodes produisent des résultats encore meilleurs / With the recent progress in photogrammetry, it is now possible to automatically reconstruct a model of a 3D scene from pictures or videos. The model is reconstructed in several stages. First, salient features (often points, but more generally regions) are detected in each image. Second, features that are common in images pairs are matched. Third, matched features are used to estimate the relative pose (position and orientation) of images. The global poses are then computed as well as the 3D location of these features (structure from motion). Finally, a dense 3D model can be estimated. The detection of salient features, their matching, as well as the estimation of camera poses play a crucial role in the reconstruction process. Inaccuracies or errors in these stages have a major impact on the accuracy and robustness of reconstruction for the entire scene. In this thesis, we propose better methods for feature matching and feature selection, which improve the robustness and accuracy of existing methods for camera position estimation. We first introduce a photometric pairwise constraint for feature matches (VLD), which is more reliable than geometric constraints. Then we propose a semi-local matching approach (K-VLD) using this photometric match constraint. We show that our method is very robust, not only for rigid scenes but also for non-rigid and repetitive scenes, which can improve the robustness and accuracy of pose estimation methods, such as based on RANSAC. To improve the accuracy in camera position estimation, we study the accuracy of reconstruction and pose estimation in function of the number and quality of matches. We experimentally derive a “quantity vs. quality” relation. Using this relation, we propose a method to select a subset of good matches to produce highly accurate pose estimations. We also aim at refining match position. For this, we propose an improvement of least square matching (LSM) using an irregular sampling grid and image scale exploration. We show that match refinement and match selection independently improve the reconstruction results, and when combined together, the results are further improved
44

Commande référencée vision pour drones à décollages et atterrissages verticaux / Visual Servoing for Vertical Take-Off and Landing Unmanned Aerial Vehicles

Plinval, Henry de 15 January 2014 (has links)
La miniaturisation des calculateurs a permis le développement des drones, engins volants capable de se déplacer de façon autonome et de rendre des services, comme se rendre clans des lieux peu accessibles ou remplacer l'homme dans des missions pénibles. Un enjeu essentiel dans ce cadre est celui de l'information qu'ils doivent utiliser pour se déplacer, et donc des capteurs à exploiter pour obtenir cette information. Or nombre de ces capteurs présentent des inconvénients (risques de brouillage ou de masquage en particulier). L'utilisation d'une caméra vidéo dans ce contexte offre une perspective intéressante. L'objet de cette thèse était l'étude de l'utilisation d'une telle caméra dans un contexte capteur minimaliste: essentiellement l'utilisation des données visuelles et inertielles. Elle a porté sur le développement de lois de commande offrant au système ainsi bouclé des propriétés de stabilité et de robustesse. En particulier, une des difficultés majeures abordées vient de la connaissance très limitée de l'environnement dans lequel le drone évolue. La thèse a tout d'abord étudié le problème de stabilisation du drone sous l'hypothèse de petits déplacements (hypothèse de linéarité). Dans un second temps, on a montré comment relâcher l'hypothèse de petits déplacements via la synthèse de commandes non linéaires. Le cas du suivi de trajectoire a ensuite été considéré, en s'appuyant sur la définition d'un cadre générique de mesure d'erreur de position par rapport à un point de référence inconnu. Enfin, la validation expérimentale de ces résultats a été entamée pendant la thèse, et a permis de valider bon nombre d'étapes et de défis associés à leur mise en œuvre en conditions réelles. La thèse se conclut par des perspectives pour poursuivre les travaux. / The computers miniaturization has paved the way for the conception of Unmanned Aerial vehicles - "UAVs"- that is: flying vehicles embedding computers to make them partially or fully automated for such missions as e.g. cluttered environments exploration or replacement of humanly piloted vehicles for hazardous or painful missions. A key challenge for the design of such vehicles is that of the information they need to find in order to move, and, thus, the sensors to be used in order to get such information. A number of such sensors have flaws (e.g. the risk of being jammed). In this context, the use of a videocamera offers interesting prospectives. The goal of this PhD work was to study the use of such a videocamera in a minimal sensors setting: essentially the use of visual and inertial data. The work has been focused on the development of control laws offering the closed loop system stability and robustness properties. In particular, one of the major difficulties we faced came from the limited knowledge of the UAV environment. First we have studied this question under a small displacements assumption (linearity assumption). A control law has been defined, which took performance criteria into account. Second, we have showed how the small displacements assumption could be given up through nonlinear control design. The case of a trajectory following has then been considered, with the use of a generic error vector modelling with respect to an unknown reference point. Finally, an experimental validation of this work has been started and helped validate a number of steps and challenges associated to real conditions experiments. The work was concluded with prospectives for future work.
45

Détection et suivi de personnes par vision omnidirectionnelle : approche 2D et 3D / Detection and tracking of persons by omnidirectional vision : 2D and 3D approaches

Boui, Marouane 14 May 2018 (has links)
Dans cette thèse, nous traiterons du problème de la détection et du suivi 3D de personnes dans des séquences d'images omnidirectionnelles, dans le but de réaliser des applications permettant l'estimation de pose 3D. Ceci nécessite, la mise en place d'un suivi stable et précis de la personne dans un environnement réel. Dans le cadre de cette étude, on utilisera une caméra catadioptrique composée d'un miroir sphérique et d'une caméra perspective. Ce type de capteur est couramment utilisé dans la vision par ordinateur et la robotique. Son principal avantage est son large champ de vision qui lui permet d'acquérir une vue à 360 degrés de la scène avec un seul capteur et en une seule image. Cependant, ce capteur va engendrer des distorsions importantes dans les images, ne permettant pas une application directe des méthodes classiquement utilisées en vision perspective. Cette thèse traite de deux approches de suivi développées durant cette thèse, qui permettent de tenir compte de ces distorsions. Elles illustrent le cheminement suivi par nos travaux, nous permettant de passer de la détection de personne à l'estimation 3D de sa pose. La première étape de nos travaux a consisté à mettre en place un algorithme de détection de personnes dans les images omnidirectionnelles. Nous avons proposé d'étendre l'approche conventionnelle pour la détection humaine en image perspective, basée sur l'Histogramme Orientés du Gradient (HOG), pour l'adapter à des images sphériques. Notre approche utilise les variétés riemanniennes afin d'adapter le calcul du gradient dans le cas des images omnidirectionnelles. Elle utilise aussi le gradient sphérique pour le cas les images sphériques afin de générer notre descripteur d'image omnidirectionnelle. Par la suite, nous nous sommes concentrés sur la mise en place d'un système de suivi 3D de personnes avec des caméras omnidirectionnelles. Nous avons fait le choix de faire du suivi 3D basé sur un modèle de la personne avec 30 degrés de liberté car nous nous sommes imposés comme contrainte l'utilisation d'une seule caméra catadioptrique. / In this thesis we will handle the problem of 3D people detection and tracking in omnidirectional images sequences, in order to realize applications allowing3D pose estimation, we investigate the problem of 3D people detection and tracking in omnidirectional images sequences. This requires a stable and accurate monitoring of the person in a real environment. In order to achieve this, we will use a catadioptric camera composed of a spherical mirror and a perspective camera. This type of sensor is commonly used in computer vision and robotics. Its main advantage is its wide field of vision, which allows it to acquire a 360-degree view of the scene with a single sensor and in a single image. However, this kind of sensor generally generates significant distortions in the images, not allowing a direct application of the methods conventionally used in perspective vision. Our thesis contains a description of two monitoring approaches that take into account these distortions. These methods show the progress of our work during these three years, allowing us to move from person detection to the 3Destimation of its pose. The first step of this work consisted in setting up a person detection algorithm in the omnidirectional images. We proposed to extend the conventional approach for human detection in perspective image, based on the Gradient-Oriented Histogram (HOG), in order to adjust it to spherical images. Our approach uses the Riemannian varieties to adapt the gradient calculation for omnidirectional images as well as the spherical gradient for spherical images to generate our omnidirectional image descriptor.
46

Spectroscopie à corrélation de fluorescence multi-confocale : développement et application à l'étude de la réponse cellulaire au choc thermique / Multi-confocal fluorescence correlation spectroscopy and its application to the study of the cellular response to heat shock

Kloster-Landsberg, Meike 01 October 2012 (has links)
Le noyau d'une cellule est hétérogène par sa structure et son activité et beaucoup de ses composants interagissent de façon dynamique. Lors de l'étude de processus cellulaires comme la réponse au stress thermique, des expériences classiques de spectroscopie de corrélation de fluorescence (FCS), qui sont habituellement limitées à un seul volume d'observation, n'apportent que des résultats partiels à cause des informations spatiales manquantes. Ce mémoire de thèse présente une nouvelle technique de FCS multi-confocale (mFCS) qui permet des mesures FCS simultanées à différents endroits d'une cellule. La technique est basée sur l'emploi d'un modulateur spatial de lumière pour la création de plusieurs volumes d'observations distincts et d'une caméra ``electron-multiplying'' CCD (EMCCD) pour la détection en parallèle. La résolution spatiale ainsi que la sensibilité du système mFCS sont proches de celles d'un système FCS classique et en utilisant un mode d'acquisition particulier une résolution temporelle de $14mu s$ a pu être atteinte. La technique mFCS est appliquée à l'étude de la réponse cellulaire au stress thermique en observant le facteur de transcription heat shock factor 1 (HSF1), qui est un régulateur clé de la réponse au stress thermique. Des mesures mFCS dans des cellules vivantes révèlent des changements dans la dynamique de HSF1 pendant le choc thermique. Ces changements concernent l'affinité ainsi que l'homogénéité spatiale des interactions avec l'ADN. En outre, nous avons également évalué les performances d'une caméra CMOS-SPAD et testé le dispositif en tant que capteur alternatif pour la mFCS en cellules vivantes. / The cell nucleus is heterogeneous in its structure and activity and many of its components are in dynamic interactions with each other. When investigating the cellular response to an external signal, such as heat shock, standard fluorescence correlation spectroscopy (FCS) experiments, which are limited to one observation volume, do only give partial results because of the missing spatial information. This work introduces a novel multi-confocal FCS (mFCS) technique that allows simultaneous FCS measurements in different locations within a cell. It is based on the use of a spatial light modulator (SLM) to create several distinct observation volumes at a time and an electron-multiplying charge coupled device (EMCCD) camera to perform parallel detection. The spatial resolution as well as the sensibility of the mFCS system are close to that of a classical FCS setup and using a special readout mode, a temporal resolution of $14mu s$ is reached. The mFCS technique is applied to study the cellular response to thermal stress by monitoring the transcription factor heat shock factor 1 (HSF1), which is a key regulator of the heat shock response. mFCS experiments in living cells reveal changes in the dynamics of HSF1 upon heat shock. These changes concern the affinity as well as the spatial homogeneity of its interactions with DNA. Additionally, the performance of a CMOS-SPAD camera, consisting of an array of single photon avalanche diodes, is evaluated and the device is tested as an alternative detector for mFCS in living cells.
47

Calibrage de caméra fisheye et estimation de la profondeur pour la navigation autonome

Brousseau, Pierre-André 08 1900 (has links)
Ce mémoire s’intéresse aux problématiques du calibrage de caméras grand angles et de l’estimation de la profondeur à partir d’une caméra unique, immobile ou en mouvement. Les travaux effectués se situent à l’intersection entre la vision 3D classique et les nouvelles méthodes par apprentissage profond dans le domaine de la navigation autonome. Ils visent à permettre la détection d’obstacles par un drone en mouvement muni d’une seule caméra à très grand angle de vue. D’abord, une nouvelle méthode de calibrage est proposée pour les caméras fisheyes à très grand angle de vue par calibrage planaire à correspondances denses obtenues par lumière structurée qui peuvent être modélisée par un ensemble de caméras génériques virtuelles centrales. Nous démontrons que cette approche permet de modéliser directement des caméras axiales, et validons sur des données synthétiques et réelles. Ensuite, une méthode est proposée pour estimer la profondeur à partir d’une seule image, à partir uniquement des indices de profondeurs forts, les jonctions en T. Nous démontrons que les méthodes par apprentissage profond sont susceptibles d’apprendre les biais de leurs ensembles de données et présentent des lacunes d’invariance. Finalement, nous proposons une méthode pour estimer la profondeur à partir d’une caméra en mouvement libre à 6 degrés de liberté. Ceci passe par le calibrage de la caméra fisheye sur le drone, l’odométrie visuelle et la résolution de la profondeur. Les méthodes proposées permettent la détection d’obstacle pour un drone. / This thesis focuses on the problems of calibrating wide-angle cameras and estimating depth from a single camera, stationary or in motion. The work carried out is at the intersection between traditional 3D vision and new deep learning methods in the field of autonomous navigation. They are designed to allow the detection of obstacles by a moving drone equipped with a single camera with a very wide field of view. First, a new calibration method is proposed for fisheye cameras with very large field of view by planar calibration with dense correspondences obtained by structured light that can be modelled by a set of central virtual generic cameras. We demonstrate that this approach allows direct modeling of axial cameras, and validate it on synthetic and real data. Then, a method is proposed to estimate the depth from a single image, using only the strong depth cues, the T-junctions. We demonstrate that deep learning methods are likely to learn from the biases of their data sets and have weaknesses to invariance. Finally, we propose a method to estimate the depth from a camera in free 6 DoF motion. This involves calibrating the fisheye camera on the drone, visual odometry and depth resolution. The proposed methods allow the detection of obstacles for a drone.
48

Vision stéréoscopique par ordinateur pour la détection et le suivi de cibles pour une application automobile

Morat, Julien 01 July 2008 (has links) (PDF)
La complexité croissante de l'environnement routier et le souci d'amélioration de la sécurité routière expliquent l'intérêt que porte les constructeurs automobiles aux travaux sur l'aide à la conduite. De nombreux systèmes équipent déjà les véhicules de la rue. Alors que la perception de l'état du véhicule (vitesse, position, etc.) est maîtrisée, celle de l'environnement reste une tache difficile. <br />Parmi tous les capteurs susceptibles de percevoir la complexité d'un environnement urbain, la stéréo-vision offre à la fois des performances intéressantes, une spectre d'applications très larges (détection de piéton, suivi de véhicules, détection de ligne blanches, etc.) et un prix compétitif. Pour ces raisons, Renault s'attache à identifier et résoudre les problèmes liés à l'implantation d'un tel système dans un véhicule de série, notamment pour une application de suivi de véhicules. <br />La première problématique à maîtriser concerne le calibrage du système <br />stéréoscopique. En effet, pour que le système puisse fournir une mesure, ses paramètres doivent être correctement estimés, y compris sous des conditions extrêmes (forte températures, chocs, vibrations, ...). Nous présentons donc une méthodologie d'évaluation permettant de répondre aux interrogations sur les dégradations de performances du système en fonction du calibrage.<br />Le deuxième problème concerne la détection des obstacles. La méthode mis au point utilise d'une originale les propriétés des rectifications. Le résultat est une segmentation de la route et des obstacles. <br />La dernière problématique concerne la calcul de vitesse des obstacles. Une grande majorité des approches de la littérature approxime la vitesse d'un obstacle à partir de ses positions successives. Lors de ce calcul, l'accumulation des incertitudes rendent cette estimation extrêmement bruitée. Notre approche combine efficacement les atouts de la stéréo-vision et du flux optique afin d'obtenir directement une mesure de vitesse 3-D robuste et précise.
49

Caractérisation spectrale et temporelle de l'émission X issue de l'interaction laser - agrégats

Bonté, Christophe 28 April 2006 (has links) (PDF)
Les agrégats de gaz rare constituent un état de la matière intermédiaire entre les cibles solides et les atomes en phase gazeuse. Il a été démontré que les agrégats irradiés sont sources d'ions, d'électrons, de neutrons énergétiques ainsi que de rayonnement allant du visible aux X durs. Cette source peut-être produite avec un taux de répétition élevé et a l'avantage de ne pas produire de débris, et de présenter une très forte conversion de l'énergie laser incidente. Nous nous intéressons au rayonnement X particulièrement, en le caractérisant en intensité, spectre et durée, comme préalable à toute application. En collaboration avec l'INRS-Energie (Varenne, Canada), nous avons mis en œuvre une caméra à balayage de fente dont la résolution temporelle est de 800 fs rms. En focalisant des impulsions laser courtes (30 fs - 5 ps) et intenses (jusqu'à 1e17 W/cm2) sur des agrégats d'argon (15 - 30 nm), nous avons démontré que l'émission X dont l'énergie est supérieure à 2 keV est plus courte que la résolution temporelle. En couplant la caméra à un cristal tronconique, nous nous sommes intéressés au rayonnement de couche K dans la gamme 2,9 - 3,2 keV. Nous avons démontré que ce rayonnement a une durée inférieure à la résolution temporelle, et que les raies étaient émises avec un écart temporel relatif inférieur à 1 ps. Une simulation basée sur un modèle nano-plasma et sur un code collisionnel-radiatif a été développée au CELIA. Les spectres X résolus en temps calculés reproduisent à la fois la brièveté d'émission du rayonnement X et les états de charge élevés observés.
50

CALAS, une caméra pour l'étude des grandes échelles de la surface solaire

Rondi, Sylvain 14 December 2006 (has links) (PDF)
L'objet du projet CALAS est l'étude de la supergranulation solaire, structure à grande échelle de la photosphère. L'origine de la supergranulation est encore controversée et nécessite des observations à très haute résolution spatiale sur un grand champ de vue. Le projet CALAS répond à ces exigences en proposant de concevoir une caméra rapide combinant grand champ et haute résolution, installée à la Lunette Jean Rösch, réfracteur de 50 cm de diamètre situé au Pic du Midi. Cette caméra utilise des capteurs CMOS (Complementary Metal Oxide Semi-conductor) dont les avantages sont notamment la rapidité de lecture, le coût réduit et de grands formats disponibles.<br />Nous avons conçu une chaîne d'acquisition complète, comprenant la caméra et son électronique de commande, une électronique de lecture couplée à un logiciel de prise de vues, et un système de stockage des données.<br />Le projet a également consisté à concevoir un banc optique sur deux voies permettant l'observation de la surface solaire en mode imagerie mais aussi en mode Doppler et magnétographie, par l'utilisation d'un filtre magnéto-optique. Le travail a également nécessité d'étudier l'intégration de CALAS au sein de la Lunette Jean Rösch, en participant à la jouvence de cet instrument.<br />Enfin, au cours de ce projet, outre de nombreuses missions d'observation à la Lunette Jean Rösch, j'ai également été amené à participer à une campagne internationale d'observations coordonnées consacrée à l'étude des mouvements de la photosphère dans l'environnement de filaments. A l'issue de cette thèse, les premières observations à grand champ et haute résolution de la photosphère solaire ont été réalisées à la LJR, et leur excellente qualité se révèle déjà tout à fait prometteuse pour la suite de l'exploitation scientifique.

Page generated in 0.3399 seconds