• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 39
  • 21
  • Tagged with
  • 157
  • 157
  • 71
  • 52
  • 40
  • 38
  • 34
  • 31
  • 30
  • 29
  • 28
  • 25
  • 25
  • 24
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Fusion of sonar and stereo images for underwater archeology / Fusion de données sonar et stéréoscopiques : application à l’archéologie sous-marine

Onmek, Yadpiroon 19 December 2017 (has links)
L’objectif de ce travail est de reconstruire en 3D des objets archéologiques en environnement sousmarin. Une méthode de fusion est proposée afin d’obtenir une carte 3D à partir de données sonar et du système de stéréovision sous marin.Le manuscrit est décomposé en deux parties principales : Dans une première partie, la reconstruction d’objets 3D est réalisée à partir d’un système utilisant une paire de caméras stéréoscopiques. La seconde partie utilise les données 3D de l’environnement sous marin à partir d’un sonar multifaisceaux. Ensuite, les deux informations sont mises en correspondance, données optiques et acoustiques, nécessitant de prendre en compte les différentes résolutions de ces deux capteurs.La première partie se concentre sur le système optique permettant la reconstruction 3D des objets avec la paire stéréoscopique. Le travail se fait à partir de la séquence vidéo enregistrée par des plongeurs dans des environnements dont la complexité est croissante (piscine, lac, mer). L’utilisation d’une mire de calibration sous marine permet la calibration de chaque caméra afin d’en exprimer le modèle interne, puis de déterminer les paramètres externes de rotation et de translation entre les deux caméras stéréoscopiques.La difficulté de ce travail est de construire une reconstruction 3D à partir de la séquence vidéo stéréoscopique et d’extraire les paires d’images permettant d’y parvenir.La recherche de points d’intérêts et leur mise en correspondance est réalisée en appliquant la méthode de RANSAC. La triangulation des informations pertinentes des images 2D vers le nuage de points 3D est réalisée à partir du modèle à projection centrale et l’estimation de la distance euclidienne. La texture et le rendu 3D sont ensuite obtenus par rétropropagation de ces informations dans les images 2D. La séquence temporelle des images permet une reconstruction 3D des points de l’objet en estimant les différentes transformations entre les paires d’image et en se basant sur une méthode type Structure From Motion.La seconde partie permet d’effectuer la fusion de ce modèle 3D avec la carte acoustique fournie par le sonar multifaisceaux. Afin de guider l’alignement des deux modèles, une initialisation manuelle est nécessaire, en sélectionnant des points d’intérêt sur les deux nuages de points. La mise en correspondance est finalisée par un algorithme d’Iterative Closest Points.Ce travail a permis la création d’une carte 3D multimodale utilisant un modèle 3D obtenu à partir d’une séquence vidéo et d’une carte acoustique. / The objective of this work is to create the 3D reconstruction of the archaeologicalobjects in underwater environment. The fusion technique is present, to obtainedthe 3D maps from the optical and acoustic systems. This work is divided intotwo main parts; First, we created the 3D reconstruction of the underwater scenesfrom the optic system by using the stereo cameras. Second, we created the 3Dinformaton of the underwater environment from the acoustic system by using themultibeam sonar. And we merge the two different types of map, i.e. from the opticand acoustic, which is all the more difficult for different task because of differentresolutions.The first part focus on the optical system used, to carry out the 3D reconstruc-tion by using the stereoscopic device. The underwater video and images sequencefor this work were acquired by divers in different underwater environment such asthe sea, the lake and the pool. First using a stereo camera to take a video of a cali-bration chessboard to calibrate the parameters of the camera, the intrinsic parame-ters are estimated for each camera, and then the external parameters are estimatedto determine the rotation matrix and translation vector of the stereo camera.The aims of this work is to create 3D reconstruction from multiple images.In each images pair,the features of interest are selected and matched across im-age pairs. An additional outlier removal step is performed based on the RANSACmethod. Triangulation of the inlier features from the 2D images space into a sparse3D points cloud is done by using a pinhole camera model and Euclidean distanceestimation. Then, the texture and rendering of the 3D stereo model are processed.The tempolral sequence of images is processed into a set of local 3D reconstructionwith estimate of coordinate transformation between temporally adjacent 3D localreconstruction by using the SFM method.The second part consists of fusing the 3D model obtained previously with theacoustic map. To align the two 3D models (optical model and acoustic model), we use a first approximate registration by selecting manually few points on each cloud.To increase the accuracy of this registration, we use analgorithm ICP (IterativeClosest Point).In this work we created a 3D underwatermultimodal map performedusingglobal 3D reconstruction model and an acousticglobal map.
52

Vision-based multi-sensor people detection system for heavy machines / Étude d'un système de détection multi-capteurs pour la détection de risques de collision : applications aux manoeuvres d'engins de chantier

Bui, Manh-Tuan 27 November 2014 (has links)
Ce travail de thèse a été réalisé dans le cadre de la coopération entre l’Université de Technologie de Compiègne (UTC) et le Centre Technique des Industries Mécaniques (CETIM). Nous présentons un système de détection de personnes pour l’aide à la conduite dans les engins de chantier. Une partie du travail a été dédiée à l’analyse du contexte de l’application, ce qui a permis de proposer un système de perception composé d’une caméra monoculaire fisheye et d’un Lidar. L’utilisation des caméras fisheye donne l’avantage d’un champ de vision très large avec en contrepartie, la nécessité de gérer les fortes distorsions dans l’étape de détection. A notre connaissance, il n’y a pas eu de recherches dédiées au problème de la détection de personnes dans les images fisheye. Pour cette raison, nous nous sommes concentrés sur l’étude et la quantification de l’impact des distorsions radiales sur l’apparence des personnes dans les images et nous avons proposé des approches adaptatives pour gérer ces spécificités. Nos propositions se sont inspirées de deux approches de l’état de l’art pour la détection des personnes : les histogrammes de gradient orientés (HOG) et le modèle des parties déformables (DPM). Tout d’abord, en enrichissant la base d’apprentissage avec des imagettes fisheye artificielles, nous avons pu montrer que les classificateurs peuvent prendre en compte les distorsions dans la phase d’apprentissage. Cependant, adapter les échantillons d’entrée, n’est pas la solution optimale pour traiter le problème de déformation de l’apparence des personnes dans les images. Nous avons alors décidé d’adapter l’approche de DPM pour prendre explicitement en compte le modèle de distorsions. Il est apparu que les modèles déformables peuvent être modifiés pour s’adapter aux fortes distorsions des images fisheye, mais ceci avec un coût de calculatoire supérieur. Dans cette thèse, nous présentons également une approche de fusion Lidar/camera fisheye. Une architecture de fusion séquentielle est utilisée et permet de réduire les fausses détections et le coût calculatoire de manière importante. Un jeu de données en environnement de chantier a été construit et différentes expériences ont été réalisées pour évaluer les performances du système. Les résultats sont prometteurs, à la fois en terme de vitesse de traitement et de performance de détection. / This thesis has been carried out in the framework of the cooperation between the Compiègne University of Technology (UTC) and the Technical Centre for Mechanical Industries (CETIM). In this work, we present a vision-based multi-sensors people detection system for safety on heavy machines. A perception system composed of a monocular fisheye camera and a Lidar is proposed. The use of fisheye cameras provides an advantage of a wide field-of-view but yields the problem of handling the strong distortions in the detection stage.To the best of our knowledge, no research works have been dedicated to people detection in fisheye images. For that reason, we focus on investigating and quantifying the strong radial distortions impacts on people appearance and proposing adaptive approaches to handle that specificity. Our propositions are inspired by the two state-of-the-art people detection approaches : the Histogram of Oriented Gradient (HOG) and the Deformable Parts Model (DPM). First, by enriching the training data set, we prove that the classifier can take into account the distortions. However, fitting the training samples to the model, is not the best solution to handle the deformation of people appearance. We then decided to adapt the DPM approach to handle properly the problem. It turned out that the deformable models can be modified to be even better adapted to the strong distortions of the fisheye images. Still, such approach has adrawback of the high computation cost and complexity. In this thesis, we also present a framework that allows the fusion of the Lidar modality to enhance the vision-based people detection algorithm. A sequential Lidar-based fusion architecture is used, which addresses directly the problem of reducing the false detections and computation cost in vision-based-only system. A heavy machine dataset have been also built and different experiments have been carried out to evaluate the performances of the system. The results are promising, both in term of processing speed and performances.
53

Capteurs intelligents : quelles méthodologies pour la fusion de données embarquées ? / Intelligent sensors : what methodologies for embedded data fusion?

Valade, Aurelien 18 May 2017 (has links)
Fruit d’un travail collaboratif entre le LAAS-CNRS de Toulouse et l’entreprise MEAS-France / TE Connectivity, ces travaux ont consisté en la mise en place d’une méthodologie permettant la réalisation de capteurs embarqués intelligents utilisant la fusion de données multi-physique pour estimer un paramètre en amoindrissant l’impact des variations environnementales.Nous explorons ici les méthodes liées à la modélisation et l’estimation de paramètres au travers des filtres de Kalman, pour les systèmes linéaires, et des filtres de Kalman étendus (EKF) et Unscented Kalman Filter pour les systèmes non-linéaires. Nous proposons ensuite des méthodes hybrides permettant d’obtenir le meilleur rapport charge de calculs/précision pour les systèmes présentant une évolution linéaire et une mesure non-linéaire.Après une étude de la complexité algorithmique des différentes solutions, nous proposons des méthodes permettant de diminuer la charge de calculs afin de satisfaire les contraintes temps-réel avec une faible puissance de calculs, telles que trouvées couramment dans les applications embarquées. La méthode développée est finalement appliquée sur deux cas applicatifs concrets : le capteur de qualité d’urée de la société MEAS-France/TE Connectivity et le capteur d’analyse du mouvement AREM développés au cours de la thèse au sein du LAAS-CNRS. / The work detailed in this document is the result of a collaborative effort of the LAAS-CNRS in Toulouse and MEAS-France / TE Connectivity during a period of three years.The goal here is to develop a methodology to design smart embedded sensors with the ability to estimate physical parameters based on multi-physical data fusion. This strategy tends to integrate sensors technologies, currently dedicated to lab measurements, in low powered embedded systems working in imperfects environments. After exploring model oriented methods, parameters estimations and Kalman filters, we detail various existing solutions upon which we can build a valid response to multi-physical data fusion problematics, for linear systems with the Kalman Filter, and for non-linear systems with the Extended Kalman Filter and the Unscented Kalman Filter.Then, we will synthesize a filter for hybrid systems, having a linear evolution model and a non-linear measurement model. For example, using the best of the two worlds in order to obtain the best complexity/precision ratio. Once we selected the estimation method, we detail computing power and algorithm complexity problematics in order to find available optimizations we can use to assess the usability of our system in a low power environment. Then we present the developed methodology application to the UQS sensor, sold by TE Connectivity, study case. This sensor uses near infra-red spectroscopy to determine the urea concentration in a urea/water solution, in order to control the nitrogen-oxyde depolluting process in gasoline engines. After a design principles presentation, we detail the model we created in order to represent the system, to simulate its behavior and to combine the measurement data to extract the desired concentration. During this step, we focus on the obstacles of our model calibration and the deviation compensation, due toworking conditions or to components aging process. Based on this development, we finally designed the hybrid models addressing the nominal working cases and the model re-calibration during the working duration of the product. After this, we presented obtained results, on simulated data, and on real-world measured data. Finally, we enhanced the methodology based on tabulated “black box” models which are easier to calibrate and cheaper to process. In conclusion, we reapplied our methodology to a different motion capture sensor, to compile all possible solutions and limits.
54

Cooperative perception : Application in the context of outdoor intelligent vehicle systems / Perception coopérative : application au contexte des systèmes de véhicules intelligents à l'extérieur

Li, Hao 21 September 2012 (has links)
Le thème de recherche de cette thèse est la perception coopérative multi-véhicules appliquée au contexte des systèmes de véhicules intelligents. L’objectif général des travaux présentés dans cette thèse est de réaliser la perception coopérative de plusieurs véhicules (dite « perception coopérative »), visant ainsi à fournir des résultats de perception améliorés par rapport à la perception d’un seul véhicule (ou « perception non-coopérative »). Au lieu de concentrer nos recherches sur la performance absolue de la perception coopérative, nous nous concentrons sur les mécanismes généraux qui permettent la réalisation de la localisation coopérative et de la cartographie de l’environnement routier (y compris la détection des objets), considérant que la localisation et la cartographie sont les deux tâches les plus fondamentales pour un système de véhicule intelligent. Nous avons également exploité la possibilité d’explorer les techniques de la réalité augmentée, combinées aux fonctionnalités de perception coopérative. Nous baptisons alors cette approche « réalité augmentée coopérative ». Par conséquent, nous pouvons d’ores et déjà annoncer trois contributions des travaux présentés: la localisation coopérative, la cartographie locale coopérative, et la réalité augmentée coopérative. / The research theme of this dissertation is the multiple-vehicles cooperative perception (or cooperative perception) applied in the context of intelligent vehicle systems. The general methodology of the presented works in this dissertation is to realize multiple-intelligent vehicles cooperative perception, which aims at providing better vehicle perception result compared with single vehicle perception (or non-cooperative perception). Instead of focusing our research works on the absolute performance of cooperative perception, we focus on the general mechanisms which enable the realization of cooperative localization and cooperative mapping (and moving objects detection), considering that localization and mapping are two underlying tasks for an intelligent vehicle system. We also exploit the possibility to realize certain augmented reality effect with the help of basic cooperative perception functionalities; we name this kind of practice as cooperative augmented reality. Naturally, the contributions of the presented works consist in three aspects: cooperative localization, cooperative local mapping and moving objects detection, and cooperative augmented reality.
55

Contribution à la modélisation des doigts longs et développement d’un protocole clinique d’évaluation de la mobilité de la main

Coupier, Jérôme 29 April 2016 (has links)
Ce travail de thèse investigue la cinématique des doigts longs par deux approches différentes et complémentaires ainsi que la faisabilité de la fusion entre celles-ci. La première approche comporte le développement complet d’un protocole d’évaluation fonctionnelle tridimensionnelle des doigts. Des mouvements continus sont étudiés de manière in vivo et la cinématique des cinq doigts est visualisée simultanément. La seconde approche consiste en l’application d’une méthodologie in vitro de modélisation des doigts afin de créer un modèle anatomiquement fidèle permettant d’apprécier la cinématique tridimensionnelle ainsi que différents paramètres biomécaniques des muscles mobilisant les doigts longs. Les deux approches sont finalement comparées et la faisabilité de leur couplage étudiée en vue d’une fusion des données issues de ces deux méthodologies. Les méthodes développées dans ce travail sont également considérées dans le cadre d’une utilisation clinique. La première partie de ce travail présente la méthodologie complète d’un protocole novateur d’évaluation de la cinématique des doigts in vivo. Plusieurs mouvements analytiques et fonctionnels des doigts ont été analysés sur un échantillon de vingt sujets sains. Les mouvements analytiques ont tout d’abord permis d’étudier le comportement physiologique des doigts mais également de constater des spécificités fonctionnelles de chacun. Les mouvements fonctionnels ont ensuite permis d’analyser la biomécanique des doigts lors de mouvements plus complexes. Les synergies intra- et inter-doigts ont été étudiées et les spécificités des muscles mobilisant les doigts sont discutées. Enfin, une base de données de sujets sains a été créée pour permettre de futures études incluant des sujets souffrant de pathologies de l’appareil neuro-musculo-squelettique de la main. Les limites mises en évidence ainsi que le rôle des muscles décrit dans cette première partie justifient l’emploi de la modélisation dans la suite de ce travail.La deuxième partie de ce travail apporte une contribution à la modélisation musculo-squelettique des doigts longs. Une nouvelle méthodologie de création de référentiels pour les segments des doigts longs est présentée et confrontée à une méthodologie faisant standard (recommandations de l’International Society of Biomechanics). Par ailleurs, le modèle développé sur base de données tomodensitométriques a permis d’étudier plusieurs paramètres de la cinématique par positions discrètes des doigts longs. Le modèle est apparu satisfaisant concernant la cinématique articulaire. Une méthodologie originale de modélisation des muscles extrinsèques des doigts est également présentée. Les résultats de l’étude des excursions tendineuses et des bras de levier musculaires ont permis de conclure que le modèle est pertinent pour l’étude de la cinématique articulaire des doigts longs et des paramètres musculaires présentés dans certaines limites. Le modèle musculo-squelettique décrit constitue une base pour de multiples améliorations futures dont certaines sont abordées dans ce travail. Afin de rendre le modèle le plus proche de la réalité, les données des deux premières parties du travail sont envisagées dans le cadre d’une fusion de données. La dernière partie de ce travail s’intéresse à la faisabilité de la fusion entre la méthodologie d’évaluation fonctionnelle de la cinématique des doigts in vivo et la modélisation musculo-squelettique des doigts longs. De nombreux paramètres cinématiques ont été comparés et les limitations identifiées ont été investiguées, dont notamment les artéfacts liés aux déplacements des tissus mous sur les segments osseux. Par ailleurs, les perspectives d’utilisation de ces deux méthodologies dans un environnement clinique sont également abordées. Dans sa globalité, ce travail apporte une contribution à la connaissance de la cinématique des doigts longs par deux approches différentes ainsi que par l’étude de la faisabilité de la fusion entre celles-ci. Les méthodologies présentées offrent de multiples possibilités. Les limitations inhérentes aux méthodologies employées dans ce travail sont étudiées et discutées. De multiples pistes de réflexion et d’études futures sont également présentées sur base des travaux décrits. La fusion des données abordée pourra dans les travaux futurs permettre de développer des outils pour l’analyse fonctionnelle des doigts dans des applications en recherche fondamentale ou en routine clinique. / Doctorat en Sciences biomédicales et pharmaceutiques (Médecine) / info:eu-repo/semantics/nonPublished
56

Imagerie multimodale et planification interactive pour la reconstruction 3D et la métrologie dimensionnelle / Multimodal imaging and interactive planning for 30 reconstruction and the dimensional metrology

Hannachi, Ammar 21 August 2015 (has links)
La fabrication de pièces manufacturées génère un nombre très important de données de différents types définissant les géométries de fabrication ainsi que la qualité de production. Ce travail de thèse s’inscrit dans le cadre de la réalisation d’un système de vision cognitif dédié à l’évaluation d’objets 3D manufacturés incluant éventuellement des surfaces gauches, en tenant compte des tolérances géométriques et des incertitudes. Ce système permet un contrôle exhaustif de pièces manufacturées et offre la possibilité d’une inspection tridimensionnelle automatique de la pièce. La mise en place d’un système de mesures multi-capteurs (passifs et actifs) a permis d’améliorer significativement la qualité d’évaluation par le biais d’une reconstruction tridimensionnelle enrichie de l’objet à évaluer. En particulier, nous avons employé simultanément un système stéréoscopique de vision et un système à projection de lumière structurée afin de reconstruire les contours et les surfaces de différents objets 3D. / Producing industrially manufactured parts generates a very large number of data of various types defining the manufacturing geometries as well as the quality of production. This PhD work has been carried out within the framework of the realization of a cognitive vision system dedicated to the 3D evaluation of manufactured objects including possibly free form surfaces, taking into account the geometric tolerances and uncertainties. This system allows the comprehensive control of manufactured parts, and provides the means for their automated 3D dimensional inspection. The implementation of a multi-sensor (passive and active) measuring system enabled to improve significantly the assessment quality through an enriched three-dimensional reconstruction of the object to be evaluated. Specifically, we made use simultaneously of a stereoscopic vision system and of a structured light based system in order to reconstruct the edges and surfaces of various 3D objects.
57

Cartographie de paramètres forestiers par fusion évidentielle de données géospatiales multi-sources application aux peuplements forestiers en régénération et feuillus matures du Sud du Québec

Mora, Brice January 2009 (has links)
Foresters are faced with difficulties to obtain sub-polygon information with the mapping methods available nowadays. The main objective of this work consisted in the development of new methods able to improve the map accuracy of regenerating forest stands and mature forest stands in the South of Québec, Canada. The Dempster-Shafer Theory (DST) and the Dezert-Smarandache Theory (DSmT) showed their ability to integrate multiple heterogenous data sources to go further than the classical classification procedures like the maximum likelihood or the spectral unmixing, in terms of map accuracy. Improvement on the ability to map regenerating stands, passed from 82.7% with the maximum likelihood method to 91.1% with the Free DSm model with a total transfer of the mass of the"Union" class to the"Intersection" class (+ 8.4%). For the mature stands, the improvement passed from 63.8% with the K nearest neighbour to 79.5% with the DST according to a classical belief structuration and the hybrid decision rule for which the conflict threshold was fixed at 10% (+ 15.7%). Our results with DST and a bayesian belief structuration showed the difficulty to model the uncertainty in the fusion process. This is probably due to the lack of scientific knowledge about the influence of the biophysical and climatic parameters on the mapped forest stands and to the necessity to model specifically the uncertainty for each source. Our work showed concrete improvement when mapping forest stands with DST which is encouraging to continue explorating the fundamental principle of the proposed hybrid decision rule. This means a particular focus on the difference between the fused masses of each potential class after the fusion, to choose the best hypothesis.
58

Calcul de trajectoires pour la préconisation de manoeuvres automobiles sur la base d'une perception multi-capteur : application à l'évitement de collision / Trajectory computing based on multisensor perception for automotive driving maneuver recommendation : the collision avoidance case

Houenou, Adam 09 December 2013 (has links)
Les systèmes d’aide à la conduite, en général, et plus particulièrement les systèmes d’aide à l’évitement de collision sont de plus en plus en présents dans les véhicules car ils ont un très fort potentiel de réduction du nombre d’accidents de la circulation.En effet, ces systèmes ont pour rôle d’assister le conducteur, voire de se substituer à lui lorsque la situation de conduite indique un risque de collision important. Cette thèse traite du développement de ces systèmes en abordant quelques problématiques rencontrées.Afin de réagir convenablement, le système a d’abord besoin d’une représentation aussi fidèle que possible de l’environnement du véhicule. La perception est faite au moyen de capteurs extéroceptifs qui permettent de détecter les objets et d’en mesurer divers paramètres selon leur principe de mesure. La fusion des données individuelles des capteurs permet d’obtenir une information globale plus juste, plus certaine et plus variée. Ce travail traite en profondeur des méthodes de suivi d’objets par fusion de données multi-capteur, multimodale au niveau piste. Les approches proposées ont été évaluées puis approuvées grâce à des données de roulage réel et sur des données de conduite simulées.Il est ensuite nécessaire de faire une analyse de la scène perçue au cours du temps afin d’évaluer le risque de collision encouru par le véhicule porteur du système. Cette thèse propose des méthodes de prédiction de trajectoire et de calcul de probabilité de collision, à divers horizons temporels afin de quantifier le risque de collision et d’établir ainsi divers niveaux d’alerte au conducteur. Un simulateur de scénarios automobiles a été utilisé pour valider la cohérence des méthodes d’analyse de scène.Enfin, lorsque le risque de collision atteint un seuil jugé critique, le système doit calculer une trajectoire d’évitement de collision qui sera ensuite automatiquement exécutée. Les principales approches de planification de trajectoires ont été revues et un choix a été fait et motivé en accord avec le contexte de système d’aide à la conduite. / Driver assistant systems in general, and specially collision avoidance systems are more and more installed in recent vehicles because of their high potential in reducing the number road accidents. Indeed, those systems are designed to assist the driver or even to take its place when the risk of collision is very important. This thesis deals with the main challenges in the development of collision avoidance systems. In order to react in a convenient way, the system must, first, build a faithful representation of the environment of the ego-vehicle. Perception is made by means of exteroceptive sensors that detect objects and measure different parameters, depending on their measurement principle. The fusion of individual sensor data allows obtaining a global knowledge that is more accurate, more certain and more varied. This research work makes a deep exploration of high level multisensor, multimodal, multitarget tracking methods. The proposed approaches are evaluated and validated on real driving data and also on simulated scenarios. Then, the observed scene is continuously analyzed in order to evaluate the risk of collision on the ego-vehicle. The thesis proposes methods of vehicle trajectory prediction and methods to calculate the probability of collision at different prediction times. This allows defining different levels of alert to the driver. an automotive scenarion simulator is used to test and validate the proposed scene analysis approaches. Finally, when the risk of collision reaches a defined critical value, the system must compute a collision avoidance trajectory that will be automatically followed. The main approaches of trajectory planning have been revisited et one has chosen according to the context of driver assistant system.
59

Fusion de données : approche evidentielle pour le tri des déchets / Data Fusion : an evidential approach for waste sorting

Lachaize, Marie 30 May 2018 (has links)
Le tri automatique des déchets est un sujetcomplexe en raison de la diversité des objets et desmatériaux présents. Il nécessite un apport de donnéesvariées et hétérogènes. Cette thèse traite du problème defusion de données découlant d’un dispositif de troiscapteurs dont une caméra hyperspectrale dans ledomaine NIR. Nous avons étudié l’avantage d’utiliser lecadre des fonctions de croyance (BFT) tout au long de ladémarche de fusion en utilisant notamment la mesure deconflit comme un critère clé de notre approche. Dans unepremière partie, nous avons étudié l'intérêt de la BFTpour la classification multiclasse des donnéeshyperspectrales à partir d’Error Correcting OutputCodes (ECOC) qui consistent à séparer le problèmemulticlasse en un ensemble de sous-problèmes binairesplus simples à résoudre. Les questions de commentidéalement séparer le problème multiclasse (codage)ainsi que celle de la combinaison des réponses de cesproblèmes binaires (décodage) sont encore aujourd’huides questions ouvertes. Le cadre des fonctions decroyance permet de proposer une étape de décodage quimodélise chaque classifieur binaire comme une sourceindividuelle d'information grâce notamment à lamanipulation des hypothèses composées. Par ailleurs laBFT fournit des indices pour détecter les décisions peufiables ce qui permet une auto-évaluation de la méthoderéalisée sans vérité terrain. Dans une deuxième partietraitant de la fusion de données, nous proposons unedémarche ‘orientée-objet’ composée d’un module desegmentation et d’un module de classification afin defaire face aux problèmes d’échelle, de différences derésolutions et de recalage des capteurs. L’objectif estalors d’estimer une segmentation où les segmentscoïncident avec les objets individuels et sont labellisés entermes de matériau. Nous proposons une interactionentre les modules à base de validation mutuelle. Ainsi,d’une part la fiabilité de la labellisation est évaluée auniveau des segments, d’autre part l’information declassification interagit sur les segments initiaux pour serapprocher d’une segmentation au niveau « objet » : leconsensus (ou l’absence de consensus) parmi lesinformations de classification au sein d’un segment ouentre segments connexes permet de faire évoluer lesupport spatial vers le niveau objet. / Automatic waste sorting is a complex matterbecause of the diversity of the objects and of the presentmaterials. It requires input from various andheterogeneous data. This PhD work deals with the datafusion problem derived from an acquisition devicecomposed of three sensors, including an hyperspectralsensor in the NIR field. We first studied the benefit ofusing the belief function theory framework (BFT)throughout the fusion approach, using in particularconflict measures to drive the process. We first studiedthe BFT in the multiclass classification problem createdby hyperspectral data. We used the Error CorrectingOutput Codes (ECOC) framework which consists inseparating the multiclass problem into several binaryones, simpler to solve. The questions of the idealdecomposition of the multiclass problem (coding) and ofthe answer combination coming from the binaryclassifiers (decoding) are still open-ended questions. Thebelief function framework allows us to propose adecoding step modelling each binary classifier as anindividual source of information, thanks to the possibilityof handling compound hypotheses. Besides, the BFTprovides indices to detect non reliable decisions whichallow for an auto-evaluation of the method performedwithout using any ground truth. In a second part dealingwith the data fusion,we propose an evidential version ofan object-based approach composed with a segmentationmodule and a classification module in order to tackle theproblems of the differences in scale, resolutions orregistrations of the sensors. The objective is then toestimate a relevant spatial support corresponding to theobjects while labelling them in terms of material. Weproposed an interactive approach with cooperationbetween the two modules in a cross-validation kind ofway. This way, the reliability of the labelling isevaluated at the segment level, while the classificationinformation acts on the initial segments in order toevolve towards an object level segmentation: consensusamong the classification information within a segment orbetween adjacent regions allow the spatial support toprogressively reach object level
60

Algorithmes de références 'robustes' pour la métrologie dimensionnelle des surfaces asphériques et des surfaces complexes en optique / Robust Reference Algorithms for form metrology : Application to aspherical and freeform optics

Arezki, Yassir 05 December 2019 (has links)
Les formes asphériques et les surfaces complexes sont une classe très avancée d'éléments optiques. Leur application a considérablement augmenté au cours des dernières années dans les systèmes d'imagerie, l'astronomie, la lithographie, etc. La métrologie de ces pièces est très difficile, en raison de la grande gamme dynamique d'information acquise et la traçabilité à l'unité SI mètre. Elle devrait faire usage de la norme infinie; (Méthode de zone minimum ou la méthode Min-Max) pour calculer l'enveloppe entourant les points dans le jeu de données en réduisant au minimum la différence entre l'écart maximum et l'écart minimal entre la surface et l'ensemble de données. Cette méthode a une grande complexité en fonction du nombre de points, enplus, les algorithmes impliqués sont non-déterministes. Bien que cette méthode fonctionne pour des géométries simples (lignes, plans, cercles, cylindres, cônes et sphères), elle est encore un défi majeur lorsqu' utilisée pour des géométries complexes (asphérique et surfaces complexes). Par conséquent, l'objectif de la thèse est le développement des algorithmes d'ajustement Min-Max pour les deux surfaces asphériques et complexes, afin de fournir des algorithmes de référence robustes pour la grande communauté impliquée dans ce domaine. Les algorithmes de référence à développer devraient être évalués et validés sur plusieurs données de référence (Softgauges) qui seront générées par la suite. / Aspheres and freeform surfaces are a very challenging class of optical elements. Their application has grown considerably in the last few years in imaging systems, astronomy, lithography, etc. The metrology for aspheres is very challenging, because of the high dynamic range of the acquired information and the traceability to the SI unit meter. Metrology should make use of the infinite norm; (Minimum Zone Method or Min-Max method) to calculate the envelope enclosing the points in the dataset by minimizing the difference between the maximum deviation and the minimum deviation between the surface and the dataset. This method grows in complexity as the number of points in the dataset increases, and the involved algorithms are non-deterministic. Despite the fact that this method works for simple geometries (lines, planes, circles, cylinders, cones and spheres) it is still a major challenge when used on complex geometries (asphere and freeform surfaces). Therefore, the main objective is to address this key challenge about the development of Min-Max fitting algorithms for both aspherical and freeform surfaces as well as least squares fitting algorithms, in order to provide robust reference algorithms for the large community involved in this domain. The reference algorithms to be developed should be evaluated and validated on several reference data (softgauges) that will be generated using reference data generators.

Page generated in 0.071 seconds