• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 8
  • 1
  • Tagged with
  • 40
  • 40
  • 15
  • 12
  • 11
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Localisation précise et fiable de véhicules par approche multisensorielle / Accurate and reliable vehicle localization thanks to a multisensor approach

Aynaud, Claude 08 December 2015 (has links)
La localisation d’un véhicule est une étape cruciale dans le développement des véhicules intelligents. Les recherches sur ce sujet ont connu un grand essor ces dernières années. L’accent est souvent porté sur la précision de la localisation, nous présentons ici une méthode de localisation sur carte existante dont l’objectif est d’estimer la position du robot non seulement de façon précise mais également de manière fiable. Pour ce faire, l’algorithme développé se présente en deux étapes principales : une étape de sélection et de perception des informations les plus pertinentes et une étape de mise à jour de la position estimée et de la fiabilité, cette dernière étape permet également de détecter et réparer ou éliminer les précédentes erreurs. La perception de l’environnement est réalisée à travers différents capteurs associés à des détecteurs spécifiques. L’humain utilise aussi différents capteurs pour se localiser et va intuitivement sélectionner le plus performant, s’il fait jour il utilisera ses yeux, sinon son oreille ou le toucher. Nous avons développé une approche similaire pour le robot qui tient compte des contraintes environnementales et de l’estimation actuelle pour sélectionner à chaque instant l’ensemble capteur, indice de la scène et détecteur le plus pertinent. La phase de perception, étant pilotée par un processus Top-Down, peut bénéficier d’informations déjà connues permettant ainsi de se focaliser sur l’indice recherché et d’améliorer les phases de détection et d’associations de données. Cette approche Top-Down s’appuie sur un réseau bayésien. Ce dernier permet de modéliser les interactions entre les différents événements qui se produisent en gérant l’incertitude. Il permet une prise en compte facile des différents événements. Par ailleurs le réseau bayésien présente une grande flexibilité pour l’ajout d’événements supplémentaires pouvant engendrer des non-détections (tels que dysfonctionnement de capteurs, conditions météorologiques, etc.). Les données de l’environnement sont rendues disponibles grâce à une carte géoréférencée préalablement fournie. Avec le développement de cartes disponibles facilement sur internet, cette façon de faire permet d’exploiter au mieux l’information déjà fournie. L’utilisation d’une carte géoréférencée permet d’avoir un référentiel commun entre tous les véhicules ou éléments de l’infrastructure facilitant ainsi l’échange d’informations et ouvrant du coup la possibilité d’interaction simplifiées dans le cas de flottes par exemple. Les résultats montrent que l’approche développée est pertinente pour une localisation précise et fiable aussi bien statique que dynamique. L’ajout de nouveaux capteurs se fait naturellement et sans nécessiter d’heuristique particulière. La localisation obtenue est suffisamment précise et fiable pour permettre des applications de conduite autonome utilisant, entre autres, cet algorithme. / Vehicle localization is a crucial step in the development of smart vehicles. The research in this domain has been growing in recent years. Generally, the effort is focused on the localization accuracy, we present here a localization method on existing map where the objective is to estimate the robot position not only with accuracy but also with confidence. To achieve this , the algorithm developed has two main steps : one, selection and perception of the most relevant informations and two, position estimation and confidence update. This last step also allows to detect and eliminate the previous errors. Environment perception is well achieved, thanks to different sensors associated with specific detectors. Humans use different senses, shifting automatically in order to localize themselves depending on the situation of the environment, for e.g if there is enough illumination we depend on eyes, else the ear or the touch otherwise. We have developed a similar approach for the robot that takes into account the specific environmental constraints and actual position estimation to select at each instant the most relevant set of sensor, landmark and detector. The perception step, led by a top-down process, can use already known informations allowing a focus on the searched landmark and an improvement of the detection and data associations steps. This top-down approach is well implemented, thanks to a Bayesian network. Bayesian network allows to model the interactions between the different probable events with management of the uncertainty. With this network, it is very easy to take into account those different events. Moreover, a Bayesian network has a great flexibility to take into consideration additional events that can cause false detections (like sensor failure, meteorological conditions and others). The environment data is obtained with a Georeferenced map (from GIS). With the already available maps on the internet, allows to exploit an already existing information. The use of a Georeferenced map facilitates the communication of informations between a vehicle and several other vehicles or with an element of the infrastructure, that can be very useful for multi vehicle coordination, for example. The results shows that the developed approach is very accurate and reliable for localization, whether static or dynamic, and can be applied for autonomous driving. Moreover, new sensors can be added at ease.
32

Stratégie de perception active pour l'interprétation de scènes / Active Perception’s Strategy for scene’s interpretation

Bernay-Angeletti, Coralie 29 June 2016 (has links)
La perception est le moyen par lequel nous connaissons le monde extérieur. C’est grâce à nos perceptions que nous sommes capables d’interagir avec notre environnement et d’accomplir de nombreuses actions du quotidien comme se repérer, se déplacer, reconnaître des objets et autres. Cette perception n’est pas juste passive comme peut l’être une sensation, elle comporte des aspects actifs. En particulier, elle peut être orientée dans un but précis, permettant de filtrer les données pour ne traiter que les plus pertinentes. Si la perception humaine est particulièrement efficace, la perception artificielle, elle, demeure un problème complexe qui se heurte à de nombreuses difficultés. Ainsi, les changements de conditions de perception comme des modifications de l’illumination ou des occultations partielles de l’objet à percevoir doivent pouvoir être gérées efficacement. Pour résoudre ces difficultés, s’inspirer de la perception humaine semble être une piste intéressante. Ce manuscrit propose un système de perception polyvalent et générique reposant sur une stratégie de perception active. Pour ce faire, nous proposons un algorithme Top-Down utilisant un modèle en parties. Le problème de perception est transformé en un problème d’estimation d’un vecteur de caractéristiques. La détection des différentes parties permet de réaliser cette estimation. Le système de perception proposé est un algorithme itératif multi-capteurs. À chaque itération, il sélectionne au mieux, en fonction des objectifs fixés par l’application, la partie à détecter ainsi que les meilleurs capteur et détecteur compatibles. Un réseau bayésien est utilisé pour prendre en compte les événements incertains pouvant survenir lors de ce processus comme la défaillance d’un détecteur ou la non existence potentielle d’une partie donnée. Un processus de focalisation à la fois spatiale et de caractéristiques permet d’améliorer la détection en augmentant le rapport signal sur bruit, en restreignant la zone de recherche pour une partie et en éliminant certains des candidats trouvés. Ce processus de focalisation permet aussi de réduire les temps de calcul et de restreindre l’influence des distracteurs. L’ajout de nouveaux capteurs, détecteurs ou parties se fait simplement. De plus, l’utilisation d’un réseau bayésien permet une grande flexibilité au niveau de la modélisation des événements pris en compte : il est facile de rajouter de nouveaux événements pour obtenir une modélisation plus réaliste. L’algorithme proposé a été utilisé pour plusieurs applications incluant de la reconnaissance d’objets, de l’estimation fine de pose et de la localisation. / Perception is the way by which we know the outside world. Thanks to our perceptions we are able to interact with our environment and to achieve various everyday life actions as locating or moving in an environment, or recognizing objects. Perception is not passive whereas sensations are, it has active components. In particular, perception can be oriented for a specific purpose allowing to filter data and to take care only of the most relevant. If human perception is particularly effective, artificial perception remains a complex problem with a lot of non solved difficulties. For example, changes of perception conditions as modification of illumination or partial occultation of the searched object must be effectively managed. This thesis proposes a system of perception based on a strategy of active perception which can adapt itself to various applications. To do it, we propose an algorithm Top-Down using a part-based model. The problem of perception is transformed into a problem of estimation of a characteristics vector. The detection of the different parts constituting the searched object allows to realize this estimation. The proposed perceptive system is an iterative and multi-sensors algorithm. In every iteration, it selects, at best, according to the application objectives, the part to detect and the best compatible sensor and detector. A bayesian network is used to take into account uncertain events which can arise during this process as detector failure or potential non existing part. A focus process consisting of a spatial focus and of a characteristics focus, improves the detection by restricting the search area, by improving the signal to noise ratio and by eliminating some erroneous candidates. This focus process also allows to reduce computation time and to restrict influence of distractors. Adding a part, a sensor or a detector is simple. Furthermore, the use of a bayesian network allows to be flexible in the events modelisation : it is easy to add new events to obtain a more realistic modelisation. The proposed algorithm has been used for several applications including object’s recognition, fine pose estimation and localization. So, it is multi-purpose and generic.
33

Tolérance aux fautes pour la perception multi-capteurs : application à la localisation d'un véhicule intelligent / Fault tolerance for multi-sensor perception : application to the localization of an intelligent vehicle

Bader, Kaci 05 December 2014 (has links)
La perception est une entrée fondamentale des systèmes robotiques, en particulier pour la localisation, la navigation et l'interaction avec l'environnement. Or les données perçues par les systèmes robotiques sont souvent complexes et sujettes à des imprécisions importantes. Pour remédier à ces problèmes, l'approche multi-capteurs utilise soit plusieurs capteurs de même type pour exploiter leur redondance, soit des capteurs de types différents pour exploiter leur complémentarité afin de réduire les imprécisions et les incertitudes sur les capteurs. La validation de cette approche de fusion de données pose deux problèmes majeurs.Tout d'abord, le comportement des algorithmes de fusion est difficile à prédire,ce qui les rend difficilement vérifiables par des approches formelles. De plus, l'environnement ouvert des systèmes robotiques engendre un contexte d'exécution très large, ce qui rend les tests difficiles et coûteux. L'objet de ces travaux de thèse est de proposer une alternative à la validation en mettant en place des mécanismes de tolérance aux fautes : puisqu'il est difficile d'éliminer toutes les fautes du système de perception, on va chercher à limiter leurs impacts sur son fonctionnement. Nous avons étudié la tolérance aux fautes intrinsèquement permise par la fusion de données en analysant formellement les algorithmes de fusion de données, et nous avons proposé des mécanismes de détection et de rétablissement adaptés à la perception multi-capteurs. Nous avons ensuite implémenté les mécanismes proposés pour une application de localisation de véhicules en utilisant la fusion de données par filtrage de Kalman. Nous avons finalement évalué les mécanismes proposés en utilisant le rejeu de données réelles et la technique d'injection de fautes, et démontré leur efficacité face à des fautes matérielles et logicielles. / Perception is a fundamental input for robotic systems, particularly for positioning, navigation and interaction with the environment. But the data perceived by these systems are often complex and subject to significant imprecision. To overcome these problems, the multi-sensor approach uses either multiple sensors of the same type to exploit their redundancy or sensors of different types for exploiting their complementarity to reduce the sensors inaccuracies and uncertainties. The validation of the data fusion approach raises two major problems. First, the behavior of fusion algorithms is difficult to predict, which makes them difficult to verify by formal approaches. In addition, the open environment of robotic systems generates a very large execution context, which makes the tests difficult and costly. The purpose of this work is to propose an alternative to validation by developing fault tolerance mechanisms : since it is difficult to eliminate all the errors of the perceptual system, We will try to limit impact in their operation. We studied the inherently fault tolerance allowed by data fusion by formally analyzing the data fusion algorithms, and we have proposed detection and recovery mechanisms suitable for multi-sensor perception, we implemented the proposed mechanisms on vehicle localization application using Kalman filltering data fusion. We evaluated the proposed mechanims using the real data replay and fault injection technique.
34

Inspection dimensionnelle - Une approche multi-capteurs pour la vérification des spécifications géométriques / Dimensional inspection - Multi-sensor approach for geometrical specification verification

Sadaoui, Sif Eddine 09 July 2019 (has links)
L'inspection dimensionnelle, qui consiste à vérifier la conformité géométrique des pièces vis-à-vis des spécifications, est une étape essentielle dans le cycle de vie des produits. Elle s’appuie de plus en plus sur la mesure multi-capteurs qui permet un gain de temps certain. Néanmoins, le gain de temps n'a de sens que si la qualité des résultats respecte le besoin métrologique. En effet, la mise en œuvre combinée de capteurs de technologie et de caractéristiques différentes engendre un certain nombre de problèmes qui affectent directement la qualité de la mesure. Dans ce travail, une approche d'inspection automatique utilisant un scanner combinant un capteur à contact avec un capteur laser-plan monté sur une MMT est proposée. Cette approche cherche à utiliser au mieux les capacités de chacun des capteurs, en privilégiant la mesure avec le capteur laser-plan dès lors que la qualité requise est obtenue pour un gain de temps. L’approche consiste à définir une séquence d’opérations de mesure de surfaces qui portent des spécifications, appelées entités d’inspection.Partant d'un ensemble d'orientations du scanner, la séquence d'opérations est établie pour chaque orientation par évaluation de l'aptitude du capteur laser puis celle du palpeur à mesurer les surfaces avec la qualité nécessaire. La gamme d'inspection est complétée par la définition optimale de la trajectoire du capteur laser-plan et celle du palpeur pour chaque orientation. La trajectoire finale exécutée sur machine MMT est obtenue par transformation et assemblage des deux trajectoires. À l'issue de l'exécution, la mesure avec les deux capteurs conduit à deux nuages de points hétérogènes qu’il convient de traiter avant l’évaluation finale des spécifications. / Dimensional inspection, which consists in verifying the geometric conformity of parts in terms of specifications, is an essential step in the product life cycle. Recently, dimensional inspection has been increasingly based on multi-sensor measurement that allows a significant time saving. However, time saving is only meaningful if the quality of the results respects the metrological requirements. Indeed, the combined use of sensors of different technologies and characteristics generates issues that affect the measurement quality. In this work, an automatic inspection approach using a scanner combining a contact sensor with a laser-plane sensor mounted on a CMM is proposed. This approach aims to best use the abilities of each of the sensors, giving priority to measurement with the laser-plan sensor as soon as the required quality is obtained for time saving. The approach consists in defining a sequence of surface measurement operations that have specifications, called inspection features.Starting from a set of scanner orientations, the sequence of operations is established for each orientation by evaluating the ability of the laser sensor and then that of the probe to measure surfaces with the required quality. The inspection plan is completed by the optimal definition of the laser-plane sensor path and the probe path for each orientation. The final path executed on the CMM machine is obtained by transforming and assembling the two paths. At the end of the execution, the measurement with the two sensors leads to two heterogeneous point clouds that must be processed before the final evaluation of the specifications.
35

Surveillance multi-capteurs des opérations de perçage/fraisurage aéronautiques

Le Moal, Gwénolé 19 December 2012 (has links) (PDF)
L'assemblage de structures aéronautiques nécessite de nombreuses opérations de perçage et de fraisurage. Les deux problématiques principales concernant ces opérations sont que les alésages réalisés correspondent aux standards de qualité exigés, et que les outils coupants soient utilisés de manière optimale afin de réduire les coûts. Ces deux objectifs nécessitent l'implémentation d'une solution de surveillance en ligne des opérations de perçage. De nombreuses études ont été réalisées à ce sujet. Pourtant, une grande partie des méthodologies développées ont peu de chance de quitter les laboratoires au profit des sites de production industrielle en raison de leur difficulté d'implémentation et de leur manque de robustesse. L'utilisation de plusieurs capteurs, couplés à des techniques avancées de traitement de l'information a permis une meilleure appréhension de la complexité du procédé de perçage et une augmentation de la flexibilité des systèmes de surveillance. Cependant, la majorité des études ont été réalisées en laboratoire et dans des conditions favorables, et les problématiques relatives à la flexibilité des conditions opératoires, ou encore à la qualité des données issues des capteurs n'ont pas été abordées. Cette étude a pour but de démontrer les améliorations potentielles que peuvent apporter les développements récents concernant la modélisation et la fusion de connaissances imparfaites pour la surveillance robuste des opérations de perçage. Une approche sera proposée pour l'implémentation industrielle de systèmes de surveillance de procédés. La méthodologie proposée doit pouvoir être transposée à un champ d'application plus large incluant la plupart des procédés de fabrication automatisés.
36

Détection d'obstacles multi-capteurs supervisée par stéréovision

Perrollaz, Mathias 13 June 2008 (has links) (PDF)
Parmi les nouvelles technologies envisagées pour le développement d'aides à la conduite innovantes, la détection d'obstacles tient une place importante. Elle permet en effet d'anticiper d'éventuelles collisions, pour un gain réel en sécurité. Cette thèse propose d'aborder le thème de la détection d'obstacles par une approche multi-capteurs qui se veut robuste et générique, grâce au rôle central conféré à la stéréovision. Dans la méthodologie proposée, les différents capteurs (capteur stéréoscopique, télémètre laser, capteur d'identification optique) fournissent des hypothèses de détection sous la forme de volumes d'intérêt dans l'espace de disparité lié aux images stéréoscopiques. Un traitement localisé dans chacune de ces régions permet ensuite de valider et de caractériser ces hypothèses. Nous proposons dans cette thèse la description de cette méthodologie, trois méthodes de création d'hypothèses de détection et des critères pour la validation de celles-ci. Par ailleurs, des aspects pragmatiques liés à la mise en oeuvre de cette approche sont abordés, comme les choix algorithmiques permettant l'obtention en temps réel de données exploitables pour la stéréovision et l'évaluation des méthodes proposées. Enfin, nous présentons trois applications fonctionnant dans des véhicules expérimentaux et anticipant sur de futures aides à la conduite.
37

Méthodes conjointes de détection et suivi basé-modèle de cibles distribuées par filtrage non-linéaire dans les données lidar à balayage / Joint detection and model-based tracking methods of extended targets in scanning laser rangefinder data using non-linear filtering techniques

Fortin, Benoît 22 November 2013 (has links)
Dans les systèmes de perception multicapteurs, un point central concerne le suivi d'objets multiples. Dans mes travaux de thèse, le capteur principal est un télémètre laser à balayage qui perçoit des cibles étendues. Le problème desuivi multi-objets se décompose généralement en plusieurs étapes (détection, association et suivi) réalisées de manière séquentielle ou conjointe. Mes travaux ont permis de proposer des alternatives à ces méthodes en adoptant une approche "track-before-detect" sur cibles distribuées qui permet d'éviter la succession des traitements en proposant un cadre global de résolution de ce problème d'estimation. Dans une première partie, nous proposons une méthode de détection travaillant directement en coordonnées naturelles (polaires) qui exploite les propriétés d'invariance géométrique des objets suivis. Cette solution est ensuite intégrée dans le cadre des approches JPDA et PHD de suivi multicibles résolues grâce aux méthodes de Monte-Carlo séquentielles. La seconde partie du manuscrit vise à s'affranchir du détecteur pour proposer une méthode dans laquelle le modèle d'objet est directement intégré au processus de suivi. C'est sur ce point clé que les avancées ont été les plus significatives permettant d'aboutir à une méthode conjointe de détection et de suivi. Un processus d'agrégation a été développé afin de permettre une formalisation des données qui évite tout prétraitement sous-optimal. Nous avons finalement proposé un formalisme général pour les systèmes multicapteurs (multilidar, centrale inertielle, GPS). D'un point de vue applicatif, ces travaux ont été validés dans le domaine du suivi de véhicules pour les systèmes d'aide à la conduite. / In multi-sensor perception systems, an active topic concerns the multiple object tracking methodes. In this work, the main sensor is a scanning laser rangefinder perceiving extended targets. Tracking methods are generally composed of a three-step scheme (detection, association and tracking) which is jointly or sequentially implemented. This work proposes alternative solutions by considering a track-before-detect approach on extended targets. It avoids the classic procedures by proposing a global framework to solve this estimation problem. Firstly, we propose a detection method dealing with measurements in natural coordinates (polar) which is founded on geometrical invariance properties of the tracked objects. This solution is then integrated in the JPDA and PHD multi-target tracking frameworks solved with the sequential Monte-Carlo methods. The second part of this thesis aims at avoiding the detection step to propose an approach where the object model is directly embedded in the tracking process. This lets to build a novel joint detection and tracking approach. An aggregation process was developed to construct a measurement modeling avoiding any suboptimal preprocessing. We finally proposed a general framework for multi-sensor systems ( multiple lidar, inertial sensor, GPS). Theses methods were applied in the area of multiple vehicle tracking for the Advanced Driver Assistance Systems.
38

Fusion de données capteurs visuels et inertiels pour l'estimation de la pose d'un corps rigide / Rigid body pose estimation using fusion of inertial and visual sensor data

Seba, Ali 16 June 2015 (has links)
Cette thèse traite la problématique d'estimation de la pose (position relative et orientation) d'un corps rigide en mouvement dans l’espace 3D par fusion de données issues de capteurs inertiels et visuels. Les mesures inertielles sont fournies à partir d’une centrale inertielle composée de gyroscopes 3 axes et d’accéléromètres 3 axes. Les données visuelles sont issues d’une caméra. Celle-ci est positionnée sur le corps rigide en mouvement, elle fournit des images représentatives du champ visuel perçu. Ainsi, les mesures implicites des directions des lignes, supposées fixes dans l’espace de la scène, projetées sur le plan de l’image seront utilisées dans l’algorithme d’estimation de l’attitude. La démarche consistait d’abord à traiter le problème de la mesure issue du capteur visuel sur une longue séquence en utilisant les caractéristiques de l’image. Ainsi, un algorithme de suivi de lignes a été proposé en se basant sur les techniques de calcul du flux optique des points extraits des lignes à suivre et utilisant une approche de mise en correspondance par minimisation de la distance euclidienne. Par la suite, un observateur conçu dans l’espace SO(3) a été proposé afin d’estimer l’orientation relative du corps rigide dans la scène 3D en fusionnant les données issues de l’algorithme de suivi de lignes avec les données des gyroscopes. Le gain de l’observateur a été élaboré en utilisant un filtre de Kalman de type M.E.K.F. (Multiplicative Extended Kalman Filter). Le problème de l’ambigüité du signe dû à la mesure implicite des directions des lignes a été considéré dans la conception de cet observateur. Enfin, l’estimation de la position relative et de la vitesse absolue du corps rigide dans la scène 3D a été traitée. Deux observateurs ont été proposés : le premier est un observateur en cascade avec découplage entre l’estimation de l’attitude et l’estimation de la position. L’estimation issue de l’observateur d’attitude alimente un observateur non linéaire utilisant des mesures issues des accéléromètres afin de fournir une estimation de la position relative et de la vitesse absolue du corps rigide. Le deuxième observateur, conçu quant à lui directement dans SE(3) , utilise un filtre de Kalman de type M.E.K.F afin d’estimer la pose par fusion de données inertielles (accéléromètres, gyromètres) et des données visuelles. Les performances des méthodes proposées sont illustrées et validées par différents résultats de simulation / AbstractThis thesis addresses the problems of pose estimation of a rigid body moving in 3D space by fusing data from inertial and visual sensors. The inertial measurements are provided from an I.M.U. (Inertial Measurement Unit) composed by accelerometers and gyroscopes. Visual data are from cameras, which positioned on the moving object, provide images representative of the perceived visual field. Thus, the implicit measure directions of fixed lines in the space of the scene from their projections on the plane of the image will be used in the attitude estimation. The approach was first to address the problem of measuring visual sensors after a long sequence using the characteristics of the image. Thus, a line tracking algorithm has been proposed based on optical flow of the extracted points and line matching approach by minimizing the Euclidean distance. Thereafter, an observer in the SO(3) space has been proposed to estimate the relative orientation of the object in the 3D scene by merging the data from the proposed lines tracking algorithm with Gyro data. The observer gain was developed using a Kalman filter type M.E.K.F. (Multiplicative Extended Kalman Filter). The problem of ambiguity in the sign of the measurement directions of the lines was considered in the design of the observer. Finally, the estimation of the relative position and the absolute velocity of the rigid body in the 3D scene have been processed. Two observers were proposed: the first one is an observer cascaded with decoupled from the estimation of the attitude and position estimation. The estimation result of the attitude observer feeds a nonlinear observer using measurements from the accelerometers in order to provide an estimate of the relative position and the absolute velocity of the rigid body. The second observer, designed directly in SE (3) for simultaneously estimating the position and orientation of a rigid body in 3D scene by fusing inertial data (accelerometers, gyroscopes), and visual data using a Kalman filter (M.E.K.F.). The performance of the proposed methods are illustrated and validated by different simulation results
39

Méthodes conjointes de détection et suivi basé-modèle de cibles distribuées par filtrage non-linéaire dans les données lidar à balayage

Fortin, Benoît 22 November 2013 (has links) (PDF)
Dans les systèmes de perception multicapteurs, un point central concerne le suivi d'objets multiples. Dans mes travaux de thèse, le capteur principal est un télémètre laser à balayage qui perçoit des cibles étendues. Le problème desuivi multi-objets se décompose généralement en plusieurs étapes (détection, association et suivi) réalisées de manière séquentielle ou conjointe. Mes travaux ont permis de proposer des alternatives à ces méthodes en adoptant une approche "track-before-detect" sur cibles distribuées qui permet d'éviter la succession des traitements en proposant un cadre global de résolution de ce problème d'estimation. Dans une première partie, nous proposons une méthode de détection travaillant directement en coordonnées naturelles (polaires) qui exploite les propriétés d'invariance géométrique des objets suivis. Cette solution est ensuite intégrée dans le cadre des approches JPDA et PHD de suivi multicibles résolues grâce aux méthodes de Monte-Carlo séquentielles. La seconde partie du manuscrit vise à s'affranchir du détecteur pour proposer une méthode dans laquelle le modèle d'objet est directement intégré au processus de suivi. C'est sur ce point clé que les avancées ont été les plus significatives permettant d'aboutir à une méthode conjointe de détection et de suivi. Un processus d'agrégation a été développé afin de permettre une formalisation des données qui évite tout prétraitement sous-optimal. Nous avons finalement proposé un formalisme général pour les systèmes multicapteurs (multilidar, centrale inertielle, GPS). D'un point de vue applicatif, ces travaux ont été validés dans le domaine du suivi de véhicules pour les systèmes d'aide à la conduite.
40

Automatic multimodal real-time tracking for image plane alignment in interventional Magnetic Resonance Imaging / Suivi temps-réel automatique multimodal pour l'alignement des plans de coupe en IRM interventionnelle

Neumann, Markus 25 February 2014 (has links)
En imagerie par résonance magnétique (IRM) interventionnelle, des interventions percutanées minimalement-invasives (biopsies, ablations de tumeurs,...) sont réalisées sous guidage IRM. Lors de l’intervention, les plans de coupe acquis sont alignés sur l’outil chirurgical et les régions anatomiques d’intérêt afin de surveiller la progression de l’outil dans le corps du patient en temps réel. Le suivi d’objets dans l’IRM facilite et accélère les interventions guidées par IRM en permettant d’aligner automatiquement les plans de coupe avec l’outil chirurgical. Dans cette thèse, un système d’alignement automatique des plans de coupe établi sur une séquence IRM clinique est développé. Celui-ci réalise automatiquement la détection et le suivi d’un marqueur passif directement dans les images IRM tout en minimisant le temps d’imagerie dédié à la détection. L’inconvénient principal de cette approche est sa dépendance au temps d’acquisition de la séquence IRM clinique utilisée. Dans un premier temps, les performances du suivi ont pu être améliorées grâce à l’estimation et la prédiction du mouvement suivi par un filtre de Kalman. Puis un capteur optique complémentaire a été ajouté pour réaliser un suivi multi-capteurs, découplant ainsi la fréquence de rafraichissement du suivi de la fréquence de rafraichissement des images IRM. La performance du système développé a été évaluée par des simulations et des expériences utilisant un banc d’essai compatible IRM. Les résultats montrent une bonne robustesse du suivi multi-capteurs pour l’alignement des plans de coupe grâce à la combinaison des qualités individuelles de chaque capteur. / Interventional magnetic resonance imaging (MRI) aims at performing minimally invasive percutaneous interventions, such as tumor ablations and biopsies, under MRI guidance. During such interventions, the acquired MR image planes are typically aligned to the surgical instrument (needle) axis and to surrounding anatomical structures of interest in order to efficiently monitor the advancement in real-time of the instrument inside the patient’s body. Object tracking inside the MRI is expected to facilitate and accelerate MR-guided interventions by allowing to automatically align the image planes to the surgical instrument. In this PhD thesis, an image-based workflow is proposed and refined for automatic image plane alignment. An automatic tracking workflow was developed, performing detection and tracking of a passive marker directly in clinical real-time images. This tracking workflow is designed for fully automated image plane alignment, with minimization of tracking-dedicated time. Its main drawback is its inherent dependence on the slow clinical MRI update rate. First, the addition of motion estimation and prediction with a Kalman filter was investigated and improved the workflow tracking performance. Second, a complementary optical sensor was used for multi-sensor tracking in order to decouple the tracking update rate from the MR image acquisition rate. Performance of the workflow was evaluated with both computer simulations and experiments using an MR compatible testbed. Results show a high robustness of the multi-sensor tracking approach for dynamic image plane alignment, due to the combination of the individual strengths of each sensor.

Page generated in 0.0426 seconds