• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 4
  • Tagged with
  • 10
  • 10
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation et commande d'un convoi de véhicules urbains par vision / Modeling and ordering a convoy of urban vehicles by vision

Avanzini, Pierre 06 December 2010 (has links)
Cette thèse concerne la commande d’un convoi de véhicules avec l’objectif sociétal de réduire les problèmes de pollution et d’engorgement dans les milieux urbains. La recherche se concentre ici sur la navigation coopérative d’une flotte de véhicules communicants en s’appuyant sur une approche de commande globale : chaque véhicule est contrôlé à partir d’informations partagées par l’ensemble de la flotte, en s’appuyant sur des techniques de linéarisation exacte. Le développement de nouvelles fonctionnalités de navigation fait l’objet des deux contributions théoriques développées dans ce manuscrit et leur mise en oeuvre constitue la contribution pratique. Dans un premier temps, on s’intéresse à la mise en place d’un mode manuel de navigation dans lequel le premier véhicule, guidé par un opérateur, définit et retransmet la trajectoire à suivre aux membres du convoi. Il convient que la trajectoire, dont la représentation évolue au fur et à mesure de l’avancée du véhicule de tête, soit numériquement stable afin que les véhicules suiveurs qui sont asservis dessus puissent être contrôlés avec précision et sans subir de perturbations. A ces fins, la trajectoire a été modélisée par des courbes B-Spline et un algorithme itératif a été développé pour étendre cette dernière selon un critère d’optimisation évalué au regard des positions successives occupées par le véhicule de tête. Une analyse paramétrique a finalement permis d’aboutir à une synthèse optimale de la trajectoire en terme de fidélité et de stabilité de la représentation. Dans un second temps, on considère l’intégration d’une stratégie de localisation par vision monoculaire pour la navigation en convoi. L’approche repose sur une cartographie 3D de l’environnement préalablement construite à partir d’une séquence vidéo. Cependant, un tel monde virtuel comporte des distorsions locales par rapport au monde réel, ce qui affecte les performances des lois de commande en convoi. Une analyse des distorsions a permis de démontrer qu’il était possible de recouvrer des performances de navigation satisfaisantes à partir d’un jeu de facteurs d’échelle estimés localement le long de la trajectoire de référence. Plusieurs stratégies ont alors été élaborées pour estimer en-ligne ces facteurs d’échelle, soit à partir de données odométriques alimentant un observateur, soit à partir de données télémétriques intégrées dans un processus d’optimisation. Comme précédemment, l’influence des paramètres a été évaluée afin de mettre en évidence les meilleures configurations à utiliser en vue d’applications expérimentales. Pour finir, les algorithmes développés précédemment ont été mis en oeuvre lors d’expérimentations et ont permis d’obtenir des démonstrateurs en vraie grandeur comprenant jusqu’à quatre véhicules de type CyCab et RobuCab. Une attention particulière a été accordée à la cohérence temporelle des données. Celles-ci sont collectées de manière asynchrone au sein du convoi. L’utilisation du protocole NTP a permis de synchroniser l’horloge des véhicules et le middleware AROCCAM d’estampiller les données et de gérer le cadencement de la commande. Ainsi, le modèle d’évolution des véhicules a pu être intégré afin de disposer d’une estimation précise de l’état du convoi à l’instant où la commande est évaluée. / Vehicle platooning is addressed in this thesis with the aim of contributing in reducing congestion and pollution in urban areas. The researches here focus on cooperative navigation of a fleet of communicating vehicles and relies on a global control approach : each vehicle is controlled from information shared by the entire fleet, using exact linearization techniques. This manuscript presents two theoretical contributions, introducing two new navigation functionalities, and the third contribution consists in their practical implementation. As a first part, the introduction of a manual navigation mode has been investigated, in which the first vehicle, guided by an operator, defines and broadcasts the path to be followed by platoon members. In that case, the numerical representation of the trajectory must be extended without disturbing the portion previously generated, to ensure that the entire platoon can precisely and smoothly follow the leader track. To meet these requirements, the trajectory is modeled using B-Spline curves and an iterative path creating algorithm has been developed from successive positions collected by the lead vehicle during its motion. A parametric analysis has finally resulted in the design of an optimal trajectory with respect to the fidelity of the path representation and to the robustness regarding the disturbances that could arise during the creation procedure. In a second part, a localization strategy relying on monocular vision has been integrated in platoon control algorithms. The localization approach is based on a learning phase during which a video sequence is used to perform a 3D mapping of the environment. However, such a virtual vision world is slightly distorted with respect to the actual metric one. This affects the performances of the platoon control laws. An analysis of distortion has demonstrated that platooning performances can be recovered, provided if a set of local scale factors attached to the reference trajectory is available. Several strategies have then been designed to estimate online such scale factors, either from an observer relying on odometric data, or from an optimization process based on telemetric data. As before, intensive simulations has been run to evaluate parameter influence and highlight the best configurations to use during experiments. Finally, above mentionned algorithms have been implemented in order to present full-scale demonstrators with up to four vehicles (either CyCab or RobuCab). Particular attention is data temporal consistency : since data are collected asynchronously within the platoon, a NTP has been used to synchronize vehicle clock, so that middleware AROCCAM can stamp vehicle data and manage the control scheduling. Thus, vehicle models can be integrated in order to obtain an accurate estimate of the platoon state at the time the control laws are evaluated.
2

La vision monoculaire acquise analyse des besoins perçus par les patients et les professionnels concernés

Gunter-Gagnon, Janet L. January 2011 (has links)
Il existe plusieurs études décrivant les effets psychologiques de la perte partielle ou totale de la vision des deux yeux. La réalité des personnes ayant une perte acquise complète de la vision d'un seul oeil a cependant été peu étudiée bien que les conséquences négatives à long terme sur le plan physiologique de cette perte soient manifestes. Les quelques études existantes montrent que les changements permanents sur le plan physiologique peuvent avoir des effets psychologiques et psychosociaux reliés aux difficultés dans les activités de la vie quotidienne, le travail et les activités de loisir. Parmi les effets observés, on note la dépression, l'anxiété et la perte d'estime de soi. Ce projet s'inscrit dans le cadre d'une analyse qualitative des besoins perçus de cette clientèle de manière à élaborer des modalités de soutien mieux adaptées à sa réalité. Plus spécifiquement, il vise à offrir des éléments de réponses aux questions suivantes : quels sont les principaux besoins des personnes ayant une perte acquise complète de la vision d'un seul oeil? Comment ces besoins sont-ils comblés par le système actuel de la santé et des services sociaux? Existe-t-il des besoins non comblés? Et, dans cette situation, quelles sont les conséquences pour ces personnes? La collecte de données a été faite lors d'entrevues menées auprès de personnes ayant une perte de vision d'un oeil. Les professionnels (optométristes et ophtalmologistes) qui côtoient cette clientèle ont également été consultés par un sondage papier transmis par la poste. Les résultats indiquent qu'il y a des effets physiologiques permanents qui entraînent des séquelles importantes sur les plans psychologique et social ainsi que sur la performance des activités. Autant les participants que les professionnels soulignent des besoins importants dont plusieurs de ceux-ci ne sont pas comblés par le système actuel. Les professionnels mettent l'accent sur la notion de risque et de danger pour l'oeil fonctionnel alors que les participants soulignent plutôt l'impact de cette perte sur les plans psychologique et psychosocial et ce, autant pour l'entourage que pour eux. Tous font ressortir l'importance de l'information et les lacunes existant dans la transmission de celle-ci. Pour les participants cette lacune génère une source de détresse émotionnelle. La discussion met ainsi l'accent sur le rôle clé de la transmission de l'information. Les résultats sont décrits à la lumière d'un modèle d'intervention à trois niveaux tenant compte des trajectoires potentielles de ces personnes [qui] est proposé. Ce modèle prend en considération l'ampleur du problème vécu et les connaissances en psychologie. Le rôle du psychologue dans ce modèle est discuté.
3

Modélisation et commande d'un convoi de véhicules urbains par vision

Avanzini, Pierre 06 December 2010 (has links) (PDF)
Cette thèse concerne la commande d'un convoi de véhicules avec l'objectif sociétal de réduire les problèmes de pollution et d'engorgement dans les milieux urbains. La recherche se concentre ici sur la navigation coopérative d'une flotte de véhicules communicants en s'appuyant sur une approche de commande globale : chaque véhicule est contrôlé à partir d'informations partagées par l'ensemble de la flotte, en s'appuyant sur des techniques de linéarisation exacte. Le développement de nouvelles fonctionnalités de navigation fait l'objet des deux contributions théoriques développées dans ce manuscrit et leur mise en oeuvre constitue la contribution pratique. Dans un premier temps, on s'intéresse à la mise en place d'un mode manuel de navigation dans lequel le premier véhicule, guidé par un opérateur, définit et retransmet la trajectoire à suivre aux membres du convoi. Il convient que la trajectoire, dont la représentation évolue au fur et à mesure de l'avancée du véhicule de tête, soit numériquement stable afin que les véhicules suiveurs qui sont asservis dessus puissent être contrôlés avec précision et sans subir de perturbations. A ces fins, la trajectoire a été modélisée par des courbes B-Spline et un algorithme itératif a été développé pour étendre cette dernière selon un critère d'optimisation évalué au regard des positions successives occupées par le véhicule de tête. Une analyse paramétrique a finalement permis d'aboutir à une synthèse optimale de la trajectoire en terme de fidélité et de stabilité de la représentation. Dans un second temps, on considère l'intégration d'une stratégie de localisation par vision monoculaire pour la navigation en convoi. L'approche repose sur une cartographie 3D de l'environnement préalablement construite à partir d'une séquence vidéo. Cependant, un tel monde virtuel comporte des distorsions locales par rapport au monde réel, ce qui affecte les performances des lois de commande en convoi. Une analyse des distorsions a permis de démontrer qu'il était possible de recouvrer des performances de navigation satisfaisantes à partir d'un jeu de facteurs d'échelle estimés localement le long de la trajectoire de référence. Plusieurs stratégies ont alors été élaborées pour estimer en-ligne ces facteurs d'échelle, soit à partir de données odométriques alimentant un observateur, soit à partir de données télémétriques intégrées dans un processus d'optimisation. Comme précédemment, l'influence des paramètres a été évaluée afin de mettre en évidence les meilleures configurations à utiliser en vue d'applications expérimentales. Pour finir, les algorithmes développés précédemment ont été mis en oeuvre lors d'expérimentations et ont permis d'obtenir des démonstrateurs en vraie grandeur comprenant jusqu'à quatre véhicules de type CyCab et RobuCab. Une attention particulière a été accordée à la cohérence temporelle des données. Celles-ci sont collectées de manière asynchrone au sein du convoi. L'utilisation du protocole NTP a permis de synchroniser l'horloge des véhicules et le middleware AROCCAM d'estampiller les données et de gérer le cadencement de la commande. Ainsi, le modèle d'évolution des véhicules a pu être intégré afin de disposer d'une estimation précise de l'état du convoi à l'instant où la commande est évaluée.
4

Cartographie 3D et localisation par vision monoculaire pour la navignation autonome d'un robot mobile

Royer, Eric 26 September 2006 (has links) (PDF)
Ce mémoire de thèse présente la réalisation d'un système de localisation pour un robot mobile fondé sur la vision monoculaire. L'objectif de ces travaux est de pouvoir faire naviguer un véhicule robotique sur parcours donné en milieu urbain. Le robot est d'abord conduit manuellement. Pendant cette phase d'apprentissage, la caméra embarquée enregistre une séquence vidéo. Après un traitement approprié hors ligne, une image prise avec le même matériel permet de localiser le robot en temps réel. Cette localisation peut être utilisée pour commander le robot et faire en sorte qu'il suive de façon autonome le même parcours que durant la phase d'apprentissage. Le principe retenu consiste à construire une carte tridimensionnelle de la zone parcourue pendant la phase d'apprentissage, puis à se servir de la carte pour se localiser. Une grande partie de ce mémoire est consacré à l'étude des performances du système
5

Contribution à la modélisation d'environnements par vision monoculaire dans un contexte de robotique aéro-terrestre

Bosch, Sébastien 01 October 2007 (has links) (PDF)
Les travaux de cette thèse s'articulent principalement autour de la détection de surfaces planes à partir de séquences d'images faiblement calibrées. La détection de telles surfaces offre des possibilités pour l'atterrissage autonome de drones, la coopération air/sol par la fusion de modèles de traversabilité ou encore la cartographie aérienne. Considérant d'abord le contexte d'images aériennes faiblement localisées (GPS métrique, centrale inertielle bas coût...), nous exploitons les propriétés des homographies, qui définissent le déplacement entre deux images de points appartenant à un même plan du monde. Nous avons utilisé cette propriété pour segmenter les régions des images contenant la projection d'un plan. Un soin particulier à été donné à l'évaluation de différents algorithmes d'estimation linéaire robuste dans le cadre de l'estimation d'homographie à partir de points appariés. Des données de synthèse ont été utilisées afin de mettre en évidence l'influence des paramètres de l'environnement sur la qualité des estimées. Ces résultats ont été par la suite confrontés à des données réelles. Ces techniques permettent de segmenter les points appariés selon qu'ils appartiennent ou non à une zone plane. Afin de produire une description dense (continue) des zones détectées, nous avons proposé une amélioration du score de corrélation normalisée croisée. En considérant un modèle adaptatif de l'influence des variances des niveaux de gris sur les scores de corrélation, nous avons introduit une méthode de segmentation automatique de zones planes offrant de bons résultats. L'introduction de modèles probabilistes nous a permis de fusionner les observations au fur et à mesure du déplacement de la caméra, et de construire des grilles locales qui représentent la probabilité de planéité sur des zones. Enfin dans l'optique de la coopération entre robots aériens et terrestres, nous avons étendu ces travaux au contexte de la robotique terrestre et de la fusion de modèles aéro-terrestres.
6

Recherche linéaire et fusion de données par ajustement de faisceaux : application à la localisation par vision

Michot, Julien 09 December 2010 (has links) (PDF)
Les travaux présentés dans ce manuscrit concernent le domaine de la localisation et la reconstruction 3D par vision artificielle. Dans ce contexte, la trajectoire d'une caméra et la structure3D de la scène filmée sont initialement estimées par des algorithmes linéaires puis optimisées par un algorithme non-linéaire, l'ajustement de faisceaux. Cette thèse présente tout d'abord une technique de recherche de l'amplitude de déplacement (recherche linéaire), ou line search pour les algorithmes de minimisation itérative. La technique proposée est non itérative et peut être rapidement implantée dans un ajustement de faisceaux traditionnel. Cette technique appelée recherche linéaire algébrique globale (G-ALS), ainsi que sa variante à deux dimensions (Two way-ALS), accélèrent la convergence de l'algorithme d'ajustement de faisceaux. L'approximation de l'erreur de reprojection par une distance algébrique rend possible le calcul analytique d'une amplitude de déplacement efficace (ou de deux pour la variante Two way-ALS), par la résolution d'un polynôme de degré 3 (G-ALS) ou 5 (Two way-ALS). Nos expérimentations sur des données simulées et réelles montrent que cette amplitude, optimale en distance algébrique, est performante en distance euclidienne, et permet de réduire le temps de convergence des minimisations. Une difficulté des algorithmes de localisation en temps réel par la vision (SLAM monoculaire) est que la trajectoire estimée est souvent affectée par des dérives : dérives d'orientation, de position et d'échelle. Puisque ces algorithmes sont incrémentaux, les erreurs et approximations sont cumulées tout au long de la trajectoire, et une dérive se forme sur la localisation globale. De plus, un système de localisation par vision peut toujours être ébloui ou utilisé dans des conditions qui ne permettent plus temporairement de calculer la localisation du système. Pour résoudre ces problèmes, nous proposons d'utiliser un capteur supplémentaire mesurant les déplacements de la caméra. Le type de capteur utilisé varie suivant l'application ciblée (un odomètre pour la localisation d'un véhicule, une centrale inertielle légère ou un système de navigation à guidage inertiel pour localiser une personne). Notre approche consiste à intégrer ces informations complémentaires directement dans l'ajustement de faisceaux, en ajoutant un terme de contrainte pondéré dans la fonction de coût. Nous évaluons trois méthodes permettant de sélectionner dynamiquement le coefficient de pondération et montrons que ces méthodes peuvent être employées dans un SLAM multi-capteur temps réel, avec différents types de contrainte, sur l'orientation ou sur la norme du déplacement de la caméra. La méthode est applicable pour tout autre terme de moindres carrés. Les expérimentations menées sur des séquences vidéo réelles montrent que cette technique d'ajustement de faisceaux contraint réduit les dérives observées avec les algorithmes de vision classiques. Ils améliorent ainsi la précision de la localisation globale du système.
7

Recherche linéaire et fusion de données par ajustement de faisceaux : application à la localisation par vision / Linear research and data fusion by beam adjustment : application to vision localization

Michot, Julien 09 December 2010 (has links)
Les travaux présentés dans ce manuscrit concernent le domaine de la localisation et la reconstruction 3D par vision artificielle. Dans ce contexte, la trajectoire d’une caméra et la structure3D de la scène filmée sont initialement estimées par des algorithmes linéaires puis optimisées par un algorithme non-linéaire, l’ajustement de faisceaux. Cette thèse présente tout d’abord une technique de recherche de l’amplitude de déplacement (recherche linéaire), ou line search pour les algorithmes de minimisation itérative. La technique proposée est non itérative et peut être rapidement implantée dans un ajustement de faisceaux traditionnel. Cette technique appelée recherche linéaire algébrique globale (G-ALS), ainsi que sa variante à deux dimensions (Two way-ALS), accélèrent la convergence de l’algorithme d’ajustement de faisceaux. L’approximation de l’erreur de reprojection par une distance algébrique rend possible le calcul analytique d’une amplitude de déplacement efficace (ou de deux pour la variante Two way-ALS), par la résolution d’un polynôme de degré 3 (G-ALS) ou 5 (Two way-ALS). Nos expérimentations sur des données simulées et réelles montrent que cette amplitude, optimale en distance algébrique, est performante en distance euclidienne, et permet de réduire le temps de convergence des minimisations. Une difficulté des algorithmes de localisation en temps réel par la vision (SLAM monoculaire) est que la trajectoire estimée est souvent affectée par des dérives : dérives d’orientation, de position et d’échelle. Puisque ces algorithmes sont incrémentaux, les erreurs et approximations sont cumulées tout au long de la trajectoire, et une dérive se forme sur la localisation globale. De plus, un système de localisation par vision peut toujours être ébloui ou utilisé dans des conditions qui ne permettent plus temporairement de calculer la localisation du système. Pour résoudre ces problèmes, nous proposons d’utiliser un capteur supplémentaire mesurant les déplacements de la caméra. Le type de capteur utilisé varie suivant l’application ciblée (un odomètre pour la localisation d’un véhicule, une centrale inertielle légère ou un système de navigation à guidage inertiel pour localiser une personne). Notre approche consiste à intégrer ces informations complémentaires directement dans l’ajustement de faisceaux, en ajoutant un terme de contrainte pondéré dans la fonction de coût. Nous évaluons trois méthodes permettant de sélectionner dynamiquement le coefficient de pondération et montrons que ces méthodes peuvent être employées dans un SLAM multi-capteur temps réel, avec différents types de contrainte, sur l’orientation ou sur la norme du déplacement de la caméra. La méthode est applicable pour tout autre terme de moindres carrés. Les expérimentations menées sur des séquences vidéo réelles montrent que cette technique d’ajustement de faisceaux contraint réduit les dérives observées avec les algorithmes de vision classiques. Ils améliorent ainsi la précision de la localisation globale du système. / The works presented in this manuscript are in the field of computer vision, and tackle the problem of real-time vision based localization and 3D reconstruction. In this context, the trajectory of a camera and the 3D structure of the filmed scene are initially estimated by linear algorithms and then optimized by a nonlinear algorithm, bundle adjustment. The thesis first presents a new technique of line search, dedicated to the nonlinear minimization algorithms used in Structure-from-Motion. The proposed technique is not iterative and can be quickly installed in traditional bundle adjustment frameworks. This technique, called Global Algebraic Line Search (G-ALS), and its two-dimensional variant (Two way-ALS), accelerate the convergence of the bundle adjustment algorithm. The approximation of the reprojection error by an algebraic distance enables the analytical calculation of an effective displacement amplitude (or two amplitudes for the Two way-ALS variant) by solving a degree 3 (G-ALS) or 5 (Two way-ALS) polynomial. Our experiments, conducted on simulated and real data, show that this amplitude, which is optimal for the algebraic distance, is also efficient for the Euclidean distance and reduces the convergence time of minimizations. One difficulty of real-time tracking algorithms (monocular SLAM) is that the estimated trajectory is often affected by drifts : on the absolute orientation, position and scale. Since these algorithms are incremental, errors and approximations are accumulated throughout the trajectory and cause global drifts. In addition, a tracking vision system can always be dazzled or used under conditions which prevented temporarily to calculate the location of the system. To solve these problems, we propose to use an additional sensor measuring the displacement of the camera. The type of sensor used will vary depending on the targeted application (an odometer for a vehicle, a lightweight inertial navigation system for a person). We propose to integrate this additional information directly into an extended bundle adjustment, by adding a constraint term in the weighted cost function. We evaluate three methods (based on machine learning or regularization) that dynamically select the weight associated to the constraint and show that these methods can be used in a real time multi-sensor SLAM, and validate them with different types of constraint on the orientation or on the scale. Experiments conducted on real video sequences show that this technique of constrained bundle adjustment reduces the drifts observed with the classical vision algorithms and improves the global accuracy of the positioning system.
8

Evitement d'obstacles par invariants visuels

Nègre, Amaury 05 March 2009 (has links) (PDF)
Dans un contexte de navigation visuelle en environnement ouvert et dynamique, la détection d'obstacles constitue un élément indispensable. Dans cette thèse, nous nous intéressons à la caractérisation des obstacles par le temps avant collision (TTC). Ayant montré que ce TTC peut être calculé directement dans une image à l'aide de l'échelle intrinsèque, nous avons mis au point un détecteur ainsi qu'un algorithme de suivi invariant au changement d'échelle et adapté à un environnement urbain. Ce détecteur permet d'extraire des régions d'intérêt appelées segments de crête correspondant à des formes contrastées et rectilignes dans l'image. Le suivi de ces régions d'intérêt est fondé sur un filtre à particules et permet de mesurer la variation d'échelles afin d'estimer le TTC. Enfin, nous avons étudié deux applications de navigation visuelle d'un véhicule telles que l'arrêt du véhicule avant collision et un système d'évitement réactif d'obstacles bayésien.
9

Détection et suivi d'objets mobiles perçus depuis un capteur visuel embarqué

Almanza-Ojeda, Dora Luz 07 January 2011 (has links) (PDF)
Cette thèse traite de la détection et du suivi d'objets mobiles dans un environnement dynamique, en utilisant une caméra embarquée sur un robot mobile. Ce sujet représente encore un défi important car on exploite uniquement la vision mono-caméra pour le résoudre. Nous devons détecter les objets mobiles dans la scène par une analyse de leurs déplacements apparents dans les images, en excluant le mouvement propre de la caméra. Dans une première étape, nous proposons une analyse spatio-temporelle de la séquence d'images, sur la base du flot optique épars. La méthode de clustering a contrario permet le groupement des points dynamiques, sans information a priori sur le nombre de groupes à former et sans réglage de paramètres. La réussite de cette méthode réside dans une accumulation suffisante des données pour bien caractériser la position et la vitesse des points. Nous appelons temps de pistage, le temps nécessaire pour acquérir les images analysées pour bien caractériser les points. Nous avons développé une carte probabiliste afin de trouver les zones dans l'image qui ont les probabilités la plus grandes de contenir un objet mobile. Cette carte permet la sélection active de nouveaux points près des régions détectées précédemment en permettant d'élargir la taille de ces régions. Dans la deuxième étape nous mettons en oeuvre une approche itérative pour exécuter détection, clustering et suivi sur des séquences d'images acquises depuis une caméra fixe en intérieur et en extérieur. Un objet est représenté par un contour actif qui est mis à jour de sorte que le modèle initial reste à l'intérieur du contour. Finalement nous présentons des résultats expérimentaux sur des images acquises depuis une caméra embarquée sur un robot mobile se déplaçant dans un environnement extérieur avec des objets mobiles rigides et nonrigides. Nous montrons que la méthode est utilisable pour détecter des obstacles pendant la navigation dans un environnement inconnu a priori, d'abord pour des faibles vitesses, puis pour des vitesses plus réalistes après compensation du mouvement propre du robot dans les images.
10

Localisation, reconstruction et mosaïque appliquées aux peintures sur cylindres généralisés à axe droit en vision monoculaire

Perret, Stéphane 03 September 1997 (has links)
Ces travaux concernent la localisation et la reconstruction de surfaces cylindriques sur lesquelles sont projetées ou plaquées des scènes que le capteur perçoit comme des images. Du fait d'une étude limitée à la vision monoculaire, l'utilisation de connaissances a priori est nécessaire. On se propose d'approfondir des méthodes intégrant des contours contenus dans l'image, qui sont supposés être des projections de sections de Cylindres Généralisés Homogènes à axe Droit (CGHD). Les résultats sont appliqués principalement au domaine des oeuvres d'art comme les peintures sur voutes ou les fresques sur colonnes. Compte tenu de la limitation du champ d'observation des capteurs, nous sommes aussi amenés à aborder le problème de mosaïque de surfaces. Dans un premier temps nous présentons un ensemble de définitions concernant le modèle d'une caméra et les surfaces cylindriques généralisées, nous développons les connaissances a priori utilisées et le contexte d'application reliant le traitement d'images et les oeuvres d'art. Nous décrivons alors des mèthodes de localisation de Cylindres Généralisés Uniformes à axe Droit (CGUD) dans le repère de la caméra. Nous présentons deux mèthodes de détection de la projection de l'axe d'un CGUD, puis nous décrivons comment obtenir un deuxième axe dans l'image. Nous interprétons alors la signification de ces deux axes. Nous décrivons ensuite une méthode de reconstruction 3D de CGUD pouvant être étendue aux CGHD de sections fermées circulaires ou elliptiques, ou de sections ouvertes paraboliques ou elliptiques. Dans un premier temps, nous démontrons que l'évolution des courbures des ellipses dans l'image, projections de sections du CGUD de sections circulaires, est fonction linéaire de l'altitude de la section dans l'espace 3D. Nous étendons ces travaux aux problèmes de mosaïques de surfaces cylindriques. Nous analysons les distorsions dues à la projection perspective sur le plan image d'une scène issue d'une surface cylindrique. Nous présentons aussi une estimation du nombre de vues d'un CGUD nécessaire pour obtenir une scène complète. Tout au long de ces travaux, des résultats issus d'images synthètiques ou de peintures illustrent les méthodes développées.

Page generated in 0.0828 seconds