Return to search

Modelisation Visuelle d'un Objet Inconnu par un Robot Humanoide Autonome / Visual Modeling of an Unknown Object by an Autonomous Humanoid Robot

Ce travail est focalisé sur le problème de la construction autonome du modèle 3D d'un objet inconnu en utilisant un robot humanoïde. Plus particulièrement, nous considérons un HRP-2 guidé par la vision au sein d'un environnement connu qui peut contenir des obstacles. Notre méthode considère les informations visuelles disponibles, les contraintes sur le corps du robot ainsi que le modèle de l'environnement dans le but de générer des postures adéquates et les mouvements nécessaires autour de l'objet. Le problème de sélection de vue ("Next-Best-View") est abordé en se basant sur un générateur de postures qui calcule une configuration par la résolution d'un problème d'optimisation. Une première solution est une approche locale où un algorithme de rendu original à été conçu afin d'être inclut directement dans le générateur de postures. Une deuxième solution augmente la robustesse aux minimums locaux en décomposant le problème en 2 étapes: (i) trouver la pose du capteur tout en satisfaisant un ensemble de contraintes réduit, et (ii) calculer la configuration complète du robot avec le générateur de posture. La première étape repose sur des méthodes d'optimisation globale et locale (BOBYQA) afin de converger vers des points de vue pertinents dans des espaces de configuration admissibles non convexes. Notre approche est testée en conditions réelles par le biais d'une architecture cohérente qui inclus différents composants logiciels spécifique à l'usage d'un humanoïde. Ces expériences intègrent des travaux de recherche en cours en planification de mouvements, contrôle de mouvements et traitement d'image, qui pourront permettre de construire de façon autonome le modèle 3D d'un objet. / This work addresses the problem of autonomously constructing the 3D model of an unknown object using a humanoid robot.More specifically, we consider a HRP-2 evolving in a known environment, which is possibly cluttered, guided by vision.Our method considers the visual information available, the constraints on the robot body, and the model of the environment in order to generate pertinent postures and the necessary motions around the object.Our two solutions to the Next-Best-View problem are based on a specific posture generator, where a posture is computed by solving an optimization problem.The first solution is a local approach to the problem where an original rendering algorithm is specifically designed in order to be directly included in the posture generator. The rendering algorithm can display complex 3D shapes while taking into account self-occlusions.The second solution seeks more global solutions by decoupling the problem in two steps: (i) find the best sensor pose while satisfying a reduced set of constraints on the humanoid, and (ii) generate a whole-body posture with the posture generator.The first step relies on global sampling and BOBYQA, a derivative-free optimization method, to converge toward pertinent viewpoints in non-convex feasible configuration spaces.Our approach is tested in real conditions by using a coherent architecture that includes various complex software components that consider the specificities of the humanoid robot. This experiment integrates on-going works addressing the tasks of motion planning, motion control, and visual processing, to allow the completion of the 3D object reconstruction in future works.

Identiferoai:union.ndltd.org:theses.fr/2010MON20165
Date03 December 2010
CreatorsFoissotte, Torea
ContributorsMontpellier 2, Kheddar, Abderrahmane
Source SetsDépôt national des thèses électroniques françaises
LanguageFrench
Detected LanguageFrench
TypeElectronic Thesis or Dissertation, Text

Page generated in 0.0022 seconds