• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Localisation collaborative visuelle-inertielle de robots hétérogènes communicants / Visual-inertial collaborative location of communicating heterogeneous robots

Chenchana, Bilel 22 March 2019 (has links)
La capacité à se localiser est d’une importance cruciale pour la navigation des robots. Cette importance a permis le développement de plusieurs techniques de localisation de grande précision. Notre contribution consiste à proposer un passage de la technique de localisation visuelle inertielle du cas individuel, au cas multi collaboratif. Ce travail a pour objectif d’aboutir à une localisation collaborative aussi rapide, robuste et précise que la technique individuelle de départ. Notre approche se base sur le filtrage en couplage serré Multi State Constraint Kalman Filter (MSCKF) pour la fusion de données. Les caractéristiques de ce filtrage sont d’abord étudiées dans le cas individuel pour tester la robustesse et la précision dans différentes conditions et avec différents modèles d’observation. Les résultats de cette étude nous ont orienté vers la structure la mieux adaptée à une augmentation au cas de localisation collaborative. L’algorithme collaboratif proposé, est basé sur un processus hiérarchique en trois étapes. Une localisation collaborative est initialisée sur la base des mesures relatives de distances Ultra Large Bande (ULB). Une localisation collaborative améliorée se base ensuite sur le chevauchement des images en utilisant un modèle de mesure adapté, et une structure de fusion de données qui absorbe l’excédent en temps de calcul provoqué par le traitement collaboratif. Enfin, pour augmenter la précision, une extraction des contraintes de structure environnement, suivie d’une intégration à l’aide d’une troncature dans le filtre sont proposées. / Localization is of crucial importance for robots navigation. This importance has allowed the emergence of several precise localization techniques. Our contribution consists of proposing a transition from an individual inertial visual localization technique to the multi-robots collaborative localization case. This work aims to achieve a collaborative localization as fast, robust and accurate as the individual starting technique. We adopt a tightly coupled MSCKF (Multi State Constraint Kalman Filter) approach to achieve the data fusion. The characteristics of this data fusion are first studied in the individual case to test the robustness and the precision under different conditions and with different observation models. The results of this study directed us towards the best structure adapted to an augmentation to the collaborative localization case. The proposed collaborative algorithm is a hierarchical process of three stages. A collaborative localization is initialized based on the relative distance measurements using Ultra-Wide Band (ULB) sensors. Then, a collaborative localization based on images overlapping using a suitable measurement model, and a data fusion structure that absorbs the computation time excess caused by the collaboration is achieved. Finally, to increase precision, an extraction of the environment constraints, followed by an integration using a truncation in the filter are proposed.
2

Robotique coopérative aéro-terrestre : Localisation et cartographie hétérogène / Air-ground cooperation : Navigation and heterogeneous mapping

Renaudeau, Brice 07 March 2019 (has links)
Les travaux de cette thèse adressent la problématique de la coopération aéro-terrestre pour la cartographie de l’espace navigable. La nécessité d’une carte pour la navigation et la planification de chemins pour les robots terrestres n’est plus à prouver. L’utilisation d’une coopération aéro-terrestre pour créer une carte navigable à destination du robot terrestre a plusieurs intérêts. Premièrement, le drone peut cartographier rapidement une zone grâce à son champ de vision étendu et ses capacités de déplacement. Deuxièmement, la fusion des cartes créées par ces deux agents permet de tirer le meilleur profit des deux points de vue : la cohérence de la vue aérienne globale et la précision de la vue terrestre locale. Pour répondre à cette problématique, nous proposons une méthode qui s’appuie sur la création de cartes hybrides et leur fusion. Les cartes sont construites en utilisant le squelette de l’espace navigable terrestre comme support d’un graphe contenant également des informations métriques locales de l’environnement. La mise en correspondance des cartes aérienne et terrestre s’effectue à l’aide d’un appariement point à point déterminé grâce à une mesure de dissimilarité appropriée. Cette dernière est définie pour répondre aux critères d’invariance et de discriminance dans ce contexte. La mise en correspondance est ensuite utilisée pour fusionner les cartes entre elles. Les cartes fusionnées peuvent être utilisées par le robot au sol pour effectuer sa mission. Elles permettent également de propager des informations telles que des coordonnées GPS à des robots et dans des lieux où ce dispositif n’est pas disponible. Des expérimentations en environnements virtuels et réels sont réalisées pour valider cette approche et en tracer les perspectives. / This work aims to study the problem of air-ground robotic cooperation for collaborative traversability mapping. The need for a map for navigation and path planning for terrestrial robots is no longer to be proven. The use of air-ground cooperation to create a navigable map for the ground robots has several interests. First, the drone can quickly map an area through its large field of vision and traveling capabilities. Second, the fusion of maps based on these two agents makes it possible to draw the best benefits from both points of views: the coherence of the global aerial view and the accuracy of the local ground view. To answer this problem, we propose a method that relies on the construction of a unified model of hybrid maps and their fusion.The maps are built using the skeleton of the traversability space as a support for graphs also containing local metric and potentialy semantic information of the environment. The maching of aerial and ground maps is done using a point to point correlation based on an appropriate dissimilarity measure. This measure is defined to meet invariance and discriminance criteria. The matching is then used to merge the maps into an augmented traversability map. The merged maps can be used by the ground robot to perform its mission. They also make it possible to deploy information such as GPS coordinates to robots in GPS denied environments. Experiments in virtual and real world environments have been carried out to validate this approach and map out future perspetives.

Page generated in 0.0175 seconds