• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 27
  • 27
  • Tagged with
  • 91
  • 91
  • 91
  • 91
  • 72
  • 61
  • 23
  • 19
  • 16
  • 15
  • 15
  • 14
  • 13
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Commande d'une caméra réelle ou virtuelle dans des mondes réels ou virtuels

Marchand, Eric 26 November 2004 (has links) (PDF)
Il y a aujourd'hui, d'après l'UNECE1 environ 770.000 robots opérationnels dont 24.000 en France. À ce jour, la plupart de ces robots sont des manipulateurs industriels dont l'autonomie est souvent réduite au stricte minimum. Ce manque d'autonomie est souvent due à l'absence de capteurs extéroceptifs sur les systèmes robotiques disponibles sur le marché. Ces capteurs sont cependant indispensables des lors que le robot évolue dans un environnement partiellement ou totalement inconnu. Dans ce contexte ces capteurs apportent aux systèmes robotiques les informations nécessaires pour appréhender l'environnement dans lequel ils évoluent. Dans le cadre de nos travaux nous avons uniquement considéré le cas des capteurs de vision qui fournissent au système une information riche mais dégénérée sous la forme d'une projection vers une image 2D de l'ensemble de l'environnement 3D perçu. L'un des points fondamentaux du cycle perception-action est la génération automatique des mouvements d'une ou plusieurs caméras. La création de carte 3D de l'environnement a longtemps été considérée comme un point de passage obligé pour la génération automatique des mouvements d'un robot autonome et de nombreux travaux se sont focalisés, souvent avec succès, sur ce sujet (e.g., [63]). Une façon élégante de raccourcir ce cycle en liant étroitement l'action à la mesure dans l'image est de générer les mouvements du système robotique en ayant recours au techniques d'asservissement visuel.
22

Contribution à la navigation d'un robot mobile par commande référencée multi-capteurs

Cadenat, Viviane 02 December 2011 (has links) (PDF)
Dans ce manuscrit, nous nous intéressons au problème de la navigation d'un robot mobile par commande référencée multi-capteurs. Notre objectif est d'effectuer des tâches de navigation guidées par la vision dans des environnements d'intérieur structurés peu connus, possiblement évolutifs et où l'homme peut être présent. Les missions considérées pourront inclure de longs déplacements et consisteront à positionner le robot vis-à-vis d'un amer ou d'une personne d'intérêt. Leur position dans la scène étant inconnue, ils seront repérés par la vision. Afin de pouvoir réaliser de telles missions, différents problèmes doivent être traités : le mouvement vers le but, l'évitement d'obstacles, le traitement des occultations, la réalisation de longs déplacements. Si les trois premiers points ont un caractère intrinsèquement local, le dernier nécessite des compétences globales. Les travaux que nous avons menés cherchent à répondre à ces différents problèmes. Tout d'abord, nous nous sommes focalisés sur les aspects "locaux". Nous avons ainsi exploité l'asservissement visuel 2D pour réaliser la tâche de navigation nominale et permettre au robot de converger vers un amer ou une personne d'intérêt. Cependant, bien que cette technique présente de bonnes propriétés de robustesse, elle ne permet pas à elle seule de traiter efficacement les problèmes de collisions et d'occultations. Une de nos premières contributions a donc consisté en le développement de stratégies de commande garantissant la non collision en présence d'obstacles non occultants. Sur la base de ces résultats, nous nous sommes intéressés à la gestion des occultations et avons développé des algorithmes permettant de reconstruire les indices visuels lorsque ceux-ci sont indisponibles. Nous les avons ensuite couplés à nos stratégies de commande afin que le robot puisse évoluer à partir des indices visuels réels ou reconstruits selon le cas. L'association de ces différents techniques et algorithmes a permis de réaliser effica cement des tâches de navigation référencées vision en présence d'obstacles occultants et non occultants. Cependant, elle nécessite que l'amer ou la personne d'intérêt soit visible dès le début de la mission, ce qui n'est pas le cas lorsque l'on souhaite réaliser de longs déplacements. Nos dernières contributions sont donc focalisées sur ce problème. Afin de conférer au robot les compétences globales nécessaires, nous avons couplé une carte topologique représentant l'environnement à un algorithme de supervision gérant la stratégie de commande. Le robot est ainsi devenu capable d'effectuer de longs déplacements dans des scènes peu connues. L'ensemble de ces travaux a été validé en simulation et expérimentalement sur les différents robots à disposition. Les résultats obtenus montrent la pertinence de l'approche proposée et ouvrent des perspectives prometteuses dans et hors du contexte de la navigation.
23

Contributions à l'exploitation de lidar 3D pour la navigation autonome : calibrage et localisation qualitative

Muhammad, Naveed 01 February 2012 (has links) (PDF)
Afin de permettre une navigation autonome d'un robot dans un environnement, le robot doit être capable de percevoir son environnement. Dans la littérature, d'une manière générale, les robots perçoivent leur environnement en utilisant des capteurs de type sonars, cameras et lidar 2D. L'introduction de nouveaux capteurs, nommés lidar 3D, tels que le Velodyne HDL-64E S2, a permis aux robots d'acquérir plus rapidement des données 3D à partir de leur environnement. La première partie de cette thèse présente une technique pour la calibrage des capteurs lidar 3D. La technique est basée sur la comparaison des données lidar à un modèle de vérité de terrain afin d'estimer les valeurs optimales des paramètres de calibrage. La deuxième partie de la thèse présente une technique pour la localisation et la détection de fermeture de boucles pour les robots autonomes. La technique est basée sur l'extraction et l'indexation des signatures de petite-taille à partir de données lidar 3D. Les signatures sont basées sur les histogrammes de l'information de normales de surfaces locale extraite à partir des données lidar en exploitant la disposition des faisceaux laser dans le dispositif lidar.
24

Localisation Et Guidage Du Robot Mobile Atrv2 Dans Un Environnement Naturel.

Djekoune, A. Oualid 15 December 2010 (has links) (PDF)
Les travaux présentés dans cette thèse portent essentiellement sur la localisation et la navigation du système mobile ATRV2 dans un environnement inconnu a priori. Ce système doit d'abord modéliser et construire sa carte de l'environnement à partir de données issues de ses capteurs embarqués, se localiser dans cette carte et ensuite générer un chemin sans collisions lui permettant d'atteindre son but. Le modèle de l'environnement que nous avons choisi est un modèle métrique (grille de certitude) basé sur l'algorithme HIMM et est mis à jour en utilisant les données en provenance des capteurs embarqués. La méthode de localisation utilisée est basée sur le filtre de Kalman étendu (EKF). Cette méthode fusionne les données odométriques (modèle du système) et les données du système de perception embarqué (mesure) pour corriger régulièrement l'estimation relative de la position du système mobile due à l'erreur cumulative engendrée par les capteurs odométriques. Pour déterminer la mesure, la méthode utilise la mise en correspondance des grilles tout en estimant sa zone de recherche et la position autour de laquelle elle effectue la recherche de la position estimée. Pour la navigation, nous avons proposé une nouvelle méthode appelée DVFF combinant une méthode de planification de trajectoire globale basée sur l'algorithme D*, et une méthode réactive non stop basée sur le principe des champs de forces virtuelles VFF. Cette méthode de navigation utilise les valeurs courantes des capteurs ultrasonores embarqués (sur une petite fenêtre temporelle), et les données provenant du modèle de l'environnement, pour décider de l'action à effectuer. Elle permet au système mobile ATRV2 de se mouvoir sans crainte de collisions avec les obstacles de son environnement.
25

Localisation et caractérisation d'objets inconnus à partir d'informations visuelles : vers une saisie intuitive pour les personnes en situation de handicap

Dune, Claire 30 April 2009 (has links) (PDF)
Le point de départ des travaux présentés dans cette thèse est la volonté de développement d'une aide robotisée à la saisie intuitive pour les personnes en situation de handicap. L'outil proposé est un manipulateur contrôlé en utilisant directement les informations transmises par deux caméras, l'une embarquée sur la pince qui donne une vue détaillée de la scène, et l'autre déportée qui en oﰛre une vue d'ensemble. L'objet de nos travaux est de saisir un objet a priori inconnu à partir d'un seul clic de l'utilisateur sur une image acquise par la caméra déportée. Nous proposons des méthodes permettant de localiser et de caractériser grossièrement un objet de forme convexe aﰜn qu'il puisse être saisi par la pince du manipulateur. Cette thèse peut être vue comme complémentaire aux méthodes existantes reposant sur l'utilisation de bases de données. Ce manuscrit est divisé en deux parties : la localisation grossière d'un objet inconnu et la caractérisation de sa forme. L'objet se situe sur la ligne de vue qui passe par le centre optique de la caméra déportée et le clic. La projection de cette ligne de vue dans la caméra embarquée est la ligne épipolaire associée aux clic. Nous proposons donc un asservissement visuel reposant sur l'utilisation de la géométrie épipolaire pour commander la caméra embarquée de façon à parcourir cette ligne. Les indices visuels extraits des images embarquées sont ensuite mis en correspondance avec les indices détectés au voisinage du clic pour estimer la position 3D de l'objet. Cette méthode est robuste à des mouvements relatifs de l'objet et de la caméra déportée au cours du processus de localisation. En ﰜn de processus, l'objet désigné se trouve dans le champ de vision des deux caméras et ces deux vues peuvent servir à initier une caractérisation plus précise de l'objet et suﰞsante pour la saisie. Le problème de la caractérisation de la forme de l'objet a été traité dans le cadre d'une observation monoculaire dynamique. La forme de l'objet est modélisée par une quadrique dont les paramètres sont estimés à partir de ses projections dans un ensemble d'images. Les contours de l'objet sont détectés par une méthode de contours actifs initialisés à partir de la localisation grossière de l'objet. La caractérisation de l'objet est d'autant plus précise que les vues utilisées pour l'estimer sont bien choisies. La dernière contribution de ce mémoire est une méthode de sélection par vision active des vues optimales pour la reconstruction. Les meilleures vues sont choisies en recherchant les positions de la caméra qui maximisent l'information.
26

Localisation par vision multi-spectrale. Application aux systèmes embarqués

Gonzalez, Aurélien 08 July 2013 (has links) (PDF)
La problématique SLAM (Simultaneous Localization and Mapping) est un thème largement étudié au LAAS depuis plusieurs années. L'application visée concerne le développement d'un système d'aide au roulage sur aéroport des avions de ligne, ce système devant être opérationnel quelques soient les conditions météorologiques et de luminosité (projet SART financé par la DGE en partenariat avec principalement FLIR Systems, Latécoère et Thales). Lors de conditions de visibilité difficile (faible luminosité, brouillard, pluie...), une seule caméra traditionnelle n'est pas suffisante pour assurer la fonction de localisation. Dans un premier temps, on se propose d'étudier l'apport d'une caméra infrarouge thermique. Dans un deuxième temps, on s'intéressera à l'utilisation d'une centrale inertielle et d'un GPS dans l'algorithme de SLAM, la centrale aidant à la prédiction du mouvement, et le GPS à la correction des divergences éventuelles. Enfin, on intègrera dans ce même SLAM des pseudo-observations issues de l'appariement entre des segments extraits des images, et ces mêmes segments contenus dans une cartographie stockée dans une base de données. L'ensemble des observations et pseudo-observations a pour but de localiser le porteur à un mètre près. Les algorithmes devant être portés sur un FPGA muni d'un processeur de faible puissance par rapport aux PC standard (400 MHz), un co-design devra donc être effectué entre les éléments logiques du FPGA réalisant le traitement d'images à la volée et le processeur embarquant le filtre de Kalman étendu (EKF) pour le SLAM, de manière à garantir une application temps-réel à 30 Hz. Ces algorithmes spécialement développés pour le co-design et les systèmes embarqués avioniques seront testés sur la plate-forme robotique du LAAS, puis portés sur différentes cartes de développement (Virtex 5, Raspberry, PandaBoard...) en vue de l'évaluation des performances
27

Optimisation numérique pour la robotique et exécution de trajectoires référencées capteurs

Moulard, Thomas 17 September 2012 (has links) (PDF)
Le travail présenté dans cette thèse est divisé en deux parties. Dans la première partie, un modèle pour la représentation unifiée de problèmes d'optimisation numérique est proposé. Ce modèle permet de définir un problème d'optimisation indépendamment de la stratégie utilisée pour le résoudre. Cette représentation unifiée est particulièrement appréciable en robotique où une solution analytique des problèmes est rarement possible. La seconde partie traite de l'exécution de mouvements complexes asservis sur un robot humanoïde. Lors de la locomotion d'un tel système, les glissements des points de contact entraînent une dérive qu'il est nécessaire de corriger. Nous proposons ici un modèle permettant d'asservir une tâche de locomotion sur un capteur externe afin de compenser les erreurs d'exécution des mouvements. Un modèle est également proposé permettant de représenter des séquences de tâches de locomotion et de manipulation asservies. Enfin, une méthodologie pour le développement d'applications robotiques complexes est établie. Les stratégies proposées dans le cadre de cette thèse ont été validées sur la plate-forme expérimentale HRP-2.
28

Optimisation du séquencement de tâches avec lissage du mouvement dans la réalisation de missions autonomes ou collaboratives d'un humanoïde virtuel ou robotique

Keith, François 10 December 2010 (has links) (PDF)
La réalisation d'une mission robotique se décompose usuellement en trois étapes: la planification, i.e. le choix des taches à réaliser, le séquencement, i.e. la détermination du timing et de l'ordre de réalisation des tâches, et finalement l'exécution du plan de tâches. Pour les systèmes redondants tels que les robots humanoïdes, la tâche (dans le sens de fonction de tâche) détermine une commande sur une partie du robot, permettant ainsi la réalisation simultanée de plusieurs tâches à l'aide d'un formalisme de pile de tâches. Cependant, les mécanismes d'ordonnancement classiques ne gèrent pas les cas où le mouvement est déterminé par un ensemble de tâches hiérarchisé: pour ces robots, la phase d'ordonnancement est éludée et l'exécution se base directement sur la plan de tâches donné par le planificateur. Le but de cette thèse est de réintroduire cette phase d'ordonnancement, tout en maintenant le rôle central de la tâche. Dans un premier temps, la continuité de la commande fournie par la pile de tâches est étudiée. En particulier, nous mettons en évidence les discontinuités accompagnant la réalisation d'événements discrets (à savoir l'insertion, le retrait et l'échange de priorité de tâches), puis proposons et comparons plusieurs méthodes de lissage. Ensuite, nous présentons une méthode permettant d'optimiser une séquence de tâches donnée en modifiant le timing et la paramétrisation des tâches, tout en respectant les contraintes liées à l'environnement. Enfin, une nouvelle utilisation de la flexibilité de la fonction de tâche consistant à adapter une séquence de tâches aux préférences d'un utilisateur humain est illustrée. Ces résultats sont illustrés sur un robot humanoïde.
29

Pas de titre en français

Pandey, Amit Kumar 20 June 2012 (has links) (PDF)
Pas de résumés en français
30

Planification de trajectoire pour la manipulation d'objets et l'interaction Homme-robot

Broquère, Xavier 05 July 2011 (has links) (PDF)
Le contexte de la robotique de service est caractérisé par la présence de l'homme dans l'espace de travail du robot. Les mouvements de ces robots ne doivent perturber ni la sécurité de l'homme ni son confort. D'un point de vu planification de mouvement, le planificateur doit d'une part éviter de heurter l'homme ou l'environnement et d'autre part adapter les limites cinématiques du robot en fonction de la proximité de l'homme. A chaque niveau du système (planification et exécution/contrôle), le robot doit garantir la sécurité et le confort de l'homme. Nous proposons une approche de la planification et du contrôle de mouvement basée sur des trajectoires polynomiales. Dans une première partie, nous présentons un générateur de trajectoires qui limite la vitesse, l'accélération et le jerk. Il génère des trajectoires composées de suites de segments de courbes cubiques. Le cas mono-dimensionnel est d'abord présenté puis étendu au cas multi-dimensionnel. Dans une deuxième partie, nous proposons d'approximer les trajectoires par des suites de triplets de segments de courbes cubiques. Cette méthode permet de calculer des trajectoires respectant une erreur maximale donnée. Ces générateurs de trajectoire sont intégrés au planificateur de chemin et produisent des trajectoires directement exécutables. Une application originale de l'approximation permet d'approximer une trajectoire définie dans l'espace cartésien par une trajectoire définie dans l'espace articulaire. Cette approche simplifie la structure du contrôleur du robot. La présence de l'homme dans l'espace de travail du robot nécessite une adaptation des trajectoires pendant l'exécution. Nous proposons une méthode pour adapter la loi de mouvement de la trajectoire multidimensionnelle pendant l'exécution. Ces travaux, menés dans le cadre du projet européen DEXMART et du projet ANR ASSIST, ont été intégrés et validés sur les plateformes Jido et PR2 du LAAS-CNRS.

Page generated in 0.0869 seconds