• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 22
  • 2
  • Tagged with
  • 61
  • 61
  • 61
  • 61
  • 61
  • 61
  • 16
  • 15
  • 12
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Asservissement visuel par projection sphérique

Tatsambon Fomena, Romeo 28 November 2008 (has links) (PDF)
Cette étude s'inscrit dans le cadre de l'asservissement visuel. La technique d'asservissement visuel consiste à utiliser les informations visuelles fournies par un capteur de vision pour commander les mouvements d'un système dynamique. Un des défis de cette technique est de s'approcher d'un comportement idéal du robot commandé, par exemple une trajectoire satisfaisante. Aujourd'hui, il est bien établi que l'élargissement du champ de vision et surtout le choix d'informations visuelles adéquates ont une incidence positive sur le comportement du robot. Si l'élargissement du champ de vision d'un robot est possible aujourd'hui par l'utilisation des systèmes de vision catadioptrique (couplage caméra et miroir), la sélection d'informations visuelles adéquates reste encore un problème ouvert puisque peu de travaux de modélisation ont été menés sur des systèmes à large champ de vision. Cette étude vise à modéliser des informations visuelles idéales. L'approche proposée est la modélisation par projection sphérique puisque ce modèle de projection est au centre des modèles de projection perspective et catadioptrique. Des résultats significatifs sont présentés pour un objet plan ou volumétrique défini par un ensemble de points et pour des objets volumétriques sphériques tels qu'une sphère et une sphère marquée. Pour chaque objet, un nouveau vecteur minimal d'informations visuelles idéales est proposé. La validation expérimentale de chaque nouveau vecteur montre un comportement adéquat du robot
2

Commande d'engins volants par asservissement visuel

Bourquardez, Odile 11 February 2008 (has links) (PDF)
non éditable
3

Vers des asservissements visuels sur des scènes inconnues

Christophe, Collewet 30 September 2008 (has links) (PDF)
Résumé non disponible
4

Approche développementale de la perception pour un robot humanoïde

Lyubova, Natalia 30 October 2013 (has links) (PDF)
Les robots de service ou d'assistance doivent évoluer dans un environnent humain en constant changement, souvent imprévisible. Ils doivent donc être capables de s'adapter à ces changements, idéalement de manière autonome, afin de ne pas dépendre de la présence constante d'une supervision. Une telle adaptation en environnements non structurés nécessite notamment une détection et un apprentissage continu des nouveaux objets présents, que l'on peut imaginer inspirés des enfants, basés sur l'interaction avec leur parents et la manipulation motivée par la curiosité. Notre travail vise donc à concevoir une approche développementale permettant à un robot humanoïde de percevoir son environnement. Nous nous inspirons à la fois de la perception humaine en termes de fonctionnalités et du développements cognitifs observé chez les infants. Nous proposons une approche qui permet à un robot humanoïde d'ex- plorer son environnement de manière progressive, comme un enfant, grâce à des interactions physiques et sociales. Suivant les principes de la robotique développementale, nous nous concentrons sur l'apprentissage progressif, continu et autonome qui ne nécessite pas de connaissances a priori des objets. Notre système de perception débute par la segmentation de l'espace visuel en proto-objets, qui serviront d'unités d'attention. Chaque proto-objet est représenté par des carac- téristiques bas-niveaux (la couleur et la texture) et sont eux-mêmes intégrés au sein de caractéristiques de plus haut niveau pour ensuite former un modèle multi-vues. Cet apprentissage s'effectue de manière incrémentale et chaque proto-objet est associé à une ou plusieurs entités physiques distinctes. Les entités physiques sont ensuite classés en trois catégories : parties du robot, parties des humains et objets. La caractérisation est basée sur l'analyse de mouvements des entités physiques provenant de la vision ainsi que sur l'information mutuelle entre la vison et proprioception. Une fois que le robot est capable de catégoriser les entités, il se concentre sur l'interaction active avec les objets permettant ainsi d'acquérir de nouvelles informations sur leur apparence qui sont intégrés dans leurs modèles de représen- tation. Ainsi, l'interaction améliore les connaissances sur les objets et augmente la quantité d'information dans leurs modèles. Notre système de perception actif est évalué avec le robot humanoïde iCub en utilisant une base expérimentale de 20 objets. Le robot apprend par interaction avec un partenaire humain ainsi que par ses propres actions sur les objets. Notre système est capable de créer de manière non supervisée des modèles cohérents des différentes entités et d'améliorer les modèles des objets par apprentissage interactif et au final de reconnaître des objets avec 88.5% de réussite.
5

Approche cognitive pour la représentation de l'interaction proximale haptique entre un homme et un humanoïde

Bussy, Antoine 10 October 2013 (has links) (PDF)
Les robots sont tout près d'arriver chez nous. Mais avant cela, ils doivent acquérir la capacité d'interagir physiquement avec les humains, de manière sûre et efficace. De telles capacités sont indispensables pour qu'il puissent vivre parmi nous, et nous assister dans diverses tâches quotidiennes, comme porter une meuble. Dans cette thèse, nous avons pour but de doter le robot humanoïde bipède HRP-2 de la capacité à effectuer des actions haptiques en commun avec l'homme. Dans un premier temps, nous étudions comment des dyades humains collaborent pour transporter un objet encombrant. De cette étude, nous extrayons un modèle global de primitives de mouvement que nous utilisons pour implémenter un comportement proactif sur le robot HRP-2, afin qu'il puisse effectuer la même tâche avec un humain. Puis nous évaluons les performances de ce schéma de contrôle proactif au cours de tests utilisateur. Finalement, nous exposons diverses pistes d'évolution de notre travail: la stabilisation d'un humanoïde à travers l'interaction physique, la généralisation du modèle de primitives de mouvements à d'autres tâches collaboratives et l'inclusion de la vision dans des tâches collaboratives haptiques.
6

Commande d'une caméra réelle ou virtuelle dans des mondes réels ou virtuels

Marchand, Eric 26 November 2004 (has links) (PDF)
Il y a aujourd'hui, d'après l'UNECE1 environ 770.000 robots opérationnels dont 24.000 en France. À ce jour, la plupart de ces robots sont des manipulateurs industriels dont l'autonomie est souvent réduite au stricte minimum. Ce manque d'autonomie est souvent due à l'absence de capteurs extéroceptifs sur les systèmes robotiques disponibles sur le marché. Ces capteurs sont cependant indispensables des lors que le robot évolue dans un environnement partiellement ou totalement inconnu. Dans ce contexte ces capteurs apportent aux systèmes robotiques les informations nécessaires pour appréhender l'environnement dans lequel ils évoluent. Dans le cadre de nos travaux nous avons uniquement considéré le cas des capteurs de vision qui fournissent au système une information riche mais dégénérée sous la forme d'une projection vers une image 2D de l'ensemble de l'environnement 3D perçu. L'un des points fondamentaux du cycle perception-action est la génération automatique des mouvements d'une ou plusieurs caméras. La création de carte 3D de l'environnement a longtemps été considérée comme un point de passage obligé pour la génération automatique des mouvements d'un robot autonome et de nombreux travaux se sont focalisés, souvent avec succès, sur ce sujet (e.g., [63]). Une façon élégante de raccourcir ce cycle en liant étroitement l'action à la mesure dans l'image est de générer les mouvements du système robotique en ayant recours au techniques d'asservissement visuel.
7

Contribution à la navigation d'un robot mobile par commande référencée multi-capteurs

Cadenat, Viviane 02 December 2011 (has links) (PDF)
Dans ce manuscrit, nous nous intéressons au problème de la navigation d'un robot mobile par commande référencée multi-capteurs. Notre objectif est d'effectuer des tâches de navigation guidées par la vision dans des environnements d'intérieur structurés peu connus, possiblement évolutifs et où l'homme peut être présent. Les missions considérées pourront inclure de longs déplacements et consisteront à positionner le robot vis-à-vis d'un amer ou d'une personne d'intérêt. Leur position dans la scène étant inconnue, ils seront repérés par la vision. Afin de pouvoir réaliser de telles missions, différents problèmes doivent être traités : le mouvement vers le but, l'évitement d'obstacles, le traitement des occultations, la réalisation de longs déplacements. Si les trois premiers points ont un caractère intrinsèquement local, le dernier nécessite des compétences globales. Les travaux que nous avons menés cherchent à répondre à ces différents problèmes. Tout d'abord, nous nous sommes focalisés sur les aspects "locaux". Nous avons ainsi exploité l'asservissement visuel 2D pour réaliser la tâche de navigation nominale et permettre au robot de converger vers un amer ou une personne d'intérêt. Cependant, bien que cette technique présente de bonnes propriétés de robustesse, elle ne permet pas à elle seule de traiter efficacement les problèmes de collisions et d'occultations. Une de nos premières contributions a donc consisté en le développement de stratégies de commande garantissant la non collision en présence d'obstacles non occultants. Sur la base de ces résultats, nous nous sommes intéressés à la gestion des occultations et avons développé des algorithmes permettant de reconstruire les indices visuels lorsque ceux-ci sont indisponibles. Nous les avons ensuite couplés à nos stratégies de commande afin que le robot puisse évoluer à partir des indices visuels réels ou reconstruits selon le cas. L'association de ces différents techniques et algorithmes a permis de réaliser effica cement des tâches de navigation référencées vision en présence d'obstacles occultants et non occultants. Cependant, elle nécessite que l'amer ou la personne d'intérêt soit visible dès le début de la mission, ce qui n'est pas le cas lorsque l'on souhaite réaliser de longs déplacements. Nos dernières contributions sont donc focalisées sur ce problème. Afin de conférer au robot les compétences globales nécessaires, nous avons couplé une carte topologique représentant l'environnement à un algorithme de supervision gérant la stratégie de commande. Le robot est ainsi devenu capable d'effectuer de longs déplacements dans des scènes peu connues. L'ensemble de ces travaux a été validé en simulation et expérimentalement sur les différents robots à disposition. Les résultats obtenus montrent la pertinence de l'approche proposée et ouvrent des perspectives prometteuses dans et hors du contexte de la navigation.
8

Contributions à l'exploitation de lidar 3D pour la navigation autonome : calibrage et localisation qualitative

Muhammad, Naveed 01 February 2012 (has links) (PDF)
Afin de permettre une navigation autonome d'un robot dans un environnement, le robot doit être capable de percevoir son environnement. Dans la littérature, d'une manière générale, les robots perçoivent leur environnement en utilisant des capteurs de type sonars, cameras et lidar 2D. L'introduction de nouveaux capteurs, nommés lidar 3D, tels que le Velodyne HDL-64E S2, a permis aux robots d'acquérir plus rapidement des données 3D à partir de leur environnement. La première partie de cette thèse présente une technique pour la calibrage des capteurs lidar 3D. La technique est basée sur la comparaison des données lidar à un modèle de vérité de terrain afin d'estimer les valeurs optimales des paramètres de calibrage. La deuxième partie de la thèse présente une technique pour la localisation et la détection de fermeture de boucles pour les robots autonomes. La technique est basée sur l'extraction et l'indexation des signatures de petite-taille à partir de données lidar 3D. Les signatures sont basées sur les histogrammes de l'information de normales de surfaces locale extraite à partir des données lidar en exploitant la disposition des faisceaux laser dans le dispositif lidar.
9

Localisation Et Guidage Du Robot Mobile Atrv2 Dans Un Environnement Naturel.

Djekoune, A. Oualid 15 December 2010 (has links) (PDF)
Les travaux présentés dans cette thèse portent essentiellement sur la localisation et la navigation du système mobile ATRV2 dans un environnement inconnu a priori. Ce système doit d'abord modéliser et construire sa carte de l'environnement à partir de données issues de ses capteurs embarqués, se localiser dans cette carte et ensuite générer un chemin sans collisions lui permettant d'atteindre son but. Le modèle de l'environnement que nous avons choisi est un modèle métrique (grille de certitude) basé sur l'algorithme HIMM et est mis à jour en utilisant les données en provenance des capteurs embarqués. La méthode de localisation utilisée est basée sur le filtre de Kalman étendu (EKF). Cette méthode fusionne les données odométriques (modèle du système) et les données du système de perception embarqué (mesure) pour corriger régulièrement l'estimation relative de la position du système mobile due à l'erreur cumulative engendrée par les capteurs odométriques. Pour déterminer la mesure, la méthode utilise la mise en correspondance des grilles tout en estimant sa zone de recherche et la position autour de laquelle elle effectue la recherche de la position estimée. Pour la navigation, nous avons proposé une nouvelle méthode appelée DVFF combinant une méthode de planification de trajectoire globale basée sur l'algorithme D*, et une méthode réactive non stop basée sur le principe des champs de forces virtuelles VFF. Cette méthode de navigation utilise les valeurs courantes des capteurs ultrasonores embarqués (sur une petite fenêtre temporelle), et les données provenant du modèle de l'environnement, pour décider de l'action à effectuer. Elle permet au système mobile ATRV2 de se mouvoir sans crainte de collisions avec les obstacles de son environnement.
10

Localisation et caractérisation d'objets inconnus à partir d'informations visuelles : vers une saisie intuitive pour les personnes en situation de handicap

Dune, Claire 30 April 2009 (has links) (PDF)
Le point de départ des travaux présentés dans cette thèse est la volonté de développement d'une aide robotisée à la saisie intuitive pour les personnes en situation de handicap. L'outil proposé est un manipulateur contrôlé en utilisant directement les informations transmises par deux caméras, l'une embarquée sur la pince qui donne une vue détaillée de la scène, et l'autre déportée qui en oﰛre une vue d'ensemble. L'objet de nos travaux est de saisir un objet a priori inconnu à partir d'un seul clic de l'utilisateur sur une image acquise par la caméra déportée. Nous proposons des méthodes permettant de localiser et de caractériser grossièrement un objet de forme convexe aﰜn qu'il puisse être saisi par la pince du manipulateur. Cette thèse peut être vue comme complémentaire aux méthodes existantes reposant sur l'utilisation de bases de données. Ce manuscrit est divisé en deux parties : la localisation grossière d'un objet inconnu et la caractérisation de sa forme. L'objet se situe sur la ligne de vue qui passe par le centre optique de la caméra déportée et le clic. La projection de cette ligne de vue dans la caméra embarquée est la ligne épipolaire associée aux clic. Nous proposons donc un asservissement visuel reposant sur l'utilisation de la géométrie épipolaire pour commander la caméra embarquée de façon à parcourir cette ligne. Les indices visuels extraits des images embarquées sont ensuite mis en correspondance avec les indices détectés au voisinage du clic pour estimer la position 3D de l'objet. Cette méthode est robuste à des mouvements relatifs de l'objet et de la caméra déportée au cours du processus de localisation. En ﰜn de processus, l'objet désigné se trouve dans le champ de vision des deux caméras et ces deux vues peuvent servir à initier une caractérisation plus précise de l'objet et suﰞsante pour la saisie. Le problème de la caractérisation de la forme de l'objet a été traité dans le cadre d'une observation monoculaire dynamique. La forme de l'objet est modélisée par une quadrique dont les paramètres sont estimés à partir de ses projections dans un ensemble d'images. Les contours de l'objet sont détectés par une méthode de contours actifs initialisés à partir de la localisation grossière de l'objet. La caractérisation de l'objet est d'autant plus précise que les vues utilisées pour l'estimer sont bien choisies. La dernière contribution de ce mémoire est une méthode de sélection par vision active des vues optimales pour la reconstruction. Les meilleures vues sont choisies en recherchant les positions de la caméra qui maximisent l'information.

Page generated in 0.099 seconds