• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 24
  • 7
  • Tagged with
  • 60
  • 39
  • 32
  • 32
  • 24
  • 19
  • 14
  • 14
  • 14
  • 12
  • 12
  • 12
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Motion planning and perception : integration on humanoid robots / Planification de mouvement, modélisation et perception : intégration sur un robot humanoïde

Nakhaei, Alireza 24 September 2009 (has links)
Le chapitre 1 est pour l'essentiel une brève introduction générale qui donne le contexte générale de la planification et présente l'organisation du document dans son ensemble et quelques uns des points clés retenus : robot humanoïde, environnement non statique, perception par vision artificielle, et représentation de cet environnement par grilles d'occupation. Dans le chapitre 2, après une revue de littérature bien menée, l'auteur propose de considérer les points de repère de l'environnement dès la phase de planification de chemin afin de rendre plus robuste l'exécution des déplacements en cas d'évolution de l'environnement entre le moment où la planification est menée et celui où le robot se déplace ( évolution étant entendu comme liée à une amélioration de la connaissance par mise à jour, ou due à un changement de l'environnement lui-même). Le concept est décrit et une formalisation proposée. Le chapitre 3 s'intéresse en détail à la planification dans le cas d'environnements dynamiques. Les méthodes existantes, nombreuses, sont tout d'abord analysées et bien présentées. Le choix est fait ici de décrire l'environnement comme étant décomposé en cellules, regroupant elles-mêmes des voxels, éléments atomiques de la représentation. L'environnement étant changeant, l'auteur propose de réévaluer le plan préétabli à partir d'une bonne détection de la zone qui a pu se trouver modifiée dans l'environnement. L'approche est validée expérimentalement en utilisant une des plateformes robotiques du LAAS qui dispose de bonnes capacités de localisation : le manipulateur mobile Jido étant à ce jour plus performant sur ce plan que l'humanoïde HRP2, c'est lui qui a été utilisé. Ces expérimentations donnent des indications concordantes sur l'efficacité de l'approche retenue. Notons également que la planification s'appuie sur une boite englobante de l'humanoïde, et non pas sur une représentation plus riche (multi-degré-deliberté). En revanche, c'est bien de planification pour l'humanoïde considéré dans toute sa complexité qu'il s'agit au chapitre 4 : on s'intéresse ici à tous les degrés de liberté du robot. L'auteur propose des évolutions de méthodes existantes et en particulier sur la manière de tirer profit de la redondance cinématique. L'approche est bien décrite et permet d'inclure une phase d'optimisation de la posture globale du robot. Des exemples illustrent le propos et sont l'occasion de comparaison avec d'autres méthodes. Le chapitre 5 s'intéresse à la manière de modéliser l'environnement, sachant qu'on s'intéresse ici au cas d'une perception par vision artificielle, et précisément au cas de l'humanoïde, robot d'assurer lui-même cette perception au fur et à mesure de son avancée dans l'environnement. On est donc dans le cadre de la recherche de la meilleure vue suivante qui doit permettre d'enrichir au mieux la connaissance qu'a le robot de son environnement. L'approche retenue fait à nouveau appel à la boite englobante de l'humanoïde et non à sa représentation complète ; il sera intéressant de voir dans le futur ce que pourrait apporter la prise en compte des degrés de liberté de la tête ou du torse à la résolution de ce problème. Le chapitre 6 décrit la phase d'intégration de tous ces travaux sur la plateforme HRP2 du LAAS-CNRS, partie importante de tout travail de roboticien. / This thesis starts by proposing a new framework for motion planning using stochastic maps, such as occupancy-grid maps. In autonomous robotics applications, the robot's map of the environment is typically constructed online, using techniques from SLAM. These methods can construct a dense map of the environment, or a sparse map that contains a set of identifiable landmarks. In this situation, path planning would be performed using the dense map, and the path would be executed in a sensor-based fashion, using feedback control to track the reference path based on sensor information regarding landmark position. Maximum-likelihood estimation techniques are used to model the sensing process as well as to estimate the most likely nominal path that will be followed by the robot during execution of the plan. The proposed approach is potentially a practical way to plan under the specific sorts of uncertainty confronted by a humanoid robot. The next chapter, presents methods for constructing free paths in dynamic environments. The chapter begins with a comprehensive review of past methods, ranging from modifying sampling-based methods for the dynamic obstacle problem, to methods that were specifically designed for this problem. The thesis proposes to adapt a method reported originally by Leven et al.. so that it can be used to plan paths for humanoid robots in dynamic environments. The basic idea of this method is to construct a mapping from voxels in a discretized representation of the workspace to vertices and arcs in a configuration space network built using sampling-based planning methods. When an obstacle intersects a voxel in the workspace, the corresponding nodes and arcs in the configuration space roadmap are marked as invalid. The part of the network that remains comprises the set of valid candidate paths. The specific approach described here extends previous work by imposing a two-level hierarchical structure on the representation of the workspace. The methods described in Chapters 2 and 3 essentially deal with low-dimensional problems (e.g., moving a bounding box). The reduction in dimensionality is essential, since the path planning problem confronted in these chapters is complicated by uncertainty and dynamic obstacles, respectively. Chapter 4 addresses the problem of planning the full motion of a humanoid robot (whole-body task planning). The approach presented here is essentially a four-step approach. First, multiple viable goal configurations are generated using a local task solver, and these are used in a classical path planning approach with one initial condition and multiple goals. This classical problem is solved using an RRT-based method. Once a path is found, optimization methods are applied to the goal posture. Finally, classic path optimization algorithms are applied to the solution path and posture optimization. The fifth chapter describes algorithms for building a representation of the environment using stereo vision as the sensing modality. Such algorithms are necessary components of the autonomous system proposed in the first chapter of the thesis. A simple occupancy-grid based method is proposed, in which each voxel in the grid is assigned a number indicating the probability that it is occupied. The representation is updated during execution based on values received from the sensing system. The sensor model used is a simple Gaussian observation model in which measured distance is assumed to be true distance plus additive Gaussian noise. Sequential Bayes updating is then used to incrementally update occupancy values as new measurements are received. Finally, chapter 6 provides some details about the overall system architecture, and in particular, about those components of the architecture that have been taken from existing software (and therefore, do not themselves represent contributions of the thesis). Several software systems are described, including GIK, WorldModelGrid3D, HppDynamicObstacle, and GenoM.
2

Exploiting structure in humanoid motion planning / Exploiter la structure pour la planification de mouvement humanoïde

Orthey, Andreas 24 September 2015 (has links)
Afin que les robots humanoïdes puissent travailler avec les humains et être en mesure de résoudre des tâches répétitives, nous devons leur permettre de planifier leurs mouvements de façon autonome. La planification de mouvement est un problème de longue date en robotique, et tandis que sa fondation algorithmique a été étudiée en profondeur, la planification de mouvement est encore un problème NP-difficile et qui manque de solutions efficaces. Nous souhaitons ouvrir une nouvelle perspective sur le problème en mettant en évidence sa structure: le comportement du robot, le système mécanique du robot et l’environnement du robot. Nous allons nous intéresser à l’hypothèse que chaque composante structurelle peut être exploitée pour créer des algorithmes de planification de mouvement plus efficaces. Nous présentons trois algorithmes exploitant la structure, basés sur des arguments géométriques et topologiques: d’abord, nous exploitons le comportement d’un robot de marche en étudiant la faisabilité des transitions des traces de pas. L’algorithme qui en résulte est capable de planifier des traces de pas tout en évitant jusqu’à 60 objets situés sur une surface plane 6 mètres carrés. Deuxièmement, nous exploitons le système mécanique d’un robot humanoïde en étudiant les structures des liaisons linéaires de ses bras et de ses jambes. Nous introduisons le concept d’une trajectoire irréductible, qui est une technique de réduction de dimension préservant la complétude. L’algorithme résultant est capable de trouver des mouvements dans des environnements étroits, où les méthodes d’échantillonnage ne pouvaient pas être appliquées. Troisièmement, nous exploitons l’environnement en raisonnant sur la structure topologique des transitions de contact. Nous montrons que l’analyse de l’environnement est une méthode efficace pour pré-calculer les informations pertinentes pour une planification de mouvement efficace. En s’appuyant sur ces résultats, nous arrivons à la conclusion que l’exploitation de la structure est une composante essentielle de la planification de mouvement efficace. Il en résulte que tout robot humanoïde, qui veut agir efficacement dans le monde réel, doit être capable de comprendre et d’exploiter la structure. / If humanoid robots should work along with humans and should be able to solve repetitive tasks, we need to enable them with a skill to autonomously plan motions. Motion planning is a longstanding core problem in robotics, and while its algorithmic foundation has been studied in depth, motion planning is still an NP-hard problem lacking efficient solutions. We want to open up a new perspective on the problem by highlighting its structure: the behavior of the robot, the mechanical system of the robot, and the environment of the robot. We will investigate the hypothesis that each structural component can be exploited to create more efficient motion planning algorithms. We present three algorithms exploiting structure, based on geometrical and topological arguments: first, we exploit the behavior of a walking robot by studying the feasibility of footstep transitions. The resulting algorithm is able to plan footsteps avoiding up to 60 objects on a 6 square meters planar surface. Second, we exploit the mechanical system of a humanoid robot by studying the linear linkage structures of its arms and legs. We introduce the concept of an irreducible motion, which is a completeness-preserving dimensionality reduction technique. The resulting algorithm is able to find motions in narrow environments, where previous sampling-based methods could not be applied. Third, we exploit the environment by reasoning about the topological structure of contact transitions. We show that analyzing the environment is an efficient method to precompute relevant information for efficient motion planning. Based on those results, we come to the conclusion that exploiting structure is an essential component of efficient motion planning. It follows that any humanoid robot, who wants to act efficiently in the real world, needs to be able to understand and to exploit structure.
3

Estimation et stabilisation de l'état d'un robot humanoïde compliant / Estimation and stabilization of the state of a compliant humanoid robot

Mifsud, Alexis 17 October 2017 (has links)
Cette thèse traite de l'estimation et de la stabilisation de l'état des compliances passives présentes dans les chevilles du robot humanoïde HRP-2. Ces compliances peuvent être vues comme un degré de liberté unique et observable, sous quelques hypothèses qui sont explicitées. L'estimateur utilise des mesures provenant de la centrale inertielle située dans le torse du robot et éventuellement des capteurs de forces situés dans ses pieds. Un filtre de Kalman étendu est utilisé pour l'estimation d'état. Ce filtre utilise un modèle complet de la dynamique du robot, pour lequel la dynamique interne du robot, considérée comme parfaitement connue et contrôlée, a été découplée de la dynamique de la compliance passive du robot. L'observabilité locale de l'état a été montrée en considérant ce modèle et les mesures provenant de la centrale inertielle seule. Il a de plus été montré que l'ajout des mesures des capteurs de forces dans les pieds du robot permet de compléter l'état avec des mesures d'erreurs dans le modèle dynamique du robot. L'estimateur a été validé expérimentalement sur le robot humanoïde HRP-2. Sur cet estimateur a été construit un stabilisateur de l'état de la compliance d'HRP-2. L'état commandé est la position et vitesse du centre de masse (contrôle indirecte de la quantité de mouvement) du robot, l'orientation et la vitesse angulaire de son tronc (contrôle indirecte du moment cinétique), ainsi que l'orientation et la vitesse angulaire de la compliance. Les grandeurs de commande sont l'accélération du centre de masse du robot et l'accélération angulaire de son tronc. Un régulateur quadratique linéaire (LQR) a été utilisé pour calculer les gains du retour d'état, basé sur un modèle appelé "pendule inverse flexible à roue d'inertie" qui consiste en un pendule inverse dont la base est flexible et où une répartition de masse en rotation autour du centre de masse du robot représente le tronc du robot. Des tests ont été effectués sur le robot HRP-2 en double support, utilisant l'estimateur décrit précédemment avec ou sans les capteurs de forces. / This PhD thesis covers the estimation and stabilization of the passive compliances state wich are located in the HRP-2 humanoid robot ankles. These compliances can be seen as a unique compliance under some assumptions that are presented. The estimator uses measurements coming from an Inertial Measurement Unit (IMU) located in the robot's chest. It also uses measurements coming from forces sensors located in its feet. An Extended Kalman Filter (EKF) is used for state estimation. This filter uses a complete model of the robot dynamics, in which the internal dynamics of the robot, considered as known, is decoupled from the dynamics of its passive compliance. The local observability of the state is shown by considering this model and the measurements coming from the IMU only. Furthermore, it has been shown that, by adding the measurements coming from the forces sensors in the robot's feet, we are able to complete the state with some errors measurements in the dynamical model of the robot. The estimator was validated experimentaly on the HRP-2 humanoid robot. Based on this estimator, a stabilizer of the compliance state of the HRP-2 robot was build. The control state is the position and velocity of the center of mass of the robot, the orientation and angular velocity of its trunk, and the orientation and the angular velocity of the compliance. The control values are the acceleration of the robot's center of mass and the angular acceleration of its trunk. A Linear Quadratic Regulator (LQR) is used to compute the feed-back gains, based on a Viscoelastic Reaction Mass Pendulum model which consist in an inverse pendulum whith a flexible base and where a mass repartition rotating around the center of mass is modeling the robot's trunk. Some tests were made on the HRP-2 robot in double support, using the previous estimator with and without the use of forces sensors
4

Comment le langage impose-t-il la structure du sens : construal et narration / How Language Imposes Structure on Meaning : Construal and Narrative

Mealier, Anne-Laure 12 December 2016 (has links)
Cette thèse a été effectuée dans le cadre du projet européen WYSIWYD (What You Say is What You Did). Ce projet a pour but de rendre, plus naturelles, les interactions Humain-robot, notamment par le biais du langage. Le déploiement de robots compagnon et de robots de service requière que les humains et les robots puissent se comprendre mutuellement et communiquer. Les humains ont développé une codification avancée de leur comportement qui fournit la base de la transparence de la plupart de leurs actions et de leur communication. Jusqu'à présent, les robots ne partagent pas ce code de comportement et ne sont donc pas capables d'expliquer leurs propres actions aux humains. Nous savons que dans le langage parlé, il existe un lien direct entre le langage et le sens permettant à une personne qui écoute d'orienter son attention sur un aspect précis d'un événement. Ceci est particulièrement vrai en production de langage. On sait que la perception visuelle permet l'extraction des aspects de «qui a fait quoi à qui» dans la compréhension des événements sociaux. Mais dans le cadre d'interactions humaines, il existe d'autres aspects importants qui ne peuvent être déterminés uniquement à partir de l'image visuelle. L'échange d'un objet peut être interprété suivant différents points de vue, par exemple du point de vue du donateur ou de celui du preneur. Nous introduisons ainsi la notion de construal. Le construal est la manière dont une personne interprète le monde ou comprend une situation particulière. De plus, les événements sont reliés dans le temps, mais il y a des liens de causalité ainsi que des liens intentionnels qui ne peuvent pas être vus d'un point de vue uniquement visuel. Un agent exécute une action, car il sait que cette action satisfait le désir d'un autre agent. Cela peut ne pas être visible directement dans la scène visuelle. Le langage permet ainsi de préciser cette particularité : "Il vous a donné le livre parce que vous le vouliez". La première problématique que nous mettons en évidence dans ce travail est la manière dont le langage peut être utilisé pour représenter ces construals. Autrement dit, la manière dont un orateur choisit une construction grammaticale plutôt qu'une autre en fonction de son centre d'intérêt. Pour y répondre, nous avons développé un système dans lequel un modèle mental représente un événement d'action. Ce modèle est déterminé par la correspondance entre deux vecteurs abstraits : le vecteur de force exercée par l'action et le vecteur de résultat correspondant à l'effet de la force exercée. La deuxième problématique que nous étudions est comment des constructions de discours narratif peuvent être apprises grâce à un modèle de discours narratifs. Ce modèle se base sur des réseaux neuronaux de production et de compréhension de phrases existants que nous enrichissons avec des structures additionnelles permettant de représenter un contexte de discours. Nous présentons également la manière dont ce modèle peut s'intégrer dans un système cognitif global permettant de comprendre et de générer de nouvelles constructions de discours narratifs ayant une structure similaire, mais des arguments différents. Pour chacun des travaux cités précédemment, nous montrons comment ces modèles théoriques sont intégrés dans la plateforme de développement du robot humanoïde iCub. Cette thèse étudiera donc principalement deux mécanismes qui permettent d'enrichir le sens des évènements par le langage. Le travail se situe entre les neurosciences computationnelles, l'élaboration de modèles de réseaux neuronaux de compréhension et de production de discours narratifs, et la linguistique cognitive où comprendre et expliquer un sens en fonction de l'attention est crucial / This thesis takes place in the context of the European project WYSIWYD (What You Say is What You Did). The goal of this project is to provide transparency in Human-robot interactions, including by mean of language. The deployment of companion and service robots requires that humans and robots can understand each other and communicate. Humans have developed an advanced coding of their behavior that provides the basis of transparency of most of their actions and their communication. Until now, the robots do not share this code of behavior and are not able to explain their own actions to humans. We know that in spoken language, there is a direct mapping between languages and meaning allowing a listener to focus attention on a specific aspect of an event. This is particularly true in language production. Moreover, visual perception allows the extraction of the aspects of "who did what to whom" in the understanding of social events. However, in the context of human interaction, other important aspects cannot be determined only from the visual image. The exchange of an object can be interpreted from the perspective of the giver or taker. This introduces the notion of construal that is how a person interprets the world and perceive a particular situation. The events are related in time, but there are causal and intentional connexion that cannot be seen only from a visual standpoint. An agent performs an action because he knows that this action satisfies the need for another person. This may not be directly visible in the visual scene. The language allows specifying this characteristic: "He gave you the book because you like it." The first point that we demonstrate in this work is how the language can be used to represent these construals. In response, we have developed a system in which a mental model represents an action event. This model is determined by the correspondence between two abstract vectors: the force vector exerted by the action and the result vector corresponding to the effect of the applied force. The application of an attentional process selects one of the two vectors, thus generating the construal of the event. The second point that we consider in this work is how the construction of narrative discourse can be learned with a narrative discourse model. This model is based on both existing neural networks of production and comprehension of sentences that we enrich with additional structures to represent a context of discourse. We present also how this model can be integrated into an overall cognitive system for understanding and generate new constructions of narrative discourse based on similar structure, but different arguments. For each of the works mentioned above, we show how these theoretical models are integrated into the development platform of the iCub humanoid robot. This thesis will explore two main mechanisms to enrich the meaning of events through language. The work is situated between computational neuroscience, with development of neural network models of comprehension and production of narrative discourse, and cognitive linguistics where to understand and explain the meaning according to joint attention is crucial
5

Apprentissage De Modèles Pour La Commande De La Mobilité Interne En Robotique

Salaün, Camille 30 August 2010 (has links) (PDF)
La robotique de service est un domaine émergent où il est nécessaire de commander des robots en interaction forte avec leur environnement. Ce travail présente une méthode adaptative de commande combinant de l'apprentissage de modèles de la mécanique à de la commande dans l'espace opérationnel de robots redondants. L'apprentissage des modèles cinématiques est obtenu soit par dérivation de modèles géométriques appris, soit par apprentissage direct. Ces modèles cinématiques, également appelés matrices Jacobiennes, peuvent être utilisés dans le calcul de pseudo-inverses ou de projecteurs pour la commande de robots. Cette combinaison de méthodes permet d'obtenir un contrôleur qui s'adapte à la géométrie du robot command é. En utilisant les mêmes algorithmes d'apprentissage, il est possible d'apprendre un modèle dynamique inverse du robot contr^olé de manière à le commander en couple plutôt qu'en vitesse, l'avantage étant de pouvoir s'adapter aux modifications dynamiques qui s'appliquent sur le robot comme par exemple l'application d'une force extérieure ou l'ajout d'un poids. Des expériences en simulation menées dans le cadre de cette thèse montrent comment réaliser plusieurs tâches hiérarchiques ou comment s'adapter à des perturbations avec des modèles appris. Des expériences sur le robot iCub ont également été menées afin de rendre compte de la plausibilité de l'approche proposée sur un système réel.
6

Transfert de Mouvement Humain vers Robot Humanoïde / Human Motion Transfer on Humanoid Robot

Montecillo Puente, Francisco Javier 26 August 2010 (has links)
Le but de cette thèse est le transfert du mouvement humain vers un robot humanoïde en ligne. Dans une première partie, le mouvement humain, enregistré par un système de capture de mouvement, est analysé pour extraire des caractéristiques qui doivent être transférées vers le robot humanoïde. Dans un deuxième temps, le mouvement du robot qui comprend ces caractéristiques est calculé en utilisant la cinématique inverse avec priorité. L'ensemble des tâches avec leurs priorités est ainsi transféré. La méthode permet une reproduction du mouvement la plus fidèle possible, en ligne et pour le haut du corps. Finalement, nous étudions le problème du transfert mouvement des pieds. Pour cette étude, le mouvement des pieds est analysé pour extraire les trajectoires euclidiennes qui sont adaptées au robot. Les trajectoires du centre du masse qui garantit que le robot ne tombe pas sont calculées `a partir de la position des pieds et du modèle du pendule inverse. Il est ainsi possible réaliser une imitation complète incluant les mouvements du haut du corps ainsi que les mouvements des pieds. / The aim of this thesis is to transfer human motion to a humanoid robot online. In the first part of this work, the human motion recorded by a motion capture system is analyzed to extract salient features that are to be transferred on the humanoid robot. We introduce the humanoid normalized model as the set of motion properties. In the second part of this work, the robot motion that includes the human motion features is computed using the inverse kinematics with priority. In order to transfer the motion properties a stack of tasks is predefined. Each motion property in the humanoid normalized model corresponds to one target in the stack of tasks. We propose a framework to transfer human motion online as close as possible to a human motion performance for the upper body. Finally, we study the problem of transfering feet motion. In this study, the motion of feet is analyzed to extract the Euclidean trajectories adapted to the robot. Moreover, the trajectory of the center of mass which ensures that the robot does not fall is calculated from the feet positions and the inverse pendulum model of the robot. Using this result, it is possible to achieve complete imitation of upper body movements and including feet motion
7

Modeling of human movement for the generation of humanoid robot motion / Modélisation du mouvement humain pour la génération de mouvements de robots humanoïdes

Narsipura Sreenivasa, Manish 21 September 2010 (has links)
La robotique humanoïde arrive a maturité avec des robots plus rapides et plus précis. Pour faire face à la complexité mécanique, la recherche a commencé à regarder au-delà du cadre habituel de la robotique, vers les sciences de la vie, afin de mieux organiser le contrôle du mouvement. Cette thèse explore le lien entre mouvement humain et le contrôle des systèmes anthropomorphes tels que les robots humanoïdes. Tout d’abord, en utilisant des méthodes classiques de la robotique, telles que l’optimisation, nous étudions les principes qui sont à la base de mouvements répétitifs humains, tels que ceux effectués lorsqu’on joue au yoyo. Nous nous concentrons ensuite sur la locomotion en nous inspirant de résultats en neurosciences qui mettent en évidence le rôle de la tête dans la marche humaine. En développant une interface permettant à un utilisateur de commander la tête du robot, nous proposons une méthode de contrôle du mouvement corps-complet d’un robot humanoïde, incluant la production de pas et permettant au corps de suivre le mouvement de la tête. Cette idée est poursuivie dans l’étude finale dans laquelle nous analysons la locomotion de sujets humains, dirigée vers une cible, afin d’extraire des caractéristiques du mouvement sous forme invariants. En faisant le lien entre la notion “d’invariant” en neurosciences et celle de “tâche cinématique” en robotique humanoïde, nous développons une méthode pour produire une locomotion réaliste pour d’autres systèmes anthropomorphes. Dans ce cas, les résultats sont illustrés sur le robot humanoïde HRP2 du LAAS-CNRS. La contribution générale de cette thèse est de montrer que, bien que la planification de mouvement pour les robots humanoïdes peut être traitée par des méthodes classiques de robotique, la production de mouvements réalistes nécessite de combiner ces méthodes à l’observation systématique et formelle du comportement humain. / Humanoid robotics is coming of age with faster and more agile robots. To compliment the physical complexity of humanoid robots, the robotics algorithms being developed to derive their motion have also become progressively complex. The work in this thesis spans across two research fields, human neuroscience and humanoid robotics, and brings some ideas from the former to aid the latter. By exploring the anthropological link between the structure of a human and that of a humanoid robot we aim to guide conventional robotics methods like local optimization and task-based inverse kinematics towards more realistic human-like solutions. First, we look at dynamic manipulation of human hand trajectories while playing with a yoyo. By recording human yoyo playing, we identify the control scheme used as well as a detailed dynamic model of the hand-yoyo system. Using optimization this model is then used to implement stable yoyo-playing within the kinematic and dynamic limits of the humanoid HRP-2. The thesis then extends its focus to human and humanoid locomotion. We take inspiration from human neuroscience research on the role of the head in human walking and implement a humanoid robotics analogy to this. By allowing a user to steer the head of a humanoid, we develop a control method to generate deliberative whole-body humanoid motion including stepping, purely as a consequence of the head movement. This idea of understanding locomotion as a consequence of reaching a goal is extended in the final study where we look at human motion in more detail. Here, we aim to draw to a link between “invariants” in neuroscience and “kinematic tasks” in humanoid robotics. We record and extract stereotypical characteristics of human movements during a walking and grasping task. These results are then normalized and generalized such that they can be regenerated for other anthropomorphic figures with different kinematic limits than that of humans. The final experiments show a generalized stack of tasks that can generate realistic walking and grasping motion for the humanoid HRP-2. The general contribution of this thesis is in showing that while motion planning for humanoid robots can be tackled by classical methods of robotics, the production of realistic movements necessitate the combination of these methods with the systematic and formal observation of human behavior.
8

Optimisation numérique pour la robotique et exécution de trajectoires référencées capteurs / Numerical Optimization for robotics and closed-loop trajectory execution

Moulard, Thomas 17 September 2012 (has links)
Le travail présenté dans cette thèse est divisé en deux parties. Dans la première partie, un modèle pour la représentation unifiée de problèmes d'optimisation numérique est proposé. Ce modèle permet de définir un problème d'optimisation indépendamment de la stratégie utilisée pour le résoudre. Cette représentation unifiée est particulièrement appréciable en robotique où une solution analytique des problèmes est rarement possible. La seconde partie traite de l'exécution de mouvements complexes asservis sur un robot humanoïde. Lors de la locomotion d'un tel système, les glissements des points de contact entraînent une dérive qu'il est nécessaire de corriger. Nous proposons ici un modèle permettant d'asservir une tâche de locomotion sur un capteur externe afin de compenser les erreurs d'exécution des mouvements. Un modèle est également proposé permettant de représenter des séquences de tâches de locomotion et de manipulation asservies. Enfin, une méthodologie pour le développement d'applications robotiques complexes est établie. Les stratégies proposées dans le cadre de cette thèse ont été validées sur la plate-forme expérimentale HRP-2. / The presented work is divided into two parts. In the first one, an unified computer representation for numerical optimization problems is proposed. This model allows to define problems independently from the algorithm used to solve it. This unified model is particularly interesting in robotics where exact solutions are difficult to find. The second part is dealing with complex trajectory execution on humanoid robots with sensor feedback. When a biped robots walks, contact points often slip producing a drift which is necessary to compensate. We propose here a closed-loop control scheme allowing the use of sensor feedback to cancel execution errors. To finish, a method for the the development of complex robotics application is detailed. This thesis contributions have been implemented on the HRP-2 humanoid robot.
9

Planification de mouvement pour systèmes anthropomorphes / Motion planning for anthropomorphic systems

Dalibard, Sébastien 22 July 2011 (has links)
L'objet de cette thèse est le développement et l'étude des algorithmes de planification de mouvement pour les systèmes hautement dimensionnés que sont les robots humanoïdes et les acteurs virtuels. Plusieurs adaptations des méthodes génériques de planification de mouvement randomisées sont proposées et discutées. Une première contribution concerne l'utilisation de techniques de réduction de dimension linéaire pour accélérer les algorithmes d'échantillonnage. Cette méthode permet d'identifier en ligne quand un processus de planification passe par un passage étroit de l'espace des configurations et adapte l'exploration en fonction. Cet algorithme convient particulièrement bien aux problèmes difficiles de la planification de mouvement pour l'animation graphique. La deuxième contribution est le développement d'algorithmes randomisés de planification sous contraintes. Il s'agit d'une intégration d'outils de cinématique inverse hiérarchisée aux algorithmes de planification de mouvement randomisés. On illustre cette méthode sur différents problèmes de manipulation pour robots humanoïdes. Cette contribution est généralisée à la planification de mouvements corps-complet nécessitant de la marche. La dernière contribution présentée dans cette thèse est l'utilisation des méthodes précédentes pour résoudre des tâches de manipulation complexes par un robot humanoïde. Nous présentons en particulier un formalisme destiné à représenter les informations propres à l'objet manipulé utilisables par un planificateur de mouvement. Ce formalisme est présenté sous le nom d'« objets documentés». / This thesis deals with the development and analysis of motion planning algorithms for high dimensional systems: humanoid robots and digital actors. Several adaptations of generic randomized motion planning methods are proposed and discussed. A first contribution concerns the use of linear dimensionality reduction techniques to speed up sampling algorithms. This method identifies on line when a planning process goes through a narrow passage of some configuration space, and adapts the exploration accordingly. This algorithm is particularly suited to difficult problems of motion planning for computer animation. The second contribution is the development of randomized algorithms for motion planning under constraints. It consists in the integration of prioritized inverse kinematics tools within randomized motion planning. We demonstrate the use of this method on different manipulation planning problems for humanoid robots. This contribution is generalized to whole-body motion planning with locomotion. The last contribution of this thesis is the use of previous methods to solve complex manipulation tasks by humanoid robots. More specifically, we present a formalism that represents information specific to a manipulated object usable by a motion planner. This formalism is presented under the name of "documented object".
10

Approche cognitive pour la représentation de l’interaction proximale haptique entre un homme et un humanoïde / Cognitive approach for representing the haptic physical human-humanoid interaction

Bussy, Antoine 10 October 2013 (has links)
Les robots sont tout près d'arriver chez nous. Mais avant cela, ils doivent acquérir la capacité d'interagir physiquement avec les humains, de manière sûre et efficace. De telles capacités sont indispensables pour qu'il puissent vivre parmi nous, et nous assister dans diverses tâches quotidiennes, comme porter une meuble. Dans cette thèse, nous avons pour but de doter le robot humanoïde bipède HRP-2 de la capacité à effectuer des actions haptiques en commun avec l'homme. Dans un premier temps, nous étudions comment des dyades humains collaborent pour transporter un objet encombrant. De cette étude, nous extrayons un modèle global de primitives de mouvement que nous utilisons pour implémenter un comportement proactif sur le robot HRP-2, afin qu'il puisse effectuer la même tâche avec un humain. Puis nous évaluons les performances de ce schéma de contrôle proactif au cours de tests utilisateurs. Finalement, nous exposons diverses pistes d'évolution de notre travail: la stabilisation d'un humanoïde à travers l'interaction physique, la généralisation du modèle de primitives de mouvements à d'autres tâches collaboratives et l'inclusion de la vision dans des tâches collaboratives haptiques. / Robots are very close to arrive in our homes. But before doing so, they must master physical interaction with humans, in a safe and efficient way. Such capacities are essential for them to live among us, and assit us in various everyday tasks, such as carrying a piece of furniture. In this thesis, we focus on endowing the biped humanoid robot HRP-2 with the capacity to perform haptic joint actions with humans. First, we study how human dyads collaborate to transport a cumbersome object. From this study, we define a global motion primitives' model that we use to implement a proactive behavior on the HRP-2 robot, so that it can perform the same task with a human. Then, we assess the performances of our proactive control scheme by perfoming user studies. Finally, we expose several potential extensions to our work: self-stabilization of a humanoid through physical interaction, generalization of the motion primitives' model to other collaboratives tasks and the addition of visionto haptic joint actions.

Page generated in 0.4253 seconds