• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Auto-organização e aprendizagem por demonstração na determinação de marcha robótica

SANTANA JÚNIOR, Orivaldo Vieira de 04 May 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-19T16:42:50Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese.pdf: 4571246 bytes, checksum: aa714dc0378feb8f3d327b4a277d93bd (MD5) / Made available in DSpace on 2016-01-19T16:42:50Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese.pdf: 4571246 bytes, checksum: aa714dc0378feb8f3d327b4a277d93bd (MD5) Previous issue date: 2015-05-04 / CAPES / Esta Tese apresenta uma abordagem para o problema de locomoção de robôs com patas. Esta abordagem tem como base aprendizagem, planejamento e controle da movimentação dos membro inferiores para deslocar um robô de um local para outro. O sistema construído com a abordagem proposta produz padrões de saída semelhantes àqueles gerados por um Gerador Central de Padrões (CPG) para controlar as articulações de um robô. Os algoritmos propostos são capazes de, com um comando simples, mudar a velocidade de deslocamento do robô e de gerar sinais sincronizados e rítmicos para as articulações. O processo de aprendizagem da movimentação dos membros inferiores pode ser aplicado em diferentes robôs na aprendizagem de diversos modos de locomoção. Neste processo não é necessário determinar um conjunto de equações e seus parâmetros para cada robô. A informação necessária para a aprendizagem da movimentação das pernas de um robô é extraída dos dados observados e organizada em estados. O controle das articulações do robô é realizado com dados oriundos do conteúdo dos estados de uma trajetória através de Controle Guiado por Dados (DDC). Os dados contidos nos estados devem informar direta ou indiretamente a posição angular desejada para cada articulação. O agente aprendiz, implementado com a abordagem proposta, gera uma representação interna da movimentação dos membros através de um processo de auto-organização na qual conexões determinam a transição entre estados. Estas conexões são criadas entre estados próximos com o objetivo de gerar uma trajetória cíclica. Dois Mapas Auto-organizáveis (SOMs) de topologia variante no tempo foram implementados para o processo de aprendizagem da abordagem proposta: Gerador de Trajetória de Estados Auto-Organizável (SOM-STG) e Gerador de Trajetória de Estados Cíclica Auto-Organizável (SOM-CSTG). O mapa SOM-CSTG é uma evolução de SOM-STG e surgiu para superar algumas limitações do primeiro. O objetivo destes mapas é aprender posturas e conectá-las para construir trajetórias usadas para controlar a marcha do robô. A aquisição de dados de treinamento das redes é baseada em aprendizagem por demonstração, na qual, os estados (posturas) são aprendidos a partir de um agente demonstrador. Estes mapas são capazes de aprender com dados coletados a partir do sinal de saída de um CPG, de sensores sobre um agente demonstrador ou de observações externas ao agente demonstrador, como por imagens de vídeo. Uma trajetória cíclica de estados gerada por estes mapas, quando executada conduz o movimento dos membros do robô de maneira semelhante aos padrões de movimentação presentes nos dados de treinamento (marchas). Os testes de aprendizagem foram realizados com dados de um robô simulado de seis patas, de um animal de quatro patas e dados da locomoção humana. Os testes de planejamento e controle de movimentos foram realizados com um robô simulado de seis patas e um robô simulado de quatro patas. / This Thesis presents an approach to legged robot locomotion problem. This approach is based on learning, planning and control of the movement of the lower member to move a robot from one location to another. The system built with the proposed approach produces output patterns similar to those generated by Central Pattern Generator (CPG) for controlling the joints of a robot. The proposed algorithms are able to, with a simple command, change displacement speed of the robot and to generate synchronizing signals and rhythmic to the joints. The learning process of the movement for inferior members can be applied to various robots in learning of many gaits. In this process it is not necessary to determine a set of equations and parameters for each robot. The substantial information for learning movement of the legs of a robot is extracted from observed data and organized in states. The control of the robot joints is carried out data from the content of the states of a trajectory through Data Driven Control (DDC). The data contained in the states should inform directly or indirectly the desired angular position for each joint. The learner agent, implemented with the proposed approach, generates an internal representation of the movement of members through a process of self-organization in which connections determine the transition between states. These connections are created between nearby states in order to generate a cyclic trajectory. Two self-organizing maps (SOMs) with a time-varying structure were implemented to the learning process of the proposed approach: Self-Organizing Map with State Trajectory Generator (SOM-STG) and Self-Organizing Map with Cyclic State Trajectory Generator (SOM-CSTG). SOM-CSTG is an evolution of SOM-STG and appeared to overcome some limitations of the first one. The purpose of these maps is learn postures and connects them to build paths used to control the motion of the robot. The acquirement of training data for the networks is based on learning by demonstration, in which the states (postures) are learned from a demonstrator agent. These maps are able to learning from data collected from the output signal of a CPG, of sensor on a demonstrator agent or external observations to the demonstrator agent such as video images. A cyclic trajectory of states generated by these maps, when executed leads the movement of the robot members so similar to the movement patterns present in the training data (gaits). The learning tests were performed with simulated data from a six-legged robot, a four-legged animal and data of human locomotion. Planning and control movements tests were performed with a simulated six-legged robot and a simulated four-legged robot.

Page generated in 0.0434 seconds