Return to search

Navega??o cooperativa de um rob? human?ide e um rob? com rodas usando informa??o visual

Made available in DSpace on 2014-12-17T14:55:06Z (GMT). No. of bitstreams: 1
GutembergSS.pdf: 569123 bytes, checksum: 6f85b5ee47010d2d331986f17689304b (MD5)
Previous issue date: 2008-05-30 / This work presents a cooperative navigation systemof a humanoid robot and a wheeled robot using visual information, aiming to navigate the non-instrumented humanoid robot
using information obtained from the instrumented wheeled robot. Despite the humanoid not having sensors to its navigation, it can be remotely controlled by infra-red signals.
Thus, the wheeled robot can control the humanoid positioning itself behind him and, through visual information, find it and navigate it. The location of the wheeled robot is obtained merging information from odometers and from landmarks detection, using the Extended Kalman Filter. The marks are visually detected, and their features are extracted by image processing. Parameters obtained by image processing are directly used in the Extended Kalman Filter. Thus, while the wheeled robot locates and navigates the humanoid, it also simultaneously calculates its own location and maps the environment (SLAM). The navigation is done through heuristic algorithms based on errors between the actual and desired pose for each robot. The main contribution of this work was the implementation of a cooperative navigation system for two robots based on visual information, which can be extended to other robotic applications, as the ability to control
robots without interfering on its hardware, or attaching communication devices / Este trabalho apresenta um sistema de navega??o cooperativa de um rob? human?ide e um rob? com rodas usando informa??o visual, com o objetivo de efetuar a navega??o do rob? human?ide n?o instrumentado utilizando-se das informa??es obtidas do rob? com rodas instrumentado. Apesar do human?ide n?o possuir sensores para sua navega??o, pode ser remotamente controlado por sinal infravermelho. Assim, o rob? com rodas pode controlar o human?ide posicionando-se atr?s dele e, atrav?s de informa??o visual, localiz?-lo e naveg?-lo. A localiza??o do rob? com rodas ? obtida fundindo-se informa??es de odometria e detec??o de marcos utilizando o filtro de Kalman estendido. Os marcos s?o detectados visualmente, e suas caracter?sticas s?o extra?das pelo o processamento da imagem. As informa??es das caracter?sticas da imagem s?o utilizadas diretamente no filtro de Kalman estendido. Assim, enquanto o rob? com rodas localiza e navega o human?ide,
realiza tamb?m sua localiza??o e o mapeamento do ambiente simultaneamente (SLAM). A navega??o ? realizada atrav?s de algoritmos heur?sticos baseados nos erros de pose entre a pose dos rob?s e a pose desejada para cada rob?. A principal contribui??o desse trabalho foi a implementa??o de um sistema de navega??o cooperativa entre dois rob?s baseados em informa??o visual, que pode ser estendido para outras aplica??es rob?ticas, dado a possibilidade de se controlar rob?s sem interferir em seu hardware, ou acoplar dispositivos de comunica??o

Identiferoai:union.ndltd.org:IBICT/oai:repositorio.ufrn.br:123456789/15197
Date30 May 2008
CreatorsSantiago, Gutemberg Santos
ContributorsCPF:44418620400, http://lattes.cnpq.br/6787525856497063, Alsina, Pablo Javier, CPF:42487455420, http://lattes.cnpq.br/3653597363789712, Pedrosa, Diogo Pinheiro Fernandes, CPF:02199024458, http://lattes.cnpq.br/3276436982330644, Medeiros, Adelardo Adelino Dantas de
PublisherUniversidade Federal do Rio Grande do Norte, Programa de P?s-Gradua??o em Engenharia El?trica, UFRN, BR, Automa??o e Sistemas; Engenharia de Computa??o; Telecomunica??es
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguageEnglish
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Formatapplication/pdf
Sourcereponame:Repositório Institucional da UFRN, instname:Universidade Federal do Rio Grande do Norte, instacron:UFRN
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0027 seconds