Return to search

Desenvolvimento de um Sistema de Vis?o Global para uma Frota de Mini-Rob?s M?veis

Made available in DSpace on 2014-12-17T14:56:22Z (GMT). No. of bitstreams: 1
KelsonRTA.pdf: 822338 bytes, checksum: 2e3a06ae915ace956aac24995e24973f (MD5)
Previous issue date: 2001-03-28 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior / Navigation based on visual feedback for robots, working in a closed environment, can be obtained settling a camera in each robot (local vision system). However, this solution requests a camera and capacity of local processing for each robot. When possible, a global vision system is a cheapest solution for this problem. In this case, one or a little amount of cameras, covering all the workspace, can be shared by the entire team of robots, saving the cost of a great amount of cameras and the associated processing hardware needed in a local vision system. This work presents the implementation and experimental results of a global vision system for mobile mini-robots, using robot soccer as test platform. The proposed vision system consists of a camera, a frame grabber and a computer (PC) for image processing. The PC is responsible for the team motion control, based on the visual feedback, sending commands to the robots through a radio link. In order for the system to be able to unequivocally recognize each robot, each one has a label on its top, consisting of two colored circles. Image processing algorithms were developed for the eficient computation, in real time, of all objects position (robot and ball) and orientation (robot). A great problem found was to label the color, in real time, of each colored point of the image, in time-varying illumination conditions. To overcome this problem, an automatic camera calibration, based on clustering K-means algorithm, was implemented. This method guarantees that similar pixels will be clustered around a unique color class. The obtained experimental results shown that the position and orientation of each robot can be obtained with a precision of few millimeters. The updating of the position and orientation was attained in real time, analyzing 30 frames per second / A navega??o baseada em realimenta??o visual para rob?s, trabalhando em um ambiente fechado, pode ser obtida instalando-se uma c?mera em cada rob? (sistema de vis?o local). Esta solu??o, entretanto, requer uma c?mera e capacidade de processamento embarcado para cada rob?. Quando poss?vel, um sistema de vis?o global ? uma solu??o barata para este problema. Neste caso, uma ou uma pequena quantidade de c?meras, cobrindo todo o espa?o de trabalho, pode ser compartilhada pelos rob?s, diminuindo o custo de uma grande quantidade de c?meras e o hardware de processamento necess?rio a um sistema de vis?o local. Este trabalho apresenta a implementa??o e os resultados experimentais de um sistema de vis?o global para uma frota de mini-rob?s m?veis, utilizando como plataforma de testes uma partida de futebol entre rob?s. O sistema de vis?o proposto consiste de uma c?mera, uma placa digitalizadora de imagens e um computador (PC) para o processamento das imagens. O PC ? respons?vel pelo controle dos rob?s, baseado em realimenta??o visual, enviando comandos aos rob?s atrav?s de um transmissor de r?dio. Com o objetivo de possibilitar ao sistema reconhecer unicamente cada rob?, eles possuem r?tulos em seu topo, consistindo de dois c?rculos coloridos. Algoritmos de processamento de imagem foram desenvolvidos para o c?mputo eficiente, em tempo real, da posi??o (rob? e bola) e orienta??o (rob?) dos objetos em campo. Um grande problema encontrado foi rotular a cor, em tempo real, cada ponto colorido da imagem, em condi??es de varia??o de luminosidade. Para resolver este problema, um software de calibra??o autom?tica da c?mera, baseado no algoritmo de aglomera??o K-means, foi implementado. Este m?todo garante que pixels similares sejam agrupados ao redor de uma ?nica classe de cor. Os resultados experimentais obtidos mostram que a posi??o e a orienta??o de cada rob? pode ser obtida com uma precis?o de poucos mil?metros. A atualiza??o das informa??es de posi??o e orienta??o foi realizada em tempo real, analisando 30 quadros por segundo

Identiferoai:union.ndltd.org:IBICT/oai:repositorio.ufrn.br:123456789/15519
Date28 March 2001
CreatorsAires, Kelson R?mulo Teixeira
ContributorsCPF:42487455420, http://lattes.cnpq.br/3653597363789712, D?ria Neto, Adri?o Duarte, CPF:10749896434, http://lattes.cnpq.br/1987295209521433, Medeiros, Adelardo Adelino Dantas de, Alsina, Pablo Javier
PublisherUniversidade Federal do Rio Grande do Norte, Programa de P?s-Gradua??o em Engenharia El?trica, UFRN, BR, Automa??o e Sistemas; Engenharia de Computa??o; Telecomunica??es
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguagePortuguese
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Formatapplication/pdf
Sourcereponame:Repositório Institucional da UFRN, instname:Universidade Federal do Rio Grande do Norte, instacron:UFRN
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.0039 seconds