• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Desenvolvimento de uma plataforma robótica móvel incluindo sistema embarcado de visão estéreo

Erdtmann, Mathias José Kreutz 24 October 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2009 / Made available in DSpace on 2012-10-24T15:55:38Z (GMT). No. of bitstreams: 1 270269.pdf: 5421597 bytes, checksum: 99aef87899098d7d749cbe4d2ccddd63 (MD5) / O objetivo deste trabalho é desenvolver uma plataforma robótica móvel com sistema de visão estereoscópica embarcado. Para tanto, são avaliadas as diversas opções existentes no mercado de robótica móvel, optando-se por projetar e implementar toda a plataforma, obtendo assim uma maior flexibilidade no rojeto. Esta flexibilidade permitiu a integração de sensores modernos de realimentação externa, como a bússola eletrônica, acelerômetros e sistema de visão monocular e estereoscópica. Foram implementados algoritmos para as funcionalidades básicas da plataforma, como o controle dos motores, navegação, mapeamento e localização, além de pesquisar-se mais profundamente a utilização de sistemas de visão monocular e estereoscópica para medição de perfis de distância. Foi também implementado o reconhecimento de objetos sintéticos para auxiliar a localização da plataforma. Como resultado, obteve-se uma plataforma completa e funcional, sobre a qual podem ser realizados testes variados sobre os tópicos que envolvem a robótica móvel e sistemas de visão embarcados. / The purpose of this work is to develop a mobile robot platform with an embedded stereo vision system. In order to accomplish this, some of the available mobile robot platforms are evaluated, finally choosing the development of a whole new platform, with the main advantage of design flexibility. This flexibility allows the integration of modern sensor systems (including external feedback), such as electronic compass, accelerometers and stereo/mono vision systems. All the required algorithms for the basic functionalities were implemented, such as the motor control system, navigation, mapping and localization, and this work goes further into the issue of monocular and stereo vision for distance profile measurement. A system for localization using synthetic objects was implemented, too. The final result is a practical platform, over which it is possible to complete tests and researches about the several topics of mobile robots and embedded vision systems.
2

Sistema de localização, mapeamento e registro 3D para robótica móvel baseado em técnicas de visão computacional

Barbosa, Flávio Gabriel Oliveira January 2017 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2017. / Made available in DSpace on 2017-06-27T04:19:23Z (GMT). No. of bitstreams: 1 346667.pdf: 9358541 bytes, checksum: 033a82eaa1a2438bea3ff3c054363e4a (MD5) Previous issue date: 2017 / A introdução de sistemas de visão computacional em robôs móveis se traduz em um significativo aumento de suas habilidades sensoriais, o que implica em uma maior versatilidade e segurança nas operações do robô. Armazenar e manipular todas as imagens percebidas por um robô durante sua tarefa de localização e mapeamento visual é tipicamente intratável para cenários reais. A alternativa adotada por este trabalho é representar o ambiente de forma topológica, onde alguns quadros são selecionados, chamados keyframes, e representam locais visualmente distintos do ambiente. Assim, cada nó do mapa proposto corresponde a um quadro-chave, descrito por um conjuntos de características locais obtidas pelos descritores SIFT, SURF, ORB, BRIEF e BRISK. A seleção destes descritores baseou-se nas avaliações anteriores encontradas na literatura e em uma série de testes que verificaram habilidades importantes no contexto proposto. Ao navegar em determinado ambiente, adquirir modelos 3D, que proporcionam uma compreensão muito mais abrangente do que mapas 2D, são de particular interesse para usuários remotos interessados no interior do ambiente que o robô percorre. O sistema proposto é baseado em registro de nuvens de pontos. Um Kinect acoplado ao robô captura imagens RGB e de profundidade, usadas para gerar nuvens de pontos que posteriormente são alinhadas na forma de registro, utilizando o alinhamento inicial SAC-IA com os descritores PFH e FPFH, e alinhadas através do algoritmo ICP. As métricas de avaliação demonstraram que os sistemas propostos são capazes de localizar o robô com precisão, encontrando a localização global ao longo de toda a trajetória, sendo capaz de resolver os problemas do robô sequestrado e do robô despertado. O algoritmo de alinhamento mostrou bons resultados quanto a capacidade de criar modelos compreensíveis, porém demanda um alto custo computacional. Desta forma, o presente trabalho propõe uma solução para que um robô acoplado com um Kinect percorra sua trajetória de forma autônoma, localizando-se e coletando nuvens de pontos que são usadas para criar um modelo 3D de seu ambiente de trabalho.<br> / Abstract : The introduction of computer vision systems in mobile robots translates into a significant increase in their sensory habilities, which implies greater versatility and security in robot operations. Storing and manipulating all the images perceived by a robot during its visual localization and mapping task is typically intractable for real scenarios. The alternative adopted by this work is to represent the environment in a topological form, where some frames are selected, called keyframes, and represent visually distinct locations from the environment. Thus, each proposed map node corresponds to a keyframe, described by a set of local characteristics obtained by SIFT, SURF, ORB, BRIEF and BRISK descriptors. The selection of these descriptors was based on previous evaluations found in the literature and on a series of tests that verified important skills in the proposed context. When navigating through a particular environment, acquiring 3D models, which provide a much more comprehensive understanding than 2D maps, are of particular interest to remote users interested in the interior of the environment that the robot traverses. The proposed system is based on 3D point cloud registration. A Kinect is coupled to the robot and captures RGB and depth images, which are used to generate point clouds, aligned in the registration form, using the SAC-IA initial alignment with the descriptors PFH and FPFH, and fully aligned through the ICP algorithm. The evaluation metrics demonstrated that the proposed systems are able to locate the robot with precision, being able to cope with the global localization problem throughout the whole trajectory, including the classic kidnapped robot and wake-up problems. The alignment algorithm showed good results in respect of creating comprehensive models, although it demands a high computational cost. Therefore, the present work proposes a solution for a robot coupled with a Kinect to traverse its path autonomously, locating itself and collecting point clouds that are used to create a 3D model of its work environment.

Page generated in 0.0444 seconds