• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • Tagged with
  • 24
  • 24
  • 24
  • 15
  • 14
  • 11
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Navegação de robôs móveis assistivos por controle compartilhado baseado em campos vetoriais / Navigation of assistive mobile robots by shared control based on vector fields

Olivi, Leonardo Rocha, 1982- 26 August 2018 (has links)
Orientador: Eleri Cardozo / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T06:38:13Z (GMT). No. of bitstreams: 1 Olivi_LeonardoRocha_D.pdf: 17712423 bytes, checksum: a9b0ec521405e93735844f7ce8b3b968 (MD5) Previous issue date: 2014 / Resumo: A mobilidade é uma competência humana extremamente valiosa, e pode ser perdida por diversas razões, tais como traumas na coluna vertebral, acidentes vasculares cerebrais, dentre outras. Algumas tecnologias desenvolvidas para as áreas médicas, como eletroencefalografia e eletromiografia, podem ser empregadas no desenvolvimento de Interfaces Humano-Máquina (Human-Machine Interface, ou, HMI) com o objetivo de permitir que pessoas com capacidades motoras severamente comprometidas possam comunicar e operar os mais diversos equipamentos. Assim, esses usuários podem conduzir robôs móveis por meio de uma HMI adaptada para suas capacidades motoras e cognitivas. Entretanto, essas interfaces apresentam erros na identificação da ação pretendida pelo usuário, os quais comprometem sobremaneira a experiência desse usuário na interação com o mundo exterior. Para o caso dos robôs móveis assistivos, o conceito de controle compartilhado (shared control) foi concebido para compensar as taxas de erros das HMIs, e a responsabilidade pela navegação do robô é dividida entre o usuário e um sistema supervisor automático. As abordagens mais populares na literatura comutam poucos modos de comportamentos específicos para situações individualizadas, como passagens estreitas e desvio de obstáculos. Esta tese propõe uma nova técnica de controle compartilhado, denominada de navegação assistida por campos vetoriais, a qual não possui modos de operação chaveados, evitando quaisquer instabilidades e abrangendo as configurações do ambiente de maneira ilimitada, além de minimizar significativamente os erros gerados pelas HMIs e facilitar a navegação do usuário. Os campos vetoriais oferecem as navegações manual e autônoma, ampliando a interação do usuário com o ambiente. Nessa nova técnica, o sistema de controle embarcado irá executar a ação identificada pela HMI em função dos estados do robô e do ambiente, com o objetivo de maximizar a segurança e capacidade de controle do usuário. Os resultados mostrados neste trabalho evidenciam uma nova forma de tratar o problema, obtendo ganhos significativos com relação ao estado da arte, com baixa complexidade computacional, alta flexibilidade a ambientes e usuários e otimização efetiva de erros, contribuindo para a recuperação da mobilidade dos usuários / Abstract: Human mobility is an extremely valued skill that can be lost due to various reasons, such as spinal cord injuries, strokes, amputations, among others. Technologies developed for the medical areas, such as electroencephalography and electromyography, can be employed in the development of Human-Machine Interfaces (HMI) with the objective of allowing people with severe mobility impairments to communicate and to operate a wide range of equipments. Therefore, these users are allowed to conduct assistive robots allow through a HMI designed according to the user's mobility and cognitive skills. However, these interfaces still present low performance in the correct identification of the intended action by the user, which severely compromise the experience of the user when interacting with external world. In the specific case of assistive mobile robots, a shared control concept was developed in order to compensate the high error rates produced by the HMIs, where the responsibility for the navigation of the mobile robot is shared among the user and an autonomous supervisor system. The mainly approaches shown in literature switch a few modes of specific behavior for individualized situations, such as narrow corridors and obstacle avoidance. This work presents a novel shared control technique, named assistive navigation by vector fields, which does not employ switching modes, avoiding any instabilities and covering the unlimited environment configurations, significantly minimizing the HMI errors, facilitating the user's navigation. The vector fields offer both manual and autonomous navigation, increasing the user's interaction with the environment. In this novel technique, the embedded control system incorporates the HMI command with the robot and environment states, aiming the maximization of user's security and control capabilities. Results shown a novel manner for treating the problem, obtaining substantial gains over the state of art works, with low computational complexity, high flexibility concerning environments and users and effective optimization of errors, contributing for the user's mobility retrieval / Doutorado / Automação / Doutor em Engenharia Elétrica
12

Localização e navegação de robô autônomo através de odometria e visão estereoscópica / Localization and navigation of an autonomous mobile robot trough odometry and stereoscopic vision

Delgado Vargas, Jaime Armando, 1986- 20 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-20T13:27:04Z (GMT). No. of bitstreams: 1 DelgadoVargas_JaimeArmando_M.pdf: 4350704 bytes, checksum: 8e7dab5b1630b88bde95e287a62b2f7e (MD5) Previous issue date: 2012 / Resumo: Este trabalho apresenta a implementação de um sistema de navegação com visão estereoscópica em um robô móvel, que permite a construção de mapa de ambiente e localização. Para isto é necessário conhecer o modelo cinemático do robô, técnicas de controle, algoritmos de identificação de características em imagens (features), reconstrução 3D com visão estereoscópica e algoritmos de navegação. Utilizam-se métodos para a calibração de câmera desenvolvida no âmbito do grupo de pesquisa da FEM/UNICAMP e da literatura. Resultados de análises experimentais e teóricas são comparados. Resultados adicionais mostram a validação do algoritmo de calibração de câmera, acurácia dos sensores, resposta do sistema de controle, e reconstrução 3D. Os resultados deste trabalho são de importância para futuros estudos de navegação robótica e calibração de câmeras / Abstract: This paper presents a navigation system with stereoscopic vision on a mobile robot, which allows the construction of environment map and location. In that way must know the kinematic model of the robot, algorithms for identifying features in images (features) as a Sift, 3D reconstruction with stereoscopic vision and navigation algorithms. Methods are used to calibrate the camera developed within the research group of the FEM / UNICAMP and literature. Results of experimental and theoretical analyzes are compared. Additional results show the validation of the algorithm for camera calibration, accuracy of sensors, control system response, and 3D reconstruction. These results are important for future studies of robotic navigation and calibration of cameras / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
13

Construção de mapas de ambiente para navegação de robôs móveis com visão omnidirecional estéreo. / Map building for mobile robot navigation with omnidirectional stereo vision.

Cláudia Cristina Ghirardello Deccó 23 April 2004 (has links)
O problema de navegação de robôs móveis tem sido estudado ao longo de vários anos, com o objetivo de se construir um robô com elevado grau de autonomia. O aumento da autonomia de um robô móvel está relacionado com a capacidade de aquisição de informações e com a automatização de tarefas, tal como a construção de mapas de ambiente. Sistemas de visão são amplamente utilizados em tarefas de robôs autônomos devido a grande quantidade de informação contida em uma imagem. Além disso, sensores omnidirecionais catadióptricos permitem ainda a obtenção de informação visual em uma imagem de 360º, dispensando o movimento da câmera em direções de interesse para a tarefa do robô. Mapas de ambiente podem ser construídos para a implementação de estratégias de navegações mais autônomas. Nesse trabalho desenvolveu-se uma metodologia para a construção de mapas para navegação, os quais são a representação da geometria do ambiente. Contém a informação adquirida por um sensor catadióptrico omnidirecional estéreo, construído por uma câmera e um espelho hiperbólico. Para a construção de mapas, os processos de alinhamento, correspondência e integração, são efetuados utilizando-se métricas de diferença angular e de distância entre os pontos. A partir da fusão dos mapas locais cria-se um mapa global do ambiente. O processo aqui desenvolvido para a construção do mapa global permite a adequação de algoritmos de planejamento de trajetória, estimativa de espaço livre e auto-localização, de maneira a obter uma navegação autônoma. / The problem of mobile robot navigation has been studied for many years, aiming at build a robot with an high degree of autonomy. The increase in autonomy of a mobile robot is related to its capacity of acquisition of information and the “automation” of tasks, such as the environment map building. In this aspect vision has been widely used due to the great amount of information in an image. Besides that catadioptric omnidirectional sensors allow to get visual information in a 360o image, discharging the need of camera movement in directions of interest for the robot task. Environment maps may be built for an implementation of strategies of more autonomous navigations. In this work a methodology is developed for building maps for robot navigations, which are the representation of the environment geometry. The map contains the information received by a stereo omnidirectional catadioptric sensor built by a camera and a hyperbolic mirror. For the map building, the processes of alignment, registration and integration are performed using metric of angular difference and distance between the points. From the fusion of local maps a global map of the environment is created. The method developed in this work for global map building allows to be coupled with algorithms of path planning, self-location and free space estimation, so that autonomous robot navigation can be obtained.
14

Construção de mapas de ambiente para navegação de robôs móveis com visão omnidirecional estéreo. / Map building for mobile robot navigation with omnidirectional stereo vision.

Deccó, Cláudia Cristina Ghirardello 23 April 2004 (has links)
O problema de navegação de robôs móveis tem sido estudado ao longo de vários anos, com o objetivo de se construir um robô com elevado grau de autonomia. O aumento da autonomia de um robô móvel está relacionado com a capacidade de aquisição de informações e com a automatização de tarefas, tal como a construção de mapas de ambiente. Sistemas de visão são amplamente utilizados em tarefas de robôs autônomos devido a grande quantidade de informação contida em uma imagem. Além disso, sensores omnidirecionais catadióptricos permitem ainda a obtenção de informação visual em uma imagem de 360º, dispensando o movimento da câmera em direções de interesse para a tarefa do robô. Mapas de ambiente podem ser construídos para a implementação de estratégias de navegações mais autônomas. Nesse trabalho desenvolveu-se uma metodologia para a construção de mapas para navegação, os quais são a representação da geometria do ambiente. Contém a informação adquirida por um sensor catadióptrico omnidirecional estéreo, construído por uma câmera e um espelho hiperbólico. Para a construção de mapas, os processos de alinhamento, correspondência e integração, são efetuados utilizando-se métricas de diferença angular e de distância entre os pontos. A partir da fusão dos mapas locais cria-se um mapa global do ambiente. O processo aqui desenvolvido para a construção do mapa global permite a adequação de algoritmos de planejamento de trajetória, estimativa de espaço livre e auto-localização, de maneira a obter uma navegação autônoma. / The problem of mobile robot navigation has been studied for many years, aiming at build a robot with an high degree of autonomy. The increase in autonomy of a mobile robot is related to its capacity of acquisition of information and the “automation" of tasks, such as the environment map building. In this aspect vision has been widely used due to the great amount of information in an image. Besides that catadioptric omnidirectional sensors allow to get visual information in a 360o image, discharging the need of camera movement in directions of interest for the robot task. Environment maps may be built for an implementation of strategies of more autonomous navigations. In this work a methodology is developed for building maps for robot navigations, which are the representation of the environment geometry. The map contains the information received by a stereo omnidirectional catadioptric sensor built by a camera and a hyperbolic mirror. For the map building, the processes of alignment, registration and integration are performed using metric of angular difference and distance between the points. From the fusion of local maps a global map of the environment is created. The method developed in this work for global map building allows to be coupled with algorithms of path planning, self-location and free space estimation, so that autonomous robot navigation can be obtained.
15

Sistema de navegação para veiculos roboticos aereos baseado na observação e mapeamento do ambiente / Navigation system for aerial robotic vehicles based on the boservation and mapping of the environment at the School of Electrical and Computer Engineering

Castro, Cesar Dantas de 24 April 2007 (has links)
Orientadores: Paulo Augusto Valente Ferreira, Alessandro Correa Victorino, Samuel Siqueira Bueno / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-08T18:02:11Z (GMT). No. of bitstreams: 1 Castro_CesarDantasde_M.pdf: 3031758 bytes, checksum: 02179aa87aa18297b9b19bef7fb5b647 (MD5) Previous issue date: 2007 / Resumo: Este trabalho disserta sobre o desenvolvimento e a implementação de um sistema de localização e mapeamento simultâneos (SLAM) para um veículo robótico aéreo. Utilizando tal sistema, um robô que sobrevoe determinada área, até então desconhecida, deve ser capaz de conhecer sua postura no ambiente e mapeá-lo, sem o auxílio de mapas ou outras informações externas. Para alcançar este objetivo, o sistema recebe informações de uma unidade de medição inercial e de uma câmera, que observa características do ambiente e, indiretamente, a posição e a atitude do robô. Para fundir as informações dos dois conjuntos sensoriais embarcados, é utilizada uma arquitetura baseada no filtro de Kalman estendido, que atua como um estimador tanto da localização do dirigível quanto do mapa. Este sistema representa um primeiro passo em direção a uma solução de SLAM em seis graus de liberdade para o Projeto AURORA, que visa o desenvolvimento de tecnologia em robótica aérea. Desta forma, a abordagem proposta é validada em um ambiente de simulação composto de sensores virtuais e do simulador dinâmico do projeto AURORA. Os resultados apresentados mostram a eficácia da metodologia / Abstract: This work addresses the development and implementation of a simultaneous localization and mapping (SLAM) system for aerial robotic vehicles. Through this system, a robot flying over an unknown region must be capable of detecting its position accurately and, at the same time, constructing a map of the environment without the help of maps or any other external information. To reach that goal, the system receives input data from an inertial measurement unit and a single camera, which observes features in the environment and, indirectly, the robot¿s position and attitude. The data from both onboard sensors are then fused using an architecture based on an extended Kalman filter, which acts as an estimator of the robot pose and the map. This system represents a first step towards a six degrees of freedom SLAM solution for Project AURORA, whose goal is the development of technology on aerial robotics. As such, the proposed methodology is validated in a simulation environment composed of virtual sensors and the aerial platform simulator of the AURORA project based on a realistic dynamic model. The reported results show the efficiency of the approach / Mestrado / Automação / Mestre em Engenharia Elétrica
16

Planning for mobile robot localization using architectural design features on a hierarchical POMDP approach = Planejamento para localização de robôs móveis utilizando padrões arquitetônicos em um modelo hierárquico de POMDP / Planejamento para localização de robôs móveis utilizando padrões arquitetônicos em um modelo hierárquico de POMDP

Pinheiro, Paulo Gurgel, 1983- 16 August 2013 (has links)
Orientador: Jacques Wainer / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-24T02:06:24Z (GMT). No. of bitstreams: 1 Pinheiro_PauloGurgel_D.pdf: 41476694 bytes, checksum: f3d5b1e2aa32aa6f00ef7ac689a261e2 (MD5) Previous issue date: 2013 / Resumo: Localização de robôs móveis é uma das áreas mais exploradas da robótica devido a sua importância para a resolução de problemas, como: navegação, mapeamento e SLAM. Muitos trabalhos apresentaram soluções envolvendo cooperação, comunicação e exploração do ambiente, onde em geral a localização é obtida através de ações randômicas ou puramente orientadas pelo estado de crença. Nesta tese, é apresentado um modelo de planejamento para localização utilizando POMDP e Localização de Markov, que indicaria a melhor ação que o robô deve efetuar em cada momento, com o objetivo de diminuir a quantidade de passos. O foco está principalmente em: i) problemas de difícil localização: onde não há landmark ou informação extra no ambiente que auxilie o robô, ii) situações de performance crítica: onde o robô deve evitar passos randômicos e o gasto de energia e, por último, iii) situações com múltiplas missões. Sabendo que um robô é projetado para desempenhar missões, será proposto, neste trabalho, um modelo onde essas missões são consideradas em paralelo com a localização. Planejar para cenários com múltiplos ambientes é um desafio devido a grande quantidade de estados que deve ser tratada. Para esse tipo de problema, será apresentado um modelo de compressão de mapas que utiliza padrões arquiteturais e de design, como: quantidade de portas, paredes ou área total de um ambiente, para condensar informações que possam ser redundantes. O modelo baseia-se na similaridade das características de desing para agrupar ambientes similares e combiná-los, gerando um único mapa representante que possui uma quantidade de estados menor que a soma total de todos os estados dos ambientes do grupo. Planos em POMDP são gerados apenas para os representantes e não para todo o mapa. Finalmente, será apresentado o modelo hierárquico onde a localização é executada em duas camadas. Na camada superior, o robô utiliza os planos POMDP e os mapas compactos para estimar a grossa estimativa de sua localização e, na camada inferior, utiliza POMDP ou Localização de Markov para a obtenção da postura mais precisa. O modelo hierárquico foi demonstrado com experimentos utilizando o simulador V-REP, e o robô Pioneer 3-DX. Resultados comparativos mostraram que o robô utilizando o modelo proposto, foi capaz de realizar o processo de localização em cenários com múltiplos ambientes e cumprir a missão, mantendo a precisão com uma significativa redução na quantidade de passos efetuados / Abstract: Mobile Robot localization is one of the most explored areas in robotics due to its importance for solving problems, such as navigation, mapping and SLAM. In this work, we are interested in solving global localization problems, where the initial pose of the robot is completely unknown. Several works have proposed solutions for localization focusing on robot cooperation, communication or environment exploration, where the robot's pose is often found by a certain amount of random actions or state belief oriented actions. In order to decrease the total steps performed, we will introduce a model of planning for localization using POMDPs and Markov Localization that indicates the optimal action to be taken by the robot for each decision time. Our focus is on i) hard localization problems, where there are no special landmarks or extra features over the environment to help the robot, ii) critical performance situation, where the robot is required to avoid random actions and the waste of energy roaming over the environment, and iii) multiple missions situations. Aware the robot is designed to perform missions, we have proposed a model that runs missions and the localization process, simultaneously. Also, since the robot can have different missions, the model computes the planning for localization as an offline process, but loading the missions at runtime. Planning for multiple environments is a challenge due to the amount of states we must consider. Thus, we also proposed a solution to compress the original map, creating a smaller topological representation that is easier and cheaper to get plans done. The map compression takes advantage of the similarity of rooms found especially in offices and residential environments. Similar rooms have similar architectural design features that can be shared. To deal with the compressed map, we proposed a hierarchical approach that uses light POMDP plans and the compressed map on the higher layer to find the gross pose, and on the lower layer, decomposed maps to find the precise pose. We have demonstrated the hierarchical approach with the map compression using both V-REP Simulator and a Pioneer 3-DX robot. Comparing to other active localization models, the results show that our approach allowed the robot to perform both localization and the mission in a multiple room environment with a significant reduction on the number of steps while keeping the pose accuracy / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
17

Uso de fluxo óptico na odometria visual aplicada a robótica / Using the optical flow in the visual odometry applied robotics

Araújo, Darla Caroline da Silva, 1989- 26 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-26T21:38:28Z (GMT). No. of bitstreams: 1 Araujo_DarlaCarolinedaSilva_M.pdf: 5678583 bytes, checksum: a6ed9886369705a8853f15d431565a3d (MD5) Previous issue date: 2015 / Resumo: O presente trabalho descreve um método de odometria visual empregando a técnica de fluxo óptico, para estimar o movimento de um robô móvel, através de imagens digitais capturadas de duas câmeras estereoscópicas nele fixadas. Busca-se assim a construção de um mapa para a localização do Robô. Esta proposta, além de alternativa ao cálculo autônomo de movimento realizado por outros tipos de sensores como GPS, laser, sonares, utiliza uma técnica de processamento óptico de grande eficiência computacional. Foi construído um ambiente 3D para simulação do movimento do robô e captura das imagens necessárias para estimar sua trajetória e verificar a acurácia da técnica proposta. Utiliza-se a técnica de fluxo óptico de Lucas Kanade na identificação de características em imagens. Os resultados obtidos neste trabalho são de grande importância para os estudos de navegação robótica / Abstract: This work describes a method of visual odometry using the optical flow technique to estimate the motion of a mobile robot, through digital images captured from two stereoscopic cameras fixed on it, in order to obtain a map of location of the robot. This proposal is an alternative to the autonomous motion calculation performed by other types of sensors such as GPS, laser, sonar, and uses an optical processing technique of high computational efficiency. To check the accuracy of the technique it was necessary to build a 3D environment to simulate the robot performing a trajectory and capture the necessary images to estimate the trajectory. The optical flow technique of Lucas Kanade was used for identifying features in the images. The results of this work are of great importance for future robotic navigation studies / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestra em Engenharia Mecânica
18

Uma aplicação de navegação robótica autônoma através de visão computacional estéreo / Autonomous application of robotic navigation using computer stereo vision

Diaz Espinosa, Carlos Andrés 16 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-16T16:41:02Z (GMT). No. of bitstreams: 1 DiazEspinosa_CarlosAndres_M.pdf: 5130242 bytes, checksum: 334f37aa82bbde2c9ddbfe192baa7c48 (MD5) Previous issue date: 2010 / Resumo: O presente trabalho descreve uma técnica de navegação autônoma, utilizando imagens estereoscópicas de câmeras para estimar o movimento de um robô em um ambiente desconhecido. Um método de correlação de pontos em imagens unidimensionais é desenvolvido para a identificação de pontos homólogos de duas imagens em uma cena. Utilizam-se métodos de segmentação de bordas ou contornos para extrair as principais características inerentes nas imagens. Constrói-se um mapa de profundidade dos pontos da imagem com maior similitude dentre os objetos visíveis no ambiente, utilizando um processo de triangulação. Finalmente a estimação do movimento bidimensional do robô é calculada aproveitando a relação epipolar entre dois ou mais pontos em pares de imagens. Experimentos realizados em ambientes virtuais e testes práticos verificam a viabilidade e robustez dos métodos em aplicações de navegação robótica / Abstract: The present work describes a technique for autonomous navigation using stereoscopic camera images to estimate the movement of a robot in an unknown environment. A onedimensional image point correlation method is developed for the identification of similar image points of a scene. Boundary or contour segments are used to extract the principal characteristics of the images. A depth map is built for the points with grater similarity, among the scene objects depicted, using a triangulation process. Finally, the bi-dimensional movement of a robot is estimated through epipolar relations between two or more correlated points in pairs of images. Virtual ambient and practical robot tests are preformed to evaluate the viability of employment and robustness of the proposed techniques / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
19

Rastreamento de alvo móvel em mono-visão aplicado no sistema de navegação autônoma utilizando GPU / Tracking of target moving in monocular vision system applied to autonomous navigation using GPU

Vitor, Giovani Bernardes, 1985- 16 August 2018 (has links)
Orientador: Janito Vaqueiro Ferreira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-16T19:38:32Z (GMT). No. of bitstreams: 1 Vitor_GiovaniBernardes_M.pdf: 6258094 bytes, checksum: fbd34947eb1efdce50b97b27f56c1920 (MD5) Previous issue date: 2010 / Resumo: O sistema de visão computacional é bastante útil em diversas aplicações de veículos autônomos, como em geração de mapas, desvio de obstáculos, tarefas de posicionamento e rastreamento de alvos. Além disso, a visão computacional pode proporcionar um ganho significativo na confiabilidade, versatilidade e precisão das tarefas robóticas, questões cruciais na maioria das aplicações reais. O presente trabalho tem como objetivo principal o desenvolvimento de uma metodologia de controle servo visual em veículos robóticos terrestres para a realização de rastreamento e perseguição de um alvo. O procedimento de rastreamento é baseado na correspondência da região alvo entre a seqüência de imagens, e a perseguição pela geração do movimento de navegação baseado nas informações da região alvo. Dentre os aspectos que contribuem para a solução do procedimento de rastreamento proposto, considera-se o uso das técnicas de processamento de imagens como filtro KNN, filtro Sobel, filtro HMIN e transformada Watershed que unidas proporcionam a robustez desejada para a solução. No entanto, esta não é uma técnica compatível com sistema de tempo real. Deste modo, tais algoritmos foram modelados para processamento paralelo em placas gráficas utilizando CUDA. Experimentos em ambientes reais foram analisados, apresentando diversos resultados para o procedimento de rastreamento, bem como validando a utilização das GPU's para acelerar o processamento do sistema de visão computacional / Abstract: The computer vision system is useful in several applications of autonomous vehicles, such as map generation, obstacle avoidance tasks, positioning tasks and target tracking. Furthermore, computer vision can provide a significant gain in reliability, versatility and accuracy of robotic tasks, which are important concerns in most applications. The present work aims at the development of a visual servo control method in ground robotic vehicles to perform tracking and follow of a target. The procedure for tracking is based on the correspondence between the target region sequence of images, and persecution by the generation of motion based navigation of information from target region. Among the aspects that contribute to the solution of the proposed tracking procedure, we consider the use of imaging techniques such as KNN filter, Sobel filter, HMIN filter and Watershed transform that together provide the desired robustness for the solution. However, this is not a technique compatible with real-time system. Thus, these algorithms were modeled for parallel processing on graphics cards using CUDA. Experiments in real environments were analyzed showed different results for the procedure for tracking and validating the use of GPU's to accelerate the processing of computer vision system / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
20

Navegação de robos autonomos baseada em monovisão / Autonomous robot's navigation based on monocular vision

Miranda Neto, Arthur de 26 February 2007 (has links)
Orientadores: Douglas Eduardo Zampieri, Andre Mendeleck / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-09T05:32:53Z (GMT). No. of bitstreams: 1 MirandaNeto_Arthurde_M.pdf: 21444077 bytes, checksum: e685627c310f9057b82e1bb7b7229228 (MD5) Previous issue date: 2007 / Resumo: Neste trabalho apresentamos um sistema autônomo baseado em monovisão, aplicado ao controle de um robô móvel em tarefas de navegação por ambientes desconhecidos. Para o cumprimento de tarefas de navegação, o sistema não possui conhecimento inicial sobre o ambiente, tendo como fonte primária de informações, dados oriundos do sistema de visão. Os movimentos são estruturados através de um Algoritmo Genético, que define as ações a serem executadas pelo robô móvel. O sistema foi desenvolvido em uma arquitetura multicamadas, sendo elas: Visão Computacional, Estratégias de Navegação e Comandos. A camada de visão constitui-se de dois métodos principais: método de segmentação Threshold and Horizon Finder, baseado no método de busca do limiar ótimo proposto por Otsu; e um novo método para descarte de informações redundantes, baseado no Coeficiente de Correlação de Pearson. Na camada Estratégias de Navegação, apresentamos uma proposta de um sistema de navegação com aprendizado evolutivo. Na última camada Comandos, abordamos o protocolo de interface entre a aplicação e o projeto físico mecânico. Um experimento foi realizado com um protótipo real, cujos resultados validaram a metodologia proposta, demonstrando a capacidade de resposta do sistema em tempo real / Abstract: In this work we present an autonomous system based on monocular vision, applied to a mobile robot's control executing navigation tasks in an unknown environrnent. For the execution of navigation tasks, the system does not have previous knowledge of the environrnent. Its primary source of information is data originating from the vision system. The movements are structured through a Genetic AIgorithm that defines the actions to be executed by the mobile robot. The system was developed based on a multilayer architecture, where the three main layers are: Computer Vision, Navigation Strategies and Commands. The vision layer is constituted of two main methods: method of segmentation Threshold and Horizon Finder, based on the ideal threshold search method proposed by Otsu; and a new improved method for discarding redundant information, based on the Pearson's Coefficient Correlation. In the Navigation Strategies layer, we propose a navigation system with evolutive learning. In the last layer, Commands, we deal with the interface protocol between the application and the mechanical physical project. An experiment with a real prototype was executed, which results validated the proposed methodology, demonstrating that the system is able to give real time responses / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica

Page generated in 0.471 seconds