• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • Tagged with
  • 26
  • 26
  • 24
  • 15
  • 14
  • 13
  • 11
  • 10
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Controle de um robô móvel através de realimentação de estados utilizando visão estereoscópica / Feedback control of a mobile robot using stereo vision

Rafikova, Elvira 17 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-17T01:31:31Z (GMT). No. of bitstreams: 1 Rafikova_Elvira_D.pdf: 4596616 bytes, checksum: 0cd6c928bfae826c2cea718bdb3843e5 (MD5) Previous issue date: 2010 / Resumo: O enfoque principal desse trabalho é o controle de trajetória e navegação no ambiente através da visão estereoscópica de um robô móvel de duas rodas de acionamento diferencial. Para o controle de posicionamento, são utilizadas: uma estratégia de controle ótima linear e uma estratégia subótima, não linear, em tempo contínuo, chamada de SDRE (State Dependent Riccati Equation), e por fim, uma estratégia de controle SDRE em tempo discreto. Todas essas estratégias são baseadas em funções de Lyapunov e aplicadas ao problema de regulação do robô a uma referência. Para a navegação do robô no ambiente é considerado um modelo navegação por odometria e um mecanismo de visão estereoscópica. A estimação do estado é realizada através do filtro de Kalman clássico. São apresentadas duas estratégias para a navegação do robô no ambiente. Uma delas, totalmente discreta com a utilização do métodos de controle SDRE discreto, observação de estado discreta através das câmeras e estimação de estado através do filtro de Kalman discreto. Outra, com a abordagem de horizonte recuável, utilizando controle SDRE contínuo e, observação e estimação de estado discretas. A eficácia dos métodos de controle e das estratégias de navegação do robô é verificada através de simulações computacionais, nas quais a estratégia de navegação com horizonte recuável se mostra eficaz para a navegação precisa no ambiente / Abstract: The main approach of this thesis is the trajectory control and navigation of a differential steering mobile robot in the environment. For the position control problem are used? A continuous-time, linear feedback control; a suboptimal, nonlinear, continuous-time feedback called SDRE (StateDependent Riccati Equation) control and a discrete - time SDRE control method. All of these methods are Lyapunov functions based and appplied to the reference tracking problem oh the nonholonomic robot. For the purpose of the environmental navigation a model of odometry-stereo vision state observation system is considered. Meanwhile, the state estimation is given by classic Kalman filter. Futhermore, two different navigation strategies are presented. The discret-time one, using both discret SDRE control method and state estimation. Another one, is a receding horizon strategy, using continuous-time SDRE controler and sicret-time state estimation. The control method and navigation strategies eficaccy is verified through numerical simulations. Both navigation stategies demostrate good results, although the receding horizon one provides more precise navigation / Doutorado / Mecanica dos Sólidos e Projeto Mecanico / Doutor em Engenharia Mecânica
12

Uso de filtro de Kalman e visão computacional para a correção de incertezas de navegação de robos autonomos / Use of Kalman filter and computational vision for the correction of uncertainties in the navigation of autonomous robots

Diogenes, Luciana Claudia Martins Ferreira 12 August 2018 (has links)
Orientadores: Paulo Roberto Gardel Kurka, Helder Anibal Hermini / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-12T23:15:00Z (GMT). No. of bitstreams: 1 Diogenes_LucianaClaudiaMartinsFerreira_D.pdf: 1973089 bytes, checksum: f2ce9df7707c0da30e35bae49d195299 (MD5) Previous issue date: 2008 / Resumo: O presente trabalho tem como finalidade estabelecer um conjunto de procedimentos básicos de navegação e controle de robôs autônomos, baseado em imagens. Mapas de intensidade provenientes das imagens de duas câmeras são convertidos em mapas de profundidade, que fornecem ao robô informações sobre o seu posicionamento em um ambiente composto de objetos distintos. O modelo de robô de duas rodas com acionamento diferencial é usado, permitindo que o processo de navegação se dê através da fusão sensorial das informações obtidas pelas câmeras e dos dados de odometria do seu movimento. O filtro linear de Kalman é usado nesse processo de fusão, para obter estimativas ótimas de posição do robô, baseados nas imagens observadas pelas câmeras e pela informação de odometria medida pelos encoders de rotação das rodas. Realizamse simulações computacionais da tarefa de obtenção e processamento da imagem de um ambiente bidimensional simplificado, bem como do procedimento de navegação com fusão sensorial. As simulações têm por finalidade testar a viabilidade e robustez do procedimento de navegação, na presença de incertezas nas medidas de posição através de câmeras bem como nas medidas de odometria / Abstract: The work establishes a collection of procedures for image based navigation control of an autonomous robot. Intensity maps obtained from cameras are transformed in depth maps, which provide information about the robot's localization in an environment, comprised of distinct objects. A two wheeled, differential powered robot model is used, allowing the navigation process to combine double source information from the camera and odometry sensors. The Kalman filter technique is used in this information combination in order to yield optimal estimates of position of the robot, based on the camera and odometry information. Computational simulations are used to validate the image capture and processing, as well as the sensorial fusion technique, in a simplified bi-dimensional environment. The simulations are also useful in accessing the viability and robustness of the navigation process, in the presence of measurement uncertainties associated to the camera and odometry measurements / Doutorado / Mecanica dos Sólidos e Projeto Mecanico / Doutor em Engenharia Mecânica
13

Navegação de robôs móveis assistivos por controle compartilhado baseado em campos vetoriais / Navigation of assistive mobile robots by shared control based on vector fields

Olivi, Leonardo Rocha, 1982- 26 August 2018 (has links)
Orientador: Eleri Cardozo / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-26T06:38:13Z (GMT). No. of bitstreams: 1 Olivi_LeonardoRocha_D.pdf: 17712423 bytes, checksum: a9b0ec521405e93735844f7ce8b3b968 (MD5) Previous issue date: 2014 / Resumo: A mobilidade é uma competência humana extremamente valiosa, e pode ser perdida por diversas razões, tais como traumas na coluna vertebral, acidentes vasculares cerebrais, dentre outras. Algumas tecnologias desenvolvidas para as áreas médicas, como eletroencefalografia e eletromiografia, podem ser empregadas no desenvolvimento de Interfaces Humano-Máquina (Human-Machine Interface, ou, HMI) com o objetivo de permitir que pessoas com capacidades motoras severamente comprometidas possam comunicar e operar os mais diversos equipamentos. Assim, esses usuários podem conduzir robôs móveis por meio de uma HMI adaptada para suas capacidades motoras e cognitivas. Entretanto, essas interfaces apresentam erros na identificação da ação pretendida pelo usuário, os quais comprometem sobremaneira a experiência desse usuário na interação com o mundo exterior. Para o caso dos robôs móveis assistivos, o conceito de controle compartilhado (shared control) foi concebido para compensar as taxas de erros das HMIs, e a responsabilidade pela navegação do robô é dividida entre o usuário e um sistema supervisor automático. As abordagens mais populares na literatura comutam poucos modos de comportamentos específicos para situações individualizadas, como passagens estreitas e desvio de obstáculos. Esta tese propõe uma nova técnica de controle compartilhado, denominada de navegação assistida por campos vetoriais, a qual não possui modos de operação chaveados, evitando quaisquer instabilidades e abrangendo as configurações do ambiente de maneira ilimitada, além de minimizar significativamente os erros gerados pelas HMIs e facilitar a navegação do usuário. Os campos vetoriais oferecem as navegações manual e autônoma, ampliando a interação do usuário com o ambiente. Nessa nova técnica, o sistema de controle embarcado irá executar a ação identificada pela HMI em função dos estados do robô e do ambiente, com o objetivo de maximizar a segurança e capacidade de controle do usuário. Os resultados mostrados neste trabalho evidenciam uma nova forma de tratar o problema, obtendo ganhos significativos com relação ao estado da arte, com baixa complexidade computacional, alta flexibilidade a ambientes e usuários e otimização efetiva de erros, contribuindo para a recuperação da mobilidade dos usuários / Abstract: Human mobility is an extremely valued skill that can be lost due to various reasons, such as spinal cord injuries, strokes, amputations, among others. Technologies developed for the medical areas, such as electroencephalography and electromyography, can be employed in the development of Human-Machine Interfaces (HMI) with the objective of allowing people with severe mobility impairments to communicate and to operate a wide range of equipments. Therefore, these users are allowed to conduct assistive robots allow through a HMI designed according to the user's mobility and cognitive skills. However, these interfaces still present low performance in the correct identification of the intended action by the user, which severely compromise the experience of the user when interacting with external world. In the specific case of assistive mobile robots, a shared control concept was developed in order to compensate the high error rates produced by the HMIs, where the responsibility for the navigation of the mobile robot is shared among the user and an autonomous supervisor system. The mainly approaches shown in literature switch a few modes of specific behavior for individualized situations, such as narrow corridors and obstacle avoidance. This work presents a novel shared control technique, named assistive navigation by vector fields, which does not employ switching modes, avoiding any instabilities and covering the unlimited environment configurations, significantly minimizing the HMI errors, facilitating the user's navigation. The vector fields offer both manual and autonomous navigation, increasing the user's interaction with the environment. In this novel technique, the embedded control system incorporates the HMI command with the robot and environment states, aiming the maximization of user's security and control capabilities. Results shown a novel manner for treating the problem, obtaining substantial gains over the state of art works, with low computational complexity, high flexibility concerning environments and users and effective optimization of errors, contributing for the user's mobility retrieval / Doutorado / Automação / Doutor em Engenharia Elétrica
14

Localização e navegação de robô autônomo através de odometria e visão estereoscópica / Localization and navigation of an autonomous mobile robot trough odometry and stereoscopic vision

Delgado Vargas, Jaime Armando, 1986- 20 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-20T13:27:04Z (GMT). No. of bitstreams: 1 DelgadoVargas_JaimeArmando_M.pdf: 4350704 bytes, checksum: 8e7dab5b1630b88bde95e287a62b2f7e (MD5) Previous issue date: 2012 / Resumo: Este trabalho apresenta a implementação de um sistema de navegação com visão estereoscópica em um robô móvel, que permite a construção de mapa de ambiente e localização. Para isto é necessário conhecer o modelo cinemático do robô, técnicas de controle, algoritmos de identificação de características em imagens (features), reconstrução 3D com visão estereoscópica e algoritmos de navegação. Utilizam-se métodos para a calibração de câmera desenvolvida no âmbito do grupo de pesquisa da FEM/UNICAMP e da literatura. Resultados de análises experimentais e teóricas são comparados. Resultados adicionais mostram a validação do algoritmo de calibração de câmera, acurácia dos sensores, resposta do sistema de controle, e reconstrução 3D. Os resultados deste trabalho são de importância para futuros estudos de navegação robótica e calibração de câmeras / Abstract: This paper presents a navigation system with stereoscopic vision on a mobile robot, which allows the construction of environment map and location. In that way must know the kinematic model of the robot, algorithms for identifying features in images (features) as a Sift, 3D reconstruction with stereoscopic vision and navigation algorithms. Methods are used to calibrate the camera developed within the research group of the FEM / UNICAMP and literature. Results of experimental and theoretical analyzes are compared. Additional results show the validation of the algorithm for camera calibration, accuracy of sensors, control system response, and 3D reconstruction. These results are important for future studies of robotic navigation and calibration of cameras / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
15

Construção de mapas de ambiente para navegação de robôs móveis com visão omnidirecional estéreo. / Map building for mobile robot navigation with omnidirectional stereo vision.

Cláudia Cristina Ghirardello Deccó 23 April 2004 (has links)
O problema de navegação de robôs móveis tem sido estudado ao longo de vários anos, com o objetivo de se construir um robô com elevado grau de autonomia. O aumento da autonomia de um robô móvel está relacionado com a capacidade de aquisição de informações e com a automatização de tarefas, tal como a construção de mapas de ambiente. Sistemas de visão são amplamente utilizados em tarefas de robôs autônomos devido a grande quantidade de informação contida em uma imagem. Além disso, sensores omnidirecionais catadióptricos permitem ainda a obtenção de informação visual em uma imagem de 360º, dispensando o movimento da câmera em direções de interesse para a tarefa do robô. Mapas de ambiente podem ser construídos para a implementação de estratégias de navegações mais autônomas. Nesse trabalho desenvolveu-se uma metodologia para a construção de mapas para navegação, os quais são a representação da geometria do ambiente. Contém a informação adquirida por um sensor catadióptrico omnidirecional estéreo, construído por uma câmera e um espelho hiperbólico. Para a construção de mapas, os processos de alinhamento, correspondência e integração, são efetuados utilizando-se métricas de diferença angular e de distância entre os pontos. A partir da fusão dos mapas locais cria-se um mapa global do ambiente. O processo aqui desenvolvido para a construção do mapa global permite a adequação de algoritmos de planejamento de trajetória, estimativa de espaço livre e auto-localização, de maneira a obter uma navegação autônoma. / The problem of mobile robot navigation has been studied for many years, aiming at build a robot with an high degree of autonomy. The increase in autonomy of a mobile robot is related to its capacity of acquisition of information and the “automation” of tasks, such as the environment map building. In this aspect vision has been widely used due to the great amount of information in an image. Besides that catadioptric omnidirectional sensors allow to get visual information in a 360o image, discharging the need of camera movement in directions of interest for the robot task. Environment maps may be built for an implementation of strategies of more autonomous navigations. In this work a methodology is developed for building maps for robot navigations, which are the representation of the environment geometry. The map contains the information received by a stereo omnidirectional catadioptric sensor built by a camera and a hyperbolic mirror. For the map building, the processes of alignment, registration and integration are performed using metric of angular difference and distance between the points. From the fusion of local maps a global map of the environment is created. The method developed in this work for global map building allows to be coupled with algorithms of path planning, self-location and free space estimation, so that autonomous robot navigation can be obtained.
16

Construção de mapas de ambiente para navegação de robôs móveis com visão omnidirecional estéreo. / Map building for mobile robot navigation with omnidirectional stereo vision.

Deccó, Cláudia Cristina Ghirardello 23 April 2004 (has links)
O problema de navegação de robôs móveis tem sido estudado ao longo de vários anos, com o objetivo de se construir um robô com elevado grau de autonomia. O aumento da autonomia de um robô móvel está relacionado com a capacidade de aquisição de informações e com a automatização de tarefas, tal como a construção de mapas de ambiente. Sistemas de visão são amplamente utilizados em tarefas de robôs autônomos devido a grande quantidade de informação contida em uma imagem. Além disso, sensores omnidirecionais catadióptricos permitem ainda a obtenção de informação visual em uma imagem de 360º, dispensando o movimento da câmera em direções de interesse para a tarefa do robô. Mapas de ambiente podem ser construídos para a implementação de estratégias de navegações mais autônomas. Nesse trabalho desenvolveu-se uma metodologia para a construção de mapas para navegação, os quais são a representação da geometria do ambiente. Contém a informação adquirida por um sensor catadióptrico omnidirecional estéreo, construído por uma câmera e um espelho hiperbólico. Para a construção de mapas, os processos de alinhamento, correspondência e integração, são efetuados utilizando-se métricas de diferença angular e de distância entre os pontos. A partir da fusão dos mapas locais cria-se um mapa global do ambiente. O processo aqui desenvolvido para a construção do mapa global permite a adequação de algoritmos de planejamento de trajetória, estimativa de espaço livre e auto-localização, de maneira a obter uma navegação autônoma. / The problem of mobile robot navigation has been studied for many years, aiming at build a robot with an high degree of autonomy. The increase in autonomy of a mobile robot is related to its capacity of acquisition of information and the “automation" of tasks, such as the environment map building. In this aspect vision has been widely used due to the great amount of information in an image. Besides that catadioptric omnidirectional sensors allow to get visual information in a 360o image, discharging the need of camera movement in directions of interest for the robot task. Environment maps may be built for an implementation of strategies of more autonomous navigations. In this work a methodology is developed for building maps for robot navigations, which are the representation of the environment geometry. The map contains the information received by a stereo omnidirectional catadioptric sensor built by a camera and a hyperbolic mirror. For the map building, the processes of alignment, registration and integration are performed using metric of angular difference and distance between the points. From the fusion of local maps a global map of the environment is created. The method developed in this work for global map building allows to be coupled with algorithms of path planning, self-location and free space estimation, so that autonomous robot navigation can be obtained.
17

Sistema de navegação para veiculos roboticos aereos baseado na observação e mapeamento do ambiente / Navigation system for aerial robotic vehicles based on the boservation and mapping of the environment at the School of Electrical and Computer Engineering

Castro, Cesar Dantas de 24 April 2007 (has links)
Orientadores: Paulo Augusto Valente Ferreira, Alessandro Correa Victorino, Samuel Siqueira Bueno / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-08T18:02:11Z (GMT). No. of bitstreams: 1 Castro_CesarDantasde_M.pdf: 3031758 bytes, checksum: 02179aa87aa18297b9b19bef7fb5b647 (MD5) Previous issue date: 2007 / Resumo: Este trabalho disserta sobre o desenvolvimento e a implementação de um sistema de localização e mapeamento simultâneos (SLAM) para um veículo robótico aéreo. Utilizando tal sistema, um robô que sobrevoe determinada área, até então desconhecida, deve ser capaz de conhecer sua postura no ambiente e mapeá-lo, sem o auxílio de mapas ou outras informações externas. Para alcançar este objetivo, o sistema recebe informações de uma unidade de medição inercial e de uma câmera, que observa características do ambiente e, indiretamente, a posição e a atitude do robô. Para fundir as informações dos dois conjuntos sensoriais embarcados, é utilizada uma arquitetura baseada no filtro de Kalman estendido, que atua como um estimador tanto da localização do dirigível quanto do mapa. Este sistema representa um primeiro passo em direção a uma solução de SLAM em seis graus de liberdade para o Projeto AURORA, que visa o desenvolvimento de tecnologia em robótica aérea. Desta forma, a abordagem proposta é validada em um ambiente de simulação composto de sensores virtuais e do simulador dinâmico do projeto AURORA. Os resultados apresentados mostram a eficácia da metodologia / Abstract: This work addresses the development and implementation of a simultaneous localization and mapping (SLAM) system for aerial robotic vehicles. Through this system, a robot flying over an unknown region must be capable of detecting its position accurately and, at the same time, constructing a map of the environment without the help of maps or any other external information. To reach that goal, the system receives input data from an inertial measurement unit and a single camera, which observes features in the environment and, indirectly, the robot¿s position and attitude. The data from both onboard sensors are then fused using an architecture based on an extended Kalman filter, which acts as an estimator of the robot pose and the map. This system represents a first step towards a six degrees of freedom SLAM solution for Project AURORA, whose goal is the development of technology on aerial robotics. As such, the proposed methodology is validated in a simulation environment composed of virtual sensors and the aerial platform simulator of the AURORA project based on a realistic dynamic model. The reported results show the efficiency of the approach / Mestrado / Automação / Mestre em Engenharia Elétrica
18

Planning for mobile robot localization using architectural design features on a hierarchical POMDP approach = Planejamento para localização de robôs móveis utilizando padrões arquitetônicos em um modelo hierárquico de POMDP / Planejamento para localização de robôs móveis utilizando padrões arquitetônicos em um modelo hierárquico de POMDP

Pinheiro, Paulo Gurgel, 1983- 16 August 2013 (has links)
Orientador: Jacques Wainer / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-24T02:06:24Z (GMT). No. of bitstreams: 1 Pinheiro_PauloGurgel_D.pdf: 41476694 bytes, checksum: f3d5b1e2aa32aa6f00ef7ac689a261e2 (MD5) Previous issue date: 2013 / Resumo: Localização de robôs móveis é uma das áreas mais exploradas da robótica devido a sua importância para a resolução de problemas, como: navegação, mapeamento e SLAM. Muitos trabalhos apresentaram soluções envolvendo cooperação, comunicação e exploração do ambiente, onde em geral a localização é obtida através de ações randômicas ou puramente orientadas pelo estado de crença. Nesta tese, é apresentado um modelo de planejamento para localização utilizando POMDP e Localização de Markov, que indicaria a melhor ação que o robô deve efetuar em cada momento, com o objetivo de diminuir a quantidade de passos. O foco está principalmente em: i) problemas de difícil localização: onde não há landmark ou informação extra no ambiente que auxilie o robô, ii) situações de performance crítica: onde o robô deve evitar passos randômicos e o gasto de energia e, por último, iii) situações com múltiplas missões. Sabendo que um robô é projetado para desempenhar missões, será proposto, neste trabalho, um modelo onde essas missões são consideradas em paralelo com a localização. Planejar para cenários com múltiplos ambientes é um desafio devido a grande quantidade de estados que deve ser tratada. Para esse tipo de problema, será apresentado um modelo de compressão de mapas que utiliza padrões arquiteturais e de design, como: quantidade de portas, paredes ou área total de um ambiente, para condensar informações que possam ser redundantes. O modelo baseia-se na similaridade das características de desing para agrupar ambientes similares e combiná-los, gerando um único mapa representante que possui uma quantidade de estados menor que a soma total de todos os estados dos ambientes do grupo. Planos em POMDP são gerados apenas para os representantes e não para todo o mapa. Finalmente, será apresentado o modelo hierárquico onde a localização é executada em duas camadas. Na camada superior, o robô utiliza os planos POMDP e os mapas compactos para estimar a grossa estimativa de sua localização e, na camada inferior, utiliza POMDP ou Localização de Markov para a obtenção da postura mais precisa. O modelo hierárquico foi demonstrado com experimentos utilizando o simulador V-REP, e o robô Pioneer 3-DX. Resultados comparativos mostraram que o robô utilizando o modelo proposto, foi capaz de realizar o processo de localização em cenários com múltiplos ambientes e cumprir a missão, mantendo a precisão com uma significativa redução na quantidade de passos efetuados / Abstract: Mobile Robot localization is one of the most explored areas in robotics due to its importance for solving problems, such as navigation, mapping and SLAM. In this work, we are interested in solving global localization problems, where the initial pose of the robot is completely unknown. Several works have proposed solutions for localization focusing on robot cooperation, communication or environment exploration, where the robot's pose is often found by a certain amount of random actions or state belief oriented actions. In order to decrease the total steps performed, we will introduce a model of planning for localization using POMDPs and Markov Localization that indicates the optimal action to be taken by the robot for each decision time. Our focus is on i) hard localization problems, where there are no special landmarks or extra features over the environment to help the robot, ii) critical performance situation, where the robot is required to avoid random actions and the waste of energy roaming over the environment, and iii) multiple missions situations. Aware the robot is designed to perform missions, we have proposed a model that runs missions and the localization process, simultaneously. Also, since the robot can have different missions, the model computes the planning for localization as an offline process, but loading the missions at runtime. Planning for multiple environments is a challenge due to the amount of states we must consider. Thus, we also proposed a solution to compress the original map, creating a smaller topological representation that is easier and cheaper to get plans done. The map compression takes advantage of the similarity of rooms found especially in offices and residential environments. Similar rooms have similar architectural design features that can be shared. To deal with the compressed map, we proposed a hierarchical approach that uses light POMDP plans and the compressed map on the higher layer to find the gross pose, and on the lower layer, decomposed maps to find the precise pose. We have demonstrated the hierarchical approach with the map compression using both V-REP Simulator and a Pioneer 3-DX robot. Comparing to other active localization models, the results show that our approach allowed the robot to perform both localization and the mission in a multiple room environment with a significant reduction on the number of steps while keeping the pose accuracy / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
19

Uso de fluxo óptico na odometria visual aplicada a robótica / Using the optical flow in the visual odometry applied robotics

Araújo, Darla Caroline da Silva, 1989- 26 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-26T21:38:28Z (GMT). No. of bitstreams: 1 Araujo_DarlaCarolinedaSilva_M.pdf: 5678583 bytes, checksum: a6ed9886369705a8853f15d431565a3d (MD5) Previous issue date: 2015 / Resumo: O presente trabalho descreve um método de odometria visual empregando a técnica de fluxo óptico, para estimar o movimento de um robô móvel, através de imagens digitais capturadas de duas câmeras estereoscópicas nele fixadas. Busca-se assim a construção de um mapa para a localização do Robô. Esta proposta, além de alternativa ao cálculo autônomo de movimento realizado por outros tipos de sensores como GPS, laser, sonares, utiliza uma técnica de processamento óptico de grande eficiência computacional. Foi construído um ambiente 3D para simulação do movimento do robô e captura das imagens necessárias para estimar sua trajetória e verificar a acurácia da técnica proposta. Utiliza-se a técnica de fluxo óptico de Lucas Kanade na identificação de características em imagens. Os resultados obtidos neste trabalho são de grande importância para os estudos de navegação robótica / Abstract: This work describes a method of visual odometry using the optical flow technique to estimate the motion of a mobile robot, through digital images captured from two stereoscopic cameras fixed on it, in order to obtain a map of location of the robot. This proposal is an alternative to the autonomous motion calculation performed by other types of sensors such as GPS, laser, sonar, and uses an optical processing technique of high computational efficiency. To check the accuracy of the technique it was necessary to build a 3D environment to simulate the robot performing a trajectory and capture the necessary images to estimate the trajectory. The optical flow technique of Lucas Kanade was used for identifying features in the images. The results of this work are of great importance for future robotic navigation studies / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestra em Engenharia Mecânica
20

Uma aplicação de navegação robótica autônoma através de visão computacional estéreo / Autonomous application of robotic navigation using computer stereo vision

Diaz Espinosa, Carlos Andrés 16 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-16T16:41:02Z (GMT). No. of bitstreams: 1 DiazEspinosa_CarlosAndres_M.pdf: 5130242 bytes, checksum: 334f37aa82bbde2c9ddbfe192baa7c48 (MD5) Previous issue date: 2010 / Resumo: O presente trabalho descreve uma técnica de navegação autônoma, utilizando imagens estereoscópicas de câmeras para estimar o movimento de um robô em um ambiente desconhecido. Um método de correlação de pontos em imagens unidimensionais é desenvolvido para a identificação de pontos homólogos de duas imagens em uma cena. Utilizam-se métodos de segmentação de bordas ou contornos para extrair as principais características inerentes nas imagens. Constrói-se um mapa de profundidade dos pontos da imagem com maior similitude dentre os objetos visíveis no ambiente, utilizando um processo de triangulação. Finalmente a estimação do movimento bidimensional do robô é calculada aproveitando a relação epipolar entre dois ou mais pontos em pares de imagens. Experimentos realizados em ambientes virtuais e testes práticos verificam a viabilidade e robustez dos métodos em aplicações de navegação robótica / Abstract: The present work describes a technique for autonomous navigation using stereoscopic camera images to estimate the movement of a robot in an unknown environment. A onedimensional image point correlation method is developed for the identification of similar image points of a scene. Boundary or contour segments are used to extract the principal characteristics of the images. A depth map is built for the points with grater similarity, among the scene objects depicted, using a triangulation process. Finally, the bi-dimensional movement of a robot is estimated through epipolar relations between two or more correlated points in pairs of images. Virtual ambient and practical robot tests are preformed to evaluate the viability of employment and robustness of the proposed techniques / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica

Page generated in 0.0683 seconds