• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 434
  • 19
  • 16
  • 10
  • 10
  • 10
  • 9
  • 7
  • 4
  • 4
  • 4
  • 3
  • 1
  • Tagged with
  • 490
  • 192
  • 163
  • 160
  • 153
  • 122
  • 121
  • 111
  • 92
  • 87
  • 71
  • 60
  • 57
  • 52
  • 51
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Multi-robot exploration with constrained communication

Carvalho Filho, José Gilmar Nunes de January 2016 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia de Automação e Sistemas, Florianópolis, 2016. / Made available in DSpace on 2016-12-27T03:11:05Z (GMT). No. of bitstreams: 1 342277.pdf: 5444057 bytes, checksum: 36965f3be2f7f870b8ed9ef5eee8e702 (MD5) Previous issue date: 2016 / Abstract : Over the last two decades, several methods for exploration with Multi-Robot Systems (MRS) have been proposed, most of them based on the allocation of frontiers (exploration targets) and typically applying local optimization policies. However, communication issues have usually been neglected. This thesis investigates multi-robot exploration by considering that robots have limited communication radius. Two methods, one based on a flat network architecture (DSM) and another based on a hierarchical architecture (HSM), were proposed to share map information. While DSM considers a propagation scheme to share information and synchronize the map of robots, HSM organizes robots in a hierarchical architecture where some robots act as leaders (clusterheads) and are responsible for synchronizing the maps of the robots in the network. Formal proof that both methods guarantee the synchronization of the map of all robots in a network is presented. In addition, experiments were conducted by considering systems with different number of robots, network topologies and different map's sizes. The results show that both methods are able to synchronize the map of the robots when they can lose communication links, but HKM usually presents smaller convergence time, number of exchanged messages and amount of transmitted data. We also propose Hierarchical K-Means (HKME), a method for multi-robot coordination in exploration tasks that handles communication problems, such as link losses. To handle communication among robots, HKME arranges them into clusters and elects leaders for each. Clusters evolve dynamically as robots lose or establish communication with their peers. HKME uses HSM to guarantee that the map of the robots are synchronized and also uses the hierarchical organization of the robots to coordinate them in order to minimize the variance of the time at which they reach all regions of the workspace, while balancing their workload and decreasing the exploration time. Experiments were conducted by considering different types of workspace and communication radius. The results show that HKME behaves like a centralized algorithm when communication is granted, while being able to withstand severe degradation in communication radius.<br> / Ao longo das últimas décadas, vários métodos de exploração com os Sistemas Multi-robôs (SMR) têm sido propostos, a maioria deles com base na alocação de fronteiras (alvos de exploração) e normalmente aplicando políticas de otimização locais. No entanto, os problemas de comunicação têm geralmente sido negligenciados. Esta tese investiga a exploração multi-robô, considerando que os robôs têm raio de comunicação limitado. Dois métodos, um baseado em uma arquitetura de rede plana (DSM) e outro baseado em uma arquitetura hierárquica (HSM), foram propostos para compartilhar informações de mapa. Enquanto o DSM considera um esquema de propagação para compartilhar informações e sincronizar o mapa dos robôs, o HSM organiza robôs em uma arquitetura hierárquica, onde alguns robôs atuam como líderes (clusterheads) e são responsáveis por sincronizar os mapas dos robôs na rede. A prova formal de que ambos os métodos garantem a sincronização do mapa de todos os robôs na rede é apresentada. Além disso, experimentos foram conduzidos considerando sistemas com diferentes números de robôs, topologias de rede e tamanhos de mapa. Os resultados mostram que ambos os métodos são capazes de sincronizar o mapa dos robôs quando eles podem perder links de comunicação, mas o HKM geralmente apresenta menor tempo de convergência, o número de mensagens trocadas e a quantidade de dados transmitidos. Propomos também Hierarchical K-Means (HKME), um método de coordenação multi-robô em tarefas de exploração que lida com problemas de comunicação, tais como perdas de links. Para lidar com a comunicação entre robôs, o HKME os organiza em clusters e elege os líderes de cada um. Clusters evoluem dinamicamente a medida que os robôs perdem ou estabelecem links de comunicação. O HKME usa o HSM para garantir que o mapa dos robôs se mantenham sincronizados e também usa a organização hierárquica dos robôs para coordená-los, a fim de minimizar a variância do momento em que eles atinjem todas as regiões do espaço de trabalho, ao mesmo tempo que equilibra a carga de trabalho e diminui o tempo de exploração. Experimentos foram realizadas considerando diferentes tipos de espaço de trabalho e raios de comunicação. Os resultados mostram que o HKME comporta-se como um algoritmo centralizada quando a comunicação é garantida, sendo capaz de lidar com uma degradação severa no raio de comunicação.
82

Análise e programação de robôs móveis autônomos da plataforma Eyebot

Silva, Luciano Rottava da January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica. / Made available in DSpace on 2012-10-20T10:23:38Z (GMT). No. of bitstreams: 1 193797.pdf: 855541 bytes, checksum: a4775509878668845610b6413c989183 (MD5) / A utilização de robôs móveis autônomos em pesquisas de Inteligência Artificial despertou o interesse de muitos grupos ao redor do mundo. O futebol robótico transformou-se numa área de estudo capaz de congregar diversas outras. Trata-se de um campo riquíssimo para a pesquisa e o ensino. Neste trabalho apresentamos, inicialmente, capítulos introdutórios nas áreas que dão suporte ao tópico futebol robótico, como Sistemas Especialistas, Sistemas Multiagentes e Lógica Nebulosa. A seguir traçamos um histórico do desenvolvimento do tema futebol de robôs. Organizações, regras, categorias, tudo é apresentado e explicado com o objetivo de familiarizar o leitor. O núcleo da pesquisa é composto pela análise feita dos robôs móveis da plataforma EyeBot. Foram escritos programas com o objetivo de explorar todas as potencialidades, ou seja, todos os sub-sistemas do robô foram estudados e compreendidos. Também desenvolvemos um programa chamado Xcameraviewer capaz de enviar imagens do robô para uma estação de trabalho remota via enlace de rádio. A versão existente não contemplava sistemas Unices, apenas a plataforma MS-Windows. Outros experimentos foram feitos envolvendo, principalmente, a câmera embarcada do robô. Por fim, resultados e conclusões são apresentados a fim de direcionar futuros trabalhos nesta área.
83

Modelagem, navegação e localização de robô subaquático utilizando filtros não paramétricos

Souza, Nathan Costa Alves 28 November 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2014. / Submitted by Andrielle Gomes (andriellemacedo@bce.unb.br) on 2015-07-02T18:19:02Z No. of bitstreams: 1 2014_NathanCostaAlvesSouza.pdf: 51389623 bytes, checksum: 2d631aa6c660de3475d2c825ad608929 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2015-07-03T13:03:54Z (GMT) No. of bitstreams: 1 2014_NathanCostaAlvesSouza.pdf: 51389623 bytes, checksum: 2d631aa6c660de3475d2c825ad608929 (MD5) / Made available in DSpace on 2015-07-03T13:03:54Z (GMT). No. of bitstreams: 1 2014_NathanCostaAlvesSouza.pdf: 51389623 bytes, checksum: 2d631aa6c660de3475d2c825ad608929 (MD5) / Com a expansão da barreira de exploração nas atividades petrolíferas no mar, as empresas estão utilizando cada vez mais veículos subaquáticos em operações offshore. A substituição de mergulhadores de profundidades por UUVs (Unmanned Underwater Vehicles) é devido não somente à capacidade de atuar em profundidades maiores que 300 metros, mas também em operações de grande duração e menor risco nas atividades de instalação e manutenção de infraestrutura subaquática. No entanto, os UUVs necessitam superar as outras duas dificuldades técnicas apresentadas na exploração offshore: as condições prevalecentes no clima e a invisibilidade das operações no mar. Essas condições interferem na eficácia de navegação dos veículos aquáticos, principalmente em UUVs que são dependentes das leituras dos seus sensores para funcionarem como projetados. Quanto mais programação e processamentos dos múltiplos sensores, melhor fica para que o sistema (ou operador no caso de ROVs) consiga navegar bem no ambiente subaquático. Porém, cada sensor capta ruído, processando de forma limitada a informação. Isso em conjunto com a elevada dinâmica não-linear e invisibilidade no mar faz com que não seja possível garantir a navegação ou operação confiável dos veículos subaquáticos baseando-se somente na leitura dos sensores. A metodologia apresentada neste trabalho tem o objetivo de possibilitar a implementação de navegação autônoma, manipulando as informações captadas pelos sensores e a incerteza de atuação do modelo não-linear do veículo em um sistema de tratamento por uso de um filtro probabilístico. Juntamente com algoritmos de planejamento de trajetória em grades de ocupação, esta metodologia é ensaiada em um veículo subaquático autônomo com resultados que demonstram seu pleno funcionamento em um caso de localização global em ambiente subaquático não controlado. ______________________________________________________________________________________________ ABSTRACT / With the expansion of the boundaries of oil and gas exploration at sea, the industry is using more underwater vehicles in offshore operations than divers. Replacing professional divers by UUVs (Unmanned Underwater Vehicles) is due not only to the its capacity to operate in depths greater than 300 meters, but also to lower the risk and time it can stay underwater in installation and maintenance of underwater infrastructure. However, UUVs need to overcome other two technical difficulties presented in offshore exploration: the adverse conditions in marine climate and the invisibility of operations at sea. These conditions affect the efficiency of navigation of marine vessels, especially of UUVs, which are dependent of the readings from its sensors to function as designed. The more information that are inferred from the readings of multiple sensor, the better it is for the system (or for the pilot in the case of ROVs) to plan the navigation in underwater environments. However, in each sensor reading, noise is captured during the process, which interferes the accuracy of the reading. The noise, together with the high nonlinear dynamics and the invisibility at sea makes it difficult to guarantee reliable navigation and operation of underwater vehicles based solely on sensor reading. The procedure presented in this paper aims to enable implementation of autonomous navigation by manipulating the information captured by sensors and by the nonlinear model actuation of the vehicle to infer position through use of a probabilistic filter. Along with path planning algorithms in occupancy grids, this methodology is tested on a autonomous underwater vehicle with results that demonstrate its full operation in a global location problem in a uncontrolled underwater environment.
84

Arquitetura em hardware do filtro de Kalman estendido para localização de robôs móveis autônomos implementada em FPGA

Contreras Samame, Luis Federico 27 March 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2015. / Submitted by Raquel Viana (raquelviana@bce.unb.br) on 2015-11-25T16:03:00Z No. of bitstreams: 1 2015_LuisFedericoContrerasSamame.pdf: 6902681 bytes, checksum: aee20346f689755b9973ef32bd5bea60 (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-01-25T13:23:41Z (GMT) No. of bitstreams: 1 2015_LuisFedericoContrerasSamame.pdf: 6902681 bytes, checksum: aee20346f689755b9973ef32bd5bea60 (MD5) / Made available in DSpace on 2016-01-25T13:23:41Z (GMT). No. of bitstreams: 1 2015_LuisFedericoContrerasSamame.pdf: 6902681 bytes, checksum: aee20346f689755b9973ef32bd5bea60 (MD5) / Este trabalho apresenta uma arquitetura em hardware para a implementação de um algoritmo probabilístico, especificamente o Filtro de Kalman Estendido (EKF) em versão sequencial, aplicado ao problema de localização em robótica móvel. Primeiro, desenvolveu-se um módulo de hardware para etapa de predição do algoritmo EKF baseada em um modelo odométrico de um robô móvel de quatro rodas deslizantes (4-SSMR). Logo, considerou-se um módulo de hardware para etapa de estimação do EKF baseada em um modelo de sistema medição usando um sensor LRF (do inglês Laser RangeFinder). Adicionalmente, um Módulo de Hardware Unificado (MHU) para o EKF foi projetado considerando as duas etapas do filtro (predição e estimação) em uma mesma arquitetura. Unidades em Ponto Flutuante (UPFs) foram usadas para operações aritméticas e trigonométricas necessárias para cada uma das equações do EKF. Para este caso, duas abordagens (módulos individuais e MHU) foram consideradas para a implementação do algoritmo EKF em um kit de desenvolvimento DE2-115da Altera (FPGA Cyclone IV, processador Nios II), aplicado à localização de uma plataforma móvel Pioneer 3AT (da companhia Mobile Robots Inc.). Finalmente, foram obtidas métricas (tempo de execução, consumo de potência e de recursos no FPGA) e comparações com outras soluções, a fim de validar o desempenho do sistema proposto e sua aplicabilidade para a área de robótica móvel. Entre os principais resultados, um tempo de execução da arquitetura em hardware do EKF de 3,08 μs foi obtido com um fator de aceleração minimo de 63 comparado com outras implementações em software. ______________________________________________________________________________________________ ABSTRACT / This manuscript presents a hardware architecture to implement a probabilistic algorithm, specifically the Extended Kalman Filter (EKF) in a sequential version, applied to the localization problem in mobile robotics. Firstly, a hardware module for the EKF prediction stage was developed based on an odometric model of a 4-SSMR (Four Wheeled Skid-Steer Mobile Robot). Then, a hardware module for the EKF estimation stage was designed based on a measurement system model, using a LRF sensor (Laser Rangefinder). Furthermore, a Unified Hardware Module (MHU) for the EKF was designed taking into account the two EKF stages (prediction and estimation) in the same architecture. Floating-Point Units (UPFs) were used for arithmetic and trigonometric operations required for each of the EKF equations. In this case, two approaches (individuals modules and MHU) were considered for the implementation of the EKF algorithm over an Altera DE2-115 board (Cyclone IV FPGA with a Nios II processor), applied to the localization of the Pioneer 3AT robot (from Mobile Robots Inc.). Finally, metrics (execution time, FPGA resources and power consumption) and comparisons have been obtained, in order to evaluate the performance and suitability of the proposed system for the mobile robots area. Among the main results, an execution time of the hardware architecture for EKF of 3,08 μs was achieved with a minimum speedup factor of 63 compared to other software implementations.
85

Técnica de navegação de um robô móvel baseado em um sistema de visão para integrá-lo a uma célula flexível de manufatura / Mobile robot navigation technique based in vision system for integrate it to a flexivel manufacturing cell (FMC)

Cano, Carlos Enrique Villanueva 12 May 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Engenharia Mecânica, 2006. / Submitted by Érika Rayanne Carvalho (carvalho.erika@ymail.com) on 2009-09-29T01:33:39Z No. of bitstreams: 1 2006_Carlos Enrique Villanueva Cano.pdf: 4603166 bytes, checksum: cdf89999faa69fbb10d3f8c4d6b567d7 (MD5) / Approved for entry into archive by Gomes Neide(nagomes2005@gmail.com) on 2011-01-05T16:44:37Z (GMT) No. of bitstreams: 1 2006_Carlos Enrique Villanueva Cano.pdf: 4603166 bytes, checksum: cdf89999faa69fbb10d3f8c4d6b567d7 (MD5) / Made available in DSpace on 2011-01-05T16:44:37Z (GMT). No. of bitstreams: 1 2006_Carlos Enrique Villanueva Cano.pdf: 4603166 bytes, checksum: cdf89999faa69fbb10d3f8c4d6b567d7 (MD5) Previous issue date: 2006-05 / Atualmente o controle dos veículos guiados automaticamente (AGV), é baseado no estudo das diferentes técnicas de navegação existentes. Estas técnicas, utilizam diferentes tipos de sensores (infravermelho, ultra-som, táctil, visão, etc) como parte do equipamento do robô móvel para realizar suas tarefas de movimentação e controle desde uma posição inicial até uma posição final definida. A contribuição principal deste trabalho consiste em apresentar uma técnica de navegação baseada em um sistema de visão, para integrar um robô móvel à célula flexível de manufatura (FMC), a qual está sendo implementada no laboratório GRACO – UNB, trabalhando como um veículo guiado automaticamente (AGV), assim como também apresentar as vantagens e desvantagens do tipo de navegação implementada. O sistema de navegação proposto é composto por cinco módulos principais: O primeiro módulo é da captura de imagens no formato RGB através da placa de captura Matrox Meteor; O segundo módulo de pré-processamento, que realiza o tratamento das imagens capturadas através da aplicação de algoritmos de visão computacional. O terceiro módulo de extração de pontos das linhas seguidas, que extrai da imagem binarizada os pontos mais importantes da cena como é o caso da extração de dois pontos da linha para calcular a sua inclinação para depois ser comparada com os erros mínimos permitidos. O quarto módulo é o de reconhecimento dos sinais através da utilização de algoritmos baseados em redes neurais; e finalmente o quinto módulo é o de controle, que com base à informação gerada nos módulos anteriores, trabalha nos motores do robô para gerar ou corrigir os movimentos ao longo da linha rastreada ou executar uma ação de movimento dependendo do sinal reconhecido. O sistema de navegação utilizado, pelo robô móvel, é modelado utilizando técnicas de objetos orientados, através da linguaje UML. ______________________________________________________________________________ ABSTRACT / Nowadays, the control of the automatic guided vehicles (AGV), is based on the study of different navigation existing techniques. Those utilize different kinds of sensors (infrared, ultrasound, tactile, vision, etc) as part of the equipment included in the mobile robot carrying out their tasks of movement and control since an initial position to a defined final position. The main contribution of this work is developing a navigation technique based on a vision system, by integrating a mobile robot to a flexible manufacturing cell (FMC), that is being implemented on the GRACO – UnB laboratory. On the mobile robot, working as an automatic guided vehicle (AGV), are shown, as well, the advantages and disadvantages of this kind of navigation. The system of proposed navigation is building up for five main modules: The first module is images capture module in RGB format through the Matrox Meteor board. The second module of pre-processing, carries out the processing of the captured images through the application of computational vision algorithms. The third is the line points extraction module, to extract from the image the most important points of the scene as is in the case of the slope line tracking calculation and comparing it with the minimum permitted errors in the tracking line. The fourth module of signs recognition through the utilization of algorithms based in neural nets ; and finally the fifth module of control, that base on the information generated in the previous modules, works in the motor control of the robot, generating the correct movements during the tracking line or executing an action of movement depending on the recognized sign. The navigation system utilized by the mobile robot will be modelled, utilizing techniques of objects oriented, through the UML language. ______________________________________________________________________________ RESUMEN / Actualmente el control de los vehículos guiados automáticamente (AGV), esta basado en el estudio de las diferentes técnicas de navegación existentes. Estas, utilizan diferentes tipos de sensores (infrarrojos, ultrasonido, táctiles, visión, etc.) como parte del equipo del robo móvil para realizar sus tareas de navegación y control, desde una posición inicial hasta una posición final definidas. La principal contribución de este trabajo consiste en presentar una técnica de navegación basada en un sistema de visión para integrar un robot móvil a una célula flexible de manufactura, a cual está siendo implementada en el laboratorio de automatización y control GRACO-UnB, trabajando como un vehículo guiado automáticamente, así como también presentar las ventajas y desventajas del tipo de navegación que esta siendo implementada. El sistema de navegación propuesto está compuesto por cinco módulos principales: un primer módulo de captura de imágenes en formato RGB a través da placa Matrox Meteor de el robot móvil. Un segundo módulo de pre-procesamiento de las imágenes capturadas a través de la aplicación de algoritmos de visión computacional. Un tercer módulo de extracción de puntos de las líneas seguidas por el robot para calcular su inclinación a cual será comparada posteriormente con los errores mínimos permitidos. O cuarto módulo de reconocimiento de señales a través del uso de algoritmos basados en redes neurales; y finalmente el quinto módulo de control, el cual en base a la información generada por los módulos anteriores, trabaja en el control de los motores del robot los cuales generan el correcto desplazamiento durante el rastreo de las líneas o ejecutan alguna otra acción de movimiento dependiendo de la señal reconocida. El sistema de navegación que está siendo implementado en el robot móvil será modelado utilizando técnicas de objetos orientados a través del uso del lenguaje UML.
86

Estimação de curvas polinomiais em sequência de imagens para navegação de robôs móveis / Polinomial curves estimation in image sequences to mobile robot navigation

Alves, Deborah Silva 10 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2006. / Submitted by Natália Cristina Ramos dos Santos (nataliaguilera3@hotmail.com) on 2009-11-02T12:01:15Z No. of bitstreams: 1 2006_Deborah Silva Alves.pdf: 3617792 bytes, checksum: 6ba9e65b8f295092f3c2ebebab09d438 (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2010-02-11T23:52:31Z (GMT) No. of bitstreams: 1 2006_Deborah Silva Alves.pdf: 3617792 bytes, checksum: 6ba9e65b8f295092f3c2ebebab09d438 (MD5) / Made available in DSpace on 2010-02-11T23:52:31Z (GMT). No. of bitstreams: 1 2006_Deborah Silva Alves.pdf: 3617792 bytes, checksum: 6ba9e65b8f295092f3c2ebebab09d438 (MD5) Previous issue date: 2006-10 / Neste trabalho, foi implementado um sistema de visão computacional para navegação de robôs móveis baseado em rastreamento de trajetórias. Essas trajetórias são formadas por marcas artificiais adicionadas ao teto do ambiente na forma de curvas e retas. Para marcar o teto foram utilizadas cordas e fita adesiva escuras fixadas ao teto formando retas e curvas contínuas que indicam a trajetória a ser seguida pelo robô. A finalidade desse trabalho é o rastreamento de tais marcas. Para tanto, foi implementado um sistema de rastreamento que trabalha concorrentemente com o sistema de controle do robô. O sistema implementado foi desenvolvido em um robô móvel equipado com uma câmera com foco direcionado para o teto. Esse sistema foi subdivido em quatro etapas que são executadas seqüencialmente a cada passo de tempo. A primeira das etapas adquire e processa uma imagem com técnicas para extração de bordas e eliminação de ruído. Em seguida, se o sistema não possui nenhuma informação a priori ele salta duas outras etapas e realiza a parametrização de uma curva baseado nos pixeis da imagem processada na primeira etapa. Essa é a quarta etapa do sistema para qual foram implementados cinco algoritmos estimadores, três baseados em Mínimos Quadrados e dois em filtragem estocástica. Caso contrário, se o sistema possuir informação a priori, após a primeira etapa ele realiza a segunda que é a de predição. Esta recebe os parâmetros da curva estimada no passo de tempo anterior e os dados da odometria, referentes ao movimento do robô entre o passo de tempo anterior e o atual, para atualizar a informação a priori sobre a trajetória. A próxima etapa recebe a imagem processada na etapa 1 e a informação de predição da etapa 2 e realiza uma pré-seleção de pixeis da imagem processada que poderão participar da estimação de parâmetros na quarta e última etapa do sistema. Para a avaliação de desempenho do sistema implementado, foram utilizados bancos de imagens adquiridos por uma câmera com foco direcionado para o teto e acoplada a um robô móvel Omnidirecional guiado por joystick. O sistema foi avaliado para várias trajetórias, sendo analisados os resultados de todos os processos intermediários do rastreamento e o desempenho global do sistema. Os resultados observados mostraram que o sistema implementado permite o rastreamento de trajetórias a partir apenas da informação extraída, pelos algoritmos de visão, das imagens adquiridas durante a movimentação do robô e da odometria. Cada um dos algoritmos estimadores implementados foram testados e analisados quanto as suas características e tempo de execução, dentre os quais, os de filtragem estocástica obtiveram melhores resultados no rastreamento da trajetória. __________________________________________________________________________________________ ABSTRACT / In this work, a computer vision system was implemented for curve tracking-based navigation of mobile robots. These trajectories are formed by artificial landmarks added to the ceiling of the environment in the form of curves and straight lines. In order to mark the ceiling, ropes and adhesive tapes were fixed fixed to the ceiling forming continuous straight lines and curves that indicate the trajectory to be followed by the robot. The purpose of this work is to propose tracking algorithms for such marks. Therefore , it was implemented a tracking system that works concurrently with the control system of the robot. The implemented system was developed in a mobile robot equipped with a video camera looking at the ceiling. This system is composed of four stages that are executed sequentially. The first one of the stages acquires and processes an image with techniques for edges extraction and of noise elimination. After this, if the system does not possess no a priori information about the trajectory, it jumps two stages and carries through the parametrization of a curve based on pixels of the processed image at the first stage. This is the fourth stage of the system, for which five estimators were implemented. Three of them are based on Least Squares and two in stochastic filtering. Otherwise, if the system has a priori information, after the first stage it carries through the prediction stage. This stage receives the curve estimated parameters computed in the previous time and robot’s odometric data, referring to the robot’s movement between the step of previous time and the current one. It is used to update the a priori information about the trajectory. The next stage receives the processed image (first stage) and information from prediction (second stage) and carries through an previous election of pixels of the processed image. Several images sequences had been acquired for performance evaluation of the implemented system off line. In such experiments, the mobile robot was guided using joystick. The system was evaluated for several trajectories. The results were analyzed for all the intermediate processes. The observed results had shown that the implemented system allows the trajectory tracking only with the extracted information of the images (through vision algorithms) acquired during the robot’s movement and the odometry. Each one of the estimators implemented algorithms had been tested, and their characteristics and execution time were analyzed. From such analysis, the stochastic ones had gotten better results in the tracking trajectory process.
87

Desenvolvimento de um sistema de localização 3D para aplicação em robôs aéreos / Design of a 3D system localization for application in aerial robotics

Bó, Antônio Padilha Lanari 17 July 2007 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2007. / Submitted by Kathryn Cardim Araujo (kathryn.cardim@gmail.com) on 2009-11-25T16:38:09Z No. of bitstreams: 0 / Rejected by Joanita Pereira(joanita), reason: Favor anexar a dissertação em PDF. Joanita on 2009-12-07T20:20:43Z (GMT) / Submitted by Kathryn Cardim Araujo (kathryn.cardim@gmail.com) on 2009-12-10T14:50:20Z No. of bitstreams: 1 2007_AntonioPadilhaLanariBo.pdf: 17868307 bytes, checksum: e550827efa4eb76bd6210621bdaa3fde (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-01-07T20:43:56Z (GMT) No. of bitstreams: 1 2007_AntonioPadilhaLanariBo.pdf: 17868307 bytes, checksum: e550827efa4eb76bd6210621bdaa3fde (MD5) / Made available in DSpace on 2010-01-07T20:43:56Z (GMT). No. of bitstreams: 1 2007_AntonioPadilhaLanariBo.pdf: 17868307 bytes, checksum: e550827efa4eb76bd6210621bdaa3fde (MD5) Previous issue date: 2007-07-17 / Este trabalho apresenta o desenvolvimento de um sistema de localização 3D para aplicação em um Veículo Aéreo Não-Tripulado (VANT). O sistema é capaz de fornecer em tempo real estimativas da posição, velocidade e atitude do veículo. Devido a restrições impostas pelo veículo no qual o sistema será embarcado, o sistema é composto por dispositivos leves, de dimensões reduzidas e de baixo custo e o uso de sensores baseados em referências externas é limitado. Sob tais requisitos de projeto, os seguintes sensores foram escolhidos para compor o sistema: girômetros, acelerômetros, magnetômetros, sensor de pressão e receptor GPS. O manuscrito descreve o modelo de cada sensor individualmente e os projeto do hardware e do software envolvidos. Os procedimentos de calibração e o algoritmo de fusão sensorial, em que o magnetômetro e o receptor GPS são utilizados para corrigir as estimativas fornecidas pelos sensores inerciais, são apresentados em detalhe. Resultados experimentais provenientes de testes realizados no ambiente do laboratório e em ambientes externos, que confirmam a possibilidade de emprego de tal sistema em diferentes aplicações, também são apresentados. ___________________________________________________________________________________________ ABSTRACT / This work presents the development of a 3D localization system for application on a small Unmanned Air Vehicle (UAV). The system is able to provide real time position, velocity and attitude estimates of the vehicle. Due to restrictions imposed by the host vehicle, the system is composed by low cost, small and light devices and the use of sensors based on external references is limited. Under those constraints, the following sensors were chosen to compose the system: gyrometers, accelerometers, magnetometers, pressure sensor and GPS receiver. The manuscript describes each sensor model individually and the hardware and software design. Calibration procedures and the sensor fusion algorithm are presented in detail, in which magnetometer and GPS receiver are used to correct the estimates updated by inertial sensors. Experimental results from tests carried out in laboratory and outdoors confirm the possibility to employ the system on different applications.
88

Controle servo-visual para aproximação de portas por robôs móveis equipados com duas câmeras / Visual servoing for docking of mobile robots equipped with two cameras

Bernardes, Mariana Costa 04 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2009. / Submitted by Raquel Viana (tempestade_b@hotmail.com) on 2010-04-20T20:47:33Z No. of bitstreams: 1 2009_MarianaCostaBernardes.pdf: 4546495 bytes, checksum: 3ffb81cfbd37577464a1c8b699d51c6a (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-04-23T02:19:31Z (GMT) No. of bitstreams: 1 2009_MarianaCostaBernardes.pdf: 4546495 bytes, checksum: 3ffb81cfbd37577464a1c8b699d51c6a (MD5) / Made available in DSpace on 2010-04-23T02:19:31Z (GMT). No. of bitstreams: 1 2009_MarianaCostaBernardes.pdf: 4546495 bytes, checksum: 3ffb81cfbd37577464a1c8b699d51c6a (MD5) Previous issue date: 2009-04 / Classicamente, o controle servo visual é aplicado em abordagens determinísticas que fazem uso direto dos parâmetros extraídos da imagem ou que os utilizam para determinar a posição do robô no plano cartesiano e com isso calcular a ação de controle. Tais métodos, no entanto, são bastante susceptíveis a ruídos de medição e pouco tolerantes a falhas como obstrução ou perda do rastreamento das características visuais. Estes problemas poderiam ser minimizados com uma abordagem estocástica, fazendo-se uso do modelo de evolução das características visuais e de informação sensorial adicional para estimar os valores de tais parâmetros. Este trabalho busca obter uma abordagem de controle servo visual baseado em retas combinado a um processo simultâneo de reconstrução tridimensional por Filtro de Kalman Estendido. Propõe-se então um controlador para robôs móveis omnidirecionais, que utiliza um sistema binocular de câmeras como principal fonte de informação, associado a medidas de odometria fornecidas pelo robô para estimar o modelo das retas no espaço 3D. As estimativas obtidas são utilizadas no cálculo da ação de controle servo visual e com isso busca-se atenuar os problemas apresentados acima, presentes nas abordagens usuais. O método proposto é validado sobre um robô móvel omnidirecional numa tarefa de aproximação de portas e seu desempenho é comparado ao de um controlador cujas características são extraídas diretamente das imagens. ________________________________________________________________________________________ ABSTRACT / Classically, visual servoing is applied in deterministic approaches that use parameters extracted directly from images or that use these parameters to calculate the robot’s position in cartesian plane to define control action. However, these methods are very sensitive to measurement noise and not tolerant to fail situations like lost of tracking or obstruction of visual features. Such problems could be minimized with a stochastic approach, using the evolution model of image features and additional sensor information to estimate the parameters. This work purposes a line based visual servoing approach combined with a simultaneous tridimensional reconstruction process with Extended Kalman Filter. We propose a controller for omnidirectional mobile robots that use a binocular camera system as the main information source, combined with odometry measurements provided by the robot to estimate the 3D line model. The control signal is calculated with the obtained estimates in order to attenuate the problems presented above, observed in usual visual servoing approaches. The proposed method is evaluated on an omnidirectional mobile robot in a docking task and its performance is compared to a controller whose visual features are extracted directly from images.
89

Uso da Constância de Cor na Robótica Móvel

ALMONFREY, D. 21 July 2011 (has links)
Made available in DSpace on 2018-08-02T00:00:55Z (GMT). No. of bitstreams: 1 tese_3866_DissertacaoMestradoDouglasAlmonfrey.pdf: 10903542 bytes, checksum: dd9d57bcb5fae71270adf607f139e977 (MD5) Previous issue date: 2011-07-21 / A cor capturada por uma câmera é função da iluminação da cena, das características reflexivas das superfícies presentes na cena, dos fotossensores presentes nos sistemas de visão e, principalmente, do processamento realizado no cérebro. Devido a este processamento realizado pelo cérebro, os seres humanos apresentam o chamado fenômeno da constância de cor: a cor de uma superfície é percebida como sendo a mesma, independentemente das condições de iluminação do ambiente. No entanto, a variação da iluminação implica na modificação do valor registrado para a cor da superfície capturada por um sistema de visão artificial. Na literatura, a obtenção de descritores da superfície que sejam independentes da iluminação é conhecido como problema de constância de cor. Uma solução para este problema é a obtenção das características reflexivas das superfícies separadas da informação de iluminação da cena. Uma outra abordagem para a solução desse problema é a obtenção das cores das superfícies sempre submetidas a uma mesma iluminação padrão, garantindo assim a constância das cores. Independentemente de qual abordagem seja escolhida, o problema de constância de cor é de difícil solução e a maioria das soluções existentes é aplicada somente em imagens sintetizadas por computador, enquanto outras apresentam desempenho limitado quando aplicadas em imagens reais de ambientes com iluminação variável e não controlada. Devido à ausência do fenômeno da constância de cor nos sistemas de visão artificial, muitos sistemas automáticos evitam a utilização da informação de cor das imagens obtidas por meio desses sistemas. Além disso, a solução do problema de constância de cor é também objeto de interesse da indústria e comércio de fotografias. Neste contexto, este trabalho aborda a solução do problema de constância de cor por meio de um algoritmo baseado no método de correção de cor desenvolvido em (KONZEN; SCHNEEBELI, 2007a). Este algoritmo converte as cores de uma cena capturada sob iluminação desconhecida, de forma que a cena aparente estar sempre sob a influência de uma iluminação padrão. Se a iluminação da cena é relativamente sempre a mesma, as cores da imagem da cena são aproximadamente constantes. Essa conversão entre iluminações é realizada por meio do conhecimento das cores de alguns pontos da cena sob influencia da iluminação padrão. Finalmente, o desempenho deste algoritmo de constância de cor é analisado aplicando-o a uma sequência de imagens de cenas sujeitas a variações abruptas de iluminação. Para auxiliar na análise, um algoritmo de tracking é utilizado para demonstrar a importância do algoritmo de constância de cor nas imagens dessas cenas. Além disso, um controlador servovisual, empregado juntamente com o algoritmo de constância de cor, é utilizado para guiar um robô móvel na navegação por um ambiente externo sujeito à iluminação variável do sol. O algoritmo de constância de cor é aplicado também em imagens de um ambiente externo que apresenta variação de iluminação e uma discussão sobre a utilização desse algoritmo em tarefas de reconhecimento de lugares, assunto fundamental na localização de robôs, é realizada.
90

Modelagem e Compensação da Dinâmica de Robôs Móveis e sua Aplicação em Controle de Formação

MARTINS, F. N. 06 March 2009 (has links)
Made available in DSpace on 2018-08-02T00:01:57Z (GMT). No. of bitstreams: 1 tese_3018_TeseDoutoradoFelipeNascimentoMartins.pdf: 8472284 bytes, checksum: 3749c00532b2e35a001d06cc2e94354e (MD5) Previous issue date: 2009-03-06 / Uma proposta de modelagem da dinâmica de robôs móveis tipo uniciclo é aqui apresentada e utilizada no projeto de controladores para os referidos robôs, inclusive num contexto de controle de formação. A dinâmica dos robôs móveis é modelada através de uma nova abordagem, baseada em um modelo dinâmico que aceita sinais de velocidades linear e angular como entradas. O novo modelo dinâmico apresentado tem suas propriedades estudadas e posteriormente utilizadas no desenvolvimento de controladores adaptativos, para compensar os efeitos da dinâmica de robôs móveis quando realizam tarefas de seguimento de trajetória, posicionamento e controle de formação. A teoria de Lyapunov é utilizada para analisar a estabilidade do equilíbrio para cada caso, também sendo realizada análise de robustez à variação de parâmetros e à presença de distúrbios não modelados. A influência da compensação da dinâmica é estudada, e sua importancia evidenciada através do cálculo de um índice de desempenho obtido em simulações e experimentos. Três estratégias de controle de formação com compensação dinâmica são apresentadas, sendo uma de controle descentralizado tipo líder-seguidor e duas de controle centralizado tipo estruturas virtuais. Uma das estratégias de controle centralizado é aqui proposta, sendo apresentado o desenvolvimento do Esquema de Controle Multicamadas. Tal esquema permite que cada parte do problema de controle de formação seja resolvido por um módulo independente, aumentando sua flexibilidade. É proposto um controlador de formação que posiciona os robôs numa formação que pode ser fixa ou variável, tanto em posição como em forma, sendo possível enfatizar a importância do controle de posicionamento ou de forma da formação. A influência da compensação dinâmica neste controle de formação é analisada e ilustrada através de resultados de simulação e também de experimentos.

Page generated in 0.2227 seconds