Spelling suggestions: "subject:"robôs móveis"" "subject:"robô móveis""
21 |
Arquitetura em hardware do filtro de Kalman estendido para localização de robôs móveis autônomos implementada em FPGAContreras Samame, Luis Federico 27 March 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2015. / Submitted by Raquel Viana (raquelviana@bce.unb.br) on 2015-11-25T16:03:00Z
No. of bitstreams: 1
2015_LuisFedericoContrerasSamame.pdf: 6902681 bytes, checksum: aee20346f689755b9973ef32bd5bea60 (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-01-25T13:23:41Z (GMT) No. of bitstreams: 1
2015_LuisFedericoContrerasSamame.pdf: 6902681 bytes, checksum: aee20346f689755b9973ef32bd5bea60 (MD5) / Made available in DSpace on 2016-01-25T13:23:41Z (GMT). No. of bitstreams: 1
2015_LuisFedericoContrerasSamame.pdf: 6902681 bytes, checksum: aee20346f689755b9973ef32bd5bea60 (MD5) / Este trabalho apresenta uma arquitetura em hardware para a implementação de um algoritmo probabilístico, especificamente o Filtro de Kalman Estendido (EKF) em versão sequencial, aplicado ao problema de localização em robótica móvel. Primeiro, desenvolveu-se um módulo de hardware para etapa de predição do algoritmo EKF baseada em um modelo odométrico de um robô móvel de quatro rodas deslizantes (4-SSMR). Logo, considerou-se um módulo de hardware para etapa de estimação do EKF baseada em um modelo de sistema medição usando um sensor LRF (do inglês Laser RangeFinder). Adicionalmente, um Módulo de Hardware Unificado (MHU) para o EKF foi projetado considerando as duas etapas do filtro (predição e estimação) em uma mesma arquitetura. Unidades em Ponto Flutuante (UPFs) foram usadas para operações aritméticas e trigonométricas necessárias para cada uma das equações do EKF. Para este caso, duas abordagens (módulos individuais e MHU) foram consideradas para a implementação do algoritmo EKF em um kit de desenvolvimento DE2-115da Altera (FPGA Cyclone IV, processador Nios II), aplicado à localização de uma plataforma móvel Pioneer 3AT (da companhia Mobile Robots Inc.). Finalmente, foram obtidas métricas (tempo de execução, consumo de potência e de recursos no FPGA) e comparações com outras soluções, a fim de validar o desempenho do sistema proposto e sua aplicabilidade para a área de robótica móvel. Entre os principais resultados, um tempo de execução da arquitetura em hardware do EKF de 3,08 μs foi obtido com um fator de aceleração minimo de 63 comparado com outras implementações em software. ______________________________________________________________________________________________ ABSTRACT / This manuscript presents a hardware architecture to implement a probabilistic algorithm, specifically the Extended Kalman Filter (EKF) in a sequential version, applied to the localization problem in mobile robotics. Firstly, a hardware module for the EKF prediction stage was developed based on an odometric model of a 4-SSMR (Four Wheeled Skid-Steer Mobile Robot). Then, a hardware module for the EKF estimation stage was designed based on a measurement system model, using a LRF sensor (Laser Rangefinder). Furthermore, a Unified Hardware Module (MHU) for the EKF was designed taking into account the two EKF stages (prediction and estimation) in the same architecture. Floating-Point Units (UPFs) were used for arithmetic and trigonometric operations required for each of the EKF equations. In this case, two approaches (individuals modules and MHU) were considered for the implementation of the EKF algorithm over an Altera DE2-115 board (Cyclone IV FPGA with a Nios II processor), applied to the localization of the Pioneer 3AT robot (from Mobile Robots Inc.). Finally, metrics (execution time, FPGA resources and power consumption) and comparisons have been obtained, in order to evaluate the performance and suitability of the proposed system for the mobile robots area. Among the main results, an execution time of the hardware architecture for EKF of 3,08 μs was achieved with a minimum speedup factor of 63 compared to other software implementations.
|
22 |
Técnica de navegação de um robô móvel baseado em um sistema de visão para integrá-lo a uma célula flexível de manufatura / Mobile robot navigation technique based in vision system for integrate it to a flexivel manufacturing cell (FMC)Cano, Carlos Enrique Villanueva 12 May 2006 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Engenharia Mecânica, 2006. / Submitted by Érika Rayanne Carvalho (carvalho.erika@ymail.com) on 2009-09-29T01:33:39Z
No. of bitstreams: 1
2006_Carlos Enrique Villanueva Cano.pdf: 4603166 bytes, checksum: cdf89999faa69fbb10d3f8c4d6b567d7 (MD5) / Approved for entry into archive by Gomes Neide(nagomes2005@gmail.com) on 2011-01-05T16:44:37Z (GMT) No. of bitstreams: 1
2006_Carlos Enrique Villanueva Cano.pdf: 4603166 bytes, checksum: cdf89999faa69fbb10d3f8c4d6b567d7 (MD5) / Made available in DSpace on 2011-01-05T16:44:37Z (GMT). No. of bitstreams: 1
2006_Carlos Enrique Villanueva Cano.pdf: 4603166 bytes, checksum: cdf89999faa69fbb10d3f8c4d6b567d7 (MD5)
Previous issue date: 2006-05 / Atualmente o controle dos veículos guiados automaticamente (AGV), é baseado no estudo das diferentes técnicas de navegação existentes. Estas técnicas, utilizam diferentes tipos de sensores (infravermelho, ultra-som, táctil, visão, etc) como parte do equipamento do robô móvel para realizar suas tarefas de movimentação e controle desde uma posição inicial até uma posição final definida. A contribuição principal deste trabalho consiste em apresentar uma técnica de navegação baseada em um sistema de visão, para integrar um robô móvel à célula flexível de manufatura (FMC), a qual está sendo implementada no laboratório GRACO – UNB, trabalhando como um veículo guiado automaticamente (AGV), assim como também apresentar as vantagens e desvantagens do tipo de navegação implementada. O sistema de navegação proposto é composto por cinco módulos principais: O primeiro módulo é da captura de imagens no formato RGB através da placa de captura Matrox Meteor; O segundo módulo de pré-processamento, que realiza o tratamento das imagens capturadas através da aplicação de algoritmos de visão computacional. O terceiro módulo de extração de pontos das linhas seguidas, que extrai da imagem binarizada os pontos mais importantes da cena como é o caso da extração de dois pontos da linha para calcular a sua inclinação para depois ser comparada com os erros mínimos permitidos. O quarto módulo é o de reconhecimento dos sinais através da utilização de algoritmos baseados em redes neurais; e finalmente o quinto módulo é o de controle, que com base à informação gerada nos módulos anteriores, trabalha nos motores do robô para gerar ou corrigir os movimentos ao longo da linha rastreada ou executar uma ação de movimento dependendo do sinal reconhecido. O sistema de navegação utilizado, pelo robô móvel, é modelado utilizando técnicas de objetos orientados, através da linguaje UML. ______________________________________________________________________________ ABSTRACT / Nowadays, the control of the automatic guided vehicles (AGV), is based on the study of different navigation existing techniques. Those utilize different kinds of sensors (infrared, ultrasound, tactile, vision, etc) as part of the equipment included in the mobile robot carrying out their tasks of movement and control since an initial position to a defined final position. The main contribution of this work is developing a navigation technique based on a vision system, by integrating a mobile robot to a flexible manufacturing cell (FMC), that is being implemented on the GRACO – UnB laboratory. On the mobile robot, working as an automatic guided vehicle (AGV), are shown, as well, the advantages and disadvantages of this kind of navigation. The system of proposed navigation is building up for five main modules: The first module is images capture module in RGB format through the Matrox Meteor board. The second module of pre-processing, carries out the processing of the captured images through the application of computational vision algorithms. The third is the line points extraction module, to extract from the image the most important points of the scene as is in the case of the slope line tracking calculation and comparing it with the minimum permitted errors in the tracking line. The fourth module of signs recognition through the utilization of algorithms based in neural nets ; and finally the fifth module of control, that base on the information generated in the previous modules, works in the motor control of the robot, generating the correct movements during the tracking line or executing an action of movement depending on the recognized sign. The navigation system utilized by the mobile robot will be modelled, utilizing techniques of objects oriented, through the UML language. ______________________________________________________________________________ RESUMEN / Actualmente el control de los vehículos guiados automáticamente (AGV), esta basado en el estudio de las diferentes técnicas de navegación existentes. Estas, utilizan diferentes tipos de sensores (infrarrojos, ultrasonido, táctiles, visión, etc.) como parte del equipo del robo móvil para realizar sus tareas de navegación y control, desde una posición inicial hasta una posición final definidas. La principal contribución de este trabajo consiste en presentar una técnica de navegación basada en un sistema de visión para integrar un robot móvil a una célula flexible de manufactura, a cual está siendo implementada en el laboratorio de automatización y control GRACO-UnB, trabajando como un vehículo guiado automáticamente, así como también presentar las ventajas y desventajas del tipo de navegación que esta siendo implementada. El sistema de navegación propuesto está compuesto por cinco módulos principales: un primer módulo de captura de imágenes en formato RGB a través da placa Matrox Meteor de el robot móvil. Un segundo módulo de pre-procesamiento de las imágenes capturadas a través de la aplicación de algoritmos de visión computacional. Un tercer módulo de extracción de puntos de las líneas seguidas por el robot para calcular su inclinación a cual será comparada posteriormente con los errores mínimos permitidos. O cuarto módulo de reconocimiento de señales a través del uso de algoritmos basados en redes neurales; y finalmente el quinto módulo de control, el cual en base a la información generada por los módulos anteriores, trabaja en el control de los motores del robot los cuales generan el correcto desplazamiento durante el rastreo de las líneas o ejecutan alguna otra acción de movimiento dependiendo de la señal reconocida. El sistema de navegación que está siendo implementado en el robot móvil será modelado utilizando técnicas de objetos orientados a través del uso del lenguaje UML.
|
23 |
Estimação de curvas polinomiais em sequência de imagens para navegação de robôs móveis / Polinomial curves estimation in image sequences to mobile robot navigationAlves, Deborah Silva 10 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2006. / Submitted by Natália Cristina Ramos dos Santos (nataliaguilera3@hotmail.com) on 2009-11-02T12:01:15Z
No. of bitstreams: 1
2006_Deborah Silva Alves.pdf: 3617792 bytes, checksum: 6ba9e65b8f295092f3c2ebebab09d438 (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2010-02-11T23:52:31Z (GMT) No. of bitstreams: 1
2006_Deborah Silva Alves.pdf: 3617792 bytes, checksum: 6ba9e65b8f295092f3c2ebebab09d438 (MD5) / Made available in DSpace on 2010-02-11T23:52:31Z (GMT). No. of bitstreams: 1
2006_Deborah Silva Alves.pdf: 3617792 bytes, checksum: 6ba9e65b8f295092f3c2ebebab09d438 (MD5)
Previous issue date: 2006-10 / Neste trabalho, foi implementado um sistema de visão computacional para navegação de robôs móveis baseado em rastreamento de trajetórias. Essas trajetórias são formadas por marcas artificiais adicionadas ao teto do ambiente na forma de curvas e retas. Para marcar o teto foram utilizadas cordas e fita adesiva escuras fixadas ao teto formando retas e curvas contínuas que indicam a trajetória a ser seguida pelo robô. A finalidade desse trabalho é o rastreamento de tais marcas. Para tanto, foi implementado um sistema de rastreamento que trabalha concorrentemente com o sistema de controle do robô. O sistema implementado foi desenvolvido em um robô móvel equipado com uma câmera com foco direcionado para o teto. Esse sistema foi subdivido em quatro etapas que são executadas seqüencialmente a cada passo de tempo. A primeira das etapas adquire e processa uma imagem com técnicas para extração de bordas e eliminação de ruído. Em seguida, se o sistema não possui
nenhuma informação a priori ele salta duas outras etapas e realiza a parametrização de uma curva baseado nos pixeis da imagem processada na primeira etapa. Essa é a quarta etapa do sistema para qual foram implementados cinco algoritmos estimadores, três baseados em Mínimos Quadrados e dois em filtragem estocástica. Caso contrário, se o sistema possuir informação a priori, após a primeira etapa ele realiza a segunda que é a de predição. Esta recebe os parâmetros da curva estimada no passo de tempo anterior e os dados da odometria, referentes ao movimento do robô entre o passo de tempo anterior e o atual, para atualizar a informação a priori sobre a trajetória. A próxima etapa recebe a imagem processada na etapa 1 e a informação de predição da etapa 2 e realiza uma pré-seleção de pixeis da imagem processada que poderão participar da estimação de parâmetros na quarta e última etapa do sistema. Para a avaliação de desempenho do sistema implementado, foram utilizados bancos de imagens adquiridos por uma câmera com foco direcionado para o teto e acoplada a um robô móvel Omnidirecional guiado por joystick. O sistema foi avaliado para várias trajetórias, sendo analisados
os resultados de todos os processos intermediários do rastreamento e o desempenho global do sistema. Os resultados observados mostraram que o sistema implementado permite o rastreamento de trajetórias a partir apenas da informação extraída, pelos algoritmos de visão, das
imagens adquiridas durante a movimentação do robô e da odometria. Cada um dos algoritmos estimadores implementados foram testados e analisados quanto as suas características e tempo de execução, dentre os quais, os de filtragem estocástica obtiveram melhores resultados no rastreamento da trajetória. __________________________________________________________________________________________ ABSTRACT / In this work, a computer vision system was implemented for curve tracking-based navigation of mobile robots. These trajectories are formed by artificial landmarks added to the ceiling of the environment in the form of curves and straight lines. In order to mark the ceiling, ropes and adhesive tapes were fixed fixed to the ceiling forming continuous straight lines and curves that indicate the trajectory to be followed by the robot. The purpose of this work is to propose tracking algorithms for such marks. Therefore , it was implemented a tracking system that works concurrently with the control system of the robot. The implemented system was developed in a mobile robot equipped with a video camera looking at the ceiling. This system is composed of four stages that are executed sequentially. The first one of the stages acquires and processes an image with techniques for edges extraction and of noise elimination. After this, if the system does not possess no a priori information about the trajectory, it jumps two stages and carries through the parametrization of a curve based on pixels of the processed image at the first stage. This is the fourth stage of the system, for which five estimators were implemented. Three of them are based on Least Squares and two in stochastic filtering. Otherwise, if the system has a priori information, after the first stage it carries through the prediction stage. This stage receives the curve estimated parameters computed in the previous time and robot’s odometric data, referring to the robot’s movement between the step of previous time and the current one. It is used to update the a priori information about the trajectory. The next stage receives the processed image (first stage) and information from prediction (second stage) and carries through an previous election of pixels of the processed image. Several images sequences had been acquired for performance evaluation of the implemented system off line. In such experiments, the mobile robot was guided using joystick. The system was evaluated for several trajectories. The results were analyzed for all the intermediate processes. The observed results had shown that the implemented system allows the trajectory tracking only with the extracted information of the images (through vision algorithms) acquired during the robot’s movement and the odometry. Each one of the estimators implemented algorithms had been tested, and their characteristics and execution time were analyzed. From such analysis, the stochastic ones had gotten better results in the tracking trajectory process.
|
24 |
Desenvolvimento de um sistema de localização 3D para aplicação em robôs aéreos / Design of a 3D system localization for application in aerial roboticsBó, Antônio Padilha Lanari 17 July 2007 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2007. / Submitted by Kathryn Cardim Araujo (kathryn.cardim@gmail.com) on 2009-11-25T16:38:09Z
No. of bitstreams: 0 / Rejected by Joanita Pereira(joanita), reason: Favor anexar a dissertação em PDF.
Joanita on 2009-12-07T20:20:43Z (GMT) / Submitted by Kathryn Cardim Araujo (kathryn.cardim@gmail.com) on 2009-12-10T14:50:20Z
No. of bitstreams: 1
2007_AntonioPadilhaLanariBo.pdf: 17868307 bytes, checksum: e550827efa4eb76bd6210621bdaa3fde (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-01-07T20:43:56Z (GMT) No. of bitstreams: 1
2007_AntonioPadilhaLanariBo.pdf: 17868307 bytes, checksum: e550827efa4eb76bd6210621bdaa3fde (MD5) / Made available in DSpace on 2010-01-07T20:43:56Z (GMT). No. of bitstreams: 1
2007_AntonioPadilhaLanariBo.pdf: 17868307 bytes, checksum: e550827efa4eb76bd6210621bdaa3fde (MD5)
Previous issue date: 2007-07-17 / Este trabalho apresenta o desenvolvimento de um sistema de localização 3D para aplicação em um Veículo Aéreo Não-Tripulado (VANT). O sistema é capaz de fornecer em tempo real estimativas da posição, velocidade e atitude do veículo. Devido a restrições impostas pelo veículo no qual o sistema será embarcado, o sistema é composto por dispositivos leves, de dimensões reduzidas e de baixo custo e o uso de sensores baseados em referências externas é limitado. Sob tais requisitos de projeto, os seguintes sensores foram escolhidos para compor o sistema: girômetros, acelerômetros, magnetômetros, sensor de pressão e receptor GPS. O manuscrito descreve o modelo de cada sensor individualmente e os projeto do hardware e do software envolvidos. Os procedimentos de calibração e o algoritmo de fusão sensorial, em que o magnetômetro e o receptor GPS são utilizados para corrigir as estimativas fornecidas pelos sensores inerciais, são apresentados em detalhe. Resultados experimentais provenientes de testes realizados no ambiente do laboratório e em ambientes externos, que confirmam a possibilidade de emprego de tal sistema em diferentes aplicações, também são apresentados. ___________________________________________________________________________________________ ABSTRACT / This work presents the development of a 3D localization system for application on a small Unmanned Air Vehicle (UAV). The system is able to provide real time position, velocity and attitude estimates of the vehicle. Due to restrictions imposed by the host vehicle, the system is composed by low cost, small and light devices and the use of sensors based on external references is limited. Under those constraints, the following sensors were chosen to compose the system: gyrometers, accelerometers, magnetometers, pressure sensor and GPS receiver. The manuscript describes each sensor model individually and the hardware and software design. Calibration procedures and the sensor fusion algorithm are presented in detail, in which magnetometer and GPS receiver are used to correct the estimates updated by inertial sensors. Experimental results from tests carried out in laboratory and outdoors confirm the possibility to employ the system on different applications.
|
25 |
Controle servo-visual para aproximação de portas por robôs móveis equipados com duas câmeras / Visual servoing for docking of mobile robots equipped with two camerasBernardes, Mariana Costa 04 1900 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2009. / Submitted by Raquel Viana (tempestade_b@hotmail.com) on 2010-04-20T20:47:33Z
No. of bitstreams: 1
2009_MarianaCostaBernardes.pdf: 4546495 bytes, checksum: 3ffb81cfbd37577464a1c8b699d51c6a (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-04-23T02:19:31Z (GMT) No. of bitstreams: 1
2009_MarianaCostaBernardes.pdf: 4546495 bytes, checksum: 3ffb81cfbd37577464a1c8b699d51c6a (MD5) / Made available in DSpace on 2010-04-23T02:19:31Z (GMT). No. of bitstreams: 1
2009_MarianaCostaBernardes.pdf: 4546495 bytes, checksum: 3ffb81cfbd37577464a1c8b699d51c6a (MD5)
Previous issue date: 2009-04 / Classicamente, o controle servo visual é aplicado em abordagens determinísticas que fazem uso direto dos parâmetros extraídos da imagem ou que os utilizam para determinar a posição do robô no plano cartesiano e com isso calcular a ação de controle. Tais métodos, no entanto, são bastante susceptíveis a ruídos de medição e pouco tolerantes a falhas como obstrução ou perda do rastreamento das características visuais. Estes problemas poderiam ser minimizados com uma abordagem estocástica, fazendo-se uso do modelo de evolução das características visuais e de informação sensorial adicional para estimar os valores de tais parâmetros. Este trabalho busca obter uma abordagem de controle servo visual baseado em retas combinado a um processo simultâneo de reconstrução tridimensional por Filtro de Kalman Estendido. Propõe-se então um controlador para robôs móveis omnidirecionais, que utiliza um sistema binocular de câmeras como principal fonte de informação, associado a medidas de odometria fornecidas pelo robô para estimar o modelo das retas no espaço 3D. As estimativas obtidas são utilizadas no cálculo da ação de controle servo visual e com isso busca-se atenuar os problemas apresentados acima, presentes nas abordagens usuais. O método proposto é validado sobre um robô móvel omnidirecional numa tarefa de aproximação de portas e seu desempenho é comparado ao de um controlador cujas características são extraídas diretamente das imagens. ________________________________________________________________________________________ ABSTRACT / Classically, visual servoing is applied in deterministic approaches that use parameters extracted directly from images or that use these parameters to calculate the robot’s position in cartesian plane to define control action. However, these methods are very sensitive to measurement noise and not tolerant to fail situations like lost of tracking or obstruction of visual features. Such problems could be minimized with a stochastic approach, using the evolution model of image features and additional sensor information to estimate the parameters. This work purposes a line based visual servoing approach combined with a simultaneous tridimensional reconstruction process with Extended Kalman Filter. We propose a controller for omnidirectional mobile robots that use a binocular camera system as the main information source, combined with odometry measurements provided by the robot to estimate the 3D line model. The control signal is calculated with the obtained estimates in order to attenuate the problems presented above, observed in usual visual servoing approaches. The proposed method is evaluated on an omnidirectional mobile robot in a docking task and its performance is compared to a controller whose visual features are extracted directly from images.
|
26 |
Controle de Formações Flexíveis de Robôs Móveis com Desvio de ObstáculosRAMPINELLI, V. T. L. 03 March 2010 (has links)
Made available in DSpace on 2018-08-02T00:00:49Z (GMT). No. of bitstreams: 1
tese_3067_DissertacaoMestradoViniciusThiagoLeccoRampinelli.pdf: 9007962 bytes, checksum: f10ff94e4167a233217e9fba661aa07d (MD5)
Previous issue date: 2010-03-03 / Este trabalho apresenta um esquema de controle multicamadas para controlar formações de n>3 robôs móveis, incluindo uma estratégia de desvio de obstáculos. O controlador proposto é capaz de conduzir os robôs para compor formações desejadas (controle de posição) e/ou seguir uma trajetória desejada (controle de seguimento de trajetória). A estratégia de evasão de obstáculos é baseada em forças virtuais, que são geradas em função das distâncias robô-obstáculo, sendo consideradas para alterar as velocidades (linear e angular) individuais dos robôs componentes da formação. Tal estratégia é implementada em cada robô da formação, enquanto que o controlador proposto é aplicável a agrupamentos de três robôs, ou seja, a formações triangulares.
Além disso, é apresentada uma prova de estabilidade para o sistema de controle em malha
fechada, com base na teoria de Lyapunov, incluindo limitação da magnitude dos sinais de controle,
para evitar saturação dos atuadores. Finalmente, resultados de simulação e experimentais
são apresentados para distintas formações de robôs móveis tipo uniciclo, demonstrando que o
esquema de controle proposto é efetivo não somente em termos de assegurar que os robôs alcancem
e/ou mantenham uma formação desejada, mas também em termos de evitarem obstáculos
enquanto navegam no espaço de trabalho.
|
27 |
Uso da Constância de Cor na Robótica MóvelALMONFREY, D. 21 July 2011 (has links)
Made available in DSpace on 2018-08-02T00:00:55Z (GMT). No. of bitstreams: 1
tese_3866_DissertacaoMestradoDouglasAlmonfrey.pdf: 10903542 bytes, checksum: dd9d57bcb5fae71270adf607f139e977 (MD5)
Previous issue date: 2011-07-21 / A cor capturada por uma câmera é função da iluminação da cena, das características reflexivas das superfícies presentes na cena, dos fotossensores presentes nos sistemas de visão e, principalmente, do processamento realizado no cérebro. Devido a este processamento realizado pelo cérebro, os seres humanos apresentam o chamado fenômeno da constância de cor: a cor de uma superfície é percebida como sendo a mesma, independentemente das condições de iluminação do ambiente. No entanto, a variação da iluminação implica na modificação do valor registrado para a cor da superfície capturada por um sistema de visão artificial. Na literatura, a obtenção de descritores da superfície que sejam independentes da iluminação é conhecido como problema de constância de cor. Uma solução para este problema é a obtenção das características reflexivas das superfícies separadas da informação de iluminação da cena. Uma outra abordagem para a solução desse problema é a obtenção das cores das superfícies sempre submetidas a uma mesma iluminação padrão, garantindo assim a constância das cores. Independentemente de qual abordagem seja escolhida, o problema de constância de cor é de difícil solução e a maioria das soluções existentes é aplicada somente em imagens sintetizadas por computador, enquanto outras apresentam desempenho limitado quando aplicadas em imagens reais de ambientes com iluminação variável e não controlada.
Devido à ausência do fenômeno da constância de cor nos sistemas de visão artificial, muitos sistemas automáticos evitam a utilização da informação de cor das imagens obtidas por meio desses sistemas. Além disso, a solução do problema de constância de cor é também objeto de interesse da indústria e comércio de fotografias. Neste contexto, este trabalho aborda a solução do problema de constância de cor por meio de um algoritmo baseado no método de correção de cor desenvolvido em (KONZEN; SCHNEEBELI, 2007a). Este algoritmo converte as cores de uma cena capturada sob iluminação desconhecida, de forma que a cena aparente estar sempre sob a influência de uma iluminação padrão. Se a iluminação da cena é relativamente sempre a mesma, as cores da imagem da cena são aproximadamente constantes. Essa conversão entre iluminações é realizada por meio do conhecimento das cores de alguns pontos da cena sob influencia da iluminação padrão.
Finalmente, o desempenho deste algoritmo de constância de cor é analisado aplicando-o a uma sequência de imagens de cenas sujeitas a variações abruptas de iluminação. Para auxiliar na análise, um algoritmo de tracking é utilizado para demonstrar a importância do algoritmo de constância de cor nas imagens dessas cenas. Além disso, um controlador servovisual, empregado juntamente com o algoritmo de constância de cor, é utilizado para guiar um robô móvel na navegação por um ambiente externo sujeito à iluminação variável do sol. O algoritmo de constância de cor é aplicado também em imagens de um ambiente externo que apresenta variação de iluminação e uma discussão sobre a utilização desse algoritmo em tarefas de reconhecimento de lugares, assunto fundamental na localização de robôs, é realizada.
|
28 |
Modelagem e Compensação da Dinâmica de Robôs Móveis e sua Aplicação em Controle de FormaçãoMARTINS, F. N. 06 March 2009 (has links)
Made available in DSpace on 2018-08-02T00:01:57Z (GMT). No. of bitstreams: 1
tese_3018_TeseDoutoradoFelipeNascimentoMartins.pdf: 8472284 bytes, checksum: 3749c00532b2e35a001d06cc2e94354e (MD5)
Previous issue date: 2009-03-06 / Uma proposta de modelagem da dinâmica de robôs móveis tipo uniciclo é aqui apresentada e utilizada no projeto de controladores para os referidos robôs, inclusive num contexto de controle de formação. A dinâmica dos robôs móveis é modelada através de uma nova abordagem, baseada em um modelo dinâmico que aceita sinais de velocidades linear e angular como entradas. O novo modelo dinâmico apresentado tem suas propriedades estudadas e posteriormente utilizadas no desenvolvimento de controladores adaptativos, para compensar os efeitos da dinâmica de robôs móveis quando realizam
tarefas de seguimento de trajetória, posicionamento e controle de formação. A teoria de Lyapunov é utilizada para analisar a estabilidade do equilíbrio para cada caso, também sendo realizada análise de robustez à variação de parâmetros e à presença de distúrbios não modelados. A influência da compensação da dinâmica é estudada, e sua importancia evidenciada através do cálculo de um índice de desempenho obtido em simulações e experimentos. Três estratégias de controle de formação com compensação dinâmica são apresentadas, sendo uma de controle descentralizado tipo líder-seguidor e duas de controle centralizado tipo estruturas virtuais. Uma das estratégias de controle centralizado é aqui proposta, sendo apresentado o desenvolvimento do Esquema de Controle Multicamadas. Tal esquema permite que cada parte do problema de controle de formação seja resolvido por um módulo independente, aumentando sua flexibilidade. É proposto um controlador de formação que posiciona os robôs numa formação que pode ser fixa ou variável, tanto em posição como em forma, sendo possível enfatizar a importância do controle de posicionamento ou de forma da formação. A influência da compensação dinâmica neste controle de formação é analisada e ilustrada através de resultados de simulação e também de experimentos.
|
29 |
Simulação de dispositivos robóticos móveis com ênfase no planejamento de trajetórias para navegação / Mobile robotic devices simulation with emphasis in trajectory planning for navigationMainardi, Augusto Seganfredo 16 August 2018 (has links)
Orientador: João Maurício Rosário / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-16T12:12:48Z (GMT). No. of bitstreams: 1
Mainardi_AugustoSeganfredo_M.pdf: 4938710 bytes, checksum: c6b32726ef03c92f5c518f1eaabdf37c (MD5)
Previous issue date: 2010 / Resumo: Neste trabalho é proposto um sistema de navegação autônomo para dispositivos robóticos móveis capaz de operar e se adaptar a diferentes ambientes e condições, contribuindo para o desenvolvimento de uma navegação robusta e confiável. O sistema é baseado na arquitetura híbrida AuRA, assim, foi separado em quatro componentes: percepção do ambiente, localização e mapeamento, planejamento de movimento e execução da trajetória. A percepção do ambiente é o componente responsável em converter as leituras dos sensores em informações sobre o ambiente. Considerando os sensores usadas da plataforma robótica móvel ASURO, este componente baseia-se na informações obtidas através da odometria e dos sensores seguidores de linha, informando ao sistema a distância percorrida e a posição do robô em relação a pista a ser seguida. O mapeamento do sistema baseou-se em mapas topológicos devido ao baixo custo computacional necessário e à semelhança com a maneira humana de localizar-se, utilizando a odometria como sistema de localização do robô e sensores seguidores de linha para determinação de seu posicionamento. O planejamento de movimentos foi dividido em duas fases. No planejamento de caminho utilizou-se o algoritmo de Dijkstra para determinar por quais nós ele deve passar para atingir seu objetivo; e para o planejamento de trajetória utilizou-se uma abordagem baseada no caminho de Dubins. A execução da trajetória baseou-se no método de Motor-Schemas, onde as respostas dos atuadores são determinadas pela soma vetorial dos vetores resultantes de cada comportamento. Foram estudadas duas formas de comportamento: o de seguir o objetivo que utiliza o planejamento de movimento para determinar as velocidades dos atuadores; e o de seguir uma linha, que utiliza a percepção do ambiente para determinar as velocidades dos atuadores. As implementações experimentais foram realizadas a partir do ambiente de simulação DD&GP desenvolvido para o ambiente MATLABSimulink®, que permitiu a avaliação do sistema a partir de duas aplicações (transporte e inspeção) efetuada em três ambientes diferentes (fábrica, escritório e sistema de tubulação). Além disso, utilizou-se a plataforma robótica móvel ASURO para verificar a percepção do ambiente e validar os resultados encontrados nas simulações. Os resultados obtidos nas implementações experimentais foram satisfatórios e mostram que o sistema apresentado é promissor / Abstract: In this work is proposed an autonomous navigation system for mobile robotic devices able to operate and adapt to different environments and conditions, contributing to the development of a robust and reliable navigation system. The system is based on hybrid architecture AuRA, thus, it was separated into four components: Perceptions of the environment, Localization and Mapping, Motion planning and Trajectory execution. The perception of the environment is the component responsible for converting the readings in sensors in environmental information. Considering the sensors used in mobile robotics platform ASURO, this component is based on information obtained from odometry and line following sensors, informing the system the distance traveled and the robot's position in relation to the track to be followed. The mapping of the system is based on topological maps due low computational cost required and its resemblance to the human way of locating themselves and the use of little computer memory, using the odometry as robot's localization system and line following sensors to determine their placement. The Motion planning was divided into two phases. In path planning was used Dijkstra's algorithm to determine for which node the robot must pass to achieve your goal; and for trajectory planning was used an approach based on Dubins path. The trajectory execution is based on the method of motor-schemas, where the responses of the actuators are determined by the vector sum of the resulting vectors from each behavior. Were studied two forms of behaviors: follow the goal, which uses the motion planning to determine the velocity of actuators; and follow a line, which uses the perception of the environment to determine the velocity of actuators. The experimental implementations were realized from the simulation environment DD&GP developed for the MATLAB-Simulink ®, which allowed the evaluation of the system after two applications (transport and inspection) performed in three different environments (factory, office and piping system). In addition, was used the platform for mobile robotics ASURO to verify the perception of the environment and validate the results found in the simulations. The results obtained in experimental implementations were satisfactory and showed that the system presented is promising / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
|
30 |
Controle de um robô móvel através de realimentação de estados utilizando visão estereoscópica / Feedback control of a mobile robot using stereo visionRafikova, Elvira 17 August 2018 (has links)
Orientador: Paulo Roberto Gardel Kurka / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica / Made available in DSpace on 2018-08-17T01:31:31Z (GMT). No. of bitstreams: 1
Rafikova_Elvira_D.pdf: 4596616 bytes, checksum: 0cd6c928bfae826c2cea718bdb3843e5 (MD5)
Previous issue date: 2010 / Resumo: O enfoque principal desse trabalho é o controle de trajetória e navegação no ambiente através da visão estereoscópica de um robô móvel de duas rodas de acionamento diferencial. Para o controle de posicionamento, são utilizadas: uma estratégia de controle ótima linear e uma estratégia subótima, não linear, em tempo contínuo, chamada de SDRE (State Dependent Riccati Equation), e por fim, uma estratégia de controle SDRE em tempo discreto. Todas essas estratégias são baseadas em funções de Lyapunov e aplicadas ao problema de regulação do robô a uma referência. Para a navegação do robô no ambiente é considerado um modelo navegação por odometria e um mecanismo de visão estereoscópica. A estimação do estado é realizada através do filtro de Kalman clássico. São apresentadas duas estratégias para a navegação do robô no ambiente. Uma delas, totalmente discreta com a utilização do métodos de controle SDRE discreto, observação de estado discreta através das câmeras e estimação de estado através do filtro de Kalman discreto. Outra, com a abordagem de horizonte recuável, utilizando controle SDRE contínuo e, observação e estimação de estado discretas. A eficácia dos métodos de controle e das estratégias de navegação do robô é verificada através de simulações computacionais, nas quais a estratégia de navegação com horizonte recuável se mostra eficaz para a navegação precisa no ambiente / Abstract: The main approach of this thesis is the trajectory control and navigation of a differential steering mobile robot in the environment. For the position control problem are used? A continuous-time, linear feedback control; a suboptimal, nonlinear, continuous-time feedback called SDRE (StateDependent Riccati Equation) control and a discrete - time SDRE control method. All of these methods are Lyapunov functions based and appplied to the reference tracking problem oh the nonholonomic robot. For the purpose of the environmental navigation a model of odometry-stereo vision state observation system is considered. Meanwhile, the state estimation is given by classic Kalman filter. Futhermore, two different navigation strategies are presented. The discret-time one, using both discret SDRE control method and state estimation. Another one, is a receding horizon strategy, using continuous-time SDRE controler and sicret-time state estimation. The control method and navigation strategies eficaccy is verified through numerical simulations. Both navigation stategies demostrate good results, although the receding horizon one provides more precise navigation / Doutorado / Mecanica dos Sólidos e Projeto Mecanico / Doutor em Engenharia Mecânica
|
Page generated in 0.1137 seconds