Return to search

Visão estéreo para auxílio à navegação autônoma em ambientes agrícolas

Made available in DSpace on 2015-09-17T15:25:00Z (GMT). No. of bitstreams: 0
Previous issue date: 2015-02-02. Added 1 bitstream(s) on 2015-09-17T15:46:50Z : No. of bitstreams: 1
000845659.pdf: 1520527 bytes, checksum: 1392f882a0b143c7225dac78caa33eeb (MD5) / Com o objetivo de atingir a maior produtividade possível, a agricultura de precisão tenta utilizar as melhores técnicas da agricultura tradicional combinadas com equipamentos muito eficientes em suas funções específicas. No contexto da visão computacional, o desenvolvimento de um sistema autônomo de navegação voltado para ambientes agrícolas rurais e externos, possui, além das dificuldades encontradas em ambientes fechados e controlados, adversidades características, tais como terrenos irregulares e problemas com a iluminação não controlada. Com a utilização de visão estéreo para navegação em um ambiente externo agrícola é possível, por meio da geração do mapa de disparidades e da matriz de disparidade V, verificar através de qual profundidade uma área é navegável com apenas uma cena, e ainda mapear anteparos e deformações durante o trajeto. Com base nesse mapeamento dos objetos, pode-se então desenvolver uma navegação livre de possíveis obstáculos. O objetivo desse trabalho foi, considerando-se um ambiente externo agrícola, mapear os objetos da cena de acordo com a sua profundidade, de forma que possa ser identificado um caminho livre para a navegação. Experimentos foram realizados utilizando-se uma base de dados própria, contendo 5.379 imagens capturadas em forma de sequências de vídeo, todas representando o ambiente selecionado para testes. A metodologia desenvolvida apresentou uma taxa de acerto de aproximadamente 92%, com resultados calculados em tempo real, provando-se portanto, ser uma técnica eficiente para a navegação autônoma em ambientes agrícolas e externos / efficient equipments on its specific functions. Considering the context of computer vision, the development of an autonomous navigation system aimed to external rural farming environments, considers, besides the difficulties faced on closed and controlled environments, which can be targeted as irregular lands and problems with not controlled lighting. By using the stereo vision to perform the navigation in an external farming environment is possible, through the creation of the disparity map, and the v-disparity matrix, verify through what depth an area is possible to be navigated with just one scene and still map the obstacles and deflections along the way. Therefore, calculating the disparity map of the observed scene, it is possible, using the v-disparity matrix, map the objects in the scene according to their depth. Based on the mapping of the objects it is possible to perform a obstructions free navigation along all the way. The aim of this study is, considering an external agricultural environment, map the objects in the scene according to their depth making it possible to identify an obstruction free navigation path. Experiments were performed using an own database, composed of 5.379 pictures in video sequence form, all representing the test's environment. The developed methodology showed an accuracy rate of approximately 92%, with results calculated in real time, proving itself, as an efficient technique for autonomous navigation in agricultural and external areas

Identiferoai:union.ndltd.org:IBICT/oai:repositorio.unesp.br:11449/127694
Date02 February 2015
CreatorsTrentini, Vinicius Bergoli [UNESP]
ContributorsUniversidade Estadual Paulista (UNESP), Tronco, Mario Luiz [UNESP], Marana, Aparecido Nilceu [UNESP]
PublisherUniversidade Estadual Paulista (UNESP)
Source SetsIBICT Brazilian ETDs
LanguagePortuguese
Detected LanguagePortuguese
Typeinfo:eu-repo/semantics/publishedVersion, info:eu-repo/semantics/masterThesis
Format86 f. : il. color., estampas, tabs., fots.
SourceAleph, reponame:Repositório Institucional da UNESP, instname:Universidade Estadual Paulista, instacron:UNESP
Rightsinfo:eu-repo/semantics/openAccess
Relation-1, -1, -1

Page generated in 0.0026 seconds