Return to search

[pt] DETECÇÃO VISUAL DE FILEIRA DE PLANTAÇÃO COM TAREFA AUXILIAR DE SEGMENTAÇÃO PARA NAVEGAÇÃO DE ROBÔS MÓVEIS / [en] VISUAL CROP ROW DETECTION WITH AUXILIARY SEGMENTATION TASK FOR MOBILE ROBOT NAVIGATION

[pt] Com a evolução da agricultura inteligente, robôs autônomos agrícolas
têm sido pesquisados de forma extensiva nos últimos anos, ao passo que
podem resultar em uma grande melhoria na eficiência do campo. No entanto,
navegar em um campo de cultivo aberto ainda é um grande desafio. O RTKGNSS é uma excelente ferramenta para rastrear a posição do robô, mas
precisa de mapeamento e planejamento precisos, além de ser caro e dependente
de qualidade do sinal. Como tal, sistemas on-board que podem detectar o
campo diretamente para guiar o robô são uma boa alternativa. Esses sistemas
detectam as linhas com técnicas de processamento de imagem e estimam a
posição aplicando algoritmos à máscara obtida, como a transformada de Hough
ou regressão linear. Neste trabalho, uma abordagem direta é apresentada
treinando um modelo de rede neural para obter a posição das linhas de
corte diretamente de uma imagem RGB. Enquanto a câmera nesses sistemas
está, geralmente, voltada para o campo, uma câmera próxima ao solo é
proposta para aproveitar túneis ou paredes de plantas formadas entre as
fileiras. Um ambiente de simulação para avaliar o desempenho do modelo e
o posicionamento da câmera foi desenvolvido e disponibilizado no Github.
Também são propostos quatro conjuntos de dados para treinar os modelos,
sendo dois para as simulações e dois para os testes do mundo real. Os resultados
da simulação são mostrados em diferentes resoluções e estágios de crescimento
da planta, indicando as capacidades e limitações do sistema e algumas das
melhores configurações são verificadas em dois tipos de ambientes agrícolas. / [en] Autonomous robots for agricultural tasks have been researched to great
extent in the past years as they could result in a great improvement of
field efficiency. Navigating an open crop field still is a great challenge. RTKGNSS is a excellent tool to track the robot’s position, but it needs precise
mapping and planning while also being expensive and signal dependent. As
such, onboard systems that can sense the field directly to guide the robot
are a good alternative. Those systems detect the rows with adequate image
processing techniques and estimate the position by applying algorithms to the
obtained mask, such as the Hough transform or linear regression. In this work,
a direct approach is presented by training a neural network model to obtain the
position of crop lines directly from an RGB image. While, usually, the camera
in these kinds of systems is looking down to the field, a camera near the ground
is proposed to take advantage of tunnels or walls of plants formed between
rows. A simulation environment for evaluating both the model’s performance
and camera placement was developed and made available on Github, also
four datasets to train the models are proposed, being two for the simulations
and two for the real world tests. The results from the simulation are shown
across different resolutions and stages of plant growth, indicating the system’s
capabilities and limitations. Some of the best configurations are then verified
in two types of agricultural environments.

Identiferoai:union.ndltd.org:puc-rio.br/oai:MAXWELL.puc-rio.br:64670
Date07 November 2023
CreatorsIGOR FERREIRA DA COSTA
ContributorsWOUTER CAARLS
PublisherMAXWELL
Source SetsPUC Rio
LanguagePortuguese
Detected LanguagePortuguese
TypeTEXTO

Page generated in 0.0116 seconds