• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • Tagged with
  • 4
  • 4
  • 4
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[pt] DETECÇÃO VISUAL DE FILEIRA DE PLANTAÇÃO COM TAREFA AUXILIAR DE SEGMENTAÇÃO PARA NAVEGAÇÃO DE ROBÔS MÓVEIS / [en] VISUAL CROP ROW DETECTION WITH AUXILIARY SEGMENTATION TASK FOR MOBILE ROBOT NAVIGATION

IGOR FERREIRA DA COSTA 07 November 2023 (has links)
[pt] Com a evolução da agricultura inteligente, robôs autônomos agrícolas têm sido pesquisados de forma extensiva nos últimos anos, ao passo que podem resultar em uma grande melhoria na eficiência do campo. No entanto, navegar em um campo de cultivo aberto ainda é um grande desafio. O RTKGNSS é uma excelente ferramenta para rastrear a posição do robô, mas precisa de mapeamento e planejamento precisos, além de ser caro e dependente de qualidade do sinal. Como tal, sistemas on-board que podem detectar o campo diretamente para guiar o robô são uma boa alternativa. Esses sistemas detectam as linhas com técnicas de processamento de imagem e estimam a posição aplicando algoritmos à máscara obtida, como a transformada de Hough ou regressão linear. Neste trabalho, uma abordagem direta é apresentada treinando um modelo de rede neural para obter a posição das linhas de corte diretamente de uma imagem RGB. Enquanto a câmera nesses sistemas está, geralmente, voltada para o campo, uma câmera próxima ao solo é proposta para aproveitar túneis ou paredes de plantas formadas entre as fileiras. Um ambiente de simulação para avaliar o desempenho do modelo e o posicionamento da câmera foi desenvolvido e disponibilizado no Github. Também são propostos quatro conjuntos de dados para treinar os modelos, sendo dois para as simulações e dois para os testes do mundo real. Os resultados da simulação são mostrados em diferentes resoluções e estágios de crescimento da planta, indicando as capacidades e limitações do sistema e algumas das melhores configurações são verificadas em dois tipos de ambientes agrícolas. / [en] Autonomous robots for agricultural tasks have been researched to great extent in the past years as they could result in a great improvement of field efficiency. Navigating an open crop field still is a great challenge. RTKGNSS is a excellent tool to track the robot’s position, but it needs precise mapping and planning while also being expensive and signal dependent. As such, onboard systems that can sense the field directly to guide the robot are a good alternative. Those systems detect the rows with adequate image processing techniques and estimate the position by applying algorithms to the obtained mask, such as the Hough transform or linear regression. In this work, a direct approach is presented by training a neural network model to obtain the position of crop lines directly from an RGB image. While, usually, the camera in these kinds of systems is looking down to the field, a camera near the ground is proposed to take advantage of tunnels or walls of plants formed between rows. A simulation environment for evaluating both the model’s performance and camera placement was developed and made available on Github, also four datasets to train the models are proposed, being two for the simulations and two for the real world tests. The results from the simulation are shown across different resolutions and stages of plant growth, indicating the system’s capabilities and limitations. Some of the best configurations are then verified in two types of agricultural environments.
2

[pt] MODELAGEM E CONTROLE DE UM QUADRICÓPTERO PARA NAVEGAÇÃO AUTÔNOMA EM CAMPOS AGRÍCOLAS / [en] MODELING AND CONTROL OF A QUADCOPTER FOR AUTONOMOUS NAVIGATION IN AGRICULTURAL FIELDS

YESSICA ROSAS CUEVAS 04 October 2021 (has links)
[pt] Neste trabalho, aborda-se a modelagem e controle de um quadricóptero para navegação autônoma em ambientes agrícolas. Os modelos cinemático e dinâmico do veículo aéreo são computados a partir do formalismo de Newton-Euler, incluindo efeitos aerodinâmicos e características das hélices. O sistema de movimento do quadricóptero pode ser dividido em dois subsistemas, um translacional e outro rotacional, responsáveis pelo controle de posição nos eixos x, y, z, and atitude do veículo no espaço Cartesiano. A primeira abordagem de controle é linear, se presenta dois controladores, um controlador proporcional-derivativo (PD) e o adaptativo baseado no espaço de estados. A segunda abordagem é não-linear e baseada em um controlador adaptativo a fim de lidar com a presença de incertezas nos parâmetros do sistema. Simulações numéricas são executadas em Matlab para ilustrar o desempenho e a viabilidade da metodologia de controle proposta. Simulações computacionais 3D são executadas em Gazebo para verificar a navegação autônoma em um campo agrícola. / [en] In this work, we address the modeling and control design of a quadrotor for autonomous navigation in agricultural environments. The kinematic and dynamic models of the aerial vehicle are derived following the Newton-Euler formalism. The motion system of the quadrotor can be split into two subsystems, that is, translational and rotational subsystems, responsible for controlling the position along the longitudinal, transverse and vertical axes of the Cartesian space as well as its orientation about the corresponding axes. The first linear control approach is based on the proportional-derivative (PD) controller, whereas the second nonlinear control approach is based on an adaptive controller in order to deal with the presence of uncertainties in the system parameters. Numerical simulations are carried out in Matlab to illustrate the performance and feasibility of the proposed control methodology. Gazebo was used to perform the 3D simulations for verifying autonomous navigation in agricultural fields.
3

[pt] NAVEGAÇÃO AUTÔNOMA EM LINHAS DE CULTIVO BASEADA EM VISÃO ROBUSTA PARA ROBÔS MÓVEIS COM RODAS EM TERRENOS INCLINADOS E ACIDENTADOS / [en] ROBUST VISION-BASED AUTONOMOUS CROP ROW NAVIGATION FOR WHEELED MOBILE ROBOTS IN SLOPED AND ROUGH TERRAINS

GUSTAVO BERTAGNA PEIXOTO BARBOSA 24 May 2022 (has links)
[pt] Nesse trabalho, nós apresentamos novas aplicações para alguns controladores robustos, tais como as abordagens SMC e STA. O principal objetivo é conseguir executar uma navegação autônoma precisa em campos agrícolas, usando robôs móveis com rodas, equipados com uma câmera monocular fixa. Primeiro, nós projetamos uma abordagem de controle robusto baseado em servo-visão, a fim de lidar com imprecisões do modelo e perturbações da trajetória no espaço da imagem. Além disso, uma abordagem de controle robusto baseada em cascata, é aplicada, na qual, a malha de realimentação externo está conectada com uma malha de realimentação interna para lidar com os efeitos de todas as fontes de perturbação. Desse modo, uma abordagem robusta de rastreamento de trajetória, baseada em super-twisting, é aplicada para estabilização de movimento afim de garantir o sucesso da tarefa de seguir uma linha de cultivo considerando os efeitos de derrapagem das rodas e derrapagem lateral do veículo. A plataforma ROS-Gazebo, um simulador de robótica de código aberto, foi utilizada para realização de simulações computacionais 3D usando um robô móvel do tipo differentialdrive e um ambiente ad-hoc projetado para cultivo em linha. A eficácia e a viabilidade dos controladores robustos são avaliadas analisando simulações numéricas e métricas de desempenho, tais como: (i) o Erro Quadrático Médio (EQM) e (ii) o Desvio Absoluto Médio (DAM). Além disso, nós veremos nos resultados, que em geral, só é possível ter estabilidade, utilizando os controladores rosbustos. / [en] In this work, we present a new application for some robust controllers, such as SMC and STA approaches. The main idea is to perform autonomous navigation in agricultural fields accurately using wheeled mobile robots, equipped with a fixed monocular camera . Here, we consider the existence of uncertainties in the parameters of the robot-camera system and external disturbances caused by high driving velocities, sparse plants, and uneven terrains. First, we design a robust image-based visual servoing approach to deal with model inaccuracies and trajectory perturbations in the image space. In addition, a cascade-based robust control approach is applied, in which the outer vision feedback loop is connected with an inner pose feedback loop to deal with the effects of all disturbances sources. Then, a robust trajectory tracking approach based on the super-twisting algorithm is applied for motion stabilization to ensure the successful execution of row crop following tasks under wheel slippage and vehicle sideslip. ROSGazebo platform, an open-source robotics simulator, was used to perform 3D computer simulation using a differential-drive mobile robot and an adhoc designed row-crop environment. The effectiveness and feasibility of the robust controllers are evaluated by analyzing numerical simulations and performance metrics, such as: (i) the root-mean square error (RMSE) and (ii) the mean-absolute deviation (MAD). Furthermore, we will see in results, that in general, it is only possible to have stability, using robust controllers.
4

[en] ROBOTIC DEVICE FOR MOBILITY ASSISTANCE TO ELDERLY PEOPLE IN URBAN ENVIRONMENTS / [pt] DISPOSITIVO ROBÓTICO PARA ASSISTÊNCIA À LOCOMOÇÃO DE PESSOAS IDOSAS EM AMBIENTES URBANOS

DANIEL DE SOUSA LEITE 22 December 2017 (has links)
[pt] Com o aumento da expectativa, de vida o envelhecimento da população vem se tornando uma realidade cada vez mais presente no Brasil e no mundo. Esse novo panorama demográfico já é vivenciado por países ricos, que vêm cada vez mais investindo para se enquadrar nessa nova realidade, seja por meio da adaptação de suas cidades ou pelo desenvolvimento de novas tecnologias para melhora da qualidade de vida. Na área da robótica, diversas pesquisas vêm sendo desenvolvidas com o intuito de reabilitação e melhora da qualidade de vida da população idosa. Nesses trabalhos são desenvolvidos, por exemplo, dispositivos que buscam auxiliar o idoso na realização de suas atividades diárias, provendo, principalmente, suporte e prevenção de quedas. Essa dissertação de mestrado apresenta o desenvolvimento do protótipo de um dispositivo para assistência a locomoção de pessoas idosas que possuam alguma deficiência visual, motora e/ou cognitiva. O dispositivo tem como objetivo guiar o usuário em ambientes urbanos de maneira autônoma. O protótipo deve ser capaz de desviar de qualquer obstáculo que possa levar o idoso à queda, além de ter uma estrutura que ofereça apoio para o seu deslocamento. O dispositivo proposto possui uma estrutura semelhante a um andador, cuja base é um robô móvel diferencial. Para que possa obter informações do ambiente, o dispositivo está equipado com sensores de distância, uma central inercial e encoders nas rodas. Todo o processamento ocorre em uma CPU de baixo custo, Raspberry Pi 1 versão 2, embarcada no próprio dispositivo e o controle de navegação ocorre por meio de um algoritmo baseado em lógica Fuzzy. Os acessos ao hardware e software de controle do dispositivo são gerenciados pelo framework de robótica Player (Gerkey e contribuidores, 2010). Para que o dispositivo receba a rota de navegação ele está conectado a um celular, com sistema operacional Android, via protocolo TCP/IP. Esse celular está executando uma API (Application Programming Interface) do Google Maps que fornece direção e distância ao objetivo a cada passo da interação, além da localização global do dispositivo, por meio do sensor GPS do celular. O objetivo deve ser inicialmente estabelecido pelo usuário por meio da API desenvolvida, para que a navegação autônoma ocorra. Além da navegação autônoma, o dispositivo permite que usuário envie comandos diretamente para os motores por meio de sensores de força instalados próximos aos pontos de apoio do usuário. / [en] With the increase in life expectation, the ageing population has become more present in Brazil and the world. This new demographic scenery has been already framed by rich countries, which are increasingly investing to fit this new reality, either through the adaptation of their cities or the development of new technologies to improve the quality of life. In the area of robotics, several researches have been developed with the aim of rehabilitation and improvement of the quality of life of the elderly population. These researches are developing, for example, devices to assist the elderly in carrying out their daily activities, providing support and prevention of falls. This work presents the development of the prototype of a device to assist elderly person with any visual, cognitive and/or motor impairment to locomotion by itself. The device aims to guide the user autonomously in urban environments. The prototype should be able to avoid any obstacle that can cause the elderly to fall, besides having a structure that offers support for his balance. The proposed device has a structure similar to a walker whose base is a differential mobile robot. For the device be able to get information from the environment, it is embedded with range sensors, a measurement central unit and encoders at the wheels. All processing occurs in a low-cost CPU, Raspberry Pi 1 B version 2, which is embedded in the mobile device, and the navigation control algorithm is based on fuzzy logic. The robotic framework Player (Gerkey and contributors, 2010) provides the access to the hardware and software of the device. For the device to receive the navigation route, it is connected to an Android operating system phone, by TCP/IP protocol. This phone runs an API (Application Programming Interface) from Google Maps that provides the direction and the distance to the goal in every step of its interaction, besides the global location of the robot, provided by the GPS sensor of the phone. The user should firstly set the goal with the API developed, so that the autonomous navigation will occur. In addition to the autonomous navigation, the device allows the user to send commands directly to the motors by means of the force sensors installed at the robot cane.

Page generated in 0.0296 seconds