[pt] Robôs moveis se tornaram populares nos últimos anos devido a sua
capacidade de operar de forma autônoma e performar tarefas que são perigosas,
repetitivas ou tediosas para seres humanos. O robô necessita ter um mapa
de seus arredores e uma estimativa de sua localização dentro desse mapa
para alcançar navegação autônoma. O problema de Localização e Mapeamento
Simultâneos (SLAM) está relacionado com a determinação simultânea do mapa
e da localização usando medidas de sensores. SLAM visual diz respeito a
estimar a localização e o mapa de um robô móvel usando apenas informações
visuais capturadas por câmeras. O uso de câmeras para o sensoriamento
proporciona uma vantagem significativa, pois permite resolver tarefas de
visão computacional que fornecem informações de alto nível sobre a cena,
incluindo detecção, segmentação e reconhecimento de objetos. A maioria dos
sistemas de SLAM visuais não são robustos a ambientes dinâmicos. Os sistemas
que lidam com conteúdo dinâmico normalmente contem com métodos de
aprendizado profundo para detectar e filtrar objetos dinâmicos. Existem vários
sistemas de SLAM visual na literatura com alta acurácia e desempenho,
porem a maioria desses métodos não englobam objetos desconhecidos. Este
trabalho apresenta um novo sistema de SLAM visual robusto a ambientes
dinâmicos, mesmo na presença de objetos desconhecidos. Este método utiliza
segmentação panóptica para filtrar objetos dinâmicos de uma cena durante
o processo de estimação de estado. A metodologia proposta é baseada em
ORB-SLAM3, um sistema de SLAM estado-da-arte em ambientes estáticos.
A implementação foi testada usando dados reais e comparado com diversos
sistemas da literatura, incluindo DynaSLAM, DS-SLAM e SaD-SLAM. Além
disso, o sistema proposto supera os resultados do ORB-SLAM3 em um
conjunto de dados personalizado composto por ambientes dinâmicos e objetos
desconhecidos em movimento. / [en] Mobile robots have become popular in recent years due to their ability
to operate autonomously and accomplish tasks that would otherwise be too
dangerous, repetitive, or tedious for humans. The robot must have a map of
its surroundings and an estimate of its location within this map to achieve
full autonomy in navigation. The Simultaneous Localization and Mapping
(SLAM) problem is concerned with determining both the map and localization
concurrently using sensor measurements. Visual SLAM involves estimating the
location and map of a mobile robot using only visual information captured by
cameras. Utilizing cameras for sensing provides a significant advantage, as they
enable solving computer vision tasks that offer high-level information about
the scene, including object detection, segmentation, and recognition. There
are several visual SLAM systems in the literature with high accuracy and
performance, but the majority of them are not robust in dynamic scenarios.
The ones that deal with dynamic content in the scenes usually rely on
deep learning-based methods to detect and filter dynamic objects. However,
these methods cannot deal with unknown objects. This work presents a new
visual SLAM system robust to dynamic environments, even in the presence
of unknown moving objects. It uses Panoptic Segmentation to filter dynamic
objects from the scene during the state estimation process. The proposed
methodology is based on ORB-SLAM3, a state-of-the-art SLAM system for
static environments. The implementation was tested using real-world datasets
and compared with several systems from the literature, including DynaSLAM,
DS-SLAM and SaD-SLAM. Also, the proposed system surpasses ORB-SLAM3
results in a custom dataset composed of dynamic environments with unknown
moving objects.
Identifer | oai:union.ndltd.org:puc-rio.br/oai:MAXWELL.puc-rio.br:63634 |
Date | 10 August 2023 |
Creators | GABRIEL FISCHER ABATI |
Contributors | MARCO ANTONIO MEGGIOLARO, MARCO ANTONIO MEGGIOLARO |
Publisher | MAXWELL |
Source Sets | PUC Rio |
Language | English |
Detected Language | Portuguese |
Type | TEXTO |
Page generated in 0.0022 seconds