• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] EVALUATION OF A 3D RECONSTRUCTION ALGHORITHM WITH RGB-D SENSORS / [pt] AVALIAÇÃO DE UM ALGORITMO DE RECONSTRUÇÃO 3D COM SENSORES RGB-D

IAN MEDEIROS COELHO 16 January 2017 (has links)
[pt] Sensores de profundidade do tipo RGB-D são alternativas interessantes para realizar a reconstrução 3D do ambiente a um baixo custo. Neste trabalho, avaliamos uma pipe-line de reconstrução implementada em GPU que une um sistema de tracking baseado no alinhamento de nuvem de pontos para estimar a posição da câmera e um sistema de reconstrução/visualização volumétrica para suavizar as medidas naturalmente ruidosas do sensor, utilizando o Kinect como entrada RGB-D. Foi feita uma análise técnica do algoritmo, demonstrando o impacto de modificações de parâmetros do sistema, além de um comparativo de tempo e precisão entre a implementação aqui apresentada e uma versão pública disponibilizada pela Point Cloud Library(PCL) durante o desenvolvimento deste trabalho. Algumas modificações em relação ao trabalho original foram feitas e os testes de desempenho demonstram que nossa implementação é mais rápida do que a da PCL sem comprometer significantemente a precisão da reconstrução. / [en] Depth sensors of the type RGB-D are interesting alternatives to do a 3D reconstruction of the environment with low cost. In this work, we evaluate a reconstruction pipe-line implemented on GPU that merges a point cloud alignment tracking system to estimate the camera position and a volumetric reconstruction/visualization to smooth the naturally noise measures from the sensor, using the Kinect as RGB-D input. A technical analysis of the algorithm has been made, showing the impact of parameter modifications of the system and a comparative of time and precision between the presented implementation and a public version available by the Point Cloud Library (PCL) during the development of this work. Some modifications to the original work have been made and the performance tests demonstrate that our implementation is faster than the PCL version without compromising the reconstruction precision.
2

[en] USING DENSE 3D RECONSTRUCTION FOR VISUAL ODOMETRY BASED ON STRUCTURE FROM MOTION TECHNIQUES / [pt] UTILIZANDO RECONSTRUÇÃO 3D DENSA PARA ODOMETRIA VISUAL BASEADA EM TÉCNICAS DE STRUCTURE FROM MOTION

MARCELO DE MATTOS NASCIMENTO 08 April 2016 (has links)
[pt] Alvo de intenso estudo da visão computacional, a reconstrução densa 3D teve um importante marco com os primeiros sistemas em tempo real a alcançarem precisão milimétrica com uso de câmeras RGBD e GPUs. Entretanto estes métodos não são aplicáveis a dispositivos de menor poder computacional. Tendo a limitação de recursos computacionais como requisito, o objetivo deste trabalho é apresentar um método de odometria visual utilizando câmeras comuns e sem a necessidade de GPU, baseado em técnicas de Structure from Motion (SFM) com features esparsos, utilizando as informações de uma reconstrução densa. A Odometria visual é o processo de estimar a orientação e posição de um agente (um robô, por exemplo), a partir das imagens. Esta dissertação fornece uma comparação entre a precisão da odometria calculada pelo método proposto e pela reconstrução densa utilizando o Kinect Fusion. O resultado desta pesquisa é diretamente aplicável na área de realidade aumentada, tanto pelas informações da odometria que podem ser usadas para definir a posição de uma câmera, como pela reconstrução densa, que pode tratar aspectos como oclusão dos objetos virtuais com reais. / [en] Aim of intense research in the field computational vision, dense 3D reconstruction achieves an important landmark with first methods running in real time with millimetric precision, using RGBD cameras and GPUs. However these methods are not suitable for low computational resources. Having low computational resources as requirement, the goal of this work is to show a method of visual odometry using regular cameras, without using a GPU. The proposed method is based on technics of sparse Structure From Motion (SFM), using data provided by dense 3D reconstruction. Visual odometry is the process of estimating the position and orientation of an agent (a robot, for instance), based on images. This dissertation compares the proposed method with the odometry calculated by Kinect Fusion. Results of this research are applicable in augmented reality. Odometry provided by this work can be used to model a camera and the data from dense 3D reconstruction, can be used to handle occlusion between virtual and real objects.

Page generated in 0.0268 seconds