• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Identificação automática do comportamento do tráfego a partir de imagens de vídeo / Automatic identification of traffic behavior using video images

Marcomini, Leandro Arab 10 August 2018 (has links)
Este trabalho tem por objetivo propor um sistema computacional automático capaz de identificar, a partir de imagens de vídeos, o comportamento do tráfego veicular rodoviário. Todos os códigos gerados foram escritos em Python, com o uso da biblioteca OpenCV. O primeiro passo do sistema proposto foi remover o background do frame do vídeo. Para isso, foram testados três métodos disponíveis no OpenCV, com métricas baseadas em uma Matriz de Contingência. O MOG2 foi escolhido como melhor método, processando 64 FPS, com mais de 95% de taxa de exatidão. O segundo passo do sistema envolveu detectar, rastrear e agrupar features dos veículos em movimento. Para isso, foi usado o algoritmo de Shi-Tomasi, junto com funções de fluxo ótico para o rastreamento. No agrupamento, usou-se a distância entre os pixels e as velocidades relativas de cada feature. No passo final, foram extraídos tanto as informações microscópicas quanto as informações macroscópicas em arquivos de relatório. Os arquivos têm padrões definidos, salvos em CSV. Também foi gerado, em tempo de execução, um diagrama espaço-tempo. Desse diagrama, é possível extrair informações importantes para as operações de sistemas de transportes. A contagem e a velocidade dos veículos foram usadas para validar as informações extraídas, comparadas a métodos tradicionais de coletas. Na contagem, o erro médio em todos os vídeos foi de 12,8%. Na velocidade, o erro ficou em torno de 9,9%. / The objective of this research is to propose an automatic computational system capable to identify, based on video images, traffic behavior on highways. All written code was made using Python, with the OpenCV library. The first step of the proposed system is to subtract the background from the frame. We tested three different background subtraction methods, using a contingency table to extract performance metrics. We decided that MOG2 was the best method for this research, processing frames at 64 FPS and scoring more than 95% on accuracy rate. The second step of the system was to detect, track and group all moving vehicle features. We used Shi-Tomasi detection method with optical flow to track features. We grouped features with a mixture of distance between pixels and relative velocity. For the last step, the algorithm exported microscopic and macroscopic information on CSV files. The system also produced a space-time diagram at runtime, in which it was possible to extract important information to transportation system operators. To validate the information extracted, we compared vehicle counting and velocities with traditional extraction methods. The algorithm had a mean error rate of 12.8% on counting vehicles, while achieving 9.9% error rate in velocity.
2

Identificação automática do comportamento do tráfego a partir de imagens de vídeo / Automatic identification of traffic behavior using video images

Leandro Arab Marcomini 10 August 2018 (has links)
Este trabalho tem por objetivo propor um sistema computacional automático capaz de identificar, a partir de imagens de vídeos, o comportamento do tráfego veicular rodoviário. Todos os códigos gerados foram escritos em Python, com o uso da biblioteca OpenCV. O primeiro passo do sistema proposto foi remover o background do frame do vídeo. Para isso, foram testados três métodos disponíveis no OpenCV, com métricas baseadas em uma Matriz de Contingência. O MOG2 foi escolhido como melhor método, processando 64 FPS, com mais de 95% de taxa de exatidão. O segundo passo do sistema envolveu detectar, rastrear e agrupar features dos veículos em movimento. Para isso, foi usado o algoritmo de Shi-Tomasi, junto com funções de fluxo ótico para o rastreamento. No agrupamento, usou-se a distância entre os pixels e as velocidades relativas de cada feature. No passo final, foram extraídos tanto as informações microscópicas quanto as informações macroscópicas em arquivos de relatório. Os arquivos têm padrões definidos, salvos em CSV. Também foi gerado, em tempo de execução, um diagrama espaço-tempo. Desse diagrama, é possível extrair informações importantes para as operações de sistemas de transportes. A contagem e a velocidade dos veículos foram usadas para validar as informações extraídas, comparadas a métodos tradicionais de coletas. Na contagem, o erro médio em todos os vídeos foi de 12,8%. Na velocidade, o erro ficou em torno de 9,9%. / The objective of this research is to propose an automatic computational system capable to identify, based on video images, traffic behavior on highways. All written code was made using Python, with the OpenCV library. The first step of the proposed system is to subtract the background from the frame. We tested three different background subtraction methods, using a contingency table to extract performance metrics. We decided that MOG2 was the best method for this research, processing frames at 64 FPS and scoring more than 95% on accuracy rate. The second step of the system was to detect, track and group all moving vehicle features. We used Shi-Tomasi detection method with optical flow to track features. We grouped features with a mixture of distance between pixels and relative velocity. For the last step, the algorithm exported microscopic and macroscopic information on CSV files. The system also produced a space-time diagram at runtime, in which it was possible to extract important information to transportation system operators. To validate the information extracted, we compared vehicle counting and velocities with traditional extraction methods. The algorithm had a mean error rate of 12.8% on counting vehicles, while achieving 9.9% error rate in velocity.
3

An augmented reality pipeline to create scenes with coherent illumination using textured cuboids / Um pipeline de realidade para criar cenas com ilumina??o coerente utilizando cub?ides texturizados como marcadores

Gadelha, Matheus Abrantes 21 August 2014 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2016-02-22T21:43:01Z No. of bitstreams: 1 MatheusAbrantesGadelha_DISSERT.pdf: 18378275 bytes, checksum: 183ee0f2bfbeba61eb2a77787a4cedd6 (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2016-02-23T23:24:05Z (GMT) No. of bitstreams: 1 MatheusAbrantesGadelha_DISSERT.pdf: 18378275 bytes, checksum: 183ee0f2bfbeba61eb2a77787a4cedd6 (MD5) / Made available in DSpace on 2016-02-23T23:24:05Z (GMT). No. of bitstreams: 1 MatheusAbrantesGadelha_DISSERT.pdf: 18378275 bytes, checksum: 183ee0f2bfbeba61eb2a77787a4cedd6 (MD5) Previous issue date: 2014-08-21 / Sombras e ilumina??o possuem um papel importante na s?ntese de cenas realistas em Computa??o Gr?fica. A maioria dos sistemas de Realidade Aumentada rastreia marcadores posicionados numa real, obtendo sua posi??o e orienta??o para servir como refer?ncia para o conte?do sint?tico, produzindo a cena aumentada. A exibi??o realista de conte?do aumentado com pistas visuais coerentes ? um objetivo desej?vel em muitas aplica??es de Realidade Aumentada. Contudo, renderizar uma cena aumentada com ilumina??o realista ? um tarefa complexa. Muitas abordagens existentes dependem de uma fase de pr?-processamento n?o automatizada para obter os par?metros de ilumina??o da cena. Outras t?cnicas dependem de marcadores espec?ficos que cont?m probes de luz para realizar a estima??o da ilumina??o do ambiente. Esse estudo se foca na cria??o de um m?todo para criar aplica??es de Realidade Aumentada com ilumina??o coerente e sombras, usando um cub?ide texturizado como marcador, n?o requerendo fase de treinamento para prover informa??o acerca da ilumina??o do ambiente. Um marcador desse tipo pode ser facilmente encontrado em ambientes comuns: a maioria das embalagens de produtos satisfaz essas caracter?sticas. Portanto, ese estudo prop?e uma maneira de estimar a configura??o de uma luz direcional utilizando o rastreamento de m?ltiplas texturas para renderizar cenas de Realidade Aumentada de maneira realista. Tamb?m ? proposto um novo descritor de features visuais que ? usado para realizar o rastreamento de m?ltiplas texturas. Esse descritor extende o descritor bin?rio e ? denominado descritor discreto. Ele supera o atual estado-da-arte em velocidade, enquanto mant?m n?veis similares de precis?o. / Shadows and illumination play an important role when generating a realistic scene in computer graphics. Most of the Augmented Reality (AR) systems track markers placed in a real scene and retrieve their position and orientation to serve as a frame of reference for added computer generated content, thereby producing an augmented scene. Realistic depiction of augmented content with coherent visual cues is a desired goal in many AR applications. However, rendering an augmented scene with realistic illumination is a complex task. Many existent approaches rely on a non automated pre-processing phase to retrieve illumination parameters from the scene. Other techniques rely on specific markers that contain light probes to perform environment lighting estimation. This study aims at designing a method to create AR applications with coherent illumination and shadows, using a textured cuboid marker, that does not require a training phase to provide lighting information. Such marker may be easily found in common environments: most of product packaging satisfies such characteristics. Thus, we propose a way to estimate a directional light configuration using multiple texture tracking to render AR scenes in a realistic fashion. We also propose a novel feature descriptor that is used to perform multiple texture tracking. Our descriptor is an extension of the binary descriptor, named discrete descriptor, and outperforms current state-of-the-art methods in speed, while maintaining their accuracy.

Page generated in 0.0826 seconds