• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 262
  • 17
  • 4
  • 1
  • Tagged with
  • 285
  • 285
  • 229
  • 212
  • 67
  • 63
  • 61
  • 47
  • 47
  • 41
  • 39
  • 35
  • 35
  • 34
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Aplicações de técnicas de processamento de imagens e visão computacional em inspeção visual / Not available

Rocha Filho, Raimundo Nonato da 29 November 2000 (has links)
Desde a década de 70, os Sistemas de Inspeção Visual vêm conquistando espaço em aplicações industriais, robôs, etc. Na década de 80, avanços científicos e tecnológicos colaboraram definitivamente para o crescimento do desenvolvimento e aplicações dos Sistemas de Inspeção Visual. Atualmente, é possível encontrar muitos desses sistemas no mercado comercial, com um custo não muito elevado. Normalmente, esses sistemas são desenvolvidos para analisar diversos tipos de imagens, incluindo diversas ferramentas relacionadas. O presente trabalho descreve o desenvolvimento de um aplicativo de Inspeção Visual para analisar imagens extraídas de pesquisas realizadas em três diferentes laboratórios. Um dos objetivos desse projeto foi manter, de forma periódica e continuada, interações com os usuários, sendo que estes sugeriram idéias para o desenvolvimento ao esclarecerem suas necessidades particulares. Isso permitiu o desenvolvimento de soluções efetivas, incluindo interfaces gráficas e algoritmos específicos, aperfeiçoados pelo uso pelos pesquisadores / Since the 70\'s Visual Inspection Systems have been finding their way to several industrial applications in research laboratories, automobiles, robots, etc. In the 80\'s scientific and technological advances have definitely paved the way toward the growth in development and applications of Visual Inspection Systems. Nowadays, many of such systems are available off-the-shelf, and at a not too high cost. Normally, these systems are developed to analyze a number of types of images, including several related tools. This work reports the development of a Visual Inspection software to be used in the analysis of images produced by three distinct laboratories. One of the objectives of this project was to keep periodical interactions with the users, who suggested their ideas during the development of the system, clarifying their specific needs. The system kept its characteristics as a tool for dedicated Visual Inspection, once the graphic interfaces and some algorithms have been improved from the use by the involved researchers
22

A computer vision system for recognizing plant species in the wild using convolutional neural networks

Dias, René Octavio Queiroz 03 July 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2017. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2017-08-24T13:58:08Z No. of bitstreams: 1 2017_RenéOctavioQueirozDias.pdf: 17746801 bytes, checksum: 9dc00a9435aa0263edd4056fbbad2612 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-09-26T16:44:32Z (GMT) No. of bitstreams: 1 2017_RenéOctavioQueirozDias.pdf: 17746801 bytes, checksum: 9dc00a9435aa0263edd4056fbbad2612 (MD5) / Made available in DSpace on 2017-09-26T16:44:32Z (GMT). No. of bitstreams: 1 2017_RenéOctavioQueirozDias.pdf: 17746801 bytes, checksum: 9dc00a9435aa0263edd4056fbbad2612 (MD5) Previous issue date: 2017-09-26 / Classificação de plantas tem sido um problema recorrente na comunidade de Visão Computacional. Visualmente, as plantas apresentam uma variabilidade muito grande, decorrente principalmente de efeitos sazonais, idade e fundos. Sistemas de classificação mais antigos tinham problemas para lidar com estas variações e seus bancos de dados usavam imagens mais simples com apenas partes desmembradas de plantas (como folhas e flores) e fundo branco. Com o advento das Redes Neurais Profundas, que demostraram ser bastante competitivas como classificadores de propósito geral, o objetivo é testá-las com um banco de dados de propósito mais específico, que podem tencionar mais estes classificadores tentando classificar espécies de plantas similares em poses bastante diferentes. Construiu-se um banco de dados que é focado em como o usuário comum tira retratos de plantas. Este novo banco de dados, chamado Plantas, foi feito para ter poucas restrições. Inicialmente, há 50 espécies diferentes que são usados comumente em jardinagem, e há mais de 33.000 imagens. Estas fotos foram tiradas in loco e da Internet. Depois, treinou-se com técnicas recentes do estado da arte, como os Métodos de Codificação e Redes Neurais Profundas. Nos Métodos de Codificação, são usados três codificadores: Saco de Palavras Visuais (BoVW), Vetores Fisher (FV) e Vetores de Descritores Linearmente Agregados (VLAD). Nos Métodos de Codificação, há duas fases: uma aprendizagem sem-supervisão e em seguida uma supervisionada. Em todos os métodos, o processo é parecido. Na fase sem-supervisão, obtêm-se os descritores SIFT, retira-se uma amostra destes descritores, faz uma aprendizagem da projeção da Análise de Componentes Principais e usa-se k-médias para agregar estas características em k grupos, que são o número de palavras. Aqui se separa o treinamento de BoVW e VLAD dos Vetores Fisher. Para os primeiros, cria-se uma árvore k-d para facilitar o posterior processo de pesquisa. Para os Vetores Fisher, usa-se os grupos como inicialização dos Modelos de Mistura de Distribuições Normais. Na fase de aprendizagem supervisionada, passa-se uma imagem pelos processos de obtenção dos descritores SIFT, amostragem e PCA. Então, para cada característica de uma imagem, pesquisase o grupo a qual pertencente. Para BoVW, obtém-se um histograma que conta cada palavra da imagem que tem o equivalente no dicionário. Para VLAD, obtém-se o desvio à média destas palavras, e com Vetores Fisher, além do desvio à média, calcula-se o desvio à covariância. Estes, representam os descritores finais que são posteriormente treinados com uma Máquina de Vetores de Suporte Linear (Linear-SVM). Nas redes neurais, são treinadas diferentes arquiteturas recentes como AlexNet, CaffeNet, GoogLeNet e ResNet. Elas contêm técnicas que exploram a estrutura espacial das imagens, como as camadas de convoluções, e usam técnicas de regularização que evitam sobreajuste—que era algo especialmente comum em redes com muitos parâmetros—como Dropout e Normalização em Lotes. Também foi a primeira vez em que se usou uma função de ativação que não sofre problemas de saturação, a Unidade Linear Retificada (ReLU) que tomou o lugar de Sigmóides e Tangentes Hiperbólicas. Usando estas arquiteturas, faz-se experimentos para saber como elas respondem ao novo banco de dados, e quais são as melhores especificações para obter-se a melhor acurácia e quais as razões que uma escolha é melhor que a outra. Nestes experimentos, funções de ativações mais recentes como a Unidade Linear Retificada Parametrizada (PReLU) e a Unidade Linear Exponencial (ELU) foram testadas. Também, usa-se técnicas de ajuste fino em que se reutiliza parâmetros de uma rede treinada para um certo banco de dados em outro, também conhecido como transferência de conhecimento. / Classifying plant species has been a recurrent topic in the Computer Vision community. Visually, plants present a high level of variability, mostly because of seasonal effects, age and background. Early classification systems had difficulties to deal with this variability and early databases relied on simple images, using dismembered parts of the plants, such as leaves and flowers, and a distinctive background (usually white). With the advent of Deep Neural Networks, which proved to be very competitive as a generalpurpose classifier, we aim to assess them with a more specific-purpose database, which can be further strained by trying to classify similar plant species in some very different poses. We created a new database that focus on how the common user takes plant pictures. This database, named Plantas, is meant to be highly unconstrained. Initially, it contains 50 common different species and cultivars used in gardening worldwide, and more than 33,000 images. These images were taken on site and download from the Internet. Then, we train this database with the latest state of the art techniques, such as Encoding Methods and Deep Neural Networks. We further explore neural networks by testing some recent activation functions and also fine-tuning.
23

Diagnóstico de leucemia linfóide auxiliado por computador / Not available

Daniela Mayumi Ushizima 06 October 2004 (has links)
O presente trabalho de doutorado visa estudar o diagnóstico de leucemias por meio de processamento das imagens de microscópio óptico de transmissão, em colaboração com médicos hematologistas do HC-FMRP-USP e sob supervisão do Prof. Dr. Marco Zago. Como nem todas as leucemias podem ser diagnosticadas por meio de parâmetros visuais, apenas os casos de leucemia linfóide serão considerados, uma vez que esses são casos onde as células podem ser classificadas visualmente com precisão. A análise citológica é feita por especialistas humanos, cotidianamente em casos de contagem do número de leucócitos e se limitam à avaliação de um número reduzido de amostras pois é uma tarefa repetitiva, minuciosa e especializada. Com a automação desse processo, há possibilidade de maior número de análises de imagens, com geração de informações estatísticas a respeito das células presentes em amostras de sangue. O reconhecimento automático da célula envolve três etapas básicas: a segmentação da imagem, a extração de características e a classificação. A técnica de reconhecimento de padrões adotada para segmentação das imagens de esfregaços de sangue utiliza aprendizagem supervisionada por cor no espaço RGB, gerando imagens binárias contendo as diferentes regiões de interesse: núcleo, citoplasma, fundo e hemácia. O usuário pode treinar o classificador para uma imagem de esfregaço de sangue periférico, segmentar, filtrar e processar várias medidas das ROIs, particularmente do núcleo e citoplasma, considerando parâmetros de forma, textura e cor. A contribuição desse projeto está na elaboração de programas de interface amigável tanto para reconhecimento de padrões quanto para seleção de característica e mineração de dados. O programa de reconhecimento de padrões é baseado em casos de leucócitos normais, de leucemia linfóide crônica, prolinfocítica e tricoleucemia. Para desenvolvimento do programa de reconhecimento de padrões foi necessária uma grande base de dados, que hoje conta com aproximadamente 1.439 imagens, onde cerca de 1.058 são de leucócitos normais e cerca de 381 de leucêmicos / The current PhD project deals with the leukemia diagnosis using optical microscope image processing, in collaboration with hematologists from HC-FMRP-USP and under supervision of Prof. Dr. Marco Zago. Only specific leukemia cases can be diagnosed through visual parameter, therefore only lymphoid leukemias have been considered since these are the cases in which the cells can be classified visually with accuracy. Expert humans have dedicated to leukocyte differential count daily, limiting the analysis to a reduced number of samples since this task is time-consuming and painstaking. The automation of this process would allow to analyze many more images with wide statistical information about each blood smear slide. The cell recognition can be divided in three steps: the image segmentation, the feature extraction and the classification. The pattern recognition technique to color segment the images utilizes supervised learning in the RGB color space, generating binary images containing the different regions of interest: nucleus, cytoplasm, background and red blood cells. The user can train the classifier to segment a particular image, to filter the resulted image, to process and to extract several cell attributes. Particularly, we are interested in the nucleus and the cytoplasm in terms of the shape, size, color and texture. We have developed softwares with user-friendly interface both to pattern recognition and feature selection/datamining. The pattern recognition system is dedicated to recognize normal leukocytes and lymphoid leukemias as chronic lymphocitic, prolymphocitic and Hairy cells. For developing the pattern recognition system, we collected a large database, which contains approximately 1,439 images nowadays, being around 1,058 normal leukocytes and around 381 abnormal lymphocytes
24

Estimação de parâmetros de movimento a partir de sequências de imagens estéreo / not available

Rafael do Espírito-Santo 02 October 1998 (has links)
Este trabalho apresenta um procedimento de estimação dos parâmetros de movimento de um corpo rígido, quais sejam, posição, velocidade linear, velocidade angular e aceleração linear, empregando técnicas de visão computacional fundamentadas na manipulação de sequências de imagens estéreo ruidosas. A estimação envolve o uso de detetares de cantos, observação de pontos ruidosos tridimensionais, aquisição e processamento de imagens e estimação de estados. Atenção especial é dada às duas primeiras técnicas pois é a partir delas que os atributos geométricos do objeto são adquiridos durante o processamento de imagens digitalizadas. O processo de recuperação de pontos tridimensionais foi simulado a partir de informações bidimensionais, usando dois métodos de observação de pontos ruidosos. Um desses métodos reduz o problema de determinação dos pontos tridimensionais à resolução de um sistema de equações lineares pelo método dos mínimos quadrados. O outro utiliza informação do range de um ponto imagem e da correspondência entre um ponto projetado em uma câmera e o correspondente ponto conjugado, localizado na outra câmera. Ainda neste trabalho, técnicas aplicáveis na resolução do problema da correspondência entre imagens estéreos foram estudadas. Duas abordagens são consideradas. Em uma delas, o estudo da correspondência é feito a partir da manipulação de imagens segmentadas e na outra utiliza-se as imagens adquiridas. Um experimento empregando o procedimento de estimação dos parâmetros obtido foi realizado. O experimento consistiu no deslocamento de um corpo rígido em uma mesa e na aquisição de uma seqüência de imagens estéreo. As estimativas obtidas foram comparadas com os valores dos parâmetros de movimento observados experimentalmente. / This work presents a procedure for the estimation of object motion parameters, namely, position, linear velocity, angular velocity and linear acceleration, using computer vision techniques based on manipulation of a sequence of noisy stereo images. The estimation involves corner detection, 3-D noisy point observation, image acquisition, digital image processing and state estimates. Special attention was given to the first two techniques mentioned above because the acquisition of the object features during the image processing was based on them. The process of recovering three dimensional points was simulated from the 2-D information, using two methods based on noisy points observation. One of these methods formulates the problem of determination of the three-dimensional points as a linear system equation problem via least square techniques. The other solves the same problem by using the definition of the range of image points and the correspondence that exists between a projected point on one camera and the correspondent conjugate point on the other camera. We still made in this work a study of techniques dedicated to solve the problem of stereo images correspondence. Two approaches are examined. In one of them, the correspondence is made from segmented images. In the other one, the acquired images are used directly. An experiment using the parameter estimate procedure was performed. The experiment consisted in observing a moving object on a test table and in acquiring a stereo image sequence. The estimates were compared with the motion parameters experimentally observed.
25

Visão computacional rápida utilizando rede neural implementada em processamento paralelo / Not available

Roberto Alves de Oliveira 20 September 2002 (has links)
O presente trabalho apresenta o desenvolvimento de um sistema de Visão Artificial inteligente visando uma maior velocidade de processamento, um menor custo e aumento na produtividade industrial. Para o desenvolvimento do sistema foi utilizado o computador paralelo SPP3 desenvolvido no LCAD (Laboratório de Computação de Alto Desempenho) do ICMSC (Instituto de Ciências e Matemática de São Carlos) que utiliza uma arquitetura paralela MIMD com memória distribuída e a uma rede de comunicação de alta velocidade do tipo Myrinet [TRINDADE, 1994]. Este trabalho de tese teve como proposta desenvolver um sistema de visão em tempo real. Para atender os objetivos propostos citados, realizou-se de forma inédita a utilização de métodos estatísticos na extração do mínimo de características naturais (textura) e artificiais (histograma), invariantes à transformações geométricas, que definam a cena (ou objeto), para formar os vetores de atributos destinados ao treinamento e aprendizagem de redes neurais, utilizando ainda a técnica de invariância pelo treinamento. E para melhorar ainda mais a eficiência recorreu-se a utilização do paralelismo de hardware e software, proporcionando uma aplicação para multicomputadores / The present work presents the development of an intelligent Artificial Vision system seeking larger processing speed, smaller cost and increase in the industrial productivity. For the development of the system, a parallel computer was used, the SPP3 developed in LCAD (Laboratory of Computation of High Performance computing) of the ICMSC (Institute of Sciences and Mathematics of São Carlos). The SPP3 uses a parallel architecture MIMD with distributed memory and the a high-speed Myrinet communication network [TRINDADE, 1994]. This Thesis\'s work has with plan the development of a vision\'s sistem in real time. To attend the objetives cited, it was realized of original form, the utilization of statistical methods in extraction of less natural feature (texture) and artificial (histogram) invariants for geometrics transformations, that define the scene (or objects), to form the attributes vectors destinated for training and learning of neural networks, still using the invariants technical for training. And to improve more the eficient have recourse to use parallelism of hardware and software, giving a application to multicomputers
26

Tracking Library for the Web

Melo, Eduardo Antonio Lundgren 30 August 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-10T14:17:29Z No. of bitstreams: 2 Dissertaçao Eduardo Melo..pdf: 1201214 bytes, checksum: 346cc3adec96de71ad5e677acea91d6d (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-10T14:17:29Z (GMT). No. of bitstreams: 2 Dissertaçao Eduardo Melo..pdf: 1201214 bytes, checksum: 346cc3adec96de71ad5e677acea91d6d (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-08-30 / Nesta dissertação, foi concebida e implementada uma biblioteca de visão computacional para navegadores web com o objetivo de fornecer uma infra-estrutura comum para desenvolver aplicativos e acelerar a utilização dessas técnicas na web em produtos comerciais. A biblioteca proposta tem como foco ser utilizada em navegadores web sem a necessidade de instalação de plugins de terceiros. Várias especificações web modernas foram utilizadas para alcançar o resultado esperado, bem como aplicação de diferentes algoritmos de visão computacional. A solução provê a implementação de algoritmos existentes que podem ser utilizados para diferentes aplicações nesta área, tais como, detecção de faces, identificação de objetos e cores, como também rastrear objetos em movimento. Os navegadores web modernos interpretam a linguagem de programação JavaScript, portanto esta foi a linguagem utilizada na base da biblioteca. A maioria das linguagens interpretadas têm limitado poder computacional quando comparado com linguagens compiladas, como C. A complexidade computacional envolvida em algoritmos de rastreamento de vídeos é alta e requer implementações otimizadas. Algumas otimizações são discutidas e implementadas neste trabalho, a fim de alcançar bons resultados quando comparados com implementações similares em linguagens compiladas. Uma série de testes de avaliação foram feitos para determinar a eficácia dessas técnicas na web. / In this dissertation, I designed and implemented a tracking library for the web aiming to provide a common infrastructure to develop applications and to accelerate the use of those techniques on the web in commercial products. It runs on native web browsers without requiring third-party plugins installation. This involves the use of several modern browser specifications as well as implementation of different computer vision algorithms and techniques into the browser environment. Between the several techniques available there are algorithms that can be used for different applications, such as, detect faces, identify objects and colors and track moving objects. The source language of the library is JavaScript that is the language interpreted by all modern browsers. The majority of interpreted languages have limited computational power when compared to compiled languages, such as C. The computational complexity involved in visual tracking requires highly optimized implementations. Some optimizations are discussed and implemented on this work in order to achieve good results when compared with similar implementations in compiled languages. A series of evaluation tests were made, to determine how effective these techniques were on the web.
27

Aplicação do teste kens para detecção de outliers em fluxo ótico.

MACÊDO, Samuel Victor Medeiros de 01 March 2013 (has links)
Submitted by Luiz Felipe Barbosa (luiz.fbabreu2@ufpe.br) on 2015-03-12T15:05:33Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertaçao Samuel de Macedo.pdf: 2955084 bytes, checksum: 24bf75ae0c8a9d0a76c2baf6850ac907 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T12:59:08Z (GMT) No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertaçao Samuel de Macedo.pdf: 2955084 bytes, checksum: 24bf75ae0c8a9d0a76c2baf6850ac907 (MD5) / Made available in DSpace on 2015-03-13T12:59:08Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertaçao Samuel de Macedo.pdf: 2955084 bytes, checksum: 24bf75ae0c8a9d0a76c2baf6850ac907 (MD5) Previous issue date: 2013-03-01 / CNPQ Petrobrás CHESF / A área de reconstrução 3D tem sido bastante explorada, principalmente nos últimos anos, com a popularização de ferramentas para visualizar objetos tridimensionais. A busca por algoritmos e cientes que tornem o pipeline de reconstrução 3D mais e ciente é alvo de várias pesquisas universitárias e patentes tanto na indústria como na academia. Atualmente, alguns problemas existentes para reconstrução de malhas que possuem elevado número de pontos utilizando o pipeline de reconstrução [40] ainda persistem, mesmo aplicando apenas algumas restrições. Estes problemas são causados pela exigência de elevado poder computacional exigido pelas técnicas usuais. Dentre essas técnicas estão o rastreamento de pontos em imagens (feature tracking ) [49] e a geração e avaliação de várias hipóteses de pose de câmera para encontrar a técnica que melhor se adequa à cena em questão [37]. A reconstrução 3D pode ser bastante útil em diversas áreas como: realidade aumentada sem marcadores, para a manipulação de objetos virtuais que interagem sicamente com o mundo real e o tratamento de oclusão de objetos virtuais por objetos reais. Diante da problemática e da diversidade de aplicações, alterações no pipeline de reconstrução 3D que o tornem mais rápido e e ciente são interessantes tanto para a área de visão computacional quanto para a indústria. No contexto desta problemática, esta dissertação propõe uma metodologia para otimiza- ção do pipeline de reconstrução 3D explorando os conceitos de inferência estatística, mais precisamente a área de teste de hipótese. O teste kens é um teste de hipótese estatístico desenvolvido nesta dissertação para veri car a suavidade de uma trajetória. Este teste será aplicado aos caminhos das features uma vez que o rastreamento das mesmas é feito utilizando uxo ótico. Apesar de não ser provado matematicamente que features inliers percorrem caminhos suaves, este trabalho mostra indícios de uma relação entre suavidade e inliers, pois com a retirada das features que apresentaram caminhos não suaves a qualidade da reconstrução 3D apresentou resultados melhores. Esta dissertação de mestrado descreve todo o ferramental teórico necessário para entendimento do pipeline de reconstrução 3D e do teste kens. A utilização da técnica em dois cenários será apresentada: sendo um cenário sintético e o outro real.
28

Visão computacional e segmentação de imagens por discriminação de textura

GOMES, Daniel de Filgueiras 31 January 2009 (has links)
Made available in DSpace on 2014-06-12T15:55:44Z (GMT). No. of bitstreams: 2 arquivo2284_1.pdf: 5566409 bytes, checksum: 57582c18f105e4a65f1d2bee8b060d2e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009 / A segmentação é uma parte fundamental do processo de particionamento do espaço de dados em regiões salientes e é um pré-requisito para processos subsequentes como reconhecimento de objetos e interpretação de cena. A etapa de segmentação de imagens e a eficiência com que é realizada afeta diretamente a performance de um sistema automático de análise de imagem. A grande maioria dos algoritmos de segmentação existentes trabalha com características como cor e luminosidade sem levar em consideração os micro-padrões de textura formados pela combinação destas características. Inicialmente motivada como ferramenta de segmentação de paisagens em fotos aéreas e de satélite a análise de textura tem sido estudada por um longo período de tempo usando muitas abordagens distintas. Vários métodos realizam a análise de textura sobre estatísticas de segunda ordem de pixels ou componentes espectrais presentes na imagem. Estudos sobre padrões de textura presentes em imagens tem revelado que a informação sobre a textura de um determinado objeto pode ser tão específica a ponto de poder ser utilizada, não só para a discriminação de regiões, mas também para a identificação de objetos em uma cena. O presente trabalho discute as diversas questões e problemas envolvendo o processamento e a discriminação de texturas em imagens digitais e propõe métodos de segmentação utilizando uma abordagem não-supervisionada com redes neurais artificiais
29

Realidade Aumentada Sem Marcadores Multiplataforma Utilizando Rastreamento Baseado em Modelo

Paulo Silva do Monte Lima, João 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:16Z (GMT). No. of bitstreams: 2 arquivo2815_1.pdf: 3044625 bytes, checksum: 68ad7a249aca02b7e0a0e079b6230324 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Sistemas de Realidade Aumentada dão suporte à coexistência entre os mundos real e virtual. Esta coexistência torna-se possível a partir do rastreamento do ambiente real, possibilitando a adição de elementos sintéticos de maneira coerente. O rastreamento baseado em vídeo é frequentemente utilizado para essa finalidade devido a requisitos de custo, precisão e robustez. No rastreamento baseado em vídeo, é bastante comum usar marcadores fiduciais para realizar a calibração da câmera. Entretanto, em vários cenários de aplicação de Realidade Aumentada, o uso de marcadores não se mostra adequado e uma abordagem de rastreamento baseada em características naturais da cena é requerida. Uma das maneiras de calibrar a câmera em aplicações de Realidade Aumentada sem marcadores se baseia no uso de modelos 3D dos objetos presentes na cena real. As informações contidas no modelo 3D de um dado objeto são utilizadas juntamente com características extraídas da imagem da cena real de forma a possibilitar o cálculo da localização 3D correta do objeto em questão. Dentro deste contexto, esta dissertação de mestrado apresenta a implementação e avaliação de técnicas de rastreamento 3D sem marcadores baseadas em modelo, tendo em vista o desenvolvimento de aplicações de realidade aumentada para diferentes plataformas (desktop, dispositivos móveis e web). Um arcabouço também foi projetado para facilitar a criação de sistemas de realidade aumentada sem marcadores. Métodos recursivos e não-recursivos baseados em informação de aresta e textura foram contemplados, permitindo o rastreamento de objetos em vários cenários. Os resultados de desempenho e acurácia obtidos ao se usar diferentes configurações das técnicas implementadas foram comparados e avaliados
30

Avaliação de algoritmos de alinhamento em reconstrução 3D utilizando várias imagens

Cristina Botelho de Oliveira Lima, Juliane 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T15:56:46Z (GMT). No. of bitstreams: 2 arquivo2987_1.pdf: 8666109 bytes, checksum: 33e00abd7fc7fd3d0c5b1e545e26b856 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2010 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Reconstrução 3D é uma área de pesquisa que engloba várias técnicas com o propósito de recuperar modelos que representem precisamente um objeto ou um cenário em três dimensões, enfatizando características de interesse como, por exemplo, a forma, a textura ou a estrutura. O cerne de algoritmos de Struture from Motion (SfM), que é um tipo de técnica de reconstrução 3D bastante promissor, visa a obtenção da geometria 3D da cena a partir de um conjunto de imagens bidimensionais, além da posição e orientação da câmera no momento da captura. Para cada par de imagens é possível estimar a profundidade de um ponto conhecendo-se os parâmetros intrínsecos e extrínsecos da câmera e as coordenadas bidimensionais referentes a um mesmo ponto em cada foto, apesar de não ser possível determinar o tamanho real do objeto. Além disso, cada par de imagens produz uma reconstrução em um sistema de coordenadas distinto. Portanto, devido a essa falta de escala uniforme e das câmeras estarem em bases diferentes, é necessária a utilização de algoritmos que levem as câmeras para uma mesma base de referência, ou seja, que alinhem as câmeras e que criem uma reconstrução completa, pois, há pontos em algumas imagens que não são contemplados por outras. Esta dissertação de mestrado descreve os esforços empregados na investigação dos principais algoritmos de alinhamento, sua implementação e o aperfeiçoamento dos mesmos quando necessário, além de identificar o quão preciso é cada método. Entre as técnicas propostas na literatura foram utilizadas quatro abordagens, uma baseada na composição das matrizes de pose, duas baseadas na matriz de homografia e uma na correspondência entre os pontos 2D e os pontos 3D. Cada algoritmo se baseia em diferentes técnicas que resultam em matrizes de câmera distintas que ao serem fatoradas definem uma translação e a rotação semelhante. A fim de melhorar a precisão dos resultados gerados, foi utilizado o Sparse Bundle Adjustment (SBA) ao final de cada método. Para analisar os algoritmos, foi definida uma metodologia de comparação com métricas que avaliam os resultados não só qualitativamente como quantitativamente. Os critérios propostos foram a comparação dos pontos reconstruídos com o ground-truth, a análise dos erros de projeção e epipolar, as poses das câmeras e o tempo de execução. A metodologia foi aplicada tanto para dados sintéticos quanto para dados reais e, todos obtiveram resultados visualmente coerentes. Porém, a técnica de 2D3D se mostrou com resultados mais precisos

Page generated in 0.0903 seconds