• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 126
  • 81
  • Tagged with
  • 207
  • 207
  • 141
  • 141
  • 63
  • 42
  • 42
  • 33
  • 27
  • 21
  • 21
  • 21
  • 21
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

A new 3D shape descriptor based on depth complexity and thickness information / Um novo descritor de formas 3D baseado em informações de depth complexity e thickness

Schmitt, Wagner January 2015 (has links)
Modelos geométricos desempenham um papel fundamental em divérsas áreas, desde a indústria do entretenimento até aplicações científicas. Para reduzir o elevado custo de criação de um modelo 3D, a reutilização de modelos existentes é a solução ideal. Recuperação de modelos 3D utilizam técnicas baseadas em conteúdo (do inglês CBR) que auxiliam a busca de modelos desejados em repositórios massivos, muitos disponíveis publicamente na Internet. Pontos principais para técnicas CBR eficientes e eficazes são descritores de forma que capturam com precisão as características de uma forma 3D e são capazes de discriminar entre diferentes formas. Nós apresentamos um descritor com base na distribuição de duas características globais, extraídas de uma forma 3D, depth complexity e thickness, que, respectivamente, capturam aspectos da topologia e da geometria das formas 3D. O descritor final, chamado DCT (depth complexity and thickness histogram), é um histograma 2D invariante a translações, rotações e escalas das formas geométricas. Nós eficientemente implementamos o DCT na GPU, permitindo sua utilização em consultas em tempo real em grandes bases de dados de modelos 3D. Nós validamos o DCT com as Princeton e Toyohashi Forma Benchmarks, contendo 1815 e 10000 modelos respectivamente. Os resultados mostram que DCT pode discriminar classes significativas desses benchmarks, é rápido e robusto contra transformações de forma e diferentes níveis de subdivisão e suavidade dos modelos. / Geometric models play a vital role in several fields, from the entertainment industry to scientific applications. To reduce the high cost of model creation, reusing existing models is the solution of choice. Model reuse is supported by content-based shape retrieval (CBR) techniques that help finding the desired models in massive repositories, many publicly available on the Internet. Key to efficient and effective CBR techniques are shape descriptors that accurately capture the characteristics of a shape and are able to discriminate between different shapes. We present a descriptor based on the distribution of two global features measured on a 3D shape, depth complexity and thickness, which respectively capture aspects of the geometry and topology of 3D shapes. The final descriptor, called DCT (depth complexity and thickness histogram), is a 2D histogram that is invariant to the translation, rotation and scale of geometric shapes. We efficiently implement the DCT on the GPU, allowing its use in real-time queries of large model databases. We validate the DCT with the Princeton and Toyohashi Shape Benchmarks, containing 1815 and 10000 models respectively. Results show that DCT can discriminate meaningful classes of these benchmarks, and is fast to compute and robust against shape transformations and different levels of subdivision and smoothness.
72

Video view interpolation using temporally adaptive 3D meshes / Interpolação de vistas em video utilizando malhas 3D adaptativas

Fickel, Guilherme Pinto January 2015 (has links)
Esta tese apresenta um novo método para interpolação de vistas em vídeos usando câmeras ao longo de um baseline baseado em uma triangulação 2D. A imagem de referência é primeiramente particionada em regiões triangulares usando informação de bordas e escala, visando colocar vértices ao longo das bordas da imagem e aumentar o número de triângulos em regiões texturadas. Um algoritmo de casamento de regiões é então usado para encontrar a disparidade inicial de cada triângulo, e uma etapa de refinamento é aplicada para mudar a disparidade nos vértices dos triângulos, gerando um mapa de disparidade linear em trechos. Uma simples etapa de pós-processamento é aplicada para conectar os triângulos com disparidade semelhante, gerando uma malha 3D relacionada a cada câmera, que são usadas para gerar novas vistas sintéticas ao longo do mesmo baseline das câmeras. Para gerar vistas com menos artefatos temporais (flickering), foi proposta uma abordagem para atualizar a malha 3D inicial dinamicamente, movendo, removendo e inserindo vértices a cada quadro baseado no fluxo óptico. Esta abordagem permite relacionar triângulos da malha ao longo do tempo, e uma combinação de Modelo Oculto de Markov, aplicado nos triângulos que persistem ao longo do tempo, com Filtro de Kalman, aplicado nos vértices, permite a geração de uma mapa de disparidade com coerência temporal. Com a abordagem proposta, o processo de gerar vistas interpoladas se reduz à trivial tarefa de renderizar uma malha poligonal, algo que pode ser feito muito rapidamente, principalmente quando placas gráficas são utilizadas. Além disso, as vistas geradas não possuem buracos, diferente de muitas técnicas de interpolação de vistas baseadas em pixels que requerem procedimentos de pós-processamento para preencher buracos. Os resultados experimentais indicam que a abordagem proposta foi capaz de gerar vistas interpoladas visualmente coerentes em vídeos desafiadores, com luz natural e movimento de câmera. Além disso, uma avaliação quantitativa usando métricas de qualidade de vídeos mostrou que as sequências de video interpoladas são melhores que abordagens competitivas. / This thesis presents a new method for video view interpolation using multiview linear camera arrays based on 2D domain triangulation. The domain of the reference image is initially partitioned into triangular regions using edge and scale information, aiming to place vertices along image edges and to increase the number of triangles in textured regions. A region-based matching algorithm is then used to find an initial disparity for each triangle, and a refinement stage is applied to change the disparity at the vertices of the triangles, generating a piecewise linear disparity map. A simple post-processing procedure is applied to connect the triangles with similar disparities, generating a full 3D mesh related to each camera (view), which are used to generate the new synthesized views along the cameras baseline. In order to generate views with less temporal flickering artifacts, we propose a scheme to update the initial 3D mesh dynamically, by moving, deleting and inserting vertices at each frame based on optical flow. This approach allows to relate triangles of the mesh across time, and a combination of Hidden Markov Models (HMMs), applied to time-persistent triangles, with the Kalman Filter, applied to vertices, so that temporal consistency can also be obtained. With the proposed framework, view interpolation reduces to the trivial task of rendering polygonal meshes, which can be done very fast, particularly when GPUs are employed. Furthermore, the generated views are hole-free, unlike most point-based view interpolation schemes that require some kind of post-processing procedures to fill holes. Experimental results indicate that our approach was able to generate visually coherent in-between interpolated views for challenging, real-world videos with natural lighting and camera movement.
73

Descritor de forma 2D baseado em redes complexas e teoria espectral de grafos / 2D shape descriptor based on complex network and spectral graph theory

Oliveira, Alessandro Bof de January 2016 (has links)
A identificação de formas apresenta inúmeras aplicações na área de visão computacional, pois representa uma poderosa ferramenta para analisar as características de um objeto. Dentre as aplicações, podemos citar como exemplos a interação entre humanos e robôs, com a identificação de ações e comandos, e a análise de comportamento para vigilância com a biometria não invasiva. Em nosso trabalho nós desenvolvemos um novo descritor de formas 2D baseado na utilização de redes complexas e teoria espectral de grafos. O contorno da forma de um objeto é representado por uma rede complexa, onde cada ponto pertencente a forma será representado por um vértice da rede. Utilizando uma dinâmica gerada artificialmente na rede complexa, podemos definir uma série de matrizes de adjacência que refletem a dinâmica estrutural da forma do objeto. Cada matriz tem seu espectro calculado, e os principais autovalores são utilizados na construção de um vetor de características. Esse vetor, após aplicar as operações de módulo e normalização, torna-se nossa assinatura espectral de forma. Os principais autovalores de um grafo estão relacionados com propriedades topológicas do mesmo, o que permite sua utilização na descrição da forma de um objeto. Para validar nosso método, nós realizamos testes quanto ao seu comportamento frente a transformações de rotação e escala e estudamos seu comportamento quanto à contaminação das formas por ruído Gaussiano e quanto ao efeito de oclusões parciais. Utilizamos diversas bases de dados comumente utilizadas na literatura de análise de formas para averiguar a eficiência de nosso método em tarefas de recuperação de informação. Concluímos o trabalho com a análise qualitativa do comportamento de nosso método frente a diferentes curvas e estudando uma aplicação na análise de sequências de caminhada. Os resultados obtidos em comparação aos outros métodos mostram que nossa assinatura espectral de forma apresenta bom resultados na precisão de recuperação de informação, boa tolerância a contaminação das formas por ruído e oclusões parciais, e capacidade de distinguir ações humanas e identificar os ciclos de uma sequência de caminhada. / The shape is a powerful feature to characterize an object and the shape analysis has several applications in computer vision area. We can cite the interaction between human and robots, surveillance, non-invasive biometry and human actions identifications among other applications. In our work we have developed a new 2d shape descriptor based on complex network and spectral graph theory. The contour shape of an object is represented by a complex network, where each point belonging shape is represented by a vertex of the network. A set of adjacencies matrices is generated using an artificial dynamics in the complex network. We calculate the spectrum of each adjacency matrix and the most important eigenvalues are used in a feature vector. This vector, after applying module and normalization operations, becomes our spectral shape signature. The principal eigenvalues of a graph are related to its topological properties. This allows us use eigenvalues to describe the shape of an object. We have used shape benchmarks to measure the information retrieve precision of our method. Besides that, we have analyzed the response of the spectral shape signature under noise, rotation and occlusions situations. A qualitative study of the method behavior has been done using curves and a walk sequence. The achieved comparative results to other methods found in the literature show that our spectral shape signature presents good results in information retrieval tasks, good tolerance under noise and partial occlusions situation. We present that our method is able to distinguish human actions and identify the cycles of a walk sequence.
74

Reconstrução tridimensional de objetos a partir das projeções de suas secções / Tridimensional objects reconstruction from the projections of theirs sections

Mattos, Patrícia Noll de January 1996 (has links)
Este trabalho trata da reconstrução tomográfica bidimensional e tridimensional, a partir de projeções, visando sua utilização em qualquer aplicação que necessite do volume completo do objeto em questão ou que necessite das imagens adquiridas dos- objetos projetados. Propicie-se utilizar um dos métodos pelo qual a tomografia Computadorizada gera as fatias bidimensionais do corpo exposto, expandindo-o para a terceira dimensão. Para tornar isto possível, é necessário o estudo de métodos de reconstrução-bidimensional, bem como a implementação de um deles. E desenvolvido, então, um estudo sobre os conceitos da tomografia computadorizada, seus diferentes tipos, contendo, os métodos de reconstruçãobidimensional utilizado por elas, alem, dos métodos de aquisição das projeções dos objetos a serem reconstruídos. E apresentada uma proposta de trabalho bidimensional, onde será implementado, alem do algoritmo de reconstrução, o processo de aquisição das projeções do objeto em questão, bem como, a modelagem do mesmo. Além, do desenvolvimento de uma proposta de trabalho tridimensional, onde o método de reconstrução bidimensional desenvolvido será expandido para a terceira dimensão e implementado, juntamente com o processo de aquisição dos objetos tridimensionais projetados, bem como, a modelagem dos mesmos. Um protótipo para cada uma destas propostas é gerado, contendo, cada um, a etapa de aquisição das imagens projetadas, e a etapa de reconstrução do objeto. Tanto os resultados da imagem sendo reconstruída, como as imagens adquiridas dos objetos projetados, são Bravados em arquivos. Por fim, é apresentada uma analise dos resultados gerados por estes protótipos, no que diz respeito a convergência de seus algoritmos, e a melhor maneira de utilizá-los, a fim de se obter um melhor resultado. / This paper is about bidimensional and tridimensional tomographic reconstruction working with projections in order to use in any application that needs complete volume of the object used or that needs images of the projected objects acquired. It is used one of the methods by which the computerized tomography generates bidimensional slices of the exposed body expanding it to third dimension. In order to make it possible it was necessary to study bidimensional reconstruction methods, as well as implementing one of them. It is developed a study on concepts of computerized tomography, its different types, including bidimensional reconstruction methods used by them, besides the methods used to acquire projections of the objects to be reconstructed. It is presented a proposal of the bidimensional work, where it will be implemented, besides the reconstruction algorithm, the aquisition process of the projection of the meant objects, as well as modelling them. It is also developed a proposal of a tridimensional work, where the bidimensional reconstruction method developed will be implemented and expanded to third dimension as well as the process of aquisition of the tridimensionals projected objects as well as modelling them. A prototype of these proposals is generated , containing each one the aquisition step of the projected images and the reconstruction step of the object. The results of the reconstructed image as well as the acquired images of the projected objects are saved in files. Finally it is presented an analysis of the generated results of the prototypes as to the convergence of these algorithms and the best way to use them in order to obtain a better result.
75

Tone mapping reverso de alta qualidade para uma ampla gama de exposições / High-quality reverse tone mapping for awide range of exposures

Kovaleski, Rafael Pacheco January 2013 (has links)
Operadores de tone mapping reverso (RTMOs) realçam imagens e vídeos de baixa faixa dinâmica para visualização em monitores de alta faixa dinâmica. Um problema comum encontrado por operadores anteriores é a maneira com que tratam conteúdo sub ou superexposto. Sob tais condições, eles podem não ser eficientes, e até mesmo causar perda e reversão de contraste visível. Apresentamos uma classe de operadores de tone mapping reverso, baseados no filtro bilateral cruzado (cross bilateral filter), capazes de gerar imagens HDR de alta qualidade. Experimentos utilizando uma métrica objetiva de avaliação de imagens demostram que nosso método é a única técnica capaz de realçar detalhes perceptíveis ao longo de uma grande gama de exposições de imagem, a qual inclui desde imagens subexpostas até imagens superexpostas. / Reverse tone mapping operators (rTMOs) enhance low-dynamic-range images and videos for display on high dynamic range monitors. A common problem faced by previous rTMOs is the handling of under or overexposed content. Under such conditions, they may not be effective, and even cause loss and reversal of visible contrast. We present a class of local rTMOs based on cross bilateral filtering that is capable of generating highquality HDR images and videos for a wide range of exposure conditions. Experiments performed using an objective image quality metric show that our approach is the only single technique available that can gracefully enhance perceived details across a large range of image exposures.
76

Visão computacional : indexação automatizada de imagens / Computer vision : automated indexing of images

Ferrugem, Anderson Priebe January 2004 (has links)
O avanço tecnológico atual está permitindo que as pessoas recebam cada vez mais informações visuais dos mais diferentes tipos, nas mais variadas mídias. Esse aumento fantástico está obrigando os pesquisadores e as indústrias a imaginar soluções para o armazenamento e recuperação deste tipo de informação, pois nossos computadores ainda utilizam, apesar dos grandes avanços nessa área, um sistema de arquivos imaginado há décadas, quando era natural trabalhar com informações meramente textuais. Agora, nos deparamos com novos problemas: Como encontrar uma paisagem específica em um banco de imagens, em que trecho de um filme aparece um cavalo sobre uma colina, em que parte da fotografia existe um gato, como fazer um robô localizar um objeto em uma cena, entre outras necessidades. O objetivo desse trabalho é propor uma arquitetura de rede neural artificial que permita o reconhecimento de objetos genéricos e de categorias em banco de imagens digitais, de forma que se possa recuperar imagens específicas a partir da descrição da cena fornecida pelo usuário. Para que esse objetivo fosse alcançado, foram utilizadas técnicas de Visão Computacional e Processamento de Imagens na etapa de extração de feições de baixo nível e de Redes Neurais(Mapas Auto-Organizáveis de Kohonen) na etapa de agrupamento de classes de objetos. O resultado final desse trabalho pretende ser um embrião para um sistema de reconhecimento de objetos mais genérico, que possa ser estendido para a criação de indices de forma automática ou semi-automática em grandes bancos de imagens. / The current technological progress allows people to receive more and more visual information of the most different types, in different medias. This huge augmentation of image availability forces researchers and industries to propose efficient solutions for image storage and recovery. Despite the extraordinary advances in computational power, the data files system remain the same for decades, when it was natural to deal only with textual information. Nowadays, new problems are in front of us in this field. For instance, how can we find an specific landscape in a image database, in which place of a movie there is a horse on a hill, in which part of a photographic picture there is a cat, how can a robot find an object in a scene, among other queries. The objective of this work is to propose an Artificial Neural Network (ANN) architecture that performs the recognition of generic objects and object’s categories in a digital image database. With this implementation, it becomes possible to do image retrieval through the user´s scene description. To achieve our goal, we have used Computer Vision and Image Processing techniques in low level features extraction and Neural Networks (namely Kohonen’s Self-Organizing Maps) in the phase of object classes clustering. The main result of this work aims to be a seed for a more generic object recognition system, which can be extended to the automatic or semi-automatic index creation in huge image databases.
77

A quantum physics approach for simulating agate colors / Uma abordagem quântica para simulação das cores de Ágatas

Gonçalves, Bárbara Bellaver January 2012 (has links)
A simulação de cores corresponde à essência do processo de síntese de imagens realistas. Em se tratando de minerais, a presença de uma dada impureza, ou uma variação de sua concentração, pode fazer com que alguns materiais sofram alterações dramáticas em suas cores. Por exemplo, enquanto o quartzo puro é transparente, a ametista é um tipo violeta de quartzo, cuja cor é determinada pela presença de traços de ferro. A quantidade de ferro define o matiz percebido. A cor apresentada por um mineral pode ser determinada com base no seu espectro de absorção. No entanto, a definição de todas as variações possíveis é impraticável e, portanto, tal informação está disponível apenas para um subconjunto dos minerais existentes. Esta dissertação apresenta uma proposta para estimar a cor de ágatas, bem como para simular as cores de ágatas sintéticas (inexistentes). A abordagem utilizada baseia-se nos fundamentos da teoria quântica, e parte de uma descrição da molécula de sílica que se deseja simular. À esta, pode-se adicionar quantidades diferentes de impurezas e alterar o número de átomos incluídos na simulação. O resultado obtido é o espectro de absorção do mineral, que pode então ser utilizado para determinar a cor da ágata com a composição desejada. Embora uma simulação detalhada de todo o processo seja uma tarefa computacionalmente extremamente cara, esta dissertação apresenta alguns resultados que corroboram com a correção da solução proposta. Também é apresentada uma técnica independente que pode ser utilizada para definir um volume de ágata com base em uma imagem 2D. / Color simulation is the essence of realistic image synthesis. In the case of minerals, the presence of a given impurity, or a variation of its concentration, can cause some materials to experience dramatic changes in color. For instance, while pure quartz is transparent, amethyst is a violet type of quartz, whose color is determined by the presence of traces of iron. The amount of iron defines the perceived hue. The color presented by a mineral can be determined based on its absorption spectrum. However, defining all possible variations is impractical and, therefore, such information is available only for a subset of the existing minerals. This thesis presents an approach for simulating the colors of existent agates, as well as for predicting the colors for (non-existent) synthetic ones. The approach is based on the fundamentals of quantum theory, and starts with the description of the silica molecule one wants to simulate. One can add different amounts of impurities, and alter the number of atoms included in the simulation. The obtained result is the absorption spectra of the mineral, which can then be used for determining the color of the agate with the desired composition. Although a detailed simulation of the entire process is extremely computationally-expensive, the thesis presents some results that corroborate the correctness of the proposed solution. It also introduces a standalone technique for defining agate volumes based on 2D images of agates.
78

Analise dos efeitos de falhas transientes no conjunto de banco de registradores em unidades gráficas de processamento / Evaluation of transient fault effect in the register files of graphics processing units

Nedel, Werner Mauricio January 2015 (has links)
Unidades gráficas de processamento, mais conhecidas como GPUs (Graphics Processing Unit), são dispositivos que possuem um grande poder de processamento paralelo com respectivo baixo custo de operação. Sua capacidade de simultaneamente manipular grandes blocos de memória a credencia a ser utilizada nas mais variadas aplicações, tais como processamento de imagens, controle de tráfego aéreo, pesquisas acadêmicas, dentre outras. O termo GPGPUs (General Purpose Graphic Processing Unit) designa o uso de GPUs utilizadas na computação de aplicações de uso geral. A rápida proliferação das GPUs com ao advento de um modelo de programação amigável ao usuário fez programadores utilizarem essa tecnologia em aplicações onde confiabilidade é um requisito crítico, como aplicações espaciais, automotivas e médicas. O crescente uso de GPUs nestas aplicações faz com que novas arquiteturas deste dispositivo sejam propostas a fim de explorar seu alto poder computacional. A arquitetura FlexGrip (FLEXible GRaphIcs Processor) é um exemplo de GPGPU implementada em FPGA (Field Programmable Gate Array), sendo compatível com programas implementados especificamente para GPUs, com a vantagem de possibilitar a customização da arquitetura de acordo com a necessidade do usuário. O constante aumento da demanda por tecnologia fez com que GPUs de última geração sejam fabricadas em tecnologias com processo de fabricação de até 28nm, com frequência de relógio de até 1GHz. Esse aumento da frequência de relógio e densidade de transistores, combinados com a redução da tensão de operação, faz com que os transistores fiquem mais suscetíveis a falhas causadas por interferência de radiação. O modelo de programação utilizado pelas GPUs faz uso de constantes acessos a memórias e registradores, tornando estes dispositivos sensíveis a perturbações transientes em seus valores armazenados. Estas perturbações são denominadas Single Event Upset (SEU), ou bit-flip, e podem resultar em erros no resultado final da aplicação. Este trabalho tem por objetivo apresentar um modelo de injeção de falhas transientes do tipo SEU nos principais bancos de registradores da GPGPU Flexgrip, avaliando o comportamento da execução de diferentes algoritmos em presença de SEUs. O impacto de diferentes distribuições de recursos computacionais da GPU em sua confiabilidade também é abordado. Resultados podem indicar maneiras eficientes de obter-se confiabilidade explorando diferentes configurações de GPUs. / Graphic Process Units (GPUs) are specialized massively parallel units that are widely used due to their high computing processing capability with respective lower costs. The ability to rapidly manipulate high amounts of memory simultaneously makes them suitable for solving computer-intensive problems, such as analysis of air traffic control, academic researches, image processing and others. General-Purpose Graphic Processing Units (GPGPUs) designates the use of GPUs in applications commonly handled by Central Processing Units (CPUs). The rapid proliferation of GPUs due to the advent of significant programming support has brought programmers to use such devices in safety critical applications, like automotive, space and medical. This crescent use of GPUs pushed developers to explore its parallel architecture and proposing new implementations of such devices. The FLEXible GRaphics Processor (FlexGrip) is an example of GPGPU optimized for Field Programmable Arrays (FPGAs) implementation, fully compatible with GPU’s compiled programs. The increasing demand for computational has pushed GPUs to be built in cuttingedge technology down to 28nm fabrication process for the latest NVIDIA devices with operating clock frequencies up to 1GHz. The increases in operating frequencies and transistor density combined with the reduction of voltage supplies have made transistors more susceptible to faults caused by radiation. The program model adopted by GPUs makes constant accesses to its memories and registers, making this device sensible to transient perturbations in its stored values. These perturbations are called Single Event Upset (SEU), or just bit-flip, and might cause the system to experience an error. The main goal of this work is to study the behavior of the GPGPU FlexGrip under the presence of SEUs in a range of applications. The distribution of computational resources of the GPUs and its impact in the GPU confiability is also explored, as well as the characterization of the errors observed in the fault injection campaigns. Results can indicate efficient configurations of GPUs in order to avoid perturbations in the system under the presence of SEUs.
79

Síntese de vistas em depht-image-based rendering (DIBR) / View synthesis with depth-image-based rendering (DIBR)

Oliveira, Adriano Quilião de January 2016 (has links)
Esta dissertação investiga soluções para o problema genérico de geração de vistas sintéticas a partir de um conjunto de imagens utilizando a abordagem Depth-Image-Based Rendering. Essa abordagem utiliza um formato compacto para a representação de imagens 3D, composto basicamente por duas imagens, uma colorida para a vista de referência e outra em tons de cinza com a correspondência de disparidade para cada pixel. Soluções para esse problema beneficiam aplicações como Free Viewpoint Television. O maior desafio é o preenchimento de regiões sem informação de projeção considerando o novo ponto de vista, genericamente denominados holes, além de outros artefatos como cracks e ghosts que ocorrem por oclusões e erros no mapa de disparidade. Nesta dissertação apresentamos técnicas para remoção e tratamento de cada uma das classes de potenciais artefatos. O conjunto de métodos propostos apresenta melhores resultados quando comparado com o atual estado da arte em geração de vistas sintéticas com o modelo DIBR para o conjunto de dados Middlebury, considerando-se as métricas SSIM e PSNR. / This dissertation investigates solutions to the general problem of generating synthetic views from a set of images using the Depth-Image-Based Rendering approach. This approach uses a compact format for the 3D image representation, composed basically of two images, one color image for the reference view and other grayscale image with the disparity information available for each pixel. Solutions to this problem benefit applications such as Free Viewpoint Television. The biggest challenge is filling in regions without projection information considering the new viewpoint, usually called holes, and other artifacts such as cracks and ghosts that occur due to occlusions and errors in the disparity map. In this dissertation we present techniques for removal and treatment of each of these classes of potential artifacts. The set of proposed methods shows improved results when compared to the current state of the art generation of synthetic views using the DIBR model applied to the Middlebury dataset, considering the SSIM and PSNR metrics.
80

Construção de ilustrações com linhas de contorno / Construction of contour illustrations

Medeiros, Jonatas da Câmara January 2016 (has links)
Para criar representações do mundo real, ilustradores utilizam técnicas baseadas em princípios perceptuais para criar efeitos e comunicar informação de maneira eficiente e elegante. Nos últimos anos, essas técnicas têm sido adotadas na computação gráfica para melhorar a visualização de dados científicos. Os ilustradores tradicionais conseguem compor imagens utilizando apenas linhas, gerando representações limpas e simples e com grande poder de comunicar forma. Apesar de alguns trabalhos tentarem reproduzir os efeitos das ilustrações tradicionais com linhas, os princípios perceptuais utilizados pelos artistas ainda não foram bem explorados. Esses princípios são importantes para gerar uma imagem fácil de interpretar, sem ambigüidades e criar efeitos como focos de atenção, sombreamento, noção de profundidade, etc. Este trabalho explora as técnicas utilizadas pelos ilustradores profissionais na criação de visualizações digitais, propondo a adaptação de um método chamado perspective contouring, utilizado para criar focos de atenção em ilustrações baseadas em linhas de contorno. O sistema de ilustração desenvolvido utiliza uma interface baseada em esboço para a definição das regiões de interesse, onde se quer dar ênfase, para determinação de curvas de eixo do modelo e para o desenho de curvas de controle dos atributos das linhas de desenho, como espessura e espaçamento. A título de resultado, são apresentadas comparações de imagens criadas por um ilustrador profissional e imagens criadas pelo sistema desenvolvido. / To create representations of the real world, illustrators use techniques based on perceptual principles to create effects and communicate information in an efficient and elegant manner. In the last years, these techniques have been adopted in computer graphics to improve the visualization of scientific data. Traditional illustrators can compose images using only lines, creating representations that are clean, simple and are suitable to communicate form. Although some works try to reproduce the effects of traditional line illustration, the perceptual principles used by artists are not fully explored. These principles are important to create an image that is easy to interpret and has no ambiguity, and also to create effects like focus of attention, shading, depth perception, etc. In this work, we aim at exploring the techniques used by professional illustrators in the creation of digital visualizations, by proposing the adaptation of a method called perspective contouring, used to create focus of attention in contour lines illustrations. We implemented an illustration system that uses a sketch-based interface to define the regions of interest, where the emphasis is desirable, to create axis curves for the model, and to draw curves that control line attributes like width and spacing. As results, we present a comparison of images by a professional illustrator and images created with the developed system.

Page generated in 0.1369 seconds