• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 2
  • Tagged with
  • 24
  • 24
  • 17
  • 14
  • 13
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Implementação paralela do algoritmo iterativo de busca do parâmetro de regularização ótimo para o funcional de Tikhonov no problema de restauração de imagens / Parallel implementation of the iterative algorithm to search the optimal regularization parameter for the Tikhonov functional problem in image restoration

Claudir Oliveira 27 April 2012 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O uso de técnicas com o funcional de Tikhonov em processamento de imagens tem sido amplamente usado nos últimos anos. A ideia básica nesse processo é modificar uma imagem inicial via equação de convolução e encontrar um parâmetro que minimize esse funcional afim de obter uma aproximação da imagem original. Porém, um problema típico neste método consiste na seleção do parâmetro de regularização adequado para o compromisso entre a acurácia e a estabilidade da solução. Um método desenvolvido por pesquisadores do IPRJ e UFRJ, atuantes na área de problemas inversos, consiste em minimizar um funcional de resíduos através do parâmetro de regularização de Tikhonov. Uma estratégia que emprega a busca iterativa deste parâmetro visando obter um valor mínimo para o funcional na iteração seguinte foi adotada recentemente em um algoritmo serial de restauração. Porém, o custo computacional é um fator problema encontrado ao empregar o método iterativo de busca. Com esta abordagem, neste trabalho é feita uma implementação em linguagem C++ que emprega técnicas de computação paralela usando MPI (Message Passing Interface) para a estratégia de minimização do funcional com o método de busca iterativa, reduzindo assim, o tempo de execução requerido pelo algoritmo. Uma versão modificada do método de Jacobi é considerada em duas versões do algoritmo, uma serial e outra em paralelo. Este algoritmo é adequado para implementação paralela por não possuir dependências de dados como de Gauss-Seidel que também é mostrado a convergir. Como indicador de desempenho para avaliação do algoritmo de restauração, além das medidas tradicionais, uma nova métrica que se baseia em critérios subjetivos denominada IWMSE (Information Weighted Mean Square Error) é empregada. Essas métricas foram introduzidas no programa serial de processamento de imagens e permitem fazer a análise da restauração a cada passo de iteração. Os resultados obtidos através das duas versões possibilitou verificar a aceleração e a eficiência da implementação paralela. A método de paralelismo apresentou resultados satisfatórios em um menor tempo de processamento e com desempenho aceitável. / The use of techniques with the functional of Tikhonov in image processing has been widely used in recent years. The basic idea in this process is to modify an initial image using a convolution equation and to find a parameter which minimizes the function in order to obtain an aproximation of the original image. However, a typical problem in this method consists in the choice of the regularization parameter in the appropriate compromise between accuracy and stability of the solution. A method developed by researchers of IPRJ and UFRJ, operating in the area of inverse problems, consists on minimizing a functional of residues through a functional parameter Tikhonovs regularization. A strategy that uses the iterative search of this parameter aiming at to get a minimum value for the functional in the following iteration was adopted recently in a serial algorithm of restoration. However, the computational cost is a factor problem found when using the iterative search. With this approach, an implementation in C++ language was made using techniques of parallel computation using MPI (Message Passing Interface) for the in the choice of the regularization parameter in the appropriate compromise between accuracy and stability of the soluton with the method of iterative search, thus reducing, the time of execution required for the algorithm. A modified version of the Jacobi method is considered to be two versions of the algorithm, one serial and one parallel. This algorithm is adequate for parallel implementation because it has no data dependencies such as the Gauss-Seidel method is also shown to converge. As indicating of performance for evaluation of the restoration algorithm, in addition to the traditional measures, new metric that is based on subjective criteria called IWMSE (InformationWeighted Mean Square Error) is used. These metrics were introduced in the program of image processing and allow to make the analysis of the restoration to each step of iteration. The results obtained using the two possible versions verify the efficiency of acceleration and the parallel implementation. The method of parallelism achieved satisfactory results in a shorter processing time and with acceptable performance.
12

Graph Laplacian for spectral clustering and seeded image segmentation / Estudo do Laplaciano do grafo para o problema de clusterização espectral e segmentação interativa de imagens

Casaca, Wallace Correa de Oliveira 05 December 2014 (has links)
Image segmentation is an essential tool to enhance the ability of computer systems to efficiently perform elementary cognitive tasks such as detection, recognition and tracking. In this thesis we concentrate on the investigation of two fundamental topics in the context of image segmentation: spectral clustering and seeded image segmentation. We introduce two new algorithms for those topics that, in summary, rely on Laplacian-based operators, spectral graph theory, and minimization of energy functionals. The effectiveness of both segmentation algorithms is verified by visually evaluating the resulting partitions against state-of-the-art methods as well as through a variety of quantitative measures typically employed as benchmark by the image segmentation community. Our spectral-based segmentation algorithm combines image decomposition, similarity metrics, and spectral graph theory into a concise and powerful framework. An image decomposition is performed to split the input image into texture and cartoon components. Then, an affinity graph is generated and weights are assigned to the edges of the graph according to a gradient-based inner-product function. From the eigenstructure of the affinity graph, the image is partitioned through the spectral cut of the underlying graph. Moreover, the image partitioning can be improved by changing the graph weights by sketching interactively. Visual and numerical evaluation were conducted against representative spectral-based segmentation techniques using boundary and partition quality measures in the well-known BSDS dataset. Unlike most existing seed-based methods that rely on complex mathematical formulations that typically do not guarantee unique solution for the segmentation problem while still being prone to be trapped in local minima, our segmentation approach is mathematically simple to formulate, easy-to-implement, and it guarantees to produce a unique solution. Moreover, the formulation holds an anisotropic behavior, that is, pixels sharing similar attributes are preserved closer to each other while big discontinuities are naturally imposed on the boundary between image regions, thus ensuring better fitting on object boundaries. We show that the proposed approach significantly outperforms competing techniques both quantitatively as well as qualitatively, using the classical GrabCut dataset from Microsoft as a benchmark. While most of this research concentrates on the particular problem of segmenting an image, we also develop two new techniques to address the problem of image inpainting and photo colorization. Both methods couple the developed segmentation tools with other computer vision approaches in order to operate properly. / Segmentar uma image é visto nos dias de hoje como uma prerrogativa para melhorar a capacidade de sistemas de computador para realizar tarefas complexas de natureza cognitiva tais como detecção de objetos, reconhecimento de padrões e monitoramento de alvos. Esta pesquisa de doutorado visa estudar dois temas de fundamental importância no contexto de segmentação de imagens: clusterização espectral e segmentação interativa de imagens. Foram propostos dois novos algoritmos de segmentação dentro das linhas supracitadas, os quais se baseiam em operadores do Laplaciano, teoria espectral de grafos e na minimização de funcionais de energia. A eficácia de ambos os algoritmos pode ser constatada através de avaliações visuais das segmentações originadas, como também através de medidas quantitativas computadas com base nos resultados obtidos por técnicas do estado-da-arte em segmentação de imagens. Nosso primeiro algoritmo de segmentação, o qual ´e baseado na teoria espectral de grafos, combina técnicas de decomposição de imagens e medidas de similaridade em grafos em uma única e robusta ferramenta computacional. Primeiramente, um método de decomposição de imagens é aplicado para dividir a imagem alvo em duas componentes: textura e cartoon. Em seguida, um grafo de afinidade é gerado e pesos são atribuídos às suas arestas de acordo com uma função escalar proveniente de um operador de produto interno. Com base no grafo de afinidade, a imagem é então subdividida por meio do processo de corte espectral. Além disso, o resultado da segmentação pode ser refinado de forma interativa, mudando-se, desta forma, os pesos do grafo base. Experimentos visuais e numéricos foram conduzidos tomando-se por base métodos representativos do estado-da-arte e a clássica base de dados BSDS a fim de averiguar a eficiência da metodologia proposta. Ao contrário de grande parte dos métodos existentes de segmentação interativa, os quais são modelados por formulações matemáticas complexas que normalmente não garantem solução única para o problema de segmentação, nossa segunda metodologia aqui proposta é matematicamente simples de ser interpretada, fácil de implementar e ainda garante unicidade de solução. Além disso, o método proposto possui um comportamento anisotrópico, ou seja, pixels semelhantes são preservados mais próximos uns dos outros enquanto descontinuidades bruscas são impostas entre regiões da imagem onde as bordas são mais salientes. Como no caso anterior, foram realizadas diversas avaliações qualitativas e quantitativas envolvendo nossa técnica e métodos do estado-da-arte, tomando-se como referência a base de dados GrabCut da Microsoft. Enquanto a maior parte desta pesquisa de doutorado concentra-se no problema específico de segmentar imagens, como conteúdo complementar de pesquisa foram propostas duas novas técnicas para tratar o problema de retoque digital e colorização de imagens.
13

Restauração de imagens de microscopia de força atômica com uso da regularização de Tikhonov via processamento em GPU / Image restoration from atomic force microscopy using the Tikhonov regularization via GPU processing

Augusto Garcia Almeida 04 March 2013 (has links)
A Restauração de Imagens é uma técnica que possui aplicações em várias áreas, por exemplo, medicina, biologia, eletrônica, e outras, onde um dos objetivos da restauração de imagens é melhorar o aspecto final de imagens de amostras que por algum motivo apresentam imperfeições ou borramentos. As imagens obtidas pelo Microscópio de Força Atômica apresentam borramentos causados pela interação de forças entre a ponteira do microscópio e a amostra em estudo. Além disso apresentam ruídos aditivos causados pelo ambiente. Neste trabalho é proposta uma forma de paralelização em GPU de um algoritmo de natureza serial que tem por fim a Restauração de Imagens de Microscopia de Força Atômica baseado na Regularização de Tikhonov. / Image Restoration is a technique which has applications in several areas, e.g., medicine, biology, electronics, and others, where one of the goals is to improve the final appearance of the images of samples, that have for some reason, imperfections or blurring. The images obtained by Atomic Force Microscope have blurring caused by the interaction forces between the tip of the microscope and the sample under study. Moreover exhibit additive noise caused by the environment. This thesis proposes a way to make a parallelization on a GPU of a serial algorithm of which is a Image Restoration of Images from Atomic Force Microscopy using Tikhonov Regularization.
14

Estudo de métodos numéricos para eliminação de ruídos em imagens digitais

D'Ippólito, Karina Miranda [UNESP] 25 February 2005 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:26:56Z (GMT). No. of bitstreams: 0 Previous issue date: 2005-02-25Bitstream added on 2014-06-13T20:27:30Z : No. of bitstreams: 1 dippolito_km_me_sjrp.pdf: 838424 bytes, checksum: 9eb5d64b517c6606a595f44d889f6cd5 (MD5) / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / O objetivo deste trabalho þe apresentar um estudo sobre a aplicação de métodos numéricos para a resolução do modelo proposto por Barcelos, Boaventura e Silva Jr. [7], para a eliminação de ruídos em imagens digitais por meio de uma equação diferencial parcial, e propor uma anþalise da estabilidade do mþetodo iterativo comumente aplicado a este modelo. Uma anþalise comparativa entre os vários mþetodos abordados þe realizada atravþes de resultados experimentais em imagens sintéticas e imagens da vida real. / The purpose of this work is to present a study on the application of numerical methods for the resolution of model considered by Barcelos, Boaventura and Silva Jr [7], for image denoising through a partial di erential equation, and to consider a stability analysis of an iterative method usually applied to this model. A comparative analysis among various considered methods is carried out through experimental results for synthetic and real images.
15

Restauração de imagens de microscopia de força atômica com uso da regularização de Tikhonov via processamento em GPU / Image restoration from atomic force microscopy using the Tikhonov regularization via GPU processing

Augusto Garcia Almeida 04 March 2013 (has links)
A Restauração de Imagens é uma técnica que possui aplicações em várias áreas, por exemplo, medicina, biologia, eletrônica, e outras, onde um dos objetivos da restauração de imagens é melhorar o aspecto final de imagens de amostras que por algum motivo apresentam imperfeições ou borramentos. As imagens obtidas pelo Microscópio de Força Atômica apresentam borramentos causados pela interação de forças entre a ponteira do microscópio e a amostra em estudo. Além disso apresentam ruídos aditivos causados pelo ambiente. Neste trabalho é proposta uma forma de paralelização em GPU de um algoritmo de natureza serial que tem por fim a Restauração de Imagens de Microscopia de Força Atômica baseado na Regularização de Tikhonov. / Image Restoration is a technique which has applications in several areas, e.g., medicine, biology, electronics, and others, where one of the goals is to improve the final appearance of the images of samples, that have for some reason, imperfections or blurring. The images obtained by Atomic Force Microscope have blurring caused by the interaction forces between the tip of the microscope and the sample under study. Moreover exhibit additive noise caused by the environment. This thesis proposes a way to make a parallelization on a GPU of a serial algorithm of which is a Image Restoration of Images from Atomic Force Microscopy using Tikhonov Regularization.
16

Graph Laplacian for spectral clustering and seeded image segmentation / Estudo do Laplaciano do grafo para o problema de clusterização espectral e segmentação interativa de imagens

Wallace Correa de Oliveira Casaca 05 December 2014 (has links)
Image segmentation is an essential tool to enhance the ability of computer systems to efficiently perform elementary cognitive tasks such as detection, recognition and tracking. In this thesis we concentrate on the investigation of two fundamental topics in the context of image segmentation: spectral clustering and seeded image segmentation. We introduce two new algorithms for those topics that, in summary, rely on Laplacian-based operators, spectral graph theory, and minimization of energy functionals. The effectiveness of both segmentation algorithms is verified by visually evaluating the resulting partitions against state-of-the-art methods as well as through a variety of quantitative measures typically employed as benchmark by the image segmentation community. Our spectral-based segmentation algorithm combines image decomposition, similarity metrics, and spectral graph theory into a concise and powerful framework. An image decomposition is performed to split the input image into texture and cartoon components. Then, an affinity graph is generated and weights are assigned to the edges of the graph according to a gradient-based inner-product function. From the eigenstructure of the affinity graph, the image is partitioned through the spectral cut of the underlying graph. Moreover, the image partitioning can be improved by changing the graph weights by sketching interactively. Visual and numerical evaluation were conducted against representative spectral-based segmentation techniques using boundary and partition quality measures in the well-known BSDS dataset. Unlike most existing seed-based methods that rely on complex mathematical formulations that typically do not guarantee unique solution for the segmentation problem while still being prone to be trapped in local minima, our segmentation approach is mathematically simple to formulate, easy-to-implement, and it guarantees to produce a unique solution. Moreover, the formulation holds an anisotropic behavior, that is, pixels sharing similar attributes are preserved closer to each other while big discontinuities are naturally imposed on the boundary between image regions, thus ensuring better fitting on object boundaries. We show that the proposed approach significantly outperforms competing techniques both quantitatively as well as qualitatively, using the classical GrabCut dataset from Microsoft as a benchmark. While most of this research concentrates on the particular problem of segmenting an image, we also develop two new techniques to address the problem of image inpainting and photo colorization. Both methods couple the developed segmentation tools with other computer vision approaches in order to operate properly. / Segmentar uma image é visto nos dias de hoje como uma prerrogativa para melhorar a capacidade de sistemas de computador para realizar tarefas complexas de natureza cognitiva tais como detecção de objetos, reconhecimento de padrões e monitoramento de alvos. Esta pesquisa de doutorado visa estudar dois temas de fundamental importância no contexto de segmentação de imagens: clusterização espectral e segmentação interativa de imagens. Foram propostos dois novos algoritmos de segmentação dentro das linhas supracitadas, os quais se baseiam em operadores do Laplaciano, teoria espectral de grafos e na minimização de funcionais de energia. A eficácia de ambos os algoritmos pode ser constatada através de avaliações visuais das segmentações originadas, como também através de medidas quantitativas computadas com base nos resultados obtidos por técnicas do estado-da-arte em segmentação de imagens. Nosso primeiro algoritmo de segmentação, o qual ´e baseado na teoria espectral de grafos, combina técnicas de decomposição de imagens e medidas de similaridade em grafos em uma única e robusta ferramenta computacional. Primeiramente, um método de decomposição de imagens é aplicado para dividir a imagem alvo em duas componentes: textura e cartoon. Em seguida, um grafo de afinidade é gerado e pesos são atribuídos às suas arestas de acordo com uma função escalar proveniente de um operador de produto interno. Com base no grafo de afinidade, a imagem é então subdividida por meio do processo de corte espectral. Além disso, o resultado da segmentação pode ser refinado de forma interativa, mudando-se, desta forma, os pesos do grafo base. Experimentos visuais e numéricos foram conduzidos tomando-se por base métodos representativos do estado-da-arte e a clássica base de dados BSDS a fim de averiguar a eficiência da metodologia proposta. Ao contrário de grande parte dos métodos existentes de segmentação interativa, os quais são modelados por formulações matemáticas complexas que normalmente não garantem solução única para o problema de segmentação, nossa segunda metodologia aqui proposta é matematicamente simples de ser interpretada, fácil de implementar e ainda garante unicidade de solução. Além disso, o método proposto possui um comportamento anisotrópico, ou seja, pixels semelhantes são preservados mais próximos uns dos outros enquanto descontinuidades bruscas são impostas entre regiões da imagem onde as bordas são mais salientes. Como no caso anterior, foram realizadas diversas avaliações qualitativas e quantitativas envolvendo nossa técnica e métodos do estado-da-arte, tomando-se como referência a base de dados GrabCut da Microsoft. Enquanto a maior parte desta pesquisa de doutorado concentra-se no problema específico de segmentar imagens, como conteúdo complementar de pesquisa foram propostas duas novas técnicas para tratar o problema de retoque digital e colorização de imagens.
17

Métodos numéricos para o retoque digital

Santos, Claudia Augusta dos [UNESP] 25 February 2005 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:26:56Z (GMT). No. of bitstreams: 0 Previous issue date: 2005-02-25Bitstream added on 2014-06-13T19:47:24Z : No. of bitstreams: 1 santos_ca_me_sjrp.pdf: 757765 bytes, checksum: bd1f77ee4f0f4cdebfc0a29af4d9bc39 (MD5) / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / O objetivo deste trabalho þe aplicar Mþetodos Numþericos de ordem de precisão mais alta ao problema de Retoque Digital, visando melhorar a qualidade da aproximação quando comparada com o Método de Euler, que þe geralmente utilizado para esse tipo de problema. Para testar a eficiência de tais métodos, utilizamos três modelos de Retoque Digital: o modelo proposto por Bertalmþýo, Sapiro, Ballester e Caselles (BSBC), o modelo de Rudin, Osher e Fatemi conhecido como Variacional Total (TV) e o modelo de Chan e Shen, chamado de Difusão Guiada pela Curvatura (CDD). / The purpose of this work is to apply Numerical Methods of higher order to the problem of Digital Inpainting, aiming to improve the quality of the approach when compared with the Euler s Method which is generally used for this kind of problem. To test the e ciency of these methods we use three models of Digital Inpainting: the model considered by Bertalmþýo, Sapiro, Ballester and Caselles (BSBC), the model of Rudin, Osher and Fatemi known as Total Variation (TV) and the model of Chan and Shen, named Curvature Driven Di usion (CDD)
18

Modelos matemáticos para o retoque digital de imagens

Silva, André Luiz Ortiz da [UNESP] 23 February 2005 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:26:56Z (GMT). No. of bitstreams: 0 Previous issue date: 2005-02-23Bitstream added on 2014-06-13T20:55:45Z : No. of bitstreams: 1 silva_alo_me_sjrp.pdf: 1157182 bytes, checksum: 08ed86b39eb7aa9014461e7988e01266 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Neste trabalho apresentamos conceitos teþoricos fundamentais como os Príncipios da Boa Continuação de Gestalt e da Conectividade de Kanizsa, os quais estão intimamente relacionados `a percepção visual humana estudada por psicólogos. Tais conceitos são muito importantes no contexto do processamento de imagens, principalmente no que se refere ao processo de Retoque Digital de Imagens, influenciando e auxiliando pesquisadores a criar modelos matemáticos que imitem o sistema visual humano, com a intenção de deixar o processo mais real possþývel. Apresentamos também, diversos modelos matemþaticos propostos para solucionar o problema de retoque digital, bem como técnicas para implementação computacional de tais modelos. / In this work we present fundamental theoretical concepts like the Gestalt s Good Continuation Principle and the Kanizsa s Connectivity Principle, which are closely related to human visual perception studied by psychologists. Such concepts are very important in the context of the image processing, mainly in those related to the inpainting process. These concepts are influencing and helping researchers to create mathematical models that imitate the human visual system, with the purpose to make the process as real as possible. We also present, various mathematical models developed to solve the inpainting problem and techniques for the computational implementation of theses models.
19

Proposição e avaliação de indicadores de desempenho para algoritmos de restauração de imagens / Proposition and evaluation of different performance indicators for image processing algorithms

Kamilla Vogas Romualdo 22 August 2006 (has links)
Uma área de intensa atividade de pesquisa em nanotecnologia está relacionada à restauração de imagens obtidas através dos microscópios de força atômica (AFM). Durante o processo de aquisição as imagens de AFM estão sujeitas às limitações impostas pela instrumentação utilizada e costumam apresentar pobres relações sinal/ruído, bem como a manifestação dos efeitos degenerativos relacionados à interação entre o tip e a amostra. Buscando tratar imagens obtidas de estruturas biológicas, tem sido propostos e testados diversos algoritmos de restauração, e nesta dissertação é utilizado um método baseado na Regularização de Tikhonov. Ao longo do desenvolvimento de diversos algoritmos de restauração foi observado que os indicadores matemáticos usuais para avaliação de desempenho não correspondiam à percepção visual relativa às imagens restauradas. Este trabalho propõe e avalia diferentes indicadores de desempenho para algoritmos de restauração utilizados no pósprocessamento de imagens obtidas em escala nanométrica por microscopia de força atômica e imagens artificiais criadas especialmente para testar o indicador de desempenho utilizado. São investigados indicadores usuais empregados em restauração de imagens, sendo também proposta a implementação de indicadores baseado nas distâncias de Bregman. O trabalho foi dividido em duas partes. Primeiramente foi gerado e restaurado um conjunto de imagens utilizando o funcional de regularização de Tikhonov, sendo distribuídas entre 50 pessoas que foram chamadas de avaliadores humanos. A tarefa consistia em avaliar as imagens, procurando identificar o quanto as imagens restauradas se aproximavam das imagens originais, no que se relaciona à visão humana. A segunda parte consistiu na implementação de uma rotina computacional para o cálculo de vários indicadores matemáticos. Posteriormente foi realizada a comparação dos resultados obtidos através dos indicadores matemáticos com a percepção visual dos avaliadores humanos, sendo esta última essencialmente qualitativa, sendo então transformada em uma escala numérica para permitir então a comparação com os indicadores matemáticos. Observou-se que dependendo dos parâmetros utilizados no algoritmo de restauração baseado no funcional de regularização de Tikhonov e dos tipos de imagens restauradas, os indicadores baseados nas Distâncias de Bregman apresentam melhores resultados do que aqueles obtidos com indicadores tradicionais, como por exemplo o erro médio quadrático (MSE Mean Square Error), levando a uma concordância maior destes resultados quando comparados com a avaliação feita pelos avaliadores humanos. / The restoration of images acquired with Atomic Force Microscopes (AFM) consists on a very intense research area in nanotechnology. During the acquisition process the AFM images are subjected to the constraints imposed by the experimental apparatus usually presenting poor signal to noise ratios as well as the effects of tip-sample interaction. In order to process images related to biological structures, several restoration algorithms have been proposed and tested, and in the present dissertation is used a method based in Tikhonovs regularization. Throughout the development of several restoration algorithms it has been observed that the usual performance measures did not correspond to the human visual perception of the restored images. In the present dissertation are proposed and evaluated several performance measures for restoration algorithms used in the post-processing of images acquired in nanoscale with AFM as well as artificial images created in order to test the performance measure used. Usually used performance measures are investigated as well as measures based on Bregman distances. The research was conducted in two parts. First a set of images was generated and restored using Tikhonovs regularization functional, being then distributed to 50 human referees. Their task consisted in evaluating the images in order to grade how close the restored images were to the original images, in respect to human visual perception. The second part of the research consisted in the implementation of a computational program to perform the computation of the mathematical performance measures. Afterwards a comparison was performed of the mathematical performance measures with respect to the visual perception of the human referees, being the latter essentially qualitative which was then transformed in a numerical scale in order to allow the comparison with the mathematical measures. It was observed that depending on the parameters used in the restoration algorithm based in Tikhonovs regularization functional and the type of the restored image, the mathematical performance measures based on Bregman distances present better results than those obtained with other usual performance measures such as the Mean Square Error (MSE) yielding to a better agreement with the evaluation performed by the human referees.
20

Abordagens não-locais para filtragem de ruído Poisson

Bindilatti, André de Andrade 23 May 2014 (has links)
Made available in DSpace on 2016-06-02T19:06:17Z (GMT). No. of bitstreams: 1 6285.pdf: 2877079 bytes, checksum: 80439eede94d8bbebc2443de9d032d34 (MD5) Previous issue date: 2014-05-23 / Universidade Federal de Sao Carlos / A common problem to applications such as positron emission tomography, low-exposure X-ray imaging, fluorescence microscopy, optical and infrared astronomy, and others, is the degradation of the original signal by Poisson Noise. This problem arises in applications in which the image acquisition process is based on counting photons reaching a detector surface during a given exposure time. Recently, a new algorithm for image denoising, called Nonlocal-Means (NLM), was proposed. The NLM algorithm consists of a nonlocal approach that explores the inherent image redundancy for denoising, that is, it explores the principle in which, in natural images, there are similar regions, yet locally disjoint. NLM was originally proposed for additive noise reduction. The goal of this work is to extend the NLM algorithm for Poisson noise filtering. To achieve this goal, symmetric divergences, also known as stochastic distances, have been applied as similarity metrics to the NLM algorithm. Stochastic distances assume a parametric model for the data distribution. Therefore they can accommodate different stochastic noise models. However, knowledge of the model parameters is necessary to calculate the stochastic distances. In this research, estimation and non-local filtering schemes were considered under Poisson noise hypothesis, leading to competitive results with the state of- the-art. / Um problema comum a aplicações como tomografia por emissão de pósitrons, imageamento por baixa exposição de raios-X, microscopia de fluorescência, astronomia ótica ou por infravermelho, dentre outras, é a degradação do sinal original por ruído Poisson. Esse problema surge em aplicações nas quais o processo de aquisição de imagem se baseia na contagem de fótons atingindo a superfície de um detector durante um dado tempo de exposição. Recentemente, um novo algoritmo para a redução de ruído em imagens, chamado Non Local-Means (NLM) foi proposto. O algoritmo NLM consiste em uma abordagem não-local que explora a redundância inerente da imagem para a filtragem de ruído, isto é, explora o principio em que, em imagens naturais existem muitas regiões similares, porém, localmente disjuntas. Essa abordagem foi originalmente proposta para a redução de ruído aditivo. O objetivo deste trabalho foi estender o algoritmo NLM para a filtragem de ruído Poisson, que é dependente de sinal. Para alcançar esse propósito, divergências simétricas, também conhecidas como distâncias estocásticas, foram utilizadas como métricas de similaridade para o algoritmo NLM. Distâncias estocásticas assumem um modelo paramétrico sobre a distribuição dos dados, portanto podem acomodar diferentes modelos estocásticos de ruído. No entanto, conhecimento dos parâmetros de modelo é necessário para o cálculo das distâncias estocásticas. Neste trabalho de pesquisa, esquemas de estimativa e filtragem não-local foram considerados sobre hipótese de ruído Poisson, levando a resultados competitivos com o estado-da-arte.

Page generated in 0.0862 seconds