• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 310
  • 47
  • 45
  • 45
  • 45
  • 31
  • 14
  • 14
  • 13
  • 13
  • 6
  • Tagged with
  • 319
  • 319
  • 314
  • 310
  • 110
  • 99
  • 98
  • 70
  • 59
  • 49
  • 48
  • 42
  • 41
  • 40
  • 39
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Aumento de resolução de imagens de ressonância magnética do trato vocal utilizadas em modelos de síntese articulatória

Martins, Ana Luísa Dine 31 October 2011 (has links)
Made available in DSpace on 2016-06-02T19:02:41Z (GMT). No. of bitstreams: 1 4013.pdf: 3833898 bytes, checksum: 7a490bae6746f0e2b3c0c3472c9fd2b4 (MD5) Previous issue date: 2011-10-31 / Universidade Federal de Minas Gerais / Articulatory Synthesis consists in reproducing speech by means of models of the vocal tract and of articulatory processes. Recent advances in Magnetic Resonance Imaging (MRI) allowed for important improvements with respect to the speech comprehension and the forms taken by the vocal tract. However, one of the main challenges in the field is the fast and at the same time high-quality acquisition of image sequences. Since adopting more powerful acquisition devices might be financially inviable, a more feasible solution proposed in the literature is the resolution enhancement of the images by changes introduced in the acquisition model. This dissertation proposes a method for the spatio-temporal resolution enhancement of the obtained sequences using only digital image processing techniques. The approach involves two stages: (1) the temporal resolution enhancement by means of a motion compensated interpolation technique; and (2) the spatial resolution enhancement by means of a super resolution image reconstruction technique. With respect to the temporal resolution enhancement, two interpolation models are compared: linear interpolation considering two adjacent images and cubic splines interpolation considering four contiguous images. Since both models performed equally in the experiments, the linear interpolation was adopted, for its simplicity and lower computational cost. The initial goal of the spatial resolution enhancement was an extension of the candidate s approach proposed in her master s thesis. Adopting a maximum a posteriori probability approach (MAP), the high-resolution images were modeled using the Markov Random Fields (MRF) Generalized Isotropic Multi-Level Logistic (GIMLL) model and the Iterated Conditional Modes (ICM) algorithm. However, even though the approach has presented promising results, due to the dimension of the target problem, the algorithm presented high computational cost. Considering this limitation, an adaptation of the Wiener filter for the super-resolution reconstruction problem was considered. Inspired by two methods available in the literature, three approaches were proposed: the statistical interpolation, the multi-temporal approach, and the adaptive Wiener filter. In all cases, a separable Markovian model and an isotropic model were compared in the characterization of the spatial correlation structures. These models were used to characterize the correlation and cross correlation of observations for the statistical interpolation and the multi-temporal approach. On the other hand, for the adaptive Wiener filter, these models were used to characterize the a priori spatial correlation. According to the conducted experiments, the isotropic model outperformed the separable Markovian model. Besides, considering all Wiener filter-based approaches and the initial approach based on the GIMLL model, the adaptive Wiener filter outperformed all other approaches and was also faster than a single iteration of the GIMLL-based approach. / A síntese articulatória procura produzir a fala através de modelos do trato vocal e dos processos articulatórios envolvidos. Os avanços no imageamento por ressonância magnética, permitiram que resultados importantes fossem alcançados com relação à fala e à forma do trato vocal. Entretanto um dos principais desafios ainda é a aquisição rápida e de alta qualidade das sequências de imagens. Além da opção de se utilizar meios de aquisição cada vez mais potentes, o que pode ser financeiramente inviável, abordagens propostas na literatura procuram aumentar a resolução modificando o processo de aquisição. Este trabalho propõe o aumento de resolução espaço-temporal das sequências adquiridas utilizando apenas técnicas de processamento de imagens digitais. A abordagem proposta é formada por duas etapas: o aumento de resolução temporal por meio de uma técnica de interpolação por compensação de movimento; e o aumento de resolução espacial por meio de uma técnica de reconstrução de imagens por super resolução. Com relação ao aumento de resolução temporal, dois métodos de interpolação são comparados: interpolação linear considerando duas imagens adjacentes e interpolação por splines cúbicas considerando quatro imagens consecutivas. Como, de acordo com os experimentos desenvolvidos, não existe diferença significativa entre esses dois métodos, a interpolação linear foi adotada por ser um procedimento mais simples e, consequentemente, apresentar menor custo computacional. O objetivo inicial para o aumento de resolução espacial das imagens observadas foi a extensão da abordagem proposta pela aluna em seu projeto de mestrado. Adotando uma abordagem de máxima probabilidade a posteriori (MAP), as imagens de alta resolução foram modeladas utilizando o modelo de campos aleatórios de Markov (MRF) Generalized Isotropic Multi-Level Logistic (GIMLL) e o algoritmo Iterated Conditional Modes (ICM) foi utilizado para maximizar as probabilidades condicionais locais sequencialmente. Entretanto, apesar de ter apresentado resultados promissores, devido à dimensão do problema tratado, o algoritmo ICM apresentou alto custo computacional. Considerando as limitações de performance desse algoritmo, decidiu-se adaptar o filtro de Wiener para o problema da reconstrução por super resolução. Utilizando dois trabalhos encontrados na literatura como inspiração, foram desenvolvidas três abordagens denominadas interpolação estatística, abordagem multitemporal e filtro de Wiener adaptativo. Em todos os casos, um modelo Markoviano separável e um modelo isotrópico foram comparados na caracterização das estruturas de correlação espacial. No caso da interpolação estatística e da abordagem multitemporal esses modelos foram utilizados para caracterizar as estruturas de correlação das observações e cruzada. Por outro lado, no caso da abordagem denominada filtro de Wiener adaptativo, esses modelos foram utilizados para caracterizar as estruturas de correlação espaciais a priori. De acordo com os experimentos desenvolvidos, o modelo isotrópico apresentou desempenho superior quando comparado ao modelo Markoviano separável. Além disso, considerando todas as propostas baseadas no filtro de Wiener e a proposta inicial baseada no modelo de Markov GIMLL, o filtro de Wiener adaptativo apresentou os melhores resultados e se mostrou mais rápido do que apenas uma iteração da abordagem baseada no modelo GIMLL.
142

Composição de dicionários visuais utilizando agrupamento de dados por Florestas de Caminhos Ótimos

Afonso, Luis Claudio Sugi [UNESP] 08 February 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-02-08Bitstream added on 2014-06-13T20:39:07Z : No. of bitstreams: 1 afonso_lcs_me_sjrp.pdf: 1900274 bytes, checksum: c783872b797e29ec8b252cabf0ffa664 (MD5) / Categorização de imagens utilizando Dicionário de Palavras Visuais tem recebido grande atenção pelas comunidades de visão computacional e processamento de imagens. Nesta abordagem, cada imagem é representada por um conjuntode pontos invariantes, os quais são mapeados no espaço de Hilbert, o qual é uma extensão do plano Euclideano e espaço 3D tendo qual quer número finito ou infinito de dimensões, representando um dicionário visual composto das características mais representativas de um conjunto de imagens. Contudo, o principal problema de tal abordagem é encontrar um dicionário que seja compacto e, ao mesmo tempo, representativo. Encontrar tal dicionário de maneira automática, sem auxílio de um usuário, é uma tarefa ainda mais difícil. Neste trabalho, é proposto um método para encontrar o dicionário de maneira automática empregando um algoritmo baseado em grafos denominado Floresta de Caminhos Ótimos, o qual não necessita da dimensão do dicionário para encontrá-lo. Os experimentos envolveram o uso de 3 bases de imagens de objetos variados e realizando-se umacomparação entre a técnica apresentada e as técnicas K-médias e Seleção Aleatória. A comparação avaliou o tempo necessário para que cada técnica compute os dicionários e a taxa de acerto proporcionada pelos dicionários. Os resultados experimentais monstraram que o algoritmo Floresta de Caminhos Ótimos é uma alternativa a ser empregada na técnica Dicionário de Palavras Visuais, uma vez que as taxas de acerto são similares as demais técnicas, possui vantagem quando dicionários de alta dimensão devem ser calculadose, principalmente, não necessita que a dimensão do dicionário visual seja definido a priori / Image categorization by means of bag of visual words has received increasing attention by the image processing and vision communities in the last years. In these approaches, each image is represented by invariant points of interest which are mapped to a Hilbert Space, which is an extension of traditionals Euclidean plane and 3D space having any finite or infinite number of dimensions, representing a visual dictionary which aims at comprising the most discriminative features in a set of images. Notwithstanding, the main problem of such approaches is to find a compact and representative dictionary. Finding such representative dictionary automatically with no user intervention is an even more difficult task. In this work, we propose a method to automatically find such dictionary by employing a recent developed graph-based n˜ao-supervisionado algorithm called Optimum-Path Forest, which does not make any assumption about the visual dictionary’s size. Experiments were performed on 3 different databases of different objects in order to compare OPF n˜ao-supervisionado, K-means and Random Selection. The comparison assessed the time for each technique to compute the visual dictionaries and the accuracy rate when such visual dictionaries are used. The experimental results showed that OPF n˜ao-supervisionado is an alternate algorithm for the visual dictionary generation, since accuracy rates are similar, presents a time advantage when high-dimension dictionaries have to be computed and does not require visual dictionary dimension prior its computing
143

Análise multiescala de formas planas baseada em estatísticas da transformada de Hough /

Ramos, Lucas Alexandre. January 2016 (has links)
Orientador: Aparecido Nilceu Marana / Banca: Jurandy Gomes de Almeida Junior / Banca: João Paulo Papa / Resumo:Atualmente, dada a difusão dos computadores, a tarefa de se reconhecer padrões visuais está sendo cada vez mais automatizada, em especial para tratar a vasta e crescente quantidade de imagens digitais existentes. Aplicações de diversas áreas como biometria, recuperação de imagens baseada em conteúdo e diagnóstico médico, se valem do processamento de imagens, bem como de técnicas de extração e análise de características das mesmas, a fim de identificar pessoas, objetos, gestos, textos, etc. As características básicas que são utilizadas para a análise de imagens são: cor, textura e forma. Recentemente, foi proposto um novo descritor de formas denominado HTS (Hough Transform Statistics), o qual se baseia no espaço de Hough para representar e reconhecer objetos em imagens por suas formas. Os resultados obtidos pelo HTS sobre bases de imagens públicas têm mostrado que este novo descritor, além de apresentar altas taxas de acurácia, melhores do que muitos descritores tradicionais propostos na literatura, é rápido, pois tem um algoritmo de complexidade linear. O objetivo deste trabalho foi explorar as possibilidades de representação multiescala do HTS e, assim, propor novos descritores de formas. Escala é um parâmetro essencial em Visão Computacional e a teoria de espaço-escala refere-se ao espaço formado quando se observa, simultaneamente, os aspectos espaciais de uma imagem em várias escalas, sendo a escala a terceira dimensão. Os novos métodos multiescala propostos foram avaliados sobre várias bases de dados e seus desempenhos foram comparados com o desempenho do HTS e com os principais descritores de formas encontrados na literatura. Resultados experimentais mostraram que os novos descritores propostos neste trabalho são mais rápidos e em alguns casos também mais precisos / Abstract: Currently, given the widespread of computers through society, the task of recognizing visual patterns is being more and more automated, in particular to treat the large and growing amount of digital images available. Applications in many areas, such as biometrics, content-based image retrieval, and medical diagnostic, make use of image processing, as well as techniques for the extraction and analysis of their characteristics, in order to identify persons, objects, gestures, texts, etc. The basic features that are used for image analysis are: color, texture and shape. Recently, it was proposed a new shape descriptor called HTS (Hough Transform Statistics), which is based on the Hough space to represent and recognize objects in images by their shapes. The results obtained by HTS on public image databases have shown that this new shape descriptor, besides showing high accuracy levels, better than many traditional shape descriptors proposed in the literature, is fast, since it has an algorithm of linear complexity. In this dissertation we explored the possibilities of a multiscale and scale-space representation of this new shape descriptor. Scale is a key parameter in Computer Vision and the theory of scale-space refers to the space formed when observing, simultaneously, special aspects of an image at several scales, being the scale the third dimension. The multiscale HTS methods were evaluated on the same databases and their performances were compared with the main shape descriptors found in the literature and with the monoscale HTS. Experimental results showed that these new descriptors are faster and can also be more accurate in some cases / Mestre
144

Identificação biométrica de pessoas via características dos seios paranasais obtidas de tomografias computadorizadas /

Souza Júnior, Luis Antonio de. January 2016 (has links)
Orientador: Aparecido Nilceu Marana / Coorientador: Silke Anna Theresa Weber / Banca: Fátima de Lourdes dos Santos Nunes Marques / Banca: Roberta Spolon / Resumo: A identificação biométrica de pessoas na área forense está em constante estudo para facilitar e melhorar as maneiras de identificação mediante a avaliação de diversas estruturas que podem ser utilizadas como características biométricas. Os seios paranasais, cavidades ósseas presentes no crânio, apresentam alta individualidade e permanência, podendo ser utilizados em sistemas biométricos forenses. As maneiras de representação digital dos seios paranasais são modalidades de exames médicos, conhecidos como raios-X e tomografia computadorizada. As imagens de raios-X como ferramentas para obtenção de características dos seios paranasais apresentam alta aplicação nos trabalhos correlatos, entretanto, nesta modalidade de imagem, algumas desvantagens, como a baixa qualidade de resolução dificultam a identificação dos seios paranasais. Com a tomografia computadorizada, uma nova avaliação pode ser realizada para a obtenção das características dos seios paranasais, visto que esta modalidade de exame gera uma sequência de imagens com qualidade superior, tornando a segmentação e extração de características dos seios paranasais mais simples, intuitiva e precisa, facilitando seu uso em sistemas de reconhecimento biométrico. O objetivo desta dissertação foi desenvolver um novo método de identificação humana utilizando estruturas dos seios paranasais, obtidas de imagens de tomografia computadorizada, como características biométricas. Este método propõe avanços significativos principalmente nas etapas de segmentação e extração de características, uma vez que a segmentação das estruturas dos seios paranasais é realizada de forma automática. As características propostas como descritores são baseadas nas regiões e nas formas das estruturas dos seios paranasais. Resultados experimentais obtidos sobre uma base de dados contendo 310 imagens de... / Abstract: Biometric identification of people in the forensic field is constantly being studied to facilitate and improve the identification methods through the evaluation of several structures that can be used as biometric features. The paranasal sinuses, bone cavities present in the skull, have high individuality and permanence and can be used in forensic biometric systems. The X-rays and Computed Tomography are modalities of medical examinations used for the digital representation of the paranasal sinuses. X-rays images as a tool to obtain characteristics of the paranasal sinuses are highly applicable in the related works, however, in this imaging modality, some disadvantages, such as low quality resolution, make these structures harder to acquire. With computed tomography representation, a new evaluation can be performed to obtain the paranasal sinuses features, knowing that this exam modality generates an image sequence with higher quality, making the paranasal sinuses segmentation and feature extraction simpler, intuitive and precise, facilitating its use in biometric recognition systems. The objective of this master's dissertation was the development of a new human identification method that uses paranasal sinuses structures as biometric features, obtained from computed tomography images. This method proposes significant advances, specially on the segmentation and features extraction stages, once the segmentation of the paranasal sinuses structures is performed automatically. The characteristics proposed for the feature descriptors are based on the region and shape of the paranasal structures. The experimental results obtained from a database composed by 310 computed tomography images presented that the automatic method proposed in this dissertation showed 88.52% of frontal sinuses segmentation and 79.30% of correct maxillary sinuses segmentation using the KAPPA coefficient ... / Mestre
145

Análise de formas planas em imagens digitais : uma nova abordagem baseada na Transformada de Hough /

Souza, Gustavo Botelho de. January 2013 (has links)
Orientador: Aparecido Nilceu Marana / Banca: João Paulo Papa / Banca: Odemir Martinez Bruno / Resumo: Atualmente, dada a difusão dos computadores pela sociedade, a tarefa de se reconhecer padrões visuais está sendo cada vez mais automatizada, em especial para tratar a vasta quantidade de imagens digitais existentes. Aplicações de diversas áreas como biometria, recuperação de imagens baseada em conteúdo e diagnóstico médico, se valem do processamento de imagens bem como de técnicas de extração e análise de características das mesmas a fim de identificar pessoas, objetos, ações, textos, etc. As características básicas que são utilizadas na análise de uma imagem digital são: cor, textura e forma. Neste trabalho são apresentados conceitos fundamentais sobre a análise de formas em imagens digitais, assim como métodos propostos na literatura para tal procedimento. Apresenta-se também um novo método para análise de formas planas, denominado HTS (Hough Transform Statistics), com três versões de descritores. Esses três descritores se valem de valores estatísticos extraídos do espaço de Hough para a caracterização das formas de objetos em imagens digitais. Experimentos realizados mostram que estes novos descritores são muito eficazes e eficientes quando comparados com outros propostos na literatura, apresentando desempenhos superiores em muitos casos, tanto no quesito acurácia quanto no tempo de processamento. Os descritores propostos se configuram como boas alternativas, particularmente quando se deseja reconhecer objetos pela forma em grandes bases de dados, contendo imagens com grandes dimensões ou com alta resolução, tendência verificada nos dias atuais dada a popularização e o barateamento dos sensores de captura e das mídias de armazenamento / Abstract: Nowadays, given the widespread use of computers by society, the task of recognizing visual patterns are increasingly being automated, in particular to address the vast amount of digital images available. Applications of many areas such as biometrics, content-based image retrieval and medical diagnosis, make use of image analysis techniques in order to identify people, objects, actions, texts, etc. in the images. The basic features that can be extracted and analyzed from digital images are color, texture and shape. This paper presents some fundamental concepts about the shape analysis on digital images as well as some methods proposed in the literature. It also proposes a new shape analysis method called HTS (Hough Transform Statistics), with three versions of shape descriptors, which make use of statistical values extracted from the Hough space in order to characterize the shape of objects. Experiments conducted show that these new descriptors are very effective, presenting excellent performance regarding accuracy and processing time. These methods are good alternatives for the shape analysis task especially when working with large or high-resolution images, and with large databases, a tendency in our days, given the popularization and low costs of sensors and storage media / Mestre
146

Fractografia quantitativa : análise do comportamento fractal de fratura em compósitos carbono/epóxi, por processamento digital de imagens /

Campos, Kamila Amato de. January 2010 (has links)
Resumo: Superfícies de fratura expressam a seqüência de eventos de liberação de energia com a propagação de trincas, mostrando a relação entre os componentes da estrutura, campos de tensões locais e a formação de texturas típicas em seu relevo. No caso dos compósitos de matriz polimérica, a evolução das formações topográficas pode indicar as linhas de ação de carga, os efeitos de degradação pelo ambiente ou os defeitos de processamento. Sendo assim, o objetivo deste trabalho é avaliar se as regiões de relevo formadas pelos diferentes mecanismos de propagação de trincas na fratura de compósitos termorrígidos, carbono/epóxi, podem ser relacionadas a diferentes valores de dimensão fractal, correspondendo à sua influência sobre a tenacidade. Os corpos-de-prova de compósito carbono/epóxi foram divididos em três grupos, sendo natural, com condicionamento higrotérmico e com condicionamento ultravioleta. As fraturas analisadas foram provenientes de ensaios DCB, em modo I de carregamento, sendo a aquisição das imagens feitas com o uso de microscópio óptico de reflexão e as topografias das superfícies obtidas pelo método de reconstrução por extensão de foco, calculando-se os valores de dimensão fractal com o uso dos mapas de elevações. A dimensão fractal foi classificada como: dimensão monofractal (Df), quando a fratura é descrita por um único valor; ou dimensão textural (Dt), que é uma análise macroscópica da fratura, combinada com a dimensão estrutural (Ds), que é uma análise microscópica. Os resultados demonstraram que não há relação entre Df e GIC, como proposto por Mecholsky, em seus trabalhos, não sendo esta medida uma propriedade do material. Quanto a Dt, esta medida não pode descrever qualquer propriedade do material, pois se restringe à descrição local do processo de fratura. Já Ds, descreve... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Fracture surfaces express the sequence of events of energy release with crack propagation, showing the relationship between the components of the structure, local stress fields and the formation of textures in his typical relief. In the case of polymer matrix composites, the evolution of topographic features may indicate the lines of action of load, the effects of degradation of the environment or processing defects. Therefore, the objective this work is to assess if the relief regions formed by different mechanisms of crack propagation in the fracture of thermosetting composites, carbon / epoxy, may be related to different values of fractal dimension, corresponding to its influence on toughness. Composite carbon / epoxy specimens were divided into three groups, namely natural, with hygrothermal conditioning and ultraviolet conditioning. The fractures were analyzed from DCB tests in mode I loading, with the acquisition of images by using an optical microscope and the surface topographies obtained by an extended depth-of-field method, calculating the values of fractal dimension with the use of elevation maps. The fractal dimension was classified as: monofractal dimension (Df), when the fracture is described by a single value, or texture dimension (Dt), which is a macroscopic fracture, combined with the structural dimension (Ds), which is a microscopic analysis. The results showed that there isn't relationship between Df and GIC, as proposed by Mecholsky in his work, since this measure is not a material property. As for Dt, this measure cannot describe any property of the material, because it restricts the description of the process to local fracture conditions. In other way, Ds describes the micro-relief and is associated to the forces involved in the rupture of atomic bonds and, thus, to the association between micromechanics and microstructure... (Complete abstract click electronic access below) / Orientador: Luis Rogerio de Oliveira Hein / Coorientador: Edson Cocchieri Botelho / Banca: Marcelo dos Santos Pereira / Banca: Ana Lucia Horovistiz / Mestre
147

Metodologia automática para extração de cruzamentos de rodovias em imagens de alta resolução /

Zanin, Rodrigo Bruno. January 2004 (has links)
Orientador: Aluir Porfírio Dal Poz / Resumo: Pesquisas em extração de rodovias em imagens digitais não são recentes, sendo as primeiras da década de 70. Os métodos desenvolvidos normalmente são classificados em duas classes: semi-automático e automático. Esta última classe não prevê a intervenção de um operador. Neste contexto, a extração automática de cruzamentos de rodovias é fundamental, embora muito poucos trabalhos são encontrados na literatura sobre extração de rodovias. A razão principal é a grande diversidade de cruzamentos de rodovias, gerando algumas dificuldades para construir um conhecimento a priori sobre cruzamentos. Esta pesquisa propõe uma metodologia automática para resolver este problema, combinando segmentos de rodovias extraídos de uma imagem de alta resolução (pixel < 0,7 m), com linhas extraídas numa imagem de baixa resolução (pixel > 2m), reamostrada da imagem original de alta resolução. A metodologia proposta foi testada em um conjunto de imagens de alta resolução, mostrando-se confiável e eficiente. Desde que as bordas das rodovias sejam satisfatoriamente definidas, o método se mostrou capaz de extrair totalmente os cruzamentos de rodovias. Além disso, gerou uma significante melhora na malha viária (aproximadamente 16%) extraída pela metodologia automática de extração de segmentos de rodovias. / Abstract: Researches on road extraction from digital images are not recent, being the first one from 70's. The methods developed are usually classified into two classes, i.e., semiautomatic and automatic. Concerning this last class, no intervention with the operator is expected. In this context, the road crossing extraction is fundamental, although very few works are found in the relevant literature. The main reason is the great diversity of road crossings, bringing some difficulties to build up a priori knowledge of them. This research proposes a methodology for solving this problem combining road segments extracted from a high - resolution image (pixel < 0.7 m), with lines extracted from a low - resolution image (pixel > 2m) resampled from the original, high - resolution image. The proposed methodology was tested with a set of high - resolution image, showing that it is reliable and efficient. Whenever the road edges were well - defined the method was able to totally extract the road crossings. In addition it provided road networks with completion significantly better (about 16%) than the corresponding ones previously extracted by the automatic road segment extraction method. / Mestre
148

Restauração de imagens utilizando projeções em conjuntos convexos e algoritmos evolucionistas /

Pires, Rafael Gonçalves. January 2014 (has links)
Orientador: João Paulo Papa / Banca: Antonio Carlos Sementille / Banca: Alexandre Luís Magalhães Levada / Resumo: O processo de restauração de imagens tem como objetivo melhorar as imagens corrompidas por ruídos e borramentos. Técnicas iterativas podem controlar melhor o algoritmo de restauração a fim de restaurar detalhes em regiões borradas sem aumentar o ruído. Técnicas baseadas em Projeção em Conjuntos Convexos (Projections onto Convex Sets - POCS) tem sido utilizadas no contexto de restauração de imagens, projetando a solução em um hiperespaço até que algum critério de convergência seja encontrado. O resultado esperado é uma imagem melhor ao final de um número desconhecido de projeções. O número de conjuntos convexos e suas combinações permitem construir vários algoritmos de restauração de imagens baseados em POCS. O presente trabalho utiliza dois conjuntos convexos: Row-Action Projections (RAP) e Limited Amplitude (LA). O algoritmo RAP possui um parâmetro de relaxação ���� que depende das características da imagem que será restaurada. Assim, valores errados de ���� podem conduzir a uma pobre restauração. Propomos achar o valor de ���� modelando o problema como de otimização e utilizando diferentes técnicas evolucionistas. Além disso, é possível utilizar os parâmetros de restauração aprendidas sobre uma imagem e empregá-los para uma outra imagem / Abstract: The process of image restoration aims to enhance images corrupted by noise and blurred. Iterative techniques can better control the restoration algorithm in order to restore blurred regions in details without increasing noise. Techniques based on Projection Sets in Convex (Projections onto Convex Sets - POCS) have been used in the context of image restoration by projecting the solution in a hyperspace until some convergence criterion is met. The expected result is a better picture at the end of an unknown number of projections. The number of convex sets and its combinations allow you to build several image restoration algorithms based on POCS. This study uses two convex sets: Row Action Projections (RAP) and Limited Amplitude (LA). The RAP algorithm has a relaxation parameter ���� depends on the characteristics of the image that will be restored. Thus, erroneous values of ���� can lead to a poor restoration. We propose to find the value of ���� as the problem of modeling and optimization using different evolutionary techniques. Furthermore, is possible to use the parameters learned in restoring an image, and use them to another image / Mestre
149

Análise dos sprays de jatos de injetores de motor foguete utilizando um sistema de processamento digital de imagens /

Melo, Hugo Henrique Tinoco. January 2011 (has links)
Orientador: Fernando de Azevedo Silva / Banca: João Zangrandi Filho / Banca: Silvana Aparecida Barbosa / Resumo: A utilização de imagens digitais para extrair informações de objetos tem sido uma solução amplamente empregada em pesquisas científicas e em processos industriais. A contínua redução nos preços de equipamentos, a facilidade do uso de softwares e a simples integração com recursos de informática tem feito que muitos processos migrem para esta solução mais ágil, confiável e econômica. A indústria aeroespacial, que possui uma cadeia de produção não contínua e exige a avaliação de todos os seus componentes para obtenção de um nível de confiança elevado, encontra no emprego do processamento digital de imagens uma solução versátil e eficaz para análise das características de cada componente. Neste trabalho é apresentado um programa, desenvolvido em LabVIEW™, para medição dos sprays cônicos de jatos de injetores de motor foguete utilizando um sistema de processamento digital de imagens para sua análise. São apresentadas também as metodologias até então utilizadas para efetuar este tipo de medida. Os sprays dos jatos são desenvolvidos na saída do injetor, são exibidos visualmente durante o teste hidráulico a frio e tem influência direta no desempenho do motor foguete. A utilização desta nova ferramenta permitiu a realização desta medida de forma automática, com o fornecimento da incerteza de medição em níveis de confiança pré-estabelecido e mostrou-se ser mais exata e precisa que as metodologias anteriores / Abstract: The usage of digital images to extract information from objects has been a solution widely used in scientific research and in industrial processes. The continued reduction in prices of equipment, the facility of software manipulation and the simple integration with computing resources has done many processes to migrate to this more flexible, reliable and economical solution. The aerospace industry, which has a chain of production that is not continuous and requires the evaluation of all its components to obtain a high confidence level, finds in the usage of digital image processing a versatile and effective solution for analysis of the characteristics of each component . This paper presents a program developed in LabVIEW™, to measure the rocket engine conic spray jet by using a digital image processing system for analysis. It is also presented the methodologies previously used to perform this type of measurement. The jet sprays are developed at the exit of the injector, are displayed visually during the cold hydraulic test and it has directly influences on the performance of the rocket engines. The usage of this new tool allowed us to make the measurement automatically with the supply of uncertainty together with a pre-established confidence level and it proved to be more accurate and precise than previous methodologies / Mestre
150

Estudo de métodos para classificação e localização precisa de padrões usando um sistema de luz estruturada /

Kokubum, Christiane Nogueira de Carvalho. January 2004 (has links)
Orientador: Antonio Maria Garcia Tommaselli / Resumo: Algumas das tarefas mais significativas em Visão Computacional e em Fotogrametria Digital à curta distância estão associadas à segmentação, ao reconhecimento de objetos na imagem e à posterior reconstrução. Esta dissertação apresenta uma metodologia para a identificação e para a medição automáticas de alvos projetados em imagens tomadas à curta-distância, usando o sistema ativo denominado luz estruturada. Para a classificação de tais padrões, dois métodos de correspondência são comparados: correspondência por padrão (template matching) e por assinatura. O método de correspondência por padrão consiste na classificação por correlação, que mede a similaridade entre as janelas de referência e de busca utilizando uma função de correlação adequada. Os problemas existentes neste método estão relacionados com os ruídos na imagem, variações de brilho, distorções geométricas, o grande número de padrões a serem comparados e a escolha do tamanho do padrão. O método de assinatura consiste na comparação da representação funcional unidimensional da fronteira do padrão. Este método de assinatura não varia em relação à translação, mas depende da rotação e da mudança de escala. Para a localização precisa, dois métodos foram comparados: correspondência por mínimos quadrados e detector de cantos. O método de correspondência por mínimos quadrados refina a correspondência obtida por correlação, estimando os parâmetros de transformação radiométricos e geométricos entre as janelas de referência e de pesquisa, de acordo com o critério de erro dos mínimos quadrados. Já o detector de cantos determina as coordenadas subpixel usando uma combinação dos operadores de Moravec e de Förstner. Experimentos realizados com dados simulados e reais foram conduzidos com o objetivo de verificar a eficácia da metodologia...(Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Some of the main tasks in computer vision and close range Photogrammetry are related to the processes of segmentation, object recognition in the image and later reconstruction. The aim of this work is to study an automatic recognition system to identify and to measure targets projected with a structured light system. For target recognition two methods are compared: template matching and the signature method. The template matching method consists in the detection of area similarity by correlation. The idea of correlation is to compare the gray level distribution of a small sub image with its homologous in the search image. In this paper, the function used is the modified cross covariance which presented the best results. The problems in this method are related to illumination differences between the two images, geometric distortions, noise, the great number of templates to be compared and determination of template size. The signature method is based in the analysis of the onedimensional representation of target border. The signature depends on the rotation and the scale changes of the target. Two methods were compared for precise localization: LSM (least square matching) and corner detection. The idea of least squares matching is to minimize the gray level differences between the image patch and the matching window; the geometric and radiometric parameters from the template to the matching window are determined in the adjustment process. The corner detection consists in the determination of the subpixel coordinates of corners using the Förstner and Moravec operators. Experiments were performed, in order to verify the performance of the methodology for detection and precise localization. The results showed that the classification works appropriately, identifying 98% of targets in plane surfaces and 93% in oblique surfaces. Besides, the results of precise localization were equivalent in both methods: LSM and corner detection. / Mestre

Page generated in 0.1351 seconds