• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 325
  • 10
  • 3
  • 2
  • 1
  • Tagged with
  • 344
  • 344
  • 203
  • 160
  • 155
  • 93
  • 83
  • 77
  • 43
  • 40
  • 30
  • 30
  • 30
  • 28
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Análise de filtros digitais implementados em aritmética de ponto fixo usando cadeias de Markov. / Analysis of fixed-point digital filters using Markov chains.

Almeida Neto, Fernando Gonçalves de 18 February 2011 (has links)
Uma forma de se reduzir o custo (em termos tanto de área de chip quanto de consumo de energia) de algoritmos de processamento de sinais é empregar aritmética de ponto fixo, usando o menor número de bits possível para se representar as variáveis e coeficientes necessários. Com isso, consegue-se reduzir a complexidade do hardware, levando a economias de energia e de área de chip em circuitos dedicados. A escolha do nível de quantização a que cada variável deve ser submetida depende de se conhecer o efeito da quantização de cada variável nas saídas do sistema, o que pode ser conseguido através de simulações (em geral lentas) ou por métodos analíticos. Este documento propõe avanços a uma nova metodologia de análise de algoritmos para processamento digital de sinais implementados em aritmética de ponto fixo, usando modelos baseados em cadeias de Markov. As contribuições desta dissertação são as seguintes: Filtros IIR de primeira e de segunda ordem são analisados via cadeia de Markov, pressupondo que a entrada possui uma função densidade de probabilidade conhecida. O modelo é desenvolvido de forma geral, de forma que pode ser considerada uma função de densidade de probabilidade qualquer. A saída dos filtros é usada para definir os estados da cadeia. O modelo via cadeia de Markov para o coeficiente do algoritmo LMS unidimensional é estendido para entrada correlacionada. Nesse caso, os estados passam a ser descritos em termos do coeficiente e do da entrada anterior. Um exemplo assumido função de densidade de probabilidade de entrada gaussiana para o filtro adaptativo é apresentado. / The implementation cost of signal processing algorithms may be reduced by using fixed-point arithmetic with the smallest possible word-length for each variable or parameter. This allows the designer to reduce hardware complexity, leading to economy of energy and chip area in dedicated circuits. The choice of word-length depends on the determination of the effect at the output of the quantization of each variable, which may be obtained through simulations (generally slow) or through analytical methods. This document proposes new advances to a new analysis method for digital signal processing algorithms implemented in fixed-point arithmetic, based on Markov chain models. Our contributions are the following: A Markov chain model is used to study first and second order IIR filters for an known input density probability function. The model is general and can be applied for any probability function. We use the output of the filters to define the states of the Markov chain. The unidimensional LMS Markov chain model is extended to correlated input. The states are defined by a pair considering the coefficient and the previous input and an example assuming Gaussian-distributed input is presented.
82

Uma proposta de modificações no sistema operacional Linux para processamento digital de sinais em tempo real. / A proposal for modifications of the linux operating system for digital signal processing in real-time.

Rodríguez, Sergio Antonio 29 April 2011 (has links)
Esta tese estuda modificações no sistema operacional Linux para a arquitetura x86 da Intel, com a finalidade de aumentar o desempenho, nessa plataforma, das aplicações de processamento digital de sinais em tempo real. Inicialmente são estabelecidos requisitos para um sistema operacional voltado para o processamento digital de sinais. Os requisitos são estabelecidos com base na estrutura dos programas de processamento digital de sinais em tempo real e nas situações mais comuns nesse tipo de processamento. Um fator chave quando se trata de processamento em tempo real é a latência para colocar o aplicativo em execução. Nesse contexto, o trabalho desenvolve um modelo para a latência no tratamento das interrupções externas no Linux. Usando esse modelo é desenvolvido um método para medir as várias componentes dessa latência, método este baseado na colocação de marcadores de tempo no núcleo do Linux. O método de medida proposto é usado para medir a latência do Linux no tratamento de uma interrupção externa em três condições diferentes. O estudo finaliza propondo, implementando e testando alterações no Linux que visam melhorar o desempenho, desse sistema, em aplicações de processamento digital de sinais em tempo real. / This work studies modifications in the Linux operating system for the Intel x86 architecture, with the purpose of increasing the performance in applications of digital signal processing in real-time. Initially the requirements for a digital signal processing operating systems are established. These requirements are based on the structure of the programs of digital signal processing in real-time and the most common situations in this type of processing. An important factor in real-time processing is the latency to put the process in execution. In this context, this work develops a latency model for the I/O interrupts handling in Linux. By using this model, a method is developed to measure components of this latency. This measurement method is based on time markers collocated in the Linux kernel. The proposed method is used to measure the Linux latency for an I/O interrupt handling in three different conditions. Finally this research proposes, implements and tests alterations in Linux with the purpose of increasing the performance of this operating system in applications of digital signal processing in real-time.
83

Software de processamento de imagens para identificação de imagens de ceratometria em dispositivos móveis / Keratometry image processing software for portable devices

Claudine Mizusaki Iyomasa 20 December 2010 (has links)
Neste trabalho e apresentado um software baseado em técnicas de processamento digital de imagens para medida de astigmatismo corneano para dispositivos portáteis. O sistema físico, um dispositivo adaptado para lâmpadas de fenda, projeta 36 pontos luminosos dispostos em um formato preciso de circulo na região central da córnea. O deslocamento, o tamanho e a deformação da imagem refletida destes pontos luminosos pela córnea são analisados proporcionando a ceratometria. O software apresentado neste projeto foi desenvolvido para poder ser instalado nos principais dispositivos moveis que disponibilizem a plataforma Java ME, ou seja, pode ser implementado em computadores portáteis sem depender da plataforma utilizada. Este projeto permitiu a viabilidade de portabilidade para o ceratômetro, ou seja, imagens originais do ceratômetro em Lâmpada de Fenda, desenvolvido pelo Laboratório de Instrumentação Oftálmica, foram inseridas em dispositivos móveis e processadas. As imagens em formato BMP, de tamanho típico de 640x480 pixels são processadas e os 36 pontos luminosos são detectados em media em 1150 ms. Então, e traçada a elipse que melhor se ajusta a estes pontos e os raios de maior e menor dimensão são calculados em pixels. Todo o processo e realizado em media em 1199 ms. A contribuição deste trabalho e mostrar a viabilidade de transformar o ceratômetro de lâmpada de fenda em um aparelho portátil. / This work is about software development based on digital image processing techniques for corneal astigmatism measurements for portable devices. The physical system comprises a device adapted for slit lamps and projects 36 light spots displayed in a precise circle at the lachrymal film of the examined cornea. Keratometry is provided by the analisys of displacement, size and deformation of the reflected image of the light spots. The software presented in this project was developed to be installed mainly for mobile devices that provide the Java ME platform, ie, it can be implemented in portable computers. Furthermore, it allows portability for keratometers and is a previous work for a portable corneal topographer It also shows viability of portability for the keratometer, ie, the original keratometer images in Slit Lamp, developed by the Laboratory of Ophthalmic Instrumentation, were embedded in mobile devices and have been processed. The BMP type images, - typical size of 640x480 pixels - are processed and the 36 points of light are detected in an average of 1150 ms. The best fitting ellipse in the reflected image of these points provides the major and minor elpise radii in pixels. The entire process is performed in 1199 ms as an avarage. The contribution of this work is to show the viaibility of transforming the keratometer for Slit Lamps in a handheld device.
84

Classificação da hidrofobicidade em isoladores elétricos poliméricos de alta tensão / Hydrophobicity classification in high voltage polymeric insulators

Thomazini, Daniel 23 January 2009 (has links)
Este trabalho tem como objetivo propor uma metodologia para a classificação da hidrofobicidade (HC) em isoladores elétricos poliméricos de alta tensão. Atualmente a HC esta baseada no guia da STRI (Swedish Transmission Research Institute) elaborado em 1992. Porém neste guia a hidrofobicidade das superfícies de isoladores e classificada de acordo com o angulo de contato e/ou a quantidade de superfície molhada com água de forma subjetiva, através de um operador dependurado em uma torre de transmissão. Desta forma, este trabalho contribuiu na classificação da hidrofobicidade de forma objetiva, onde a analise foi realizada através de processamento digital de imagens. Na metodologia proposta, a HC foi determinada utilizando a analise da textura de imagens obtidas para materiais de isoladores elétricos poliméricos. Essas análises foram avaliadas com base na morfologia matemática, dimensão fractal, entropia, energia, variância e homogeneidade. Foram simuladas imagens (imagens sintéticas) da textura das superfícies dos isoladores utilizando uma placa de silicone e soluções de álcool isopropílico e água destilada (AIA) em proporções que variaram de 0 ate 100% em volume de álcool. A partir destas soluções foram obtidas imagens de gotas sobre as superfícies, para determinação do angulo de contato, e imagens da superfície para a obtenção dos padrões das texturas, que serviriam de base para a aplicação dos métodos estudados. Na tentativa de analisar as imagens independentes do padrao de iluminação, inerente as condições ambientais, foi aplicado o equalização de histograma (EQU) e/ ou implementado um filtro do tipo White Top-Hat (WTH). Este filtro funciona como um passa-alta, reduzindo o gradiente de iluminação das imagens obtidas em condições naturais. Outro método analisado de forma a eliminar o efeito do gradiente de iluminação, foi através da segmentação usando detecção de borda. Os cálculos da dimensão fractal das imagens em escala de cinza foram realizados através do método do box-counting, com tamanho do cubo variando de 3 até 11. A morfologia matemática foi utilizada de forma a qualificar as formas presentes nas imagens. Foram analisadas as derivadas das curvas do volume das imagens de abertura, de forma a identificar o tamanho dos elementos presentes na imagem. Na classificação das texturas das imagens através dos descritores de textura, os valores obtidos com a entropia apresentaram menor dispersão dentre os resultados, alem de baixo tempo de processamento, se apresentando como uma metodologia apropriada para a classificação da hidrofobicidade. Alteração nos valores de gama das imagens foi feito de forma a observar a modificação dos valores de entropia em função do efeito da iluminação das imagens. Os valores apresentaram pouca variação deste parâmetro nos resultados. Como forma de avaliar a qualidade da imagem em termos de tamanho, aumento e resolução, diversas imagens foram geradas visando a modificação destes parâmetros e analisando sua influencia nos valores de entropia. A partir dos resultados obtidos foi possível obter uma relação matemática entre as ferramentas aplicadas e as imagens, sendo possível definir a HC. Utilizando estas técnicas foi determinado o desvio dos resultados e o tempo de processamento, visando a aplicação em dispositivos moveis, como por exemplo, celulares. Assim, foi elaborado um aplicativo embarcado em um smartphone para analisar uma imagem em campo de um isolador, mostrando ao operador o valor da classificação da hidrofobicidade em aproximadamente um minuto. / The aim of this study is to propose a new method to classify the hydrophobicity (HC) in high voltage polymer insulators. Currently the HC is based on the STRI guide (Swedish Transmission Research Institute) published in 1992, where the hydrophobicity is classified by contact angle and/or amount of wet surface. In the proposed method, the HC was analyzed by digital image processing using the textures of the images obtained from electric insulators polymeric materials. These analysis were evaluated using mathematical morphology, fractal dimension, entropy, energy, variance and homogeneity. Simulated texture images (synthetic Images) about the surfaces of the insulators were created using a silicon plate and isopropyl alcohol and distilled water solutions in proportions from 0 to 100% in volume of alcohol (AIA). From these solutions, images of drops on the insulator surfaces were obtained to measure the contact angle; and surfaces images using the AIA solutions were obtained and then employed in the analysis of the texture patterns, which were used as basis for the analyzed methods. To analyze the images regardless the illumination conditions, which is a serious problem in natural weather, histogram equalization (EQU) and/or a White Top-Hat filter (WTH) was applied. This filter works as a high-pass filter, reducing the illumination gradient from the images obtained in natural conditions. Another way to avoid the gradient illumination was the segmentation technique by edge detection. The fractal dimension calculations in grayscale images were performed by the box-count method, with box size ranging from 3 to 11. Mathematical morphology was used to quantify the shapes in the images. The derivate of the volume from the opening images was analyzed to identify the elements in the image. The classification of the image texture by the entropy revealed not only the lowest dispersion of the results, but also the shortest time processing, presenting as an appropriated method to classify the hydrophobicity. Gama alterations in the images was done to observe the entropy values modifications as a function of the illumination effects in the images. The values shown the low influence of this parameter in the results. To evaluate the image quality regarding to size, zoom and resolution, different images were produced to observe the modification of these parameters and analyze its influence in the entropy values. From this study was possible to propose a mathematical function which relates the surface hidrophobicity and the texture patterns obtained by the AIA images. Hence, the hidrophobicity classification could be embedded in mobile devices, as example, cell phones, and performed in loco. A smartphone software was then developed to analyze the surface image of an insulator, producing the hidrophobicity classification value in about one minute.
85

Software de processamento de imagens para identificação de imagens de ceratometria em dispositivos móveis / Keratometry image processing software for portable devices

Iyomasa, Claudine Mizusaki 20 December 2010 (has links)
Neste trabalho e apresentado um software baseado em técnicas de processamento digital de imagens para medida de astigmatismo corneano para dispositivos portáteis. O sistema físico, um dispositivo adaptado para lâmpadas de fenda, projeta 36 pontos luminosos dispostos em um formato preciso de circulo na região central da córnea. O deslocamento, o tamanho e a deformação da imagem refletida destes pontos luminosos pela córnea são analisados proporcionando a ceratometria. O software apresentado neste projeto foi desenvolvido para poder ser instalado nos principais dispositivos moveis que disponibilizem a plataforma Java ME, ou seja, pode ser implementado em computadores portáteis sem depender da plataforma utilizada. Este projeto permitiu a viabilidade de portabilidade para o ceratômetro, ou seja, imagens originais do ceratômetro em Lâmpada de Fenda, desenvolvido pelo Laboratório de Instrumentação Oftálmica, foram inseridas em dispositivos móveis e processadas. As imagens em formato BMP, de tamanho típico de 640x480 pixels são processadas e os 36 pontos luminosos são detectados em media em 1150 ms. Então, e traçada a elipse que melhor se ajusta a estes pontos e os raios de maior e menor dimensão são calculados em pixels. Todo o processo e realizado em media em 1199 ms. A contribuição deste trabalho e mostrar a viabilidade de transformar o ceratômetro de lâmpada de fenda em um aparelho portátil. / This work is about software development based on digital image processing techniques for corneal astigmatism measurements for portable devices. The physical system comprises a device adapted for slit lamps and projects 36 light spots displayed in a precise circle at the lachrymal film of the examined cornea. Keratometry is provided by the analisys of displacement, size and deformation of the reflected image of the light spots. The software presented in this project was developed to be installed mainly for mobile devices that provide the Java ME platform, ie, it can be implemented in portable computers. Furthermore, it allows portability for keratometers and is a previous work for a portable corneal topographer It also shows viability of portability for the keratometer, ie, the original keratometer images in Slit Lamp, developed by the Laboratory of Ophthalmic Instrumentation, were embedded in mobile devices and have been processed. The BMP type images, - typical size of 640x480 pixels - are processed and the 36 points of light are detected in an average of 1150 ms. The best fitting ellipse in the reflected image of these points provides the major and minor elpise radii in pixels. The entire process is performed in 1199 ms as an avarage. The contribution of this work is to show the viaibility of transforming the keratometer for Slit Lamps in a handheld device.
86

Método para segmentação de pele humana em imagens faciais baseado em informações de cor e textura / A method for human skin segmentation in facial images based on color and texture features

João Paulo Brognoni Casati 10 December 2013 (has links)
A segmentação de pele em imagens é um importante processo para uma vasta gama de aplicações, como detecção e rastreamento de faces, reconhecimento de gestos, computação forense, entre outros. Um dos maiores problemas encontrados neste tipo de aplicação é a presença de objetos que possuem cor de pele nas imagens, mas não fazem parte de segmentos reais de pele, sendo muitas vezes erroneamente classificados como pele. A fim de reduzir a frequência destes falsos positivos, é apresentado neste trabalho um método de segmentação de pele humana em imagens faciais que possui duas diferentes etapas que reduzem a quantidade de falsos positivos do processo sem que se percam quantidades significantes de verdadeiros positivos. Estas duas etapas são chamadas de FPAR (False Positive Area Reduction) e aplicação de textura. A primeira visa remover segmentos não contínuos classificados como pele e a segunda aborda a aplicação de textura nas imagens, removendo áreas em que a textura não se assemelha à textura de pele humana. Para isto, foi desenvolvido o banco de imagens SFA (Skin of FERET and AR), constituído de imagens originais dos bancos de faces FERET e AR, seus respectivos ground truths de segmentação de pele e amostras de pele e não pele extraídas das imagens originais. O método apresentado neste trabalho apresenta resultados promissores atingindo até 46,9% de redução de falsos positivos sem que a acurácia aferida tenha redução significante (apenas 1,8%). Este trabalho tem como contribuições o método desenvolvido e o banco de imagens SFA que fica disponível online para download pela comunidade científica. / Skin segmentation is an important process for many kinds of application like face detection, face tracking, gesture recognition, forensic computing and others. One of the main problems found in this kind of application is the presence of objects which have skin color but are not part of actual skin segments, being wrongly classified as skin. Aiming to reduce the frequency of these false positives, this work presents a method of human skin segmentation in facial images which has two different steps that reduces the false positives without losing significant areas of true positives. These two steps are called FPAR (False Positive Area Reduction) and texture application. The first one removes segments classified as skin which are not continuous and the second one is an analysis of the image texture, removing areas which the texture is not alike human skin texture. To achieve this, the SFA (Skin of FERET and AR) image database was developed, constituted of original images retrieved from AR and FERET face databases, their respective ground truths of skin segmentation and skin and non-skin samples retrieved from the original images. The method presented in this work shows promising results, reaching up to 46.9% of false positive reduction without significant reduction of the accuracy (1.8%). This work has as contributions the developed method and the SFA database, which is available for download for scientific community.
87

Análise de filtros digitais implementados em aritmética de ponto fixo usando cadeias de Markov. / Analysis of fixed-point digital filters using Markov chains.

Fernando Gonçalves de Almeida Neto 18 February 2011 (has links)
Uma forma de se reduzir o custo (em termos tanto de área de chip quanto de consumo de energia) de algoritmos de processamento de sinais é empregar aritmética de ponto fixo, usando o menor número de bits possível para se representar as variáveis e coeficientes necessários. Com isso, consegue-se reduzir a complexidade do hardware, levando a economias de energia e de área de chip em circuitos dedicados. A escolha do nível de quantização a que cada variável deve ser submetida depende de se conhecer o efeito da quantização de cada variável nas saídas do sistema, o que pode ser conseguido através de simulações (em geral lentas) ou por métodos analíticos. Este documento propõe avanços a uma nova metodologia de análise de algoritmos para processamento digital de sinais implementados em aritmética de ponto fixo, usando modelos baseados em cadeias de Markov. As contribuições desta dissertação são as seguintes: Filtros IIR de primeira e de segunda ordem são analisados via cadeia de Markov, pressupondo que a entrada possui uma função densidade de probabilidade conhecida. O modelo é desenvolvido de forma geral, de forma que pode ser considerada uma função de densidade de probabilidade qualquer. A saída dos filtros é usada para definir os estados da cadeia. O modelo via cadeia de Markov para o coeficiente do algoritmo LMS unidimensional é estendido para entrada correlacionada. Nesse caso, os estados passam a ser descritos em termos do coeficiente e do da entrada anterior. Um exemplo assumido função de densidade de probabilidade de entrada gaussiana para o filtro adaptativo é apresentado. / The implementation cost of signal processing algorithms may be reduced by using fixed-point arithmetic with the smallest possible word-length for each variable or parameter. This allows the designer to reduce hardware complexity, leading to economy of energy and chip area in dedicated circuits. The choice of word-length depends on the determination of the effect at the output of the quantization of each variable, which may be obtained through simulations (generally slow) or through analytical methods. This document proposes new advances to a new analysis method for digital signal processing algorithms implemented in fixed-point arithmetic, based on Markov chain models. Our contributions are the following: A Markov chain model is used to study first and second order IIR filters for an known input density probability function. The model is general and can be applied for any probability function. We use the output of the filters to define the states of the Markov chain. The unidimensional LMS Markov chain model is extended to correlated input. The states are defined by a pair considering the coefficient and the previous input and an example assuming Gaussian-distributed input is presented.
88

Reconstrução tridimensional de imagens com o uso de deconvolução a partir de seções bidimensionais obtidas em microscopia óptica / Not available

Murillo Rodrigo Petrucelli Homem 03 October 2003 (has links)
A restauração de imagens obtidas através de microscopia de seccionamento óptico computacional, utilizando técnicas de fluorescência, é um problema relevante em muitas aplicações biológicas. Diversos métodos foram propostos nos últimos anos com diferentes graus de sucesso para melhorar a qualidade destas imagens, mas a complexidade dos dados e o custo computacional do processamento ainda permanecem como fatores limitantes neste tipo de problema. Consideramos, neste trabalho, várias metodologias para a deconvolução de imagens tridimensionais obtidas em microscopia de fluorescência wide-field, onde propomos métodos lineares não iterativos e também algoritmos iterativos não lineares, que incorporam a presença do ruído Poisson nas observações devido à baixa contagem de fótons. Ainda, propomos duas abordagens específicas para a redução do ruído Poisson, sendo a primeira baseada em um critério de máximo a posteriori e a segunda na transformação de Anscombe. O primeiro algoritmo de deconvolução linear não iterativo é um método de dois passos baseado em um filtro de restauração não linear derivado a partir de um critério de máximo a posteriori, que considera uma distribuição de Poisson para modelar o ruído presente na imagem observada. O segundo, é um filtro de mínimo erro médio quadrático derivado usando o princípio da ortogonalidade no domínio de Fourier a partir de um modelo para o ruído Poisson. Os métodos iterativos não lineares são baseados na teoria de Projeções sobre Conjuntos Convexos, sendo que propomos o uso de cinco conjuntos de restrições convexas. Estas restrições são derivadas de forma a deconvoluir a imagem observada com a função de espalhamento pontual do microscópio, recuperar parte das freqüências perdidas devido à função de transferência óptica do sistema, garantir a positividade da solução e, também, prevenir erros introduzidos pelo processo de regularização. Os algoritmos foram analisados utilizando imagens sintéticas, com diferentes níveis de ruído Poisson e com imagens de espécimes reais. Os métodos também foram comparados com os algoritmos Maximum Likelihood Expectation Maximization e Regularized Linear Least Squares, apresentando boa performance em termos visuais e também uma boa relação custo-benefício. Ainda, propomos uma metodologia eficiente para a esqueletização tridimensional de estruturas tubulares, como neurônios e artérias, através do cálculo numérico de campos vetoriais e da estimação de curvaturas principais usando o mapa de Weingarten. Dada uma imagem binária, o método consiste em gerar uma imagem em tons de cinza, correspondente à magnitude de um campo de vetores, seguido por uma busca de pontos que pertencem aos vales de potenciais. Pode-se mostrar que estes pontos correspondem à transformação do eixo médio. Apresentamos resultados para contornos bidimensionais e também para imagens tridimensionais de neurônios e artérias. O algoritmo demonstrou uma boa performance, uma vez que o campo vetorial pode ser rapidamente calculado usando algoritmos de transformada rápida de Fourier / The deconvolution of images obtained by means of optical-sectioning widefield fluorescence rnicroscopy, is a relevant problem in biological applications. Several methods have been proposed in the last few years, with different degrees of success, to improve the quality of the images, but the data complexity and the computational cost remain a limiting factor in this problem. We present in this work several methodologies to perform the deconvolution of three-dimensional data obtained by wide-field fluorescence microscopy. We present both linear, non-iterative and non-linear, iterative methods that take into accont the nature of the noise due to the low leve1 of photon counts. We also propose two algoritms to reduce the Poisson noise. The first one is based on a maximum a posteriori approach and the second one is based on the Anscombe transformation. The first linear, non-iterative algorithm is a two-pass method based on a nonlinear maximum a posteriori restoration filter derived using the Poisson noise model. The second linear, non-iterative deconvolution algorithm is a pointwise, space invariant, minimum mean square restoration filter for the Poisson image noise model derived using the orthogonality principle in the Fourier domain. The non-linear, iterative methods are based on the Projection onto Convex Sets theory. In the restoration algorithms, we combine five constraints sets in order to restore the out-of-focus blur, to retrieve the missing frequencies due to the transfer function of the optical system, to guarantee positiveness, and also to prevent the regularization errors. The methods were analysed using phantoms with several degrees of Poisson noise and with real ceil images. Also, they were compared with the Maximum Likelihood Expectation Maximization and Regularized Linear Least Squares algorithms. All the metodologies demonstrate good performance in terms of both visual results and cost-benefit analysis. We also propose an approach for efficient three-dimensional skeletonization of tubular structures, such as neurons and arteries, through fast numerical calculation of vector fields and curvature estimation by using the Weingarten formulae. In short, given a binary image, the method consists in generating a grayscale image corresponding to the magnitude of a vector field followed by a search of the points that belong to the botton of the potencial valleys. It can be shown that these points correspond to the media1 axis transformation. We present results for both two-dimensional shapes and three-dimensional arteries and neurons images. The algorithm has demonstrated a good performance due to the fact that the vector field can be easy and fastly calculated using the fast Fourier transform algorithm
89

Pesquisa de similaridades em imagens mamográficas com base na extração de características. / Search for similarities in mammographic images based feature extraction.

Jamilson Bispo dos Santos 25 April 2013 (has links)
Este trabalho apresenta uma estratégia computacional para a consolidação do treinamento dos radiologistas residentes por meio da classificação de imagens mamográficas pela similaridade, analisando informações dos laudos realizados por médicos experientes, obtendo os atributos extraídos das imagens médicas. Para a descoberta de padrões que caracterizam a similaridade aplicam-se técnicas de processamento digital de imagens e de mineração de dados nas imagens mamográficas. O reconhecimento de padrões tem como objetivo realizar a classificação de determinados conjuntos de imagens em classes. A classificação dos achados mamográficos é realizada utilizando Redes Neurais Artificiais, por meio do classificador Self-Organizing Map (SOM). O presente trabalho utiliza a recuperação de imagens por conteúdo (CBIR- Content-Based Image Retrieval), considerando a similaridade em relação a uma imagem previamente selecionada para o treinamento. As imagens são classificadas de acordo com a similaridade, analisando-se informações dos atributos extraídos das imagens e dos laudos. A identificação da similaridade é obtida pela extração de características, com a utilização da transformada de wavelets. / This work presents a computational strategy to consolidate the training of residents radiologists through the classification of mammographic images by similarity, analyzing information from reports made by experienced physicians, obtaining the attributes extracted from medical images. For the discovery of patterns that characterize the similarity apply techniques of digital image processing and data mining in mammographic images. Pattern recognition aims to achieve the classification of certain sets of images in classes. The classification of mammographic is performed using Artificial Neural Networks, through the classifier Self-Organizing Map (SOM). This work uses the image retrieval (CBIR-Content- Based Image Retrieval), considering the similarity in relation to an image already selected for training. The images are classified according to similarity, analyzing attribute information extracted from the images and reports. The identification of similarity was obtained by feature extraction, using the technique of wavelet transform.
90

Classificação da hidrofobicidade em isoladores elétricos poliméricos de alta tensão / Hydrophobicity classification in high voltage polymeric insulators

Daniel Thomazini 23 January 2009 (has links)
Este trabalho tem como objetivo propor uma metodologia para a classificação da hidrofobicidade (HC) em isoladores elétricos poliméricos de alta tensão. Atualmente a HC esta baseada no guia da STRI (Swedish Transmission Research Institute) elaborado em 1992. Porém neste guia a hidrofobicidade das superfícies de isoladores e classificada de acordo com o angulo de contato e/ou a quantidade de superfície molhada com água de forma subjetiva, através de um operador dependurado em uma torre de transmissão. Desta forma, este trabalho contribuiu na classificação da hidrofobicidade de forma objetiva, onde a analise foi realizada através de processamento digital de imagens. Na metodologia proposta, a HC foi determinada utilizando a analise da textura de imagens obtidas para materiais de isoladores elétricos poliméricos. Essas análises foram avaliadas com base na morfologia matemática, dimensão fractal, entropia, energia, variância e homogeneidade. Foram simuladas imagens (imagens sintéticas) da textura das superfícies dos isoladores utilizando uma placa de silicone e soluções de álcool isopropílico e água destilada (AIA) em proporções que variaram de 0 ate 100% em volume de álcool. A partir destas soluções foram obtidas imagens de gotas sobre as superfícies, para determinação do angulo de contato, e imagens da superfície para a obtenção dos padrões das texturas, que serviriam de base para a aplicação dos métodos estudados. Na tentativa de analisar as imagens independentes do padrao de iluminação, inerente as condições ambientais, foi aplicado o equalização de histograma (EQU) e/ ou implementado um filtro do tipo White Top-Hat (WTH). Este filtro funciona como um passa-alta, reduzindo o gradiente de iluminação das imagens obtidas em condições naturais. Outro método analisado de forma a eliminar o efeito do gradiente de iluminação, foi através da segmentação usando detecção de borda. Os cálculos da dimensão fractal das imagens em escala de cinza foram realizados através do método do box-counting, com tamanho do cubo variando de 3 até 11. A morfologia matemática foi utilizada de forma a qualificar as formas presentes nas imagens. Foram analisadas as derivadas das curvas do volume das imagens de abertura, de forma a identificar o tamanho dos elementos presentes na imagem. Na classificação das texturas das imagens através dos descritores de textura, os valores obtidos com a entropia apresentaram menor dispersão dentre os resultados, alem de baixo tempo de processamento, se apresentando como uma metodologia apropriada para a classificação da hidrofobicidade. Alteração nos valores de gama das imagens foi feito de forma a observar a modificação dos valores de entropia em função do efeito da iluminação das imagens. Os valores apresentaram pouca variação deste parâmetro nos resultados. Como forma de avaliar a qualidade da imagem em termos de tamanho, aumento e resolução, diversas imagens foram geradas visando a modificação destes parâmetros e analisando sua influencia nos valores de entropia. A partir dos resultados obtidos foi possível obter uma relação matemática entre as ferramentas aplicadas e as imagens, sendo possível definir a HC. Utilizando estas técnicas foi determinado o desvio dos resultados e o tempo de processamento, visando a aplicação em dispositivos moveis, como por exemplo, celulares. Assim, foi elaborado um aplicativo embarcado em um smartphone para analisar uma imagem em campo de um isolador, mostrando ao operador o valor da classificação da hidrofobicidade em aproximadamente um minuto. / The aim of this study is to propose a new method to classify the hydrophobicity (HC) in high voltage polymer insulators. Currently the HC is based on the STRI guide (Swedish Transmission Research Institute) published in 1992, where the hydrophobicity is classified by contact angle and/or amount of wet surface. In the proposed method, the HC was analyzed by digital image processing using the textures of the images obtained from electric insulators polymeric materials. These analysis were evaluated using mathematical morphology, fractal dimension, entropy, energy, variance and homogeneity. Simulated texture images (synthetic Images) about the surfaces of the insulators were created using a silicon plate and isopropyl alcohol and distilled water solutions in proportions from 0 to 100% in volume of alcohol (AIA). From these solutions, images of drops on the insulator surfaces were obtained to measure the contact angle; and surfaces images using the AIA solutions were obtained and then employed in the analysis of the texture patterns, which were used as basis for the analyzed methods. To analyze the images regardless the illumination conditions, which is a serious problem in natural weather, histogram equalization (EQU) and/or a White Top-Hat filter (WTH) was applied. This filter works as a high-pass filter, reducing the illumination gradient from the images obtained in natural conditions. Another way to avoid the gradient illumination was the segmentation technique by edge detection. The fractal dimension calculations in grayscale images were performed by the box-count method, with box size ranging from 3 to 11. Mathematical morphology was used to quantify the shapes in the images. The derivate of the volume from the opening images was analyzed to identify the elements in the image. The classification of the image texture by the entropy revealed not only the lowest dispersion of the results, but also the shortest time processing, presenting as an appropriated method to classify the hydrophobicity. Gama alterations in the images was done to observe the entropy values modifications as a function of the illumination effects in the images. The values shown the low influence of this parameter in the results. To evaluate the image quality regarding to size, zoom and resolution, different images were produced to observe the modification of these parameters and analyze its influence in the entropy values. From this study was possible to propose a mathematical function which relates the surface hidrophobicity and the texture patterns obtained by the AIA images. Hence, the hidrophobicity classification could be embedded in mobile devices, as example, cell phones, and performed in loco. A smartphone software was then developed to analyze the surface image of an insulator, producing the hidrophobicity classification value in about one minute.

Page generated in 0.1044 seconds