• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 134
  • 2
  • 1
  • Tagged with
  • 137
  • 137
  • 137
  • 92
  • 82
  • 23
  • 21
  • 20
  • 19
  • 18
  • 18
  • 16
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Método para segmentação de pele humana em imagens faciais baseado em informações de cor e textura / A method for human skin segmentation in facial images based on color and texture features

João Paulo Brognoni Casati 10 December 2013 (has links)
A segmentação de pele em imagens é um importante processo para uma vasta gama de aplicações, como detecção e rastreamento de faces, reconhecimento de gestos, computação forense, entre outros. Um dos maiores problemas encontrados neste tipo de aplicação é a presença de objetos que possuem cor de pele nas imagens, mas não fazem parte de segmentos reais de pele, sendo muitas vezes erroneamente classificados como pele. A fim de reduzir a frequência destes falsos positivos, é apresentado neste trabalho um método de segmentação de pele humana em imagens faciais que possui duas diferentes etapas que reduzem a quantidade de falsos positivos do processo sem que se percam quantidades significantes de verdadeiros positivos. Estas duas etapas são chamadas de FPAR (False Positive Area Reduction) e aplicação de textura. A primeira visa remover segmentos não contínuos classificados como pele e a segunda aborda a aplicação de textura nas imagens, removendo áreas em que a textura não se assemelha à textura de pele humana. Para isto, foi desenvolvido o banco de imagens SFA (Skin of FERET and AR), constituído de imagens originais dos bancos de faces FERET e AR, seus respectivos ground truths de segmentação de pele e amostras de pele e não pele extraídas das imagens originais. O método apresentado neste trabalho apresenta resultados promissores atingindo até 46,9% de redução de falsos positivos sem que a acurácia aferida tenha redução significante (apenas 1,8%). Este trabalho tem como contribuições o método desenvolvido e o banco de imagens SFA que fica disponível online para download pela comunidade científica. / Skin segmentation is an important process for many kinds of application like face detection, face tracking, gesture recognition, forensic computing and others. One of the main problems found in this kind of application is the presence of objects which have skin color but are not part of actual skin segments, being wrongly classified as skin. Aiming to reduce the frequency of these false positives, this work presents a method of human skin segmentation in facial images which has two different steps that reduces the false positives without losing significant areas of true positives. These two steps are called FPAR (False Positive Area Reduction) and texture application. The first one removes segments classified as skin which are not continuous and the second one is an analysis of the image texture, removing areas which the texture is not alike human skin texture. To achieve this, the SFA (Skin of FERET and AR) image database was developed, constituted of original images retrieved from AR and FERET face databases, their respective ground truths of skin segmentation and skin and non-skin samples retrieved from the original images. The method presented in this work shows promising results, reaching up to 46.9% of false positive reduction without significant reduction of the accuracy (1.8%). This work has as contributions the developed method and the SFA database, which is available for download for scientific community.
32

Reconstrução tridimensional de imagens com o uso de deconvolução a partir de seções bidimensionais obtidas em microscopia óptica / Not available

Murillo Rodrigo Petrucelli Homem 03 October 2003 (has links)
A restauração de imagens obtidas através de microscopia de seccionamento óptico computacional, utilizando técnicas de fluorescência, é um problema relevante em muitas aplicações biológicas. Diversos métodos foram propostos nos últimos anos com diferentes graus de sucesso para melhorar a qualidade destas imagens, mas a complexidade dos dados e o custo computacional do processamento ainda permanecem como fatores limitantes neste tipo de problema. Consideramos, neste trabalho, várias metodologias para a deconvolução de imagens tridimensionais obtidas em microscopia de fluorescência wide-field, onde propomos métodos lineares não iterativos e também algoritmos iterativos não lineares, que incorporam a presença do ruído Poisson nas observações devido à baixa contagem de fótons. Ainda, propomos duas abordagens específicas para a redução do ruído Poisson, sendo a primeira baseada em um critério de máximo a posteriori e a segunda na transformação de Anscombe. O primeiro algoritmo de deconvolução linear não iterativo é um método de dois passos baseado em um filtro de restauração não linear derivado a partir de um critério de máximo a posteriori, que considera uma distribuição de Poisson para modelar o ruído presente na imagem observada. O segundo, é um filtro de mínimo erro médio quadrático derivado usando o princípio da ortogonalidade no domínio de Fourier a partir de um modelo para o ruído Poisson. Os métodos iterativos não lineares são baseados na teoria de Projeções sobre Conjuntos Convexos, sendo que propomos o uso de cinco conjuntos de restrições convexas. Estas restrições são derivadas de forma a deconvoluir a imagem observada com a função de espalhamento pontual do microscópio, recuperar parte das freqüências perdidas devido à função de transferência óptica do sistema, garantir a positividade da solução e, também, prevenir erros introduzidos pelo processo de regularização. Os algoritmos foram analisados utilizando imagens sintéticas, com diferentes níveis de ruído Poisson e com imagens de espécimes reais. Os métodos também foram comparados com os algoritmos Maximum Likelihood Expectation Maximization e Regularized Linear Least Squares, apresentando boa performance em termos visuais e também uma boa relação custo-benefício. Ainda, propomos uma metodologia eficiente para a esqueletização tridimensional de estruturas tubulares, como neurônios e artérias, através do cálculo numérico de campos vetoriais e da estimação de curvaturas principais usando o mapa de Weingarten. Dada uma imagem binária, o método consiste em gerar uma imagem em tons de cinza, correspondente à magnitude de um campo de vetores, seguido por uma busca de pontos que pertencem aos vales de potenciais. Pode-se mostrar que estes pontos correspondem à transformação do eixo médio. Apresentamos resultados para contornos bidimensionais e também para imagens tridimensionais de neurônios e artérias. O algoritmo demonstrou uma boa performance, uma vez que o campo vetorial pode ser rapidamente calculado usando algoritmos de transformada rápida de Fourier / The deconvolution of images obtained by means of optical-sectioning widefield fluorescence rnicroscopy, is a relevant problem in biological applications. Several methods have been proposed in the last few years, with different degrees of success, to improve the quality of the images, but the data complexity and the computational cost remain a limiting factor in this problem. We present in this work several methodologies to perform the deconvolution of three-dimensional data obtained by wide-field fluorescence microscopy. We present both linear, non-iterative and non-linear, iterative methods that take into accont the nature of the noise due to the low leve1 of photon counts. We also propose two algoritms to reduce the Poisson noise. The first one is based on a maximum a posteriori approach and the second one is based on the Anscombe transformation. The first linear, non-iterative algorithm is a two-pass method based on a nonlinear maximum a posteriori restoration filter derived using the Poisson noise model. The second linear, non-iterative deconvolution algorithm is a pointwise, space invariant, minimum mean square restoration filter for the Poisson image noise model derived using the orthogonality principle in the Fourier domain. The non-linear, iterative methods are based on the Projection onto Convex Sets theory. In the restoration algorithms, we combine five constraints sets in order to restore the out-of-focus blur, to retrieve the missing frequencies due to the transfer function of the optical system, to guarantee positiveness, and also to prevent the regularization errors. The methods were analysed using phantoms with several degrees of Poisson noise and with real ceil images. Also, they were compared with the Maximum Likelihood Expectation Maximization and Regularized Linear Least Squares algorithms. All the metodologies demonstrate good performance in terms of both visual results and cost-benefit analysis. We also propose an approach for efficient three-dimensional skeletonization of tubular structures, such as neurons and arteries, through fast numerical calculation of vector fields and curvature estimation by using the Weingarten formulae. In short, given a binary image, the method consists in generating a grayscale image corresponding to the magnitude of a vector field followed by a search of the points that belong to the botton of the potencial valleys. It can be shown that these points correspond to the media1 axis transformation. We present results for both two-dimensional shapes and three-dimensional arteries and neurons images. The algorithm has demonstrated a good performance due to the fact that the vector field can be easy and fastly calculated using the fast Fourier transform algorithm
33

Pesquisa de similaridades em imagens mamográficas com base na extração de características. / Search for similarities in mammographic images based feature extraction.

Jamilson Bispo dos Santos 25 April 2013 (has links)
Este trabalho apresenta uma estratégia computacional para a consolidação do treinamento dos radiologistas residentes por meio da classificação de imagens mamográficas pela similaridade, analisando informações dos laudos realizados por médicos experientes, obtendo os atributos extraídos das imagens médicas. Para a descoberta de padrões que caracterizam a similaridade aplicam-se técnicas de processamento digital de imagens e de mineração de dados nas imagens mamográficas. O reconhecimento de padrões tem como objetivo realizar a classificação de determinados conjuntos de imagens em classes. A classificação dos achados mamográficos é realizada utilizando Redes Neurais Artificiais, por meio do classificador Self-Organizing Map (SOM). O presente trabalho utiliza a recuperação de imagens por conteúdo (CBIR- Content-Based Image Retrieval), considerando a similaridade em relação a uma imagem previamente selecionada para o treinamento. As imagens são classificadas de acordo com a similaridade, analisando-se informações dos atributos extraídos das imagens e dos laudos. A identificação da similaridade é obtida pela extração de características, com a utilização da transformada de wavelets. / This work presents a computational strategy to consolidate the training of residents radiologists through the classification of mammographic images by similarity, analyzing information from reports made by experienced physicians, obtaining the attributes extracted from medical images. For the discovery of patterns that characterize the similarity apply techniques of digital image processing and data mining in mammographic images. Pattern recognition aims to achieve the classification of certain sets of images in classes. The classification of mammographic is performed using Artificial Neural Networks, through the classifier Self-Organizing Map (SOM). This work uses the image retrieval (CBIR-Content- Based Image Retrieval), considering the similarity in relation to an image already selected for training. The images are classified according to similarity, analyzing attribute information extracted from the images and reports. The identification of similarity was obtained by feature extraction, using the technique of wavelet transform.
34

Classificação da hidrofobicidade em isoladores elétricos poliméricos de alta tensão / Hydrophobicity classification in high voltage polymeric insulators

Daniel Thomazini 23 January 2009 (has links)
Este trabalho tem como objetivo propor uma metodologia para a classificação da hidrofobicidade (HC) em isoladores elétricos poliméricos de alta tensão. Atualmente a HC esta baseada no guia da STRI (Swedish Transmission Research Institute) elaborado em 1992. Porém neste guia a hidrofobicidade das superfícies de isoladores e classificada de acordo com o angulo de contato e/ou a quantidade de superfície molhada com água de forma subjetiva, através de um operador dependurado em uma torre de transmissão. Desta forma, este trabalho contribuiu na classificação da hidrofobicidade de forma objetiva, onde a analise foi realizada através de processamento digital de imagens. Na metodologia proposta, a HC foi determinada utilizando a analise da textura de imagens obtidas para materiais de isoladores elétricos poliméricos. Essas análises foram avaliadas com base na morfologia matemática, dimensão fractal, entropia, energia, variância e homogeneidade. Foram simuladas imagens (imagens sintéticas) da textura das superfícies dos isoladores utilizando uma placa de silicone e soluções de álcool isopropílico e água destilada (AIA) em proporções que variaram de 0 ate 100% em volume de álcool. A partir destas soluções foram obtidas imagens de gotas sobre as superfícies, para determinação do angulo de contato, e imagens da superfície para a obtenção dos padrões das texturas, que serviriam de base para a aplicação dos métodos estudados. Na tentativa de analisar as imagens independentes do padrao de iluminação, inerente as condições ambientais, foi aplicado o equalização de histograma (EQU) e/ ou implementado um filtro do tipo White Top-Hat (WTH). Este filtro funciona como um passa-alta, reduzindo o gradiente de iluminação das imagens obtidas em condições naturais. Outro método analisado de forma a eliminar o efeito do gradiente de iluminação, foi através da segmentação usando detecção de borda. Os cálculos da dimensão fractal das imagens em escala de cinza foram realizados através do método do box-counting, com tamanho do cubo variando de 3 até 11. A morfologia matemática foi utilizada de forma a qualificar as formas presentes nas imagens. Foram analisadas as derivadas das curvas do volume das imagens de abertura, de forma a identificar o tamanho dos elementos presentes na imagem. Na classificação das texturas das imagens através dos descritores de textura, os valores obtidos com a entropia apresentaram menor dispersão dentre os resultados, alem de baixo tempo de processamento, se apresentando como uma metodologia apropriada para a classificação da hidrofobicidade. Alteração nos valores de gama das imagens foi feito de forma a observar a modificação dos valores de entropia em função do efeito da iluminação das imagens. Os valores apresentaram pouca variação deste parâmetro nos resultados. Como forma de avaliar a qualidade da imagem em termos de tamanho, aumento e resolução, diversas imagens foram geradas visando a modificação destes parâmetros e analisando sua influencia nos valores de entropia. A partir dos resultados obtidos foi possível obter uma relação matemática entre as ferramentas aplicadas e as imagens, sendo possível definir a HC. Utilizando estas técnicas foi determinado o desvio dos resultados e o tempo de processamento, visando a aplicação em dispositivos moveis, como por exemplo, celulares. Assim, foi elaborado um aplicativo embarcado em um smartphone para analisar uma imagem em campo de um isolador, mostrando ao operador o valor da classificação da hidrofobicidade em aproximadamente um minuto. / The aim of this study is to propose a new method to classify the hydrophobicity (HC) in high voltage polymer insulators. Currently the HC is based on the STRI guide (Swedish Transmission Research Institute) published in 1992, where the hydrophobicity is classified by contact angle and/or amount of wet surface. In the proposed method, the HC was analyzed by digital image processing using the textures of the images obtained from electric insulators polymeric materials. These analysis were evaluated using mathematical morphology, fractal dimension, entropy, energy, variance and homogeneity. Simulated texture images (synthetic Images) about the surfaces of the insulators were created using a silicon plate and isopropyl alcohol and distilled water solutions in proportions from 0 to 100% in volume of alcohol (AIA). From these solutions, images of drops on the insulator surfaces were obtained to measure the contact angle; and surfaces images using the AIA solutions were obtained and then employed in the analysis of the texture patterns, which were used as basis for the analyzed methods. To analyze the images regardless the illumination conditions, which is a serious problem in natural weather, histogram equalization (EQU) and/or a White Top-Hat filter (WTH) was applied. This filter works as a high-pass filter, reducing the illumination gradient from the images obtained in natural conditions. Another way to avoid the gradient illumination was the segmentation technique by edge detection. The fractal dimension calculations in grayscale images were performed by the box-count method, with box size ranging from 3 to 11. Mathematical morphology was used to quantify the shapes in the images. The derivate of the volume from the opening images was analyzed to identify the elements in the image. The classification of the image texture by the entropy revealed not only the lowest dispersion of the results, but also the shortest time processing, presenting as an appropriated method to classify the hydrophobicity. Gama alterations in the images was done to observe the entropy values modifications as a function of the illumination effects in the images. The values shown the low influence of this parameter in the results. To evaluate the image quality regarding to size, zoom and resolution, different images were produced to observe the modification of these parameters and analyze its influence in the entropy values. From this study was possible to propose a mathematical function which relates the surface hidrophobicity and the texture patterns obtained by the AIA images. Hence, the hidrophobicity classification could be embedded in mobile devices, as example, cell phones, and performed in loco. A smartphone software was then developed to analyze the surface image of an insulator, producing the hidrophobicity classification value in about one minute.
35

Abordagens para a segmentação de coronárias em ecocardiografia. / Approaches for coronary segmentation in echocardiography.

André Fernando Lourenço de Souza 03 August 2010 (has links)
A Ecocardiografia continua sendo a técnica de captura de imagens mais promissora, não-invasiva, sem radiação ionizante e de baixo custo para avaliação de condições cardíacas. Porém, é afetada consideravelmente por ruídos do tipo speckle, que são difíceis de serem filtrados. Por isso fez-se necessário fazer a escolha certa entre filtragem e segmentador para a obtenção de resultados melhores na segmentação de estruturas. O objetivo dessa pesquisa foi estudar essa combinação entre filtro e segmentador. Para isso, foi desenvolvido um sistema segmentador, a fim de sistematizar essa avaliação. Foram implementados dois filtros para atenuar o efeito do ruído speckle - Linear Scaling Mean Variance (LSMV) e o filtro de Chitwong - testados em imagens simuladas. Foram simuladas 60 imagens com 300 por 300 pixels, 3 modelos, 4 espessuras e 5 níveis de contrastes diferentes, todas com ruído speckle. Além disso, foram feitos testes com a combinação de filtros. Logo após, foi implementado um algoritmo de conectividade Fuzzy para fazer a segmentação e um sistema avaliador, seguindo os critérios descritos por Loizou, que faz a contagem de verdadeiro-positivos (VP) e falso-positivos (FP). Foi verificado que o filtro LSMV é a melhor opção para segmentação por conectividade Fuzzy. Foram obtidas taxas de VP e FP na ordem de 95% e 5%, respectivamente, e acurácia em torno de 95%. Para imagens ruidosas com alto contraste, aplicando a segmentação sem filtragem, a acurácia obtida foi na ordem de 60%. / The echocardiography is the imaging technique that remains most promising, noninvasive, no ionizing radiation and inexpensive to assess heart conditions. On the other hand, is considerably affected by noises, such as speckle, that are very difficult to be filtered. That is why it is necessary to make the right choice of filter and segmentation method to obtain the best results on image segmentation. The goal was evaluate this filter and segmentation method combination. For that, it was developed a segmentation system, to help the assessment. Two filters were implemented to mitigate the effect of speckle noise Linear Scaling Mean Variance (LSMV) and the filter presented by Chitwong - to be tested in simulated images. We simulated 60 images, with size 300 by 300 pixels, 3 models, 4 thicknesses and 5 different levels of contrast, all with speckle noise. In addition, tests were made with a combination of filters. Furthermore, it was implemented a Fuzzy Connectedness algorithm and an evaluation system, following the criteria described by Loizou, which makes the true positives (TP) and false positives (FP) counting. It was found that the LSMV filter is the best option for Fuzzy Connectedness. We obtained rates of TP and FP of 95% and 5% using LSMV, and accuracy of 95%. Using high contrast noisy images, without filtering, we obtained the accuracy in order of 60%.
36

Sistema de visão robótica para reconhecimento de contornos de componentes na aplicação de processos industriais

Foresti, Renan Luís January 2006 (has links)
O presente trabalho trata da implementação de um sistema de visão robótica para reconhecimento de formas bidimensionais e transformação do contorno em trajetória para um manipulador industrial. A aquisição da imagem ocorre através de uma câmera CCD sobre a área específica de captura. O uso de uma webcam também é testado. A imagem captada é enviada para o computador com processamento realizado em MATLAB, através de rotina de software de controle, escrita em VB.NET. São analisadas variações de contraste e resolução com objetos distintos, onde o sistema identifica os pixels que delimitam o contorno do objeto utilizando limiarização pelo Método de Otsu e algoritmos morfológicos. A posição de cada pixel é processada, transformada em coordenadas cartesianas e enviada para o controle do manipulador robótico, que efetua a trajetória, simulando um processo industrial. A transmissão ao controle do manipulador é realizada em protocolo especial, via porta paralela de um microcomputador à placa de aquisição de sinais digitais do controle do manipulador. Um processo de simulação em uma célula de manufatura proposto para validar o sistema, identifica objetos distintos que chegam de forma desordenada através de uma esteira transportadora. / This work approaches the implementation of a robotics vision system to recognize 2D forms and contour transformation in trajectory to an industrial manipulator. The image acquisition occur by CCD video camera on the specific capture area. A webcam system is also tested. The captured image is sent to a MATLAB computer processing, through a control software routine, written in VB. NET. The contrast and resolution changes are analyzed with different objects where the system identifies the pixels of object contour using Otsu’s Thresholding Method and morphological algorithms. The position of each pixel is processed, transformed in cartesian coordinates and sent to the robotic manipulator control, which executes the trajectory simulating an industrial process. The transmission to the manipulator control is realized in a special protocol, using the parallel port of computer and a digital signal acquisition card of the manipulator control. A simulation process in a manufacturing cell is aimed to validate the system, identifying distinct objects that coming in a disorientated form from a belt conveyor.
37

Algoritmo para contagem de células do tipo fibroblastos NIH/3T3 em câmara de Neubauer utilizando processamento digital de imagens

Costa, Lucas Soares da 28 March 2017 (has links)
Submitted by Cristiane Chim (cristiane.chim@ucpel.edu.br) on 2018-08-30T12:05:38Z No. of bitstreams: 1 Lucas Soares da Costa.pdf: 6533559 bytes, checksum: 540c854aef17b6fb97cad699d5be5f0a (MD5) / Made available in DSpace on 2018-08-30T12:05:38Z (GMT). No. of bitstreams: 1 Lucas Soares da Costa.pdf: 6533559 bytes, checksum: 540c854aef17b6fb97cad699d5be5f0a (MD5) Previous issue date: 2017-03-28 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / From the perspective of systems biology, the cell is the main element of information integration. Therefore, understanding the cell in its context is the key to unraveling many of the still unknown mechanisms of life and certain pathologies. Despite increasing automation in clinical analysis laboratories, many of them still employ optical microscopes for some specific analyzes. When working with microorganisms, it is most often desired to determine the cell concentration of the prepared suspension. One of the most common ways of obtaining this estimate is by counting under the microscope, using a Neubauer Chamber, also known as a Hemacytometer or Count Chamber. Each microscope image can contain hundreds of cells to be counted. Performing the counting visually entails a very large inaccuracy and requires high time, which also increases the time to obtain the final estimate. The current state of scientific research in Brazil and other third world countries reflects the need for a device that is easily accessible and inexpensive for researchers. Thus, in view of the aforementioned reasons, the development of a mechanism that matches these expectations becomes indispensable. In view of this perspective, the objective of this study was consolidated in the development of an algorithm for cellular counting through the capture of images from the Neubauer chamber. This algorithm results in counting accuracy greater than 90 % when compared to manual counting, as well as reducing the time from approximately two minutes to less than one second of the algorithm. / Na perspectiva de biologia de sistemas, a célula é o elemento principal da integração de informações. Portanto, compreender a célula no seu contexto é a chave para desvendar muitos dos mecanismos ainda desconhecidos da vida e de certas patologias. Apesar da crescente automatização nos laboratórios de análises clínicas, muitos deles ainda empregam microscópios óticos para algumas análises específicas. Quando se trabalha com microorganismos, na maioria das vezes deseja-se determinar a concentração de células da suspensão preparada. Uma das formas mais comuns de se obter esta estimativa é através da contagem ao microscópio, utilizando-se uma Câmara de Neubauer, também conhecida como Hemacitômetro ou Câmara de Contagem. Cada imagem de microscópio pode conter centenas de células a serem contadas. Realizar a contagem de forma visual acarreta em uma imprecisão muito grande e requer tempo elevado, o que também aumenta o tempo para obter a estimativa final. A situação atual da pesquisa científica no Brasil e em outros países de terceiro mundo reflete a necessidade de um dispositivo de fácil acesso e baixo custo aos pesquisadores. Assim, diante dos motivos supracitados, o desenvolvimento de um mecanismo que corresponda essas expectativas, faz-se indispensável. Frente a essa perspectiva, o objetivo desse estudo consolidou-se no desenvolvimento de um algoritmo para contagem celular através da captura de imagens da câmara de Neubauer. Este algoritmo resulta em uma precisão na contagem superior a 90% quando comparado a contagem manual, como também, reduzir o tempo de aproximadamente dois minutos para menos de um segundo do algoritmo.
38

Reconstrução tridimensional de imagens com o uso de deconvolução a partir de seções bidimensionais obtidas em microscopia óptica / Not available

Homem, Murillo Rodrigo Petrucelli 03 October 2003 (has links)
A restauração de imagens obtidas através de microscopia de seccionamento óptico computacional, utilizando técnicas de fluorescência, é um problema relevante em muitas aplicações biológicas. Diversos métodos foram propostos nos últimos anos com diferentes graus de sucesso para melhorar a qualidade destas imagens, mas a complexidade dos dados e o custo computacional do processamento ainda permanecem como fatores limitantes neste tipo de problema. Consideramos, neste trabalho, várias metodologias para a deconvolução de imagens tridimensionais obtidas em microscopia de fluorescência wide-field, onde propomos métodos lineares não iterativos e também algoritmos iterativos não lineares, que incorporam a presença do ruído Poisson nas observações devido à baixa contagem de fótons. Ainda, propomos duas abordagens específicas para a redução do ruído Poisson, sendo a primeira baseada em um critério de máximo a posteriori e a segunda na transformação de Anscombe. O primeiro algoritmo de deconvolução linear não iterativo é um método de dois passos baseado em um filtro de restauração não linear derivado a partir de um critério de máximo a posteriori, que considera uma distribuição de Poisson para modelar o ruído presente na imagem observada. O segundo, é um filtro de mínimo erro médio quadrático derivado usando o princípio da ortogonalidade no domínio de Fourier a partir de um modelo para o ruído Poisson. Os métodos iterativos não lineares são baseados na teoria de Projeções sobre Conjuntos Convexos, sendo que propomos o uso de cinco conjuntos de restrições convexas. Estas restrições são derivadas de forma a deconvoluir a imagem observada com a função de espalhamento pontual do microscópio, recuperar parte das freqüências perdidas devido à função de transferência óptica do sistema, garantir a positividade da solução e, também, prevenir erros introduzidos pelo processo de regularização. Os algoritmos foram analisados utilizando imagens sintéticas, com diferentes níveis de ruído Poisson e com imagens de espécimes reais. Os métodos também foram comparados com os algoritmos Maximum Likelihood Expectation Maximization e Regularized Linear Least Squares, apresentando boa performance em termos visuais e também uma boa relação custo-benefício. Ainda, propomos uma metodologia eficiente para a esqueletização tridimensional de estruturas tubulares, como neurônios e artérias, através do cálculo numérico de campos vetoriais e da estimação de curvaturas principais usando o mapa de Weingarten. Dada uma imagem binária, o método consiste em gerar uma imagem em tons de cinza, correspondente à magnitude de um campo de vetores, seguido por uma busca de pontos que pertencem aos vales de potenciais. Pode-se mostrar que estes pontos correspondem à transformação do eixo médio. Apresentamos resultados para contornos bidimensionais e também para imagens tridimensionais de neurônios e artérias. O algoritmo demonstrou uma boa performance, uma vez que o campo vetorial pode ser rapidamente calculado usando algoritmos de transformada rápida de Fourier / The deconvolution of images obtained by means of optical-sectioning widefield fluorescence rnicroscopy, is a relevant problem in biological applications. Several methods have been proposed in the last few years, with different degrees of success, to improve the quality of the images, but the data complexity and the computational cost remain a limiting factor in this problem. We present in this work several methodologies to perform the deconvolution of three-dimensional data obtained by wide-field fluorescence microscopy. We present both linear, non-iterative and non-linear, iterative methods that take into accont the nature of the noise due to the low leve1 of photon counts. We also propose two algoritms to reduce the Poisson noise. The first one is based on a maximum a posteriori approach and the second one is based on the Anscombe transformation. The first linear, non-iterative algorithm is a two-pass method based on a nonlinear maximum a posteriori restoration filter derived using the Poisson noise model. The second linear, non-iterative deconvolution algorithm is a pointwise, space invariant, minimum mean square restoration filter for the Poisson image noise model derived using the orthogonality principle in the Fourier domain. The non-linear, iterative methods are based on the Projection onto Convex Sets theory. In the restoration algorithms, we combine five constraints sets in order to restore the out-of-focus blur, to retrieve the missing frequencies due to the transfer function of the optical system, to guarantee positiveness, and also to prevent the regularization errors. The methods were analysed using phantoms with several degrees of Poisson noise and with real ceil images. Also, they were compared with the Maximum Likelihood Expectation Maximization and Regularized Linear Least Squares algorithms. All the metodologies demonstrate good performance in terms of both visual results and cost-benefit analysis. We also propose an approach for efficient three-dimensional skeletonization of tubular structures, such as neurons and arteries, through fast numerical calculation of vector fields and curvature estimation by using the Weingarten formulae. In short, given a binary image, the method consists in generating a grayscale image corresponding to the magnitude of a vector field followed by a search of the points that belong to the botton of the potencial valleys. It can be shown that these points correspond to the media1 axis transformation. We present results for both two-dimensional shapes and three-dimensional arteries and neurons images. The algorithm has demonstrated a good performance due to the fact that the vector field can be easy and fastly calculated using the fast Fourier transform algorithm
39

Pesquisa de similaridades em imagens mamográficas com base na extração de características. / Search for similarities in mammographic images based feature extraction.

Santos, Jamilson Bispo dos 25 April 2013 (has links)
Este trabalho apresenta uma estratégia computacional para a consolidação do treinamento dos radiologistas residentes por meio da classificação de imagens mamográficas pela similaridade, analisando informações dos laudos realizados por médicos experientes, obtendo os atributos extraídos das imagens médicas. Para a descoberta de padrões que caracterizam a similaridade aplicam-se técnicas de processamento digital de imagens e de mineração de dados nas imagens mamográficas. O reconhecimento de padrões tem como objetivo realizar a classificação de determinados conjuntos de imagens em classes. A classificação dos achados mamográficos é realizada utilizando Redes Neurais Artificiais, por meio do classificador Self-Organizing Map (SOM). O presente trabalho utiliza a recuperação de imagens por conteúdo (CBIR- Content-Based Image Retrieval), considerando a similaridade em relação a uma imagem previamente selecionada para o treinamento. As imagens são classificadas de acordo com a similaridade, analisando-se informações dos atributos extraídos das imagens e dos laudos. A identificação da similaridade é obtida pela extração de características, com a utilização da transformada de wavelets. / This work presents a computational strategy to consolidate the training of residents radiologists through the classification of mammographic images by similarity, analyzing information from reports made by experienced physicians, obtaining the attributes extracted from medical images. For the discovery of patterns that characterize the similarity apply techniques of digital image processing and data mining in mammographic images. Pattern recognition aims to achieve the classification of certain sets of images in classes. The classification of mammographic is performed using Artificial Neural Networks, through the classifier Self-Organizing Map (SOM). This work uses the image retrieval (CBIR-Content- Based Image Retrieval), considering the similarity in relation to an image already selected for training. The images are classified according to similarity, analyzing attribute information extracted from the images and reports. The identification of similarity was obtained by feature extraction, using the technique of wavelet transform.
40

Identificação de bovinos através de reconhecimento de padrões do espelho nasal utilizando redes neurais artificiais / Identification of bovines through recognition of images patterns of the muzzle using artificial neural nets

Gimenez, Carolina Melleiro 20 April 2011 (has links)
As Redes Neurais Artificiais (RNA) são modelos matemáticos associados à inteligência computacional capaz de aprender e generalizar informações, podendo assim ser utilizada como um classificador de imagens. O presente trabalho objetiva analisar o espelho nasal bovino com o intuito de comprovar que é uma característica única e permanente do animal podendo assim, ser sua identificação única. O experimento foi dividido em duas etapas. Para compor o banco de dados da primeira etapa foram utilizados 51 bovinos da raça Nelore com idade média de 11 meses, dos quais foram coletadas para a formação do banco de dados dezesseis imagens de cada animal, totalizando uma base de 816 imagens. Na segunda etapa do experimento foram utilizados 16 bovinos do banco de dados inicial, escolhidos de forma aleatória, com idade média de 23 meses. Destes foram coletadas 11 imagens para verificar se os padrões do espelho nasal, com o passar dos meses, mantêm seu padrão tornando possível, assim, a identificação do animal. Os algoritmos de processamento digital de imagens foram implementados utilizando o software MATLAB®. Após o processamento das imagens, as características vetorizadas foram utilizadas para treinamento e teste de uma rede neural artificial utilizando o algoritmo MLP, implementado usando o compilador C DGW, que serviu como classificador das mesmas. Também foi utilizado o algoritmo do K vizinhos mais próximos (K-nn), para realizar os testes de classificação, usando um método estatistico. A validação do classificador foi realizada mediante análise estatística dos seus erros e acertos. O erro médio quadrático utilizado neste estudo foi menor que 1%. Os resultados apresentados pelo classificador K-nn foram maiores que o da Rede Neural Artificial, porém ambos não alcançaram acertos acima de 90%, o que é considerado adequado a um classificador. Pode-se concluir que o método utilizado para extração de características não apresentou uma boa representatividade, porém ainda assim foi possível observar a tendência classificatória dos animais através das características do espelho nasal, assim como a tendência da permanência dos padrões com o envelhecimento do animal. / Artificial Neural Networks (ANN) are mathematical models associated with artificial intelligence that can learn and generalize information, therefore they can be used as images classifiers. This paper aims to analyze the cattle muzzle in order to prove that it is a unique and permanent characteristic of the animal thus, being used as its unique identification. The experiment was divided into two stages. To make the database of the first phase were used 51 Nelore bovines with an average age of 11 months, from which sixteen images of each animal were collected totalling of 816 images for the database. In the second stage of the experiment 16 bovines from the initial database were used, chosen randomly, with an average age of 23 months. From those 11 images were collected to verify if the standards of the muzzle remain the same after a couple of months, so the animal can be identified. The processing digital image algorithms were implemented using MATLAB® software. After the images processing, vectorized features were used to train and test an artificial neural network using the MLP algorithm, implemented using the C compiler DGW, and was used as a classifier. We also used the algorithm of K nearest neighbors (Knn) to perform the classification tests using a statistical method. The validation of the classifier was performed using statistical analysis of their mistakes and successes. The average square error used in this study was less than 1%. The results presented by K-nn classifier were higher than the one of Artificial Neural Network; nevertheless, both failed to reach above 90% success, which is considered suitable for a classifier. It can be concluded that the method used for feature extraction did not show a good performance, although it was possible to observe the trend of classification of animals through the characteristics of the muzzle, as well as the tendency of the permanence of the standards with the animal aging.

Page generated in 0.1448 seconds