• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5395
  • 422
  • 156
  • 128
  • 128
  • 125
  • 70
  • 58
  • 56
  • 56
  • 55
  • 31
  • 6
  • 3
  • 2
  • Tagged with
  • 5975
  • 2379
  • 1751
  • 977
  • 964
  • 911
  • 895
  • 881
  • 697
  • 692
  • 672
  • 553
  • 515
  • 459
  • 441
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Visualização simultânea e multi-nível de informações de monitoramento de cluster

Schnorr, Lucas Mello January 2005 (has links)
Clusters de computadores são geralmente utilizados para se obter alto desempenho na execução de aplicações paralelas. Sua utilização tem aumentado significativamente ao longo dos anos e resulta hoje em uma presença de quase 60% entre as 500 máquinas mais rápidas do mundo. Embora a utilização de clusters seja bastante difundida, a tarefa de monitoramento de recursos dessas máquinas é considerada complexa. Essa complexidade advém do fato de existirem diferentes configurações de software e hardware que podem ser caracterizadas como cluster. Diferentes configurações acabam por fazer com que o administrador de um cluster necessite de mais de uma ferramenta de monitoramento para conseguir obter informações suficientes para uma tomada de decisão acerca de eventuais problemas que possam estar acontecendo no seu cluster. Outra situação que demonstra a complexidade da tarefa de monitoramento acontece quando o desenvolvedor de aplicações paralelas necessita de informações relativas ao ambiente de execução da sua aplicação para entender melhor o seu comportamento. A execução de aplicações paralelas em ambientes multi-cluster e grid juntamente com a necessidade de informações externas à aplicação é outra situação que necessita da tarefa de monitoramento. Em todas essas situações, verifica-se a existência de múltiplas fontes de dados independentes e que podem ter informações relacionadas ou complementares. O objetivo deste trabalho é propor um modelo de integração de dados que pode se adaptar a diferentes fontes de informação e gerar como resultado informações integradas que sejam passíveis de uma visualização conjunta por alguma ferramenta. Esse modelo é baseado na depuração offline de aplicações paralelas e é dividido em duas etapas: a coleta de dados e uma posterior integração das informações. Um protótipo baseado nesse modelo de integração é descrito neste trabalho Esse protótipo utiliza como fontes de informação as ferramentas de monitoramento de cluster Ganglia e Performance Co-Pilot, bibliotecas de rastreamento de aplicações DECK e MPI e uma instrumentação do Sistema operacional Linux para registrar as trocas de contexto de um conjunto de processos. Pajé é a ferramenta escolhida para a visualização integrada das informações. Os resultados do processo de integração de dados pelo protótipo apresentado neste trabalho são caracterizados em três tipos: depuração de aplicações DECK, depuração de aplicações MPI e monitoramento de cluster. Ao final do texto, são delineadas algumas conclusões e contribuições desse trabalho, assim como algumas sugestões de trabalhos futuros.
102

Um estudo sobre a transformada rápida de Fourier e aplicações

Gonçalves, Louis Augusto January 2004 (has links)
Este trabalho é uma síntese da transformada de Fourier na forma discreta e uma de suas principais aplicações à computação gráfica, a restauração de imagens corrompidas por movimento, seja do aparelho óptico ou da própria imagem.
103

Arrastamento de partículas submetidas a variações de velocidade

Rodrigues, Ronaldo do Espírito Santo January 2003 (has links)
A visualização de escoamentos e a medição de campos de velocidades têm sido instrumentos de grande valia na compreensão de fenômenos na Mecânica dos Fluidos. Há muito tempo existem processos de medição de velocidade tais como tubo de Pitot ou de Venturi. Entretanto estes métodos são denominados invasivos. Na década de 70 surgiu o método não invasivo de determinação de velocidade e ficou conhecido como Velocimetria de Laser Doppler, em alusão ao fenômeno físico envolvido no processo de medição. Na década de 80, também do século passado, surgiram técnicas como Velocimetria por Speckle e Velocimetria por Imagem de Partículas. Estas, apesar de serem incluídas como não invasivas, na realidade devem colocar partículas traçadoras e/ou marcadoras (dependendo da técnica). Primeiramente, deve-se fazer considerações a respeito do quão intrusivo é a colocação de uma determinada partícula em um determinado escoamento. Em segundo lugar, deve-se efetuar uma análise do quanto o movimento da partícula reflete o movimento do escoamento, principalmente naqueles em que existem fortes gradientes de velocidade. Estas são questões cruciais para estes processos. O objetivo do presente trabalho é fazer uma avaliação do acompanhamento ou não de uma partícula, esférica, em um escoamento com gradientes de velocidade. Será estudada a influência do diâmetro da partícula. Para tanto será utilizado um perfil de Venturi e a técnica será a de Velocimetria de Imagem de Partículas (PIV em inglês), utilizando o tamanho do rastro deixado pelas partículas dispersas no fluido, determinando sua velocidade. Para determinação deste valor, foi desenvolvido um método de análise de histograma. / The flow visualization and measurements of velocity fields have been important instruments to phenomena understanding in Fluid Mechanics. Process of velocity measurements have been used a long time ago, like Pitot and Venturi pipes. Those methods are named invasive. In seventies of the last century rised a method non invasive to determine velocity in flows known as Laser Doppler Velocimetry (LDV), in respect of the physical phenomena involved in measurement process. In eighties, of last century too, rised techniques like Laser Speckle Velocimetry (LSV) and Particle Image Velocimetry (PIV). These techniques, although have been classified as non intrusive, actually must spread out tracer and/or marker particles, depending upon what technique is been used. First, one has to analyze of how non intrusive is to spread out particles in one specified flow. Second, it is necessary to study of how a particle movement reflects the flow, mainly in those flows submitted upon high velocity gradients. Those questions are essentials in this kind of measurement. The aim of this present work is to evaluate of how suitable the particle movement is to flow movement. The particle will be considered as spherical, in a flow with velocity gradients. Will be studied the influence of particle diameter. To implement this work, the pipe profile chosen was Venturi and the technique will be Particle Image Velocimetry, using the length of particle streaks to evaluate its velocity. It was developed a method that analyzes the histogram.
104

Microcontrolador FemtoJava com características para processamento digital de sinais : FemtoJavaDSP

Krapf, Rafael Caillava January 2004 (has links)
Resumo não disponível
105

Ferramenta computacional para a medição de campos de velocidade utilizando processamento digital de imagens

Gutkoski, Lucas Luis January 2001 (has links)
A proposta deste trabalho, consiste na elaboração de uma ferramenta computacional para a medição de campos de velocidades em escoamentos com baixas velocidades (< 0,5 m/s) utilizando o processamento digital de imagens. Ao longo dos anos, inúmeras técnicas foram desenvolvidas com este objetivo. Para cada tipo de aplicação, uma técnica se aplica com maior ou menor eficiência do que outras. Para o caso de estudos em fluídos transparentes, onde o escoamento pode ser visualizado, técnicas que utilizam processamento digital de imagens vêm ganhando um grande impulso tecnológico nos últimos anos. Este impulso, é devido a fatores como: câmaras vídeo filmadoras de última geração, dispositivos de aquisição de imagens e componentes de processamento e armazenamento de dados cada vez mais poderosos. Neste contexto, está a velocimetria por processamento de imagens de partículas cuja sigla é PIV (particle image velocimetry). Existem várias formas de se implementar um sistema do tipo PIV. As variantes dependem, basicamente, do equipamento utilizado. Para sua implementação é necessário, inicialmente, um sistema de iluminação que incide em partículas traçadoras adicionadas ao fluido em estudo. Após, as partículas em movimento são filmadas ou fotografadas e suas imagens adquiridas por um computador através de dispositivos de captura de imagens. As imagens das partículas são então processadas, para a obtenção dos vetores velocidade. Existem diferentes formas de processamento para a obtenção das velocidades. Para o trabalho em questão, devido às características dos equipamentos disponíveis, optou-se por uma metodologia de determinação da trajetória de partículas individuais, que, apesar de limitada em termos de módulo de velocidade, pode ser aplicada a muitos escoamentos reais sob condições controladas Para validar a ferramenta computacional desenvolvida, imagens ideais de partículas foram simuladas como se estivessem em escoamento, através do deslocamento conhecido de vários pixels. Seguindo o objetivo de validação, foi utilizada ainda uma imagem real de partículas, obtida com o auxílio de um plano de iluminação de luz coerente (LASER) e câmaras de vídeo tipo CCD. O programa desenvolvido foi aplicado em situações de escoamento real e os resultados obtidos foram satisfatórios dentro da escala de velocidades inicialmente presumida.
106

Abstrações para uma linguagem de programação visando aplicações móveis em um ambiente de Pervasive Computing

Augustin, Iara January 2004 (has links)
Computação Móvel é um termo genérico, ainda em definição, ao redor do qual se delineia um espectro de cenários possíveis, desde a Computação Pessoal, com o uso de computadores de mão, até a visão futurista da Computação Ubíqua. O foco do projeto ISAM (Infra-estrutura de Suporte às Aplicações Móveis Distribuída), em desenvolvimento no II/UFRGS, é a Pervasive Computing. Esta desenha um cenário onde o usuário é livre para se deslocar mantendo o acesso aos recursos da rede e ao seu ambiente computacional, todo tempo em qualquer lugar. Esse novo cenário apresenta muitos desafios para o projeto e execução de aplicações. Nesse escopo, esta tese aprofunda a discussão sobre questões relativas à adaptação ao contexto em um ambiente pervasivo sob a ótica de uma Linguagem de Programação, e define uma linguagem chamada ISAMadapt. A definição da linguagem ISAMadapt baseia-se em quatro abstrações: contexto, adaptadores, políticas e comandos de adaptação. Essas abstrações foram concretizadas em duas visões: (1) em tempo de programação, através de comandos da linguagem e arquivos de configuração, descritos com o auxílio do Ambiente de Desenvolvimento de Aplicações; (2) em tempo de execução, através de serviços e APIs fornecidos pelos componentes que integram o ambiente de execução pervasiva (ISAMpe). Deste, os principais componentes que implementam a semântica de execução da aplicação ISAMadapt são: o serviço de reconhecimento de contexto, ISAMcontextService, e a máquina de execução da adaptação dinâmica, ISAMadaptEngine.As principais contribuições desta tese são: (a) primeira linguagem para a codificação de aplicações pervasivas; (b) sintaxe e semântica de comandos para expressar sensibilidade ao contexto pervasivo; (c) fonte para o desenvolvimento de uma metodologia de projeto de aplicações pervasivas; (d) projeto ISAM e o projeto contextS (www.inf.ufrgs.br/~isam) que fornecem suporte para o ciclo de vida das aplicações, desde o desenvolvimento até a execução de aplicações pervasivas.
107

Reconhecimento de expressões faciais utilizando estimação de movimento

SANTIAGO, Hemir da Cunha 07 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T21:40:31Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Hemir da Cunha Santiago.pdf: 2328852 bytes, checksum: fef592fcea41c2d4f8c811862b941d72 (MD5) / Made available in DSpace on 2018-06-25T21:40:31Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Hemir da Cunha Santiago.pdf: 2328852 bytes, checksum: fef592fcea41c2d4f8c811862b941d72 (MD5) Previous issue date: 2017-02-07 / As expressões faciais fornecem informações sobre a resposta emocional e exercem um papel fundamental na interação humana e como forma de comunicação não-verbal. Contudo, o reconhecimento das expressões ainda é algo considerado complexo para o computador. Neste trabalho, propomos um novo extrator de características que utiliza a estimação de movimento para o reconhecimento de expressões faciais. Nesta abordagem, o movimento facial entre duas expressões é codificado usando uma estimação dos deslocamentos de regiões entre duas imagens, que podem ser da mesma face ou de faces similares. A imagem da expressão facial é comparada a outra imagem mais similar em cada expressão facial da base de treinamento, a maior similaridade é obtida usando a medida de Similaridade Estrutural (SSIM - Structural Similarity Index). Após a identificação das imagens mais similares na base de treinamento, são calculados os vetores de movimento entre a imagem cuja expressão facial será reconhecida e a outra mais similar em uma das expressões da base. Para calcular os vetores de movimento é proposto o algoritmo MARSA(Modified Adaptive Reduction of the Search Area). Todos os vetores de movimento são comparados às coordenadas com as maiores ocorrências dentre todos os vetores de movimento obtidos durante a fase de treinamento, a partir dessa comparação são gerados os vetores de características que servem de dados de entrada para uma SVM (Support Vector Machine),que irá realizar a classificação da expressão facial. Diversas bases de imagens e vídeos de faces, reproduzindo expressões faciais, foram utilizadas para os experimentos. O critério adotado para a escolha das bases foi a frequência com que são utilizadas em outros trabalhos do estado da arte, portanto foram escolhidas: Cohn-Kanade (CK), Extended Cohn-Kanade (CK+), Japanese Female Facial Expression (JAFFE), MMI e CMU Pose, Illumination, and Expression (CMU-PIE). Os resultados experimentais demostram taxas de reconhecimento das expressões faciais compatíveis a outros trabalhos recentes da literatura, comprovando a eficiência do método apresentado. / Facial expressions provide information on the emotional response and play an essential role in human interaction and as a form of non-verbal communication. However, there cognition of expressions is still something considered complex for the computer. In this work, it is proposed a novel feature extractor that uses motion estimation for Facial Expression Recognition (FER). In this approach, the facial movement between two expressions is coded using an estimation of the region displacements between two images, which may be of the same face or the like. The facial expression image is compared to another more similar image in each facial expression of the training base, the best match is obtained using the Structural Similarity Index (SSIM). After identifying the most similar images in the training base, the motion vectors are calculated between the reference image and the other more similar in one of the expressions of the base. To calculate the motion vectors is proposed the MARSA (Modified Adaptive Reduction of the Search Area) algorithm. All motion vectors are compared to the coordinates with the highest occurrences of all motion vectors obtained during the training phase, from this comparison the feature vectors are generated that serve as input data for a SVM (Support Vector Machine), which will perform the classification of facial expression. Several databases of images and videos of faces reproducing facial expressions were used for the experiments, the adopted criteria for selection of the bases was the frequency which they are used in the state of the art, then were chosen: CohnKanade (CK), Extended Cohn-Kanade (CK+), Japanese Female Facial Expression (JAFFE), MMI, and CMU Pose, Illumination, and Expression (CMU-PIE). The experimental results demonstrate that there cognition rates of facial expressions are compatible to recent literature works proving the efficiency of the presented method.
108

Reconhecimento de instâncias guiado por algoritmos de atenção visual

MESQUITA, Rafael Galvão de 24 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-06-25T22:48:16Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rafael Galvão de Mesquita.pdf: 3132690 bytes, checksum: 146f47256f9ec73dd248693c53e9d44e (MD5) / Made available in DSpace on 2018-06-25T22:48:16Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Rafael Galvão de Mesquita.pdf: 3132690 bytes, checksum: 146f47256f9ec73dd248693c53e9d44e (MD5) Previous issue date: 2017-02-24 / CNPQ / Atenção visual é o processo pelo qual o cérebro humano prioriza e controla o processamento de estímulos visuais e é, dentre outras características do sistema visual, responsável pela forma rápida com que seres humanos interagem com o meio ambiente, mesmo considerando uma grande quantidade de informações a ser processada. A atenção visual pode ser direcionada pelo mecanismo bottom-up, em que estímulos de baixo nível da cena, como cor, guiam o foco atentivo para aquelas regiões mais salientes, ou seja, que se distinguam da sua vizinhança ou do restante da cena; ou pelo mecanismo top-down, em que fatores cognitivos, como expectativas do indivíduo ou o objetivo de concluir certa tarefa, definem a região de atenção. Esta Tese investiga o uso de algoritmos de atenção visual para guiar (e acelerar) a busca por objetos em imagens digitais. Inspirado no funcionamento do mecanismo bottom-up, um algoritmo de detecção de saliências baseado na estimativa do background da cena combinado com o resultado de um operador Laplaciano, denominado de BLS (Background Laplacian Saliency), é proposto. Além disso, uma modificação no detector/descritor de características locais SURF (Speeded-UpRobust Features), denominado depatch-based SURF, é desenvolvida para que o reconhecimento ocorra iterativamente em certos locais em foco da cena, ao invés de executar o modo clássico de reconhecimento (busca clássica), em que toda a cena é analisada de uma só vez. O modo de busca em que opatch-based SURF é aplicado e a ordem das regiões analisadas da imagem é definida por um algoritmo de detecção de saliência é referenciado como Busca Guiada por Mapa de Saliência (BGMS). O BLS e outros nove algoritmos de detecção de saliências são experimentados na BGMS. Resultados indicam, em média, uma redução para (i) 73% do tempo de processamento da busca clássica apenas pela aplicação do patch-based SURF em uma busca aleatória, (ii) e para 53% desse tempo quando a busca é guiada pelo BLS. Utilizando outros algoritmos de detecção de saliências do estado da arte, entre 55% e 133% do tempo da busca clássica são necessários para o reconhecimento. Além disso, inspirado pelo mecanismo top-down, é proposta a Busca Guiada por Características do Objeto (BGCO) por meio da priorização de descritores extraídos da cena em função da distância Hamming para os descritores de um determinado objeto alvo. A BGCO utiliza filtros de Bloom para representar vetores de características similares aos descritores do objeto buscado e possui complexidade de espaço e tempo constantes em relação ao número de elementos na base de descritores do alvo. Experimentos demonstram uma redução do tempo de processamento para 80% do tempo necessário quando a busca clássica é executada. Concluindo, a partir da integração entre a BGMS e a BGCO (BGMS+BGCO) é possível reduzir o tempo de execução da busca para 44% do tempo da busca clássica. / Visual attention is the process by which the human brain prioritizes and controls visual stimuli and it is, among other characteristics of the visual system, responsible for the fast way in which human beings interact with the environment, even considering a large amount of information to be processed. Visual attention can be driven by abottom-up mechanism, in which low level stimuli of the analysed scene, like color, guides the focused region to salient regions (regions that are distinguished from its neighborhood or from the whole scene); orbyatop-down mechanism, in which cognitive factors, like expectations or the goal of concluding certain task, define the attended location. This Thesis investigates the use of visual attention algorithms to guide (and to accelerate) the search for objects in digital images. Inspired by the bottom-up mechanism, a saliency detector based on the estimative of the scene’s background combined with the result of a Laplacian-based operator, referred as BLS (BackgroundLaplacianSaliency), is proposed. Moreover, a modification in SURF (Speeded-Up Robust Features) local feature detector/descriptor, named as patch-based SURF, is designed so that the recognition occurs iteratively in each focused location of the scene, instead of performing the classical recognition (classic search), in which the whole scene is analysed at once. The search mode in which the patch-based SURF is applied and the order of the regions of the image to be analysed is defined by a saliency detection algorithm is called BGMS. The BLS and nine other state-of-the-art saliency detection algorithms are experimented in the BGMS. Results indicate, in average, a reduction to (i) 73% of the classic search processing time just by applyingpatch-basedSURF in a random search, (ii) and to 53% of this time when the search is guided by BLS. When using other state-of-the-art saliency detection algorithms, between 55% and 133% of the processing time of the classic search is needed to perform recognition. Moreover, inspired by thetop-down mechanism, it is proposed the BGCO, in which the visual search occurs by prioritizing scene descriptors according to its Hamming distance to the descriptors of a given target object. The BGCO uses Bloom filters to represent feature vectors that are similar to the descriptors of the searched object and it has constant space and time complexity in relation to the number of elements in the set of the descriptors of the target. Experiments showed a reduction in the processing time to 80% of the required time when the classic search is performed. Finally, by using the BGMS and the BGCO in an integrated way, the processing time of the search was reduced to 44% of the execution time required by the classic search.
109

Um novo algoritmo para segmentação de imagens de mamografias robusto a ruído

TENÓRIO, Thiago Gonçalves 22 November 2013 (has links)
Submitted by Fernanda Rodrigues de Lima (fernanda.rlima@ufpe.br) on 2018-07-25T21:44:29Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Thiago Gonçalves Tenório.pdf: 2554108 bytes, checksum: 86e2e3e25258104f0d8958bca233136c (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-07-27T21:53:33Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Thiago Gonçalves Tenório.pdf: 2554108 bytes, checksum: 86e2e3e25258104f0d8958bca233136c (MD5) / Made available in DSpace on 2018-07-27T21:53:34Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Thiago Gonçalves Tenório.pdf: 2554108 bytes, checksum: 86e2e3e25258104f0d8958bca233136c (MD5) Previous issue date: 2013-11-22 / Segundo tipo mais frequente no mundo, o câncer de mama é mais comum entre as mulheres respondendo, no Brasil, por 52.680 casos diagnosticados em 2012 e 12.852 mortes em decorrência da doença em 2010. A mamografia é um exame de diagnóstico por imagem que tem como finalidade estudar o tecido mamário como, por exemplo, as anormalidades na mama. A imagem mamográfica pode ser dividida em duas regiões com características diferentes, o background ou região de fundo e a região da mama propriamente atingida pelos raios-X. Em uma mamografia, a região limite entre a mama e seu background também conhecida como borda, fronteira ou contorno é uma importante área a ser detectada na imagem. No entanto, no processamento de imagem, a extração do contorno da mama e a segmentação do tecido é uma tarefa desafiadora em muitos aspectos. Os avanços tecnológicos na área médica proporcionaram a criação dos sistemas de detecção auxiliada por computador (CAD - Computer Aided Diagnosis) que vêm ajudando os radiologistas, principalmente os radiologistas residentes, na difícil atividade de avaliação e análise de estruturas de interesse nas imagens mamográficas, como as bordas, utilizando-se para isso de técnicas de processamento de imagens. Este trabalho tem como objetivo o desenvolvimento de um algoritmo de segmentação das imagens de mamografias que agrupa diversas operações do processamento de imagem, como especificação de histograma, re-amostragem, ajuste de histograma, aritmética e operações morfológicas ou seja, utilização das técnicas de processamento de imagem para segmentação da mamografia em busca do encontro da borda. Nesta dissertação, alcançou-se uma segmentação correta em 97% das imagens de mamografia processadas, ou seja, a esqueletização contém toda a mama em seu interior e se assemelham ao contorno da mama. O novo algoritmo objetiva aumentar a visibilidade sobre as novas técnicas de segmentação de imagens mamográfica de uma forma automatizada e robusta a ruído que se apresentam corriqueiramente na aquisição e transmissão das imagens. / Second most common worldwide cancer disease, breast cancer is more common among women corresponding in Brazil to 52,680 cases diagnosed in 2012 and 12,852 deaths from the disease in 2010. Mammography is a diagnostic imaging tool which aims to study breast tissue, looking for abnormalities in the breast. The mammographic image may be divided into two regions with different characteristics, background region which was not exposed to X-ray and the breast region struck properly. On a mammogram, the boundary region between the breast and his background (also known as edge, border or contour) is an important area to be detected in the image. However, in image processing field, contour extraction and segmentation of the breast tissue is a challenging task in many respects. Technological advances in medical field propelled the creation of systems for computer-aided diagnosis (CAD) that are helping radiologists, especially junior radiologists, in difficult activity evaluation and analysis of interest structures in mammographic images as edges, using for this image processing techniques. This work aims to study the techniques of image processing of mammograms improving the knowledge of image segmentation with applications related to search the edge of the image, as well as the development of an algorithm for image segmentation that groups several image processing operations, such as histogram specification, re-sampling, histogram adjustment, arithmetic, and morphological operations. In this dissertation, it was attained 97% correct segmentation of mammogram contour, that is, the skeletonization contains in its interior the entire breast and resemble the contour of the breast. The new algorithm aims to increase the visibility of new techniques for segmentation of mammographic images in an automated and robust to noise ways that can appear routinely in the image acquisition and transmission.
110

Restauração de imagens através de reflexos especulares

QUEIROZ, Fabiane da Silva 10 February 2017 (has links)
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-01T20:32:26Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Fabiane da Silva Queiroz.pdf: 3559338 bytes, checksum: 6ad099d902a78d31ff0e24d1bb055ef6 (MD5) / Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-02T20:06:22Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Fabiane da Silva Queiroz.pdf: 3559338 bytes, checksum: 6ad099d902a78d31ff0e24d1bb055ef6 (MD5) / Made available in DSpace on 2018-08-02T20:06:22Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) TESE Fabiane da Silva Queiroz.pdf: 3559338 bytes, checksum: 6ad099d902a78d31ff0e24d1bb055ef6 (MD5) Previous issue date: 2017-02-10 / A restauração cega de imagens corrompidas por borramento é um problema inverso clássico da área de Processamento de Imagens e Visão Computacional. Um processo de restauração de imagens é definido como cego, quando desconhecemos tanto a imagem original não corrompida quanto a Função de Espalhamento de Ponto da degradação (PSF – Point Spread Function) e o ruído envolvido neste processo. Imagens de endoscopia óptica são comumente afetadas por borramento devido à movimentação da câmera no processo de captura ou a movimentos involuntários da superfície do tecido do trato gastrointestinal. Nesta tese propomos um novo método de restauração cega de imagens de endoscopia óptica. Para tanto, nós exploramos o uso de reflexos especulares, que constituem outro tipo de degradação muito comum nesse tipo de imagem, e que por sua vez, são utilizados como informação a priori no processo de estimativa da PSF do borramento. Sendo assim, o método aqui proposto pode ser dividido em duas etapas. A primeira etapa consiste de um novo método de segmentação precisa de reflexos especulares que podem, por sua vez, conter ricas informações sobre a degradação sofrida pela imagem. A segunda etapa consiste de um novo método de estimação da PSF da degradação, no qual a mesma é inferida através do agrupamento e fusão dos reflexos segmentados previamente. Observamos que a fusão de reflexos especulares não fere os pré-requisitos de que a PSF estimada deve ser esparsa, positiva e com um tamanho pequeno quando comparado ao tamanho da imagem sendo restaurada. Além disso, uma vez que sabemos que tais reflexos podem conter informações relevantes do processo de borramento, mostramos que quando fundidos, estes podem ser utilizados na estimação da PSF do borramento, produzindo assim resultados satisfatórios de imagens restauradas quando estas são comparadas à imagens restauradas por métodos do estado da arte, sendo a qualidade das imagens restauradas pelo método aqui proposto muitas vezes superior ou equivalente aos trabalhos comparados. / Blind image deconvolution (blind image deblurring or blind image restoration) is a classical inverse problem of Image Processing and Computer Vision. In a blind deconvolution process, the original uncorrupted image and and the Point Spread Function (PSF) of the degradation are unknown. Images of optic endoscopy are commonly affected by blur due camera movements during the image capture process or due involuntary movements of the gastrointestinal tissue. In this work, we propose a new blind deconvolution method of optical endoscopy blurred images. We explore the use of specular reflections that are a very common degradation in this type of images. These reflections are used as a prior information to the PSF estimation process. The proposed method can be divided into two stages. The first stage consists of a new method to perform a precise segmentation of specular reflections. The second step consists of a new estimation method of the PSF. This PSF is inferred by grouping and fusion of specular reflections previously segmented. We observed that the proposed method of fusion of theses reflections meets the prerequisites that the estimated PSF must be sparse, positive and have a small size when compared with the blurred image size. Also, since we know that these reflections may contain relevant information about the degradation, we show that when fused, they may be used in the estimation of the PSF producing satisfactory results where, in many cases, the quality of the images restored by the proposed method is superior or equal to the images restored by other state-of-the-art methods.

Page generated in 0.184 seconds