• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 310
  • 47
  • 45
  • 45
  • 45
  • 31
  • 14
  • 14
  • 13
  • 13
  • 6
  • Tagged with
  • 319
  • 319
  • 314
  • 310
  • 110
  • 99
  • 98
  • 70
  • 59
  • 49
  • 48
  • 42
  • 41
  • 40
  • 39
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Avaliação do processamento digital de imagens como ferramenta para caracterização de agregados e misturas asfálticas / Evaluation of digital image processing as a tool for the characterization of aggregates and asphalt mixtures

Bessa, Iuri Sidney 11 1900 (has links)
BESSA, I. S. Avaliação do processamento digital de imagens como ferramenta para caracterização de agregados e misturas asfálticas. 2012. 153 f. Dissertação (Mestrado em Engenharia de Transportes) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2012. / Submitted by Zacarias Barbosa Matias Junior (zaca@det.ufc.br) on 2013-05-10T20:31:42Z No. of bitstreams: 1 2012_dis_isbessa.pdf: 5200247 bytes, checksum: b23ae09c584c3d14850fd224ae8d0e3e (MD5) / Approved for entry into archive by Marlene Sousa(mmarlene@ufc.br) on 2013-05-21T18:53:45Z (GMT) No. of bitstreams: 1 2012_dis_isbessa.pdf: 5200247 bytes, checksum: b23ae09c584c3d14850fd224ae8d0e3e (MD5) / Made available in DSpace on 2013-05-21T18:53:45Z (GMT). No. of bitstreams: 1 2012_dis_isbessa.pdf: 5200247 bytes, checksum: b23ae09c584c3d14850fd224ae8d0e3e (MD5) Previous issue date: 2012 / It is a general consensus that the mechanical performance of asphalt mixtures with respect to the pavements’ main distresses (permanent deformation, fatigue cracking and thermal cracking) is directly related to the aggregates’ properties used in those mixtures. The traditional methodology of characterizing aggregates, mainly in relation to shape properties, such as form, angularity and texture, can be very time-consuming. It also does not provide precise results, because it combines more than one property in a single test result. Another disadvantage is the fact that these methodologies also provide average values that may not represent well the evaluated materials. There are alread y in the literature several Digital Image Processing (DIP) techniques that can be used with the purpose of characterizing aggregates in a more complete and realistic way. One of them is the Aggregate Image Measurement System (AIMS), equipment developed to analyze properties, such as: shape, angularity, and superficial texture of coarse and fine aggregates, through different methods. It is believed that different quarries can produce aggregates with very distinct properties, due to the several used rock blasting and crushing processes, quality control activities and material storage methodology. The main objective of this research is to evaluate the potential use of DIP to analyze shape, angularity and texture of aggregates from different sources and to analyze asphalt mixtures internal structure constituted by those aggregates. Aggregates from three different quarries, all located in the State of Ceará, were obtained and characterized. The aggregates were analyzed using AIMS, for different sizes, and the results were compared. Besides that, the asphalt mixtures constituted with these aggregates were analyzed regarding their internal structure and their mechanical characteristics. The main results obtained in this study led to conclude that the aggregates used in this research are very similar in respect to their form, angularity and texture properties. With respect to the mechanical properties of the mixtures constituted by these aggregates, the results show that their behavior is also very similar, which is probably due to the similar characteristics of their aggregates. / É de conhecimento geral que o desempenho de misturas asfálticas com relação aos principais defeitos do pavimento (deformação permanente, trincamento por fadiga e trincamento térmico) está diretamente ligado às propriedades dos agregados que as constituem. A metodologia tradicional de caracterização de agregados, principalmente em relação à forma, à angularidade e à textura, pode se tornar dispendiosa e não fornecer resultados precisos, pois, além de muitas vezes combinar mais de uma propriedade em apenas um ensaio, estes parâmetros são avaliados a partir de uma média de valores que pode não representar bem os materiais estudados. Sendo assim, já existem, na literatura, diversas técnicas de Processamento Digital de Imagens (PDI) que podem ser utilizadas com o intuito de caracterizar agregados de forma mais completa e realista. Uma destas técnicas é por meio do uso do equipamento Aggregate Image Measurement System (AIMS), desenvolvido para analisar forma, angularidade e textura superficial de agregados graúdos e miúdos, através de diferentes métodos. Acredita-se que, diferentes pedreiras podem produzir agregados com propriedades distintas entre si devido aos diversos processos de desmonte, de britagem, de controle de qualidade e de armazenamento dos materiais. O objetivo geral do presente trabalho é avaliar o potencial do uso do PDI na análise das propriedades de forma, de angularidade e de textura de agregados provenientes de fontes distintas e na análise da estrutura interna de misturas asfálticas compostas por esses agregados. Foram obtidos e caracterizados agregados provenientes de três pedreiras distintas, todas localizadas no estado do Ceará. Os agregados foram analisados no AIMS separando-se os diversos tamanhos de suas partículas, e os resultados obtidos para o material proveniente de cada pedreira foram comparados entre si. Além disso, misturas asfálticas compostas por esses agregados foram analisadas em relação a sua estrutura interna e em relação a suas propriedades mecânicas. Os principais resultados obtidos levaram à conclusão de que os agregados estudados são semelhantes no que diz respeito a suas propriedades de forma, de angularidade e de textura. Em relação às propriedades mecânicas das misturas compostas por esses agregados, os resultados mostram que estas se comportaram de maneira similar, o que provavelmente se deve às características também similares de seus agregados.
52

Reconstrução digital de documentos mutilados com formas regulares / Marlos Alex de Oliveira Marques ; orientadora, Cinthia Obladen de Almendra Freitas

Marques, Marlos Alex de Oliveira January 2009 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2009 / Bibliografia: p. 53-55 / Este trabalho apresenta um processo de reconstrução de documentos mutilados através de máquinas fragmentadoras (formato 'spaghetti'), o qual caracteriza-se por ser um problema na área de ciências forenses, relativo à análise de documentos questionados. O / This work presents a procedure for reconstructing destroyed documents that have been stripshredded, which is a frequent problem in forensic sciences. The proposed method first extracts features based on color of the boundaries and then computes the neares
53

Localização de códigos de identificação em vagões de trem / Marcelo Souza Ramos ; orientador, Alceu de Souza Brito Jr ; co-orientador, Jacques Facon

Ramos, Marcelo Souza January 2012 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, Curitiba, 2012 / Bibliografia: p. 77-80 / Inúmeras pesquisas têm sido feitas na área de Visão Computacional com objetivo de propor uma solução para o problema de se localizar texto em vídeos. A motivação está no número potencial de aplicações. Neste contexto, o presente trabalho tem como objetivo / Many efforts have been done to develop methods based on Computer Vision techniques for text location in video scenes. The motivation is the large number of applications. In this context, the subject of the present work is to develop a method for text code
54

Segmentação de envelopes postais Brasileiros por abordagem morfológica utilizando matriz de co-ocorrência e histograma 2D / Eduardo Akira Yonekura ; orientador, Jacques Facon

Yonekura, Eduardo Akira January 2002 (has links)
Dissertação (mestrado) - Pontifícia Universidade Católica do Paraná, 2002 / Inclui bibliografias / O presente trabalho apresenta um novo método de segmentação de envelopes postais brasileiros por abordagem composta combinando os conceitos de morfologia matemática, matriz de co-ocorrência e histograma 2D. Técnicas de segmentação morfológica ajudam a int / This work presents a new segmentation method by compound approach combining the concepts of mathematical morphology, co-occurrence matrix and two-dimensional histogram. Morphological segmentation techniques assist to interpret the information generated by
55

Cloud Partitioning Iterative Closest Point (CP-ICP): um estudo comparativo para registro de nuvens de pontos 3D

Pereira, Nícolas Silva 15 July 2016 (has links)
PEREIRA, Nicolas Silva. Cloud Partitioning Iterative Closest Point (CP-ICP): um estudo comparativo para registro de nuvens de pontos 3D. 2016. 69 f. Dissertação (Mestrado em Engenharia de Teleinformática)–Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by Hohana Sanders (hohanasanders@hotmail.com) on 2017-01-06T18:04:28Z No. of bitstreams: 1 2016_dis_nspereira.pdf: 7889549 bytes, checksum: d5299d9df9b32e2b1189eba97b03f9e1 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2017-06-01T18:21:16Z (GMT) No. of bitstreams: 1 2016_dis_nspereira.pdf: 7889549 bytes, checksum: d5299d9df9b32e2b1189eba97b03f9e1 (MD5) / Made available in DSpace on 2017-06-01T18:21:16Z (GMT). No. of bitstreams: 1 2016_dis_nspereira.pdf: 7889549 bytes, checksum: d5299d9df9b32e2b1189eba97b03f9e1 (MD5) Previous issue date: 2016-07-15 / In relation to the scientific and technologic evolution of equipment such as cameras and image sensors, the computer vision presents itself more and more as a consolidated engineering solution to issues in diverse fields. Together with it, due to the 3D image sensors dissemination, the improvement and optimization of techniques that deals with 3D point clouds registration, such as the classic algorithm Iterative Closest Point (ICP), appear as fundamental on solving problems such as collision avoidance and occlusion treatment. In this context, this work proposes a sampling technique to be used prior to the ICP algorithm. The proposed method is compared to other five variations of sampling techniques based on three criteria: RMSE (root mean squared error), based also on an Euler angles analysis and an autoral criterion based on structural similarity index (SSIM). The experiments were developed on four distincts 3D models from two databases, and shows that the proposed technique achieves a more accurate point cloud registration in a smaller time than the other techniques. / Com a evolução científica e tecnológica de equipamentos como câmeras e sensores de imagens, a visão computacional se mostra cada vez mais consolidada como solução de engenharia para problemas das mais diversas áreas. Associando isto com a disseminação dos sensores de imagens 3D, o aperfeiçoamento e a otimização de técnicas que lidam com o registro de nuvens de pontos 3D, como o algoritmo clássico Iterative Closest Point (ICP), se mostram fundamentais na resolução de problemas como desvio de colisão e tratamento de oclusão. Nesse contexto, este trabalho propõe um técnica de amostragem a ser utilizada previamente ao algoritmo ICP. O método proposto é comparado com outras cinco varições de amostragem a partir de três critérios: RMSE (root mean squared error ), a partir de uma análise de ângulos de Euler e uma métrica autoral baseada no índice de structural similarity (SSIM). Os experimentos foram desenvolvidos em quatro modelos 3D distintos vindos de dois diferentes databases, e revelaram que a abordagem apresentada alcançou um registro de nuvens mais acuraz num tempo menor que as outras técnicas.
56

Um framework para processamento paralelo de algoritmos de aumento de resolução de vídeos

Freitas, Pedro Garcia 19 February 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2013. / Submitted by Luiza Silva Almeida (luizaalmeida@bce.unb.br) on 2013-07-22T15:55:22Z No. of bitstreams: 1 2013_PedroGarciaFreitas.pdf: 26321002 bytes, checksum: 43198c842ebe82fc257908e2dcf98b7b (MD5) / Approved for entry into archive by Leandro Silva Borges(leandroborges@bce.unb.br) on 2013-07-23T20:36:47Z (GMT) No. of bitstreams: 1 2013_PedroGarciaFreitas.pdf: 26321002 bytes, checksum: 43198c842ebe82fc257908e2dcf98b7b (MD5) / Made available in DSpace on 2013-07-23T20:36:47Z (GMT). No. of bitstreams: 1 2013_PedroGarciaFreitas.pdf: 26321002 bytes, checksum: 43198c842ebe82fc257908e2dcf98b7b (MD5) / O aumento dimensional de sinais visuais consiste na alteração do tamanho de uma imagem ou de um vídeo para dimensões espaciais maiores, utilizando técnicas de processa- mento digital de sinais. Geralmente, esse aumento é feito com a utilização de técnicas de interpolação. Contudo, essas técnicas de interpolação produzem distorções nas imagens au- mentadas. Tais distorções ocorrem porque a imagem aumentada possui apenas as amostras da imagem original, de dimensões menores, que são insu cientes para reconstrução exata do sinal, o que gera efeitos de aliasing. Assim sendo, as técnicas de interpolação apenas estimam os coe cientes não-amostrados do sinal, o que muitas vezes produz resultados insatisfatórios para muitas aplicações, necessitando de outras técnicas para reconstituir os coe cientes não-amostrados com maior precisão. Para melhorar a aproximação de uma imagem estimada com relação à imagem origi- nal, existem técnicas que reconstroem os coe cientes não-amostrados. Essas técnicas são chamadas de super-resolução. Elas consistem em aumentar a resolução utilizando, geral- mente, informações de outras imagens em baixa ou alta-resolução para estimar a informação faltante na imagem que se deseja ampliar. Super-resolução é um processo computacionalmente intenso, onde a complexidade dos algoritmos são, geralmente, de ordem exponencial no tempo em função do bloco ou do fa- tor de ampliação. Portanto, quando essas técnicas são aplicadas para vídeos, é necessário que o algoritmo seja extremamente rápido. O problema é que os algoritmos mais com- putacionalmente e cientes, nem sempre são aqueles que produzem os melhores resultados visuais. Sendo assim, este trabalho propõe um framework para melhorar o desempenho de diversos algoritmos de super-resolução através de estratégias de processamento seletivo e paralelo. Para isso, nesta dissertação são examinadas as propriedades dos resultados produzidos pelos algoritmos de super-resolução e os resultados produzidos utilizando-se técnicas de interpolação. Com essas propriedades, é encontrado um critério para classi car as regiões em que os resultados produzidos sejam visualmente equivalentes, não importando o método utilizado para ampliação. Nessas regiões de equivalência utiliza-se um algoritmo de interpolação, que é muito mais veloz do que os computacionalmente complexos de super-resolução. Assim, consegue-se reduzir o tempo de processamento sem prejudicar a qualidade visual do vídeo ampliado. Além dessa abordagem, este trabalho também propõe uma estratégia de divisão de dados entre diferentes tarefas para que a operação de aumento de resolução seja realizada de forma paralela. Um resultado interessante do modelo proposto é que ele desacopla a abstração de distribuição de carga da função de aumento dimensional. Em outras palavras, diferentes métodos de super-resolução podem explorar os recursos do framework sem que para isso seus algoritmos precisem ser modi cados para obtenção do paralelismo. Isso torna o framework portável, escalável e reusável por diferentes métodos de super-resolução. ______________________________________________________________________________ ABSTRACT / The magni cation of visual signals consists of changing the size of an image or a video to larger spatial dimensions, using digital signal processing techniques. Usually, this mag- ni cation is done using numerical interpolation methods. However, these interpolation methods tend to produce some distortions in the increased images. Such distortions oc- cours because the interpolated image is reconstructed using only the original image samples, which are insu cients for the accurate signal reconstruction, generating aliasing e ects. These interpolation techniques only approximate the non-sampled signal coe cients, pro- ducing unsatisfactory results for many applications. Thus, for these applications, others techniques to estimate the non-sampled coe cients are needed. To improve the estimation accuracy of an image with respect to the original, the super- resolution techniques are used to reconstruct the non-sampled coe cients. Generally, these super-resolution techniques enhance the increased image using information of other images to estimate the missing information. Super-resolution is a computationally intensive process, where the algorithms com- plexity are, generally, exponential in time as function of the block size or magni cation factor. Therefore, when these techniques are applied for videos, it is required that the super-resolution algorithm be extremely fast. However, more computationally e cient algorithms are not always those that produce the best visual results. Therefore, this work proposes a framework to improve the performance of various super- resolution algorithms using selective processing and parallel processing strategies. Thus, this dissertation examines the properties of the results produced by the super-resolution algorithms and the results produced by using interpolation techniques. From these proper- ties, is achieved a criterion to classify regions wherein the results produced are equivalent (using both super-resolution or interpolation). In these regions of equivalence, the in- terpolation algorithms are used to increase the dimensions. In the anothers regions, the super-resolution algorithms are used. As interpolation algorithms are faster than the com- putationally complex super-resolution algorithms, the idea is decrease the processing time without a ecting the visual quality of ampli ed video. Besides this approach, this paper also proposes a strategy to divide the data among various processes to perform the super-resolution operation in parallel. An interesting re- sult of the proposed model is the decoupling of the super-resolution algorithm and the parallel processing strategy. In other words, di erent super-resolution algorithms can ex- plore the features of the proposed framework without algorithmic modi cations to achieve the parallelism. Thus, the framework is portable, scalable and can be reusable by di erent super-resolution methods.
57

Uma metodologia para modelagem e controle da altura do reforço e da largura do cordão de solda no processo GMAW

Giron Cruz, Jorge Andres 07 March 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2014. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-04-28T10:38:25Z No. of bitstreams: 1 2014_JorgeAndresGironCruz.pdf: 3529472 bytes, checksum: 6673284587acaa25f8006d7efd8b29a0 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-04-28T15:00:46Z (GMT) No. of bitstreams: 1 2014_JorgeAndresGironCruz.pdf: 3529472 bytes, checksum: 6673284587acaa25f8006d7efd8b29a0 (MD5) / Made available in DSpace on 2014-04-28T15:00:46Z (GMT). No. of bitstreams: 1 2014_JorgeAndresGironCruz.pdf: 3529472 bytes, checksum: 6673284587acaa25f8006d7efd8b29a0 (MD5) / Novas metodologias que possibilitem a redução do tempo e custo na soldagem, além da melhoria da qualidade das soldas são de grande interesse para o meio científico e industrial. Ao longo dos anos, a necessidade de melhorar a produtividade e qualidade levou ao desenvolvimento e aperfeiçoamento de técnicas e sistemas automatizados para o monitoramento e controle dos processos de soldagem. No desenvolvimento das pesquisas relacionadas ao monitoramento e controle em tempo real da soldagem, observa-se a utilização de várias abordagens direcionadas à aplicação e melhor entendimento do monitoramento direto ou indireto da geometria do cordão de solda. Este trabalho apresenta uma metodologia para modelagem, otimização e controle da altura do reforço e da largura do cordão de solda, permitindo ajustar os parâmetros do processo em tempo real. Desenvolveu-se para cada parâmetro geométrico estudado um sistema integrado de aquisição de imagens, modelagem e controle do processo de soldagem, permitindo uma resposta em tempo real, através de redes neurais artificiais, em que os parâmetros de velocidade de soldagem, velocidade de alimentação do arame e a tensão são preditos em função de uma altura do reforço ou largura desejada. Projetou-se um controlador “fuzzy” para realizar o controle em malha fechada do sistema, onde se toma como referência a diferença entre o valor desejado do parâmetro geométrico que se pretende controlar e o valor real do parâmetro no cordão de solda. Este cordão é medido através de um sistema de aquisição e processamento de imagens usando-se uma câmera web de baixo custo. As ações de controle são exercidas preferencialmente na velocidade de alimentação do arame para a altura do reforço e na velocidade de soldagem para a largura do cordão, parâmetros escolhidos por apresentar a maior influência em cada um dos parâmetros geométricos do cordão estudados respectivamente. Obtiveram-se satisfatoriamente cordões de solda com altura do reforço e largura pré-definida, além de boa aparência e qualidade. _______________________________________________________________________________________ ABSTRACT / New methodologies that make possible the reduction of time and cost in welding, besides the improvement of the welding bead quality have shown to be the great interest for scientists and industries. Along the years, the needs of improving the productivity and quality carry out to the development and improvement of techniques and automated systems for monitoring and control of welding processes. The use of several approaches in researches related to the monitoring and control in real time of the welding is addressed to the application and understanding of direct or indirect monitoring of weld bead geometry. This work presents a methodology for modeling, optimization and control of the weld height reinforcement and bead width, allowing adjusting the parameters of the process in real time. It was developed for each welding geometric parameter an integrated system of images acquisition, modeling and control of the welding process, allowing a response in real time, through artificial neural networks, where the parameters of welding speed, wire feed speed and the voltage are predicted in function of the desired height reinforcement or bead width. It was designed a controller "fuzzy" to accomplish the control of the system in closed loop, where it is taken as reference the difference between the desired value of the geometric parameter to be controlled and the actual value of the parameter in the weld bead produced. This weld bead is measured through an acquisition system and processing of images using a low cost web cam. The control actions are preferentially implemented in the wire feed speed for height reinforcement and in welding speed for bead width, parameters chosen for presenting the most influence in each one of the geometric parameters studied respectively. It was obtained weld bead with acceptably height reinforcement and predefined width, and good appearance and quality.
58

Restauração de imagens subaquáticas usando algoritmos de enxames e métricas específicas / Underwater image restoration using swarm-based algorithms and specific métrics

Sánchez Ferreira, Camilo 14 December 2016 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2016. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-06-27T14:09:03Z No. of bitstreams: 1 2016_CamiloSánchezFerreira.pdf: 39423327 bytes, checksum: e8bc7518aad5042efe883689a3632b96 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-08-15T10:42:02Z (GMT) No. of bitstreams: 1 2016_CamiloSánchezFerreira.pdf: 39423327 bytes, checksum: e8bc7518aad5042efe883689a3632b96 (MD5) / Made available in DSpace on 2017-08-15T10:42:02Z (GMT). No. of bitstreams: 1 2016_CamiloSánchezFerreira.pdf: 39423327 bytes, checksum: e8bc7518aad5042efe883689a3632b96 (MD5) Previous issue date: 2017-08-15 / Este trabalho apresenta uma abordagem para restauração automática de imagens degradadas por um meio subaquático. Neste cenário, a restauração objetiva facilitar a aplicação de etapas posteriores baseadas em algoritmos de processamento de imagens e visão computacional. A estratégia de restauração apresentada neste trabalho requer uma imagem degradada como única entrada, produzindo uma imagem onde as degradações devidas ao meio subaquático são atenuadas. Neste trabalho são apresentados dois tipos de testes de restauração: (a) restauração para imagens degradadas artificialmente e (b) restauração para imagens reais. Em ambos os tipos de testes, a estratégia de restauração foi baseada na inversão de um modelo de formação de imagens (em um meio subaquático), e guiada por algoritmos de otimização bio-inspirados que visam estimar os parâmetros do modelo com a finalidade de minimizar funções objetivo que descrevem o nível de degradação da imagem. Nos primeiros testes de restauração (utilizando imagens com degradações artificiais), foi utilizado o modelo de formação de imagens proposto por Trucco e OlmosAntillon para imagens em níveis de cinza, que apresenta uma simplificação do efeito de backscattering. Por outro lado, foi realizado um estudo de desempenho de diferentes métricas de avaliação de qualidade de imagens com o objetivo de encontrar uma função objetivo adequada para guiar o processo de otimização. Neste estudo, a métrica NIQE (Natural Image Quality Evaluator) mostrou um melhor desempenho em comparação às demais métricas e foi utilizada como função objetivo. Posteriormente, foi implementada uma estratégia PSO mono-objetivo utilizando a métrica supracitada como função objetivo. Os resultados obtidos a partir de esta estratégia foram comparados com os resultados gerados por dois algoritmos exatos de otimização disponíveis na Toolbox de otimização do MATLAB. Os resultados do algoritmo PSO mostraram ser muito melhores que os apresentados pelos algoritmos exatos, mesmo assim, a imagem resultante apresentou problemas de contraste devido às limitações da métrica neste tipo de degradação. Por esta razão foi testado uma abordagem multi-objetivo baseada no algoritmo de evolução diferencial, onde foi implementada uma segunda métrica baseada na Distribuição de Contraste Local para cobrir a deficiência da métrica NIQE. Os resultados destes testes mostraram melhoras significativas no contraste das imagens restauradas. Nos segundos testes de restauração (usando imagens com degradações subaquáticas reais), foi escolhido o modelo de formação de imagens proposto por Wagner, que considera os dois tipos de degradações: forward-scattering e back-scattering. Neste caso, este modelo foi implementado para a restauração de imagens coloridas, pelo qual foi desenvolvida uma etapa de pré-processamento na qual são estimados um conjunto de parâmetros para compensação cromática. Esta estratégia de restauração foi testada utilizando 5 algoritmos de otimização bio-inspirada (chamados OPSO, RAPSO, ABC, OABC e DE), utilizando como única função objetivo a métrica NIQE. As imagens resultantes (assim como posteriores testes estatísticos) mostraram que os algoritmos OPSO e ABC apresentam o melhor desempenho. Adicionalmente, no contexto deste trabalho também foram desenvolvidas duas ferramentas para o estudo e a implementação de algoritmos de restauração de imagens em meios subaquáticos. A primeira ferramenta consiste na implementação de três modelos simplificados de degradação expostos na literatura, permitindo simular as degradações geradas pela água em qualquer imagem. A segunda ferramenta é o banco UID-LEIA (LEIA Underwater Image Database), que consta de 135 imagens degradadas com um índice de qualidade MOS obtido a partir de experimentos subjetivos. Este banco de imagens foi utilizado para realizar o estudo de desempenho das métricas implementadas no contexto deste trabalho, analisando à capacidade de avaliar a qualidade em imagens com degradações subaquáticas reais. / This work presents an approach for automatic restoration of images degraded by an underwater environment. In this scenery the image restoration aims to make possible the application of subsequent steps based on both image processing and computer vision algorithms. The restoration strategy presented in this work requires a degraded image as the only input, yielding an image where degradations due to the underwater environment are attenuated. In this work two types of restoration experiments are presented: (a) restoration for artificially degraded images and (b) restoration for real images. In both types of experiments, the restoration strategy was based on the inversion of a propagation model (in an underwater environment), guided by bio-inspired optimization algorithms for estimating the model parameters, in order to minimize objective functions that describe the degradation level of the image. In the first restoration experiment (using images with artificial degradations), the propagation model proposed by Trucco and Olmos-Antillon for gray-scale images has been used, which presents a simplification of the back-scattering effect. On the other hand, a performance study of different image quality assessment metrics was performed in order to find out an adequate objective function to guide the optimization process. In this study, the NIQE (Natural Image Quality Estimator) metric showed a better performance in comparison to the other metrics and was used as an objective function. Subsequently, a mono-objective PSO strategy was implemented using the aforementioned metric as an objective function. The results obtained from this strategy were compared with the results generated by two exact optimization algorithms available in the MATLAB Optimization Toolbox. The results of the PSO algorithm shown to be much better than those presented by the exact algorithms, although the resulting image presented contrast problems due to the limitations of the metric in this type of degradation. For this reason, a multi-objective approach based on the differential evolution algorithm was tested, where a second metric based on the Local Contrast Distribution was implemented to cover the deficiency of the NIQE metric. The results of these tests showed significant improvements in the contrast of restored images. In the second restoration experiment (using images with real underwater degradations) the propagation model proposed by Wagner was chosen, which considers both degradations: the forward-scattering and the back-scattering effects. In this case, this model was implemented for the restoration of colour images, whereby a preprocessing stage was developed, in which a set of parameters for colour compensation are estimated. This restoration strategy was tested by using five bio-inspired optimization algorithms (namely, OPSO, RAPSO, ABC, OABC and DE), using the NIQE metric as an unique objective function. The resulting images (as well as subsequent statistical tests) have pointed out that both OPSO and ABC algorithms present the best performance. Additionally, in the context of this work two tools have also been developed for the study and implementation of image restoration algorithms in underwater environments. The first tool consists of the implementation of three simplified degradation models presented in the literature, allowing the simulation of degradations generated by water in any image. The second one is the UID-LEIA database (LEIA Underwater Image Database), which comprises 135 degraded images with a MOS quality index obtained from subjective experiments. This image database was used to perform a performance study of the metrics implemented in the context of this work, analyzing the ability to assess quality in images with real underwater degradations.
59

Método de detecção e classificação de lesões de pele em imagens digitais a partir do modelo Chan-Vese e máquina de vetor de suporte /

Oliveira, Roberta Barbosa. January 2012 (has links)
Orientador: Aledir Silveira Pereira / Banca: Aparecido Nilceu Marana / Banca: Evandro Luis Linhari Rodrigues / Resumo: Neste trabalho desenvolve-se um método computacional capaz de auxiliar os médicos dermatologistas no diagnóstico de lesões de pele por meio de imagens digitais. Com este método pretende-se auxiliar o dermatologista a classificar as lesões de pele utilizando a regra ABCD (Assimetria, Borda, Cor e Diâmetro) e análise de textura, bem como identificar as lesões: nevos melanocíticos, ceratose seborréica e melanoma. Para tanto, utiliza-se a técnica de difusão anisotrópica para efetuar o pré-processamento das imagens com o objetivo de eliminar os ruídos. Para a segmentação das lesões foi utilizado o método de contorno ativo sem bordas (modelo Chan-Vese). O modelo Chan-Vese é baseado na técnica de crescimento de região Mumford-Shah, para segmentar as imagens, e no modelo de contorno ativo Level Set, que possibilita a mudança topológica da curva sobreposta à imagem. Na imagem segmentada obtida é aplicado um filtro morfológico para eliminar orifícios e ruídos externos do objeto, como também para suavizar sua borda. As características de assimetria, borda e cor da regra ABCD e a característica de textura são extraídas conforme as informações das imagens segmentadas. As características extraídas das imagens são utilizadas como entradas para o classificador SVM... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: A computational method to assist dermatologists in the diagnosis of skin lesions from digital images has been developed in this work. This method is intended to assist the dermatologist to classify the skin lesions using the ABCD rule (Asymmetry, Border, Color and Diameter) and texture analysis, as well as to identify lesions: melanocytic nevi, seborrheic keratosis and melanoma. Anisotropic diffusion technique is used to preprocess the images to remove noise. The active contour model without edges (Chan-Vese) is used for the segmentation of the lesions. The Chan-Vese model is based on the Mumford-Shah region growing technique, to segment the images, and the Level Set active contour model, which allows topological change of the curve superimposed on the image. A morphological filter is applied to the segmented image to eliminate holes and external noise from the object, as well as to smooth its edges. The asymmetry, border and color features of the ABCD rule and texture feature are extracted according to the information from segmented images. The extracted features from images are used as inputs to the SVM... (Complete abstract click electronic access below) / Mestre
60

Ontolime : modelo de ontologia de descrição de imagens médicas /

Santos Neto, Martins Fideles dos. January 2013 (has links)
Orientador: Virgínia Bentes Pinto / Coorientador: Edberto Ferneda / Banca: Marcos Luiz Mucheroni / Banca: Maria José Vicentini Jorente / Resumo: No campo da saúde os prontuários de pacientes, bem como as imagens a eles atreladas, são base de referência para o acesso à informação e ao conhecimento com ênfase no tratamento de inúmeras patologias, e igualmente para fins de pesquisa. Esses prontuários, que antes se encontravam registrados em suportes analógicos (papel), atualmente, já estão sendo construídos em suportes eletrônicos ou sendo digitalizados, graças à inserção das tecnologias eletrônicas e digitais de informação no contexto da saúde. Outro aspecto a considerar nesta área são as imagens que fotografam o corpo com tanta perfeição tornando-o transparente. Diante desse novo paradigma, considera-se que o tratamento informacional desses documentos precisa ser inovado e, a adoção de ontologias pode ser uma solução. É, pois, nesse contexto que essa pesquisa se insere contemplando o seguinte questionamento: que critérios deverão ser utilizados para a construção de um modelo de ontologia de imagens médicas? Qual é contribuição da literatura da Área de Ciência da Informação no processo de construção de ontologias? O objetivo básico desta pesquisa consiste em construir um modelo de ontologia de imagens médicas levando em consideração as imagens (humanas e de outros animais) a partir da terminologia da área da saúde e das informações referentes às imagens colhidas nos sites didáticos, visando o acesso e a recuperação da informação imagética na área da saúde, com maior valor agregado. A pesquisa é de cunho exploratório na qual buscamos aprofundar nossos conhecimentos, relativos ao entendimento da imagem no campo da saúde, à representação informacional, assim como sobre ontologias, de modo geral, e particularmente ontologia de imagens. A metodologia de construção da ONTOLIME , baseou-se na Methontology, elaborada pelos Professores Gómez-Perez e Cocho (2002)... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: In the health records of the patients , as well as images linked to them , are a benchmark for access to information and knowledge with emphasis on the treatment of many diseases , and also for research purposes . These records , which before were recorded in analog media ( paper) , currently already being built in electronic media or being scanned , thanks to the integration of electronic and digital technologies of information in the context of health . Another aspect to consider in this area are the images that photographing the body so perfectly making it transparent. In this new paradigm , it is considered that the treatment of these informational documents need to be innovative , and the adoption of ontologies can be a solution . It is therefore in this context that this research fits contemplating the question: what criteria should be used to build a model of the ontology of medical images ? What is the contribution of literature Area Information Science in the process of ontology construction ? The basic objective of this research is to build a model of the ontology of medical images taking into account the images ( human and other animals ) from the terminology of healthcare and information related to images taken from the teaching sites in order to access and information retrieval imagery in health , with higher added value . The research is exploratory in which we seek to deepen our knowledge relative to the understanding of the image in the field of health, informational representation , as well as on ontologies , in general , and particularly ontology pictures . The construction methodology of ONTOLIME , was based on Methontology , prepared by Professors Gomez - Perez and trough (2002 ) . The mapping of concepts has been done manually , terminologies in the area and also in the analysis of images collected on the Internet . The ONTOLIME was built in Protégé software... (Complete abstract click electronic access below) / Mestre

Page generated in 0.0764 seconds