Spelling suggestions: "subject:"processamento dde imagens."" "subject:"processamento dee imagens.""
131 |
Processamento digital de imagens e a evoluçao tecnologica na resoluçao em sensoriamento remotoSchneider, Mario Jorge 10 February 2011 (has links)
Resumo: As técnicas de fusão de imagens de satélite de diferentes resoluções espaciais visam à obtenção de uma imagem melhorada, com melhor definição dos detalhes espaciais, o que possibilita melhor interpretação visual. Idealmente, a imagem resultante deve manter as informações espectrais, permitindo a posterior segmentação e classificação com maior precisão. Diferentes métodos de fusão têm sido propostos para efetuar a fusão de imagens de sensores de média resolução espacial como o Landsat TM (30 metros no modo multiespectral) e SPOT (10 metros no modo pancromático e 20 metros no modo multiespectral). O lançamento do satélite IKONOS 2 tornou possível a obtenção de imagens de alta resolução espacial (1 metro no modo pancromático) que contém informação espacial para várias aplicações de mapeamento e análise de áreas urbanas. Entretanto, a imagem multiespectral, que proporciona informação espectral importante para aplicações temáticas, é obtida com resolução espacial de 4 metros. Este trabalho compara os resultados de cinco métodos tradicionais (Substituição, Transformação IHS, Transformação HSV, Substituição da Componente Principal e Filtragem Passa-Alta) na fusão das imagens multiespectral e pacromática do satélite IKONOS, avaliando a aplicabilidade desses métodos em imagens de alta resolução. A análise dos resultados é feita com base em: 1) análise visual, 2) comparações estatísticas por meio do coeficiente de correlação e 3) na classificação da imagem híbrida. A área teste corresponde a uma região urbana, onde estão presentes diferentes tipos de cobertura, como edificações com diferentes tipos de telhas, vegetação arbórea e rasteira, água, solo exposto e ruas.
|
132 |
Síntese de estruturas neurais usando gramáticas vetoriais estocásticasJaques, Osvaldo Vargas 28 August 2012 (has links)
Resumo: o estudo de modelos representativos dos aspectos morfológicos das células neurais ainda é muito pequeno se tentaml0s comparar com modelos neurofisiológicos. Embora o pioneiro da neurociência Ramón y Cajal tenha observado que quanto mais complexa a função da célula neural, mais complexa é sua morfologia, somente agora alguns poucos estào se aventurando nesta odisséia, com pesquisas tanto no campo biológico como no computacional buscando modelos que possam contribuir para uma melhor compreensão da relação forma e função neural. Iniciamos esta dissertação tratando do sistema visual e seus aspectos morfológicos e funcionais. Fazemos uma introdução ao funcionamento neural e seu desenvolvimento. Buscamos também, na literatura, informações relacionadas às mudanças morfológicas que ocorrem durante o desenvolvimento e maturação (plasticidade) dos neurônios piramidais do córtex visual. Descrevemos os métodos e técnicas existentes relacionados à síntese neural, tais como gramáticas gráficas estocásticas, medidas neuromorfométricas e formatos de traçado neural. Desenvolvemos procedimentos para conversào dos diferentes traçados em um formato padrão, e assim, criamos funções estocásticas extraída das diferentes medidas de células naturais. A seguir, definimos uma gramática gráfica para a síntese de células artificiais. À cada regra desta gramática incorporamos funções extraídas de medidas de células naturais dos neurônios piramidais. Deste modo, procuramos criar células artificiais tridimensionais morfologicamente realistas. Para isso, desenvolvemos um compilador e interpretador gramatical (parser) que gera a seqüência de pontos para a geração da célula. Em seguida, criamos o visualizador tridimensional que permite visualizar esta célula, realizando operações tais como rotação, translação, escalonamento, e simulação de crescimento dendrítico em paralelo, além de outras operações utilizadas em ferramentas de visualização 3D.
|
133 |
Avaliaçao da taxa de compressao sem perdas em projeçoes de tomografia computadorizadaMartins, Valdir, Ribeiro, Eduardo Parente 27 October 2010 (has links)
No description available.
|
134 |
Estudo de algoritmos para reconstrução de relevos de superfícies irregulares: aplicações na fractografia quantitativa e caracterização de materiaisLucena, Emerson Ferreira de [UNESP] 02 1900 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:34:59Z (GMT). No. of bitstreams: 0
Previous issue date: 2004-02Bitstream added on 2014-06-13T18:48:06Z : No. of bitstreams: 1
lucena_ef_dr_guara.pdf: 5936000 bytes, checksum: 51e90a5f9bb24ddf43485c3d765d8384 (MD5) / Universidade Estadual Paulista (UNESP) / O objetivo deste trabalho é desenvolver rotinas para a reconstrução de relevos de superfícies irregulares, particularmente aquelas observadas por microscopia óptica ou eletrônica de varredura, e estudar os conceitos de imageamento envolvidos, visando definir critérios para uma futura padronização dos métodos de processamento na área de estudo de relevos. As imagens obtidas em um microcoscópio óptico Nikon Epiphot 200 e em um microscópio eletrônico de varredura 5600 LV, respectivamente, foram processadas por rotinas de reconstrução a partir do foco e a partir do paralaxe. Essas rotinas implementadas apresentam a inovação, respectivamente, de permitir que o usuário aumente o tamanho da região onde o critério de foco é empregado e a diminuição do tempo de processamento através da análise da transformada de Hartley somente na direção horizontal. Os resultados mostram que a rotina de reconstrução a partir do foco implementada neste trabalho apresentou as mesmas tendências obtidas em um rugosímetro Mitutoyo Surtest 301 e menor quantidade de ruídos quando é utilizado polarizadores; e que a rotina de reconstrução a partir do paralaxe apresenta um erro médio de 5 ± 2% para pontos do par estéreo que são epipolares. Finalmente, o menor tempo de processamento, no caso da reconstrução a partir do paralaxe, permite aumentar a resolução espacial (maior quantidade de pixels) visando diminuir a rotação usada para obter o par estéreo e consequentemente reduzir a oclusão de área e o problema de pontos não epipolares. / The objective of this work is to develop routines for the reconstruction of irregular surfaces relieves, particularly those observed by optical microscopy or scanning electron microscopy, and to study the imaging concepts, seeking to define criteria for a future standardization of the processing methods in the area of study of relieves. The images were obtained in an optical microscope Nikon Epiphot 200 and in an scanning electron microscope 5600. They were, respectively, processed by depth from focus routine and parallax measurement. Those implemented routines present the innovation, respectively, of allowing the user to increase the size of the area where the focus criterion is used and the decrease of the time of processing through the analysis of the transformed of Hartley only in the horizontal direction. The results show that the depth from focus routine implemented in this work it presented the same tendencies obtained in a Mitutoyo Surtest 301 contact profilometer and smaller amount of noises when polarizers is used. The parallax routine presents error of 5 ± 2% for epipolar points from the stereo pair. Finally, in the case of the reconstruction from parallax is necessary to reduce the rotation used to obtain the stereo pair and to increase the space resolution (larger amount of pixels) to reduce the area occlusion and the problem of non-epipolar points.
|
135 |
Detecção e reconhecimento de números seriais em cédulas da segunda família do realUlian, Ian Alves 13 December 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, Mestrado Profissional em Engenharia Elétrica, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2017-03-23T16:13:30Z
No. of bitstreams: 1
2016_IanAlvesUlian.pdf: 56283650 bytes, checksum: 13dd86f31b81c621d88c505bfaa461dd (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-04-06T23:24:31Z (GMT) No. of bitstreams: 1
2016_IanAlvesUlian.pdf: 56283650 bytes, checksum: 13dd86f31b81c621d88c505bfaa461dd (MD5) / Made available in DSpace on 2017-04-06T23:24:31Z (GMT). No. of bitstreams: 1
2016_IanAlvesUlian.pdf: 56283650 bytes, checksum: 13dd86f31b81c621d88c505bfaa461dd (MD5) / Um sistema de monitoramento de cédulas de Real se mostra de extrema importância para questões criminais e econômicas. Nesse caso, faz-se necessário um eficiente método de detecção e reconhecimento de número serial de cédulas. Este trabalho apresenta uma proposta robusta para a utilização de um sistema de reconhecimento óptico de caracteres (OCR) em situações complexas de reconhecimento automático de números seriais da Segunda Família do Real. Todos os resultados são promissores, o que mostra ser factível a utilização da abordagem proposta em aplicações reais. / A tracking system for Real banknote shows extremely importance for criminal and economic purposes. In this case, an efficient method for detecting and recognizing the banknote serial number is required. This work presents a robust proposal to use an Optical Character Recognition (OCR) system in complex situations in an automatic serial number recognition of the Second Series of Real. All shown results are promising, showing to be feasible the use of the proposed approach in real applications.
|
136 |
O problema do pixel mistura: um estudo comparativoCaimi, Daniel January 1993 (has links)
Os satélites para sensoriamento remoto atualmente dispoívies à comunidade científica possuem diferenies resoluções espaciais, por exemplo: SPOT 20 e 10 metros, LANDSAT-TM 30 metros e NOA-AVHRR 1100 metros. Essa resolução frequentemente não é grande o suficiente para um grande número de aplicações que necessitam de uma percepção da cena mais detalhada. Muitas vezes, no interior de uma célula de resolução (pixel) mais de uma classe ocorre. Este caso é conhecido como pixel mistura. Na classificação de imagens obtidas por sensoriamento remoto é comum a utilização de metodologias que atribuem somente uma classe a um pixel, como o procedimento clássico da máxima verossimilhança. Esse procedimento resulta frequentemente em uma estimação errônea das áreas ocupadas pelas classes presentes na cena. Em alguns casos, especialmente quando não há uma classe dominante, isto pode ser a fonte de um erro significativo. Desde o início dos anos 70, diferentes metodologias têm sido propostas para o trabalho num nível de subpixel. A grande vantagem do trabalho nesse nível é que um pixel não é necessariamente atribuído a somente uma classe. O pixel tem um grau que o correlaciona a cada classe: de zero(se a classe não ocorre no pixel) até 1 (a classe ocorre no pixel inteiro). Assim, cada pixel tem um vetor associado que estima a proporção de cada classe nele. A metodologia mais comumente utilizada considera a refletância do pixel mistura como uma combinação linear da refletância média de cada classe componente. De acordo com essa visão as refletâncias associadas às classes componentes são consideradas constantes conhecidas i.e., não são variáveis aleatórias. Assim, a proporção de cada classe no pixel é obtida pela resolução de um sistema de equações lineares. Uma outra metodologia é assumir as refletâncias que caracterizam as classes como sendo variáveis aleatórias. Nesta visão, as informações a respeito das distribuições das classes é utilizada. A estimativa das proporções de cada classe é obtida pelo vetor de proporções que maximiza a função de verossimilhança. Mais recentemente, uma visão diferente foi proposta: a utilização da lógica fuzzy. Esta metodologia utiliza o conceito de função de pertinência que é essencial à teoria dos conjuntos fuzzy. Esta função utiliza elementos com natureza estatística ou não para a estimação das proporções. No presente trabalho, duas funções de pertinência foram definidas: a primeira baseada na função densidade probabilidade gaussiana e a segunda baseada diretamente na distância de Mahalanobis. O objetivo deste estudo é avaliar cada uma das metodologias anteriores em termos de acurácia, performance e dados necessários. Para este objetivo, as metodologias foram implementadas computacionalmente e alimentadas com imagens LANDSAT-TM. Para a avaliação da acurácia dos modelos um estudo qualitativo foi executado.
|
137 |
Preenchimento de buracos em síntese de vista baseado em mapa de profundidadeSilva, Ennio Willian Lima 14 July 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2016. / Submitted by Fernanda Percia França (fernandafranca@bce.unb.br) on 2016-09-19T20:08:47Z
No. of bitstreams: 1
2016_EnnioWillianLimaSilva.pdf: 204214123 bytes, checksum: feab0c27461620dfbb6d622fbe4abd70 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2016-10-22T18:48:06Z (GMT) No. of bitstreams: 1
2016_EnnioWillianLimaSilva.pdf: 204214123 bytes, checksum: feab0c27461620dfbb6d622fbe4abd70 (MD5) / Made available in DSpace on 2016-10-22T18:48:06Z (GMT). No. of bitstreams: 1
2016_EnnioWillianLimaSilva.pdf: 204214123 bytes, checksum: feab0c27461620dfbb6d622fbe4abd70 (MD5) / A evolução dos sistemas e tecnologias de vídeo 3D nos últimos anos é uma consequência do empenho das produtoras de conteúdos multimídia no intuito de proporcionar a imersão 3D ao usuário. A disponibilidade dos conteúdos 3D estão voltadas para os mais variados tipos de tecnologias como dispositivos móveis (celulares e tablets), computadores pessoais, televisões, entre outras, o que aumenta ainda mais o número de usuários alcançados. Este fato, fez da televisão 3D (3DTV - 3D Television) e a televisão de ponto de vista livre (FVT - Free ViewPoint Television) tópicos relevantes em pesquisas relacionadas ao 3D. O uso das abordagens vídeo+profundidade e multivista+profundidade fornece uma forma otimizada de transmissão do conteúdo nestas aplicações. A síntese de vista se faz um processo necessário para utilização destes formatos, sendo a renderização baseada em imagem de profundidade (DIBR - Depth-Image-Based Rendering) um dos métodos fundamentais para este processo. A DIBR produz vistas virtuais que possuem buracos também chamados desoclusões. O preenchimento destes buracos de maneira visualmente plausível é imprescindível para minimizar a degradação da qualidade dos resultados da síntese de vista. Portanto este trabalho apresenta um algoritmo de inpainting que utiliza mapa de profundidade como auxílio para preenchimento de buracos presentes nas imagens virtuais que foram geradas no processo de síntese de vista. Os resultados objetivos e subjetivos mostram que o algoritmo proposto possui melhores performances em diversas sequências de imagens testadas em relação à outros algoritmos da literatura. ______________________________________________________________________________________ ABSTRACT / The recent evolution of 3D video system technologies is a consequence of multimídia content producers efforts to provide 3D immersion to the user. The 3D contents are available to a great range of technologies such as mobile devices (mobile phones and tablets), personal computers and televisions which increases even more the number of users. This fact has turned out made 3D television (3DTV) and Free ViewPoint Television (FTV) a promising topic regarding researches in 3D technologies. The use of video+depth and multiview+depth approaches provides an optimized way of streaming 3D content on these applications. The view synthesis is a required procedure when using the aforementioned approaches, being the depth-image-based rendering (DIBR)a fundamental method in this context. The DIBR produces virtual views that have holes, which are also called disocclusion. Filling these holes in a visually plausible way is essential to minimise the degradation of quality of the view synthesis results. Therefore, this work presents an inpainting algorithm that uses depth maps as aid for filling the holes present in virtual images, which are generated by the view synthesis process. Objective and subjective results show that the proposed algorithm has better performance in various image sequences in comparison to other state-of-art algorithms.
|
138 |
Super-resolução baseada em correspondência de características SIFT e casamento de gradientes / Super-resolution based on SIFT features correspondence and gradient martchingFerreira, Renan Utida 31 July 2015 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2015. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-02-16T12:36:49Z
No. of bitstreams: 1
2015_RenanUtidaFerreira.pdf: 28303647 bytes, checksum: 4ae4f308b3425ff5ad576a95e447bc55 (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-02-28T11:20:25Z (GMT) No. of bitstreams: 1
2015_RenanUtidaFerreira.pdf: 28303647 bytes, checksum: 4ae4f308b3425ff5ad576a95e447bc55 (MD5) / Made available in DSpace on 2016-02-28T11:20:25Z (GMT). No. of bitstreams: 1
2015_RenanUtidaFerreira.pdf: 28303647 bytes, checksum: 4ae4f308b3425ff5ad576a95e447bc55 (MD5) / Reconstrução de imagem por super-resolução (ou simplesmente super-resolução) tem sido
um campo de vasto estudo na área de processamento de imagens e vídeos. Dentre as várias propostas para resolver este problema, a super-resolução baseada em exemplos tem por objetivo transformar uma imagem em baixa resolução para uma imagem em alta resolução a partir da inferência de informações de alta frequência de outras imagens em alta resolução. Neste trabalho, propomos novas técnicas de super-resolução baseada em exemplos
usando correspondência de descritores de características SIFT e casamento de gradientes. A correspondência de descritores é usada para a geração de um fluxo de vetores de movimentos,
a partir dos quais compomos novas imagens por compensação de movimento usando
transformações de perspectivas. O casamento de gradientes é usado para geração de imagens refinadas, a partir das quais será extraída informação de alta frequência a ser inserida na imagem de baixa resolução. Apresentamos dois métodos distintos para a solução proposta:no primeiro método, usamos grades móveis para selecionar os grupos de vetores que
definem as transformações de perspectivas e casamento de gradientes em vizinhanças quadradas; no segundo, usamos agrupamento automático de vetores e casamento de gradientes em vizinhanças circulares. A solução proposta é testada no contexto de vídeos de resolução mista. Nossos resultados mostram qualidade objetiva dos quadros de vídeo super-resolvidos da ordem de 2dB, medida em PSNR, superior ao obtido por outras soluções. ______________________________________________________________________________ ABSTRACT / Super-resolution image reconstruction (or simply super-resolution) has been a vast field of study in the area of image and video processing. Among the many solutions for this problem, example-based super-resolution has the objective of transforming a low resolution image into a high resolution one by inferring high frequency information from other high resolution images. In this work, we propose new techniques of example-based super-resolution by using SIFT feature descriptors matching followed by gradient matching. The descriptors’ matching is used to generate a motion vector flow, from which we compose new images by
motion compensation using perspective transformation. The gradient matching is used to generate refined images, from which we extract the high frequency information to be inserted to the low resolution image. We present two distinct methods for this solution: in the first
method, we use moving grids to select the groups of vectors from which we derive the perspective transformation, followed by the matching of gradients in a square neighborghood; in the second method, we use the automatic clustering of vectors and gradient matching in a circular neighborhood. The proposed solution is tested in the context of mixed resolution
videos. Our results show superior objective quality in the super-resolved video frames of around 2dB, measured in PSNR, compared to other solutions.
|
139 |
Revisão histórica dos dermatóglifos e estudo comparativo entre o método tradicional de impressão palmar com tinta e método de escaneamento digital em um grupo de escolares de Curitiba, ParanáGiraldi, Susana 21 February 2013 (has links)
Resumo: Os dermatóglifos (derma-pele, glifeín-esculpir) são sistemas de cristas e sulcos do estrato córneo da epiderme, presentes nas áreas ventrais dos dedos das mãos, dos pés bem como de regiões palmares e plantares em seres humanos. Estes sistemas de cristas são formados entre a 13ª e 19ª semana de vida embrionária e apresentam figuras e padrões característicos (arcos, presilhas, verticilos e trirrádios) que permanecem inalterados por toda a vida sofrendo somente variações do crescimento. As primeiras descrições científicas dos dermatóglifos apareceram na literatura no século XVII e sua classificação sistemática em 1823 por Purkinge. A nomenclatura clássica (arco, presilha e verticilo) foi estabelecida por Sir Francis Galton em 1888 e os trirrádios palmares por Wilder em 1897. O termo dermatóglifos foi estabelecido por Cummins e Midlo em 1926 quando iniciou a ciência moderna dos dermatóglifos, com a demonstração da importante correlação entre a Síndrome de Down e a presença da prega transversal palmar única. No Brasil, o estudo dos dermatóglifos teve início no século XX com estudos antropológicos em indígenas brasileiros de várias tribos. Na segunda metade daquele século cientistas brasileiros dedicaram-se á publicação do tema com enfoque na antropologia e medicina. O sistema de classificação das cristas de figuras ou padrões utilizados para a identificação pessoal ou estudos de herança requer procedimentos numéricos como a contagem de linhas entre pontos específicos ou medida de ângulos. Seu estudo é de aplicação forense, antropologia física, biologia humana, genética e clínica médica. Atualmente as tecnologias em imagem e computação facilitaram a captação das imagens dermatoglíficas para fins de identificação pessoal, investigação criminal e controle de indivíduos. Por meio da análise e interpretação científica das alterações dermatoglíficas, em três diferentes métodos de coleta das imagens digito-palmares, foi avaliada a utilidade do estudo dos dermatóglifos em um grupo de escolares da cidade de Curitiba-Paraná. Os métodos foram comparados quanto a sua eficácia de leitura das imagens. Foram coletadas impressões digito-palmares por método clássico de impressão com tinta e realizado escaneamento das mãos com digitalização das imagens. A leitura dermatoglífica das imagens escaneadas foi estudada pelos métodos semiautomático RIDGECOUNTER e automático IMAGO-UFPR. Em um grupo de escolares de ambos os gêneros e nas mãos direita e esquerda foi realizada a comparação dos seguintes parâmetros pelos três métodos: a presença de padrões ou figuras (arco, presilha e verticilo) em cada dígito palmar, a contagem do número de cristas dermatoglíficas (TRC- contagem do número total de cristas) nos dez dígitos palmares, a posição do trirrádio axial proximal, a contagem do número de cristas entre os trirrádios palmares (a-b, b-c e c-d), a medida do ângulo atd, a presença dos padrões dermatoglíficos (arco, presilha e verticilo) nas áreas tenares e hipotenares e nas segunda e quarta áreas interdigitais palmares. Como resultado, quanto aos métodos, foi constatado que a acurácia do método com impressão por tinta dependerá da técnica da tomada da impressão e da avaliação da imagem (contagem visual), pois está sujeita a erros. É método adequado para a análise nível 1 dos dermatóglifos. As imagens escaneadas estão sujeitas à pressão a qual podem originar alterações na vizualização das figuras dos dígitos, levando a erros na leitura visual e marcação de trirrádios. É técnica adequada para o estudo ao nível 1, 2 e 3 dos dermatóglifos. O método de leitura semiautomático RIDGECOUNTER demonstrou ser método adequado para a captura dos três níveis de avaliação dos dermatóglifos. No entanto, esta técnica parece não ser totalmente adequada por não fazer a correção do contraste da imagem escaneada, o que pode prejudicar a leitura e retardar a análise das imagens. O método de leitura automática IMAGO-UFPR demonstrou ser técnica rápida, com precisão na contagem das cristas dermatoglíficas, mas ainda em aperfeiçoamento por apresentar dificuldade na captação e medida de trirrádios. Nenhum dos métodos estudados demonstrou ser mais eficiente que o outro na análise dos parâmetros dermatoglíficos dígito-palmares. Quanto aos parâmetros dermatoglíficos analisados neste estudo, foi constatado haver: diferença quanto aos gêneros para a-b, b-c e c-d no método de leitura com tinta, o mesmo ocorrendo no parâmetro b-c no método semiautomático RIDGECOUNTER e c-d no método IMAGO-UFPR. Foram encontradas diferenças entre mão direita e esquerda, entre os gêneros para o parâmetro a-b no método semiautomático RIDGECOUNTER. O ângulo atd apresentou diferença entre mão direita e esquerda apenas no gênero masculino no método de leitura IMAGO-UFPR. Estudos futuros deverão ser mais precisos, a fim de diminuir a margem de erro que possa existir com os diferentes métodos de leitura das imagens dermatoglíficas, o que poderá levar a uma melhor acurácia nos estudos desta área de pesquisa.
|
140 |
Otimização do insight segmentation and registration toolkit (ITK) utilizando streaming SIMD extensions (SSE) e OPENMPHild, Tony Alexander 29 October 2012 (has links)
Resumo
|
Page generated in 0.1213 seconds