• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 178
  • 20
  • 16
  • 16
  • 15
  • 14
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 187
  • 187
  • 80
  • 46
  • 37
  • 32
  • 22
  • 22
  • 21
  • 18
  • 18
  • 16
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Desenvolvimento de métodos analíticos baseados na análise por imagens digitais para determinação de ozônio e hipoclorito em águas / Development of analytical methods based on digital image analysis for determination of ozone and hypochlorite in waters

Zampier, Lorrayne Moreira 23 February 2017 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2017-12-01T11:05:09Z No. of bitstreams: 1 texto completo.pdf: 1500125 bytes, checksum: 6d41051e04f89378a024c5e3689399bf (MD5) / Made available in DSpace on 2017-12-01T11:05:09Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1500125 bytes, checksum: 6d41051e04f89378a024c5e3689399bf (MD5) Previous issue date: 2017-02-23 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Métodos como a cloração e a ozonização têm sido usados para desinfecção da água utilizada para abastecimento doméstico. Entretanto, níveis elevados de ozônio e cloro residual são maléficos, tornando-se fundamental o monitoramento da sua concentração. Recentemente, o método de análise por imagens digitais tem sido usado para as análises quantitativas, podendo este ser utilizado como uma alternativa a espectrofotometria na região do visível. Deste modo, este trabalho propõe o desenvolvimento de métodos analíticos baseados nas análises por imagens digitais para determinação de ozônio e hipoclorito em águas. Para tal, selecionou-se o corante verde malaquita (VM) para o desenvolvimento dos métodos. Para o verde malaquita, foi realizado um estudo cinético na presença hipoclorito e a otimização das condições de reação do ozônio e hipoclorito com auxílio de um planejamento de multivariáveis baseado na Matriz de Doehlert. O método otimizado para a determinação de ozônio apresentou faixa linear de 0,58 mgO 3 /L a 5,0 mgO 3 /L, com sensibilidade analítica 0,0542 L/mgO 3 , coeficiente de determinação de 0,λλ40, limite de detecção de 0,18 mgO 3 /L, resolução de 0,103 mgO 3 /L e coeficiente de variação ≤ 0,88%. O método foi validado utilizando amostras de água de torneira fortificadas em diferentes níveis de concentração, e as recuperações alcançadas foram entre 85,0 e λ6,0%. O método otimizado para a determinação de hipoclorito apresentou faixa linear de 0,62 mgCl/L a 6,0 mgCl/L, com sensibilidade analítica 0,1123 L/mgCl, coeficiente de determinação de 0,λλ38, limite de detecção de 0,1λ mgCl/L, resolução de 0,135 mgCl/L e coeficiente de variação ≤ 1,12%. O método foi validado utilizando amostras de água de torneira fortificadas em diferentes níveis de concentração, e as recuperações alcançadas foram entre 101,0 e 11λ,0%. / Methods such as chlorination and ozonation have been used to disinfect the water used for domestic supply. However, high levels of ozone and residual chlorine are harmful, making it essential to monitor their concentration. Recently, the digital image analysis method has been used for the quantitative analyzes, which can be used as an alternative to spectrophotometry in the visible region. Thus, this work proposes the development of analytical methods based on digital image analysis for determination of ozone and hypochlorite in water. For this, the malachite green (MG) dye was selected for the development of the methods. For the malachite green, a kinetic study was carried out in the presence of hypochlorite and the optimization of the reaction conditions of ozone and hypochlorite with the aid of multivariate planning based on the Doehlert Matrix. The optimized method for the determination of ozone presented a linear range of 0.58 mgO 3 /L to 5.0 mgO 3 /L, with analytical sensitivity 0.0542 L/mgO 3 , determination coefficient of 0.9940, detection limit of 0.18 mgO 3 /L, resolution of 0.103 mgO 3 /L and coefficient of variation ≤ 0.88%. The method was validated using tap water samples fortified at different concentration levels, and the recoveries achieved were between 85.0 and 96.0%. The optimized method for the determination of hypochlorite presented a linear range of 0.62 mgCl/L at 6.0 mgCl/L, with analytical sensitivity of 0.1123 L/mgCl, determination coefficient of 0.9938, detection limit of 0, 19 mgCl/L, resolution of 0.135 mgCl/L and coefficient of variation ≤ 1.12%. The method was validated using samples of tap water fortified at different concentration levels, and the recoveries reached were between 101.0 and 119.0%.
42

Casamento de padrões e operadores morfológicos adaptativos / Template matching and adaptive morphological operators

Almeida Filho, Magno Prudêncio de 26 February 2016 (has links)
ALMEIDA FILHO, M. P. Casamento de padrões e operadores morfológicos adaptativos. 2016. 125 f. Dissertação (Mestrado em Engenharia Elétrica) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by Hohana Sanders (hohanasanders@hotmail.com) on 2016-06-28T16:29:00Z No. of bitstreams: 1 2016_dis_mpalmeidafilho.pdf: 3932596 bytes, checksum: 608da6fa1bcbe8c565ffb05cd1e8e1b9 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2016-07-12T14:55:18Z (GMT) No. of bitstreams: 1 2016_dis_mpalmeidafilho.pdf: 3932596 bytes, checksum: 608da6fa1bcbe8c565ffb05cd1e8e1b9 (MD5) / Made available in DSpace on 2016-07-12T14:55:18Z (GMT). No. of bitstreams: 1 2016_dis_mpalmeidafilho.pdf: 3932596 bytes, checksum: 608da6fa1bcbe8c565ffb05cd1e8e1b9 (MD5) Previous issue date: 2016-02-26 / Mathematical morphology is an approach applied in processing and image analysis problems that performs transformations in an object (image) by patterns of predefined forms. Such transformations are called morphological operators, with erosion and dilation being the elementary morphological operators. This work presents a machine learning mechanism applied for the automatic generation of templates, to be used by inexact template matching morphological operators. This model of operator is called Template Matching Adaptive Morphological Operator (OMACP), and combines the formalism of mathematical morphology through ELUTs (Elementary Look-Up Tables) with machine learning techniques. The ELUTs based template matching morphological operators already described in the literature allow inexact pattern recognition in digital images by defining a range around a reference pattern. This range has a constant value that is applied to all pixels of reference patterns, and its choice depends on parameters whose adjustments is usually performed based on empirical results, besides being highly sensitive to user idiosyncrasies. This work also proposes a mechanism, based on statistical parameters, which automates the choice of these range. Besides not consider it a constant value for all pixels of reference pattern. Such mechanism reduces the interference of a user to define the parameters of the morphological operator. To prove the effectiveness achieved with the inclusion of learning techniques and the choices mechanism of the range around the pattern reference, were performed comparative experiments between the proposed OMACP (with the inclusion of new features) with operators already studied without these features. / A morfologia matemática é uma abordagem utilizada em problemas de processamento e análise de imagens em que são realizadas transformações de um objeto (imagem) por padrões de formas pré-definidas. Tais transformações são efetuadas por operadores morfológicos, sendo a erosão e a dilatação os operadores morfológicos elementares. Neste trabalho é apresentado um mecanismo de aprendizagem destinado à geração automática de templates, a serem utilizados em operadores morfológicos de casamento inexato de padrões (em que o casamento não precisa ser perfeito). Esse modelo de operador é aqui denominado de Operador Morfológico Adaptativo de Casamento de Padrões (OMACP), e combina o formalismo da morfologia matemática através de ELUTs (Elementary Look-Up Tables) com técnicas de aprendizagem de máquina. Os operadores morfológicos para casamento de padrões via ELUTs já descritos na literatura permitem o casamento inexato de padrões, ou detecção com folga, em imagens digitais através da definição de um intervalo em torno de um padrão de referência. Esse intervalo aplicado em todos os pixels do padrão de referência possui um valor constante e sua escolha depende de parâmetros cujo ajuste normalmente é realizado tendo como base resultados empíricos, além de ser fortemente sensível a idiossincrasia do usuário. Este trabalho propõe um mecanismo, baseado em parâmetros estatísticos, que automatiza a escolha desse intervalo. Além de não considerá-lo mais um valor constante para todos os pixels do padrão de referência. Tal mecanismo reduz assim a interferência de um usuário na definição dos parâmetros do operador morfológico. Para comprovar a eficácia obtida com a inclusão tanto das técnicas de aprendizagem quanto do mecanismo de escolha do intervalo em torno do padrão de referência, foram realizados experimentos comparativos entre o OMACP proposto (com a inclusão das novas funcionalidades) com os operadores já descritos na literatura sem essas alterações.
43

Cloud Partitioning Iterative Closest Point (CP-ICP): um estudo comparativo para registro de nuvens de pontos 3D

Pereira, Nícolas Silva 15 July 2016 (has links)
PEREIRA, Nicolas Silva. Cloud Partitioning Iterative Closest Point (CP-ICP): um estudo comparativo para registro de nuvens de pontos 3D. 2016. 69 f. Dissertação (Mestrado em Engenharia de Teleinformática)–Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2016. / Submitted by Hohana Sanders (hohanasanders@hotmail.com) on 2017-01-06T18:04:28Z No. of bitstreams: 1 2016_dis_nspereira.pdf: 7889549 bytes, checksum: d5299d9df9b32e2b1189eba97b03f9e1 (MD5) / Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2017-06-01T18:21:16Z (GMT) No. of bitstreams: 1 2016_dis_nspereira.pdf: 7889549 bytes, checksum: d5299d9df9b32e2b1189eba97b03f9e1 (MD5) / Made available in DSpace on 2017-06-01T18:21:16Z (GMT). No. of bitstreams: 1 2016_dis_nspereira.pdf: 7889549 bytes, checksum: d5299d9df9b32e2b1189eba97b03f9e1 (MD5) Previous issue date: 2016-07-15 / In relation to the scientific and technologic evolution of equipment such as cameras and image sensors, the computer vision presents itself more and more as a consolidated engineering solution to issues in diverse fields. Together with it, due to the 3D image sensors dissemination, the improvement and optimization of techniques that deals with 3D point clouds registration, such as the classic algorithm Iterative Closest Point (ICP), appear as fundamental on solving problems such as collision avoidance and occlusion treatment. In this context, this work proposes a sampling technique to be used prior to the ICP algorithm. The proposed method is compared to other five variations of sampling techniques based on three criteria: RMSE (root mean squared error), based also on an Euler angles analysis and an autoral criterion based on structural similarity index (SSIM). The experiments were developed on four distincts 3D models from two databases, and shows that the proposed technique achieves a more accurate point cloud registration in a smaller time than the other techniques. / Com a evolução científica e tecnológica de equipamentos como câmeras e sensores de imagens, a visão computacional se mostra cada vez mais consolidada como solução de engenharia para problemas das mais diversas áreas. Associando isto com a disseminação dos sensores de imagens 3D, o aperfeiçoamento e a otimização de técnicas que lidam com o registro de nuvens de pontos 3D, como o algoritmo clássico Iterative Closest Point (ICP), se mostram fundamentais na resolução de problemas como desvio de colisão e tratamento de oclusão. Nesse contexto, este trabalho propõe um técnica de amostragem a ser utilizada previamente ao algoritmo ICP. O método proposto é comparado com outras cinco varições de amostragem a partir de três critérios: RMSE (root mean squared error ), a partir de uma análise de ângulos de Euler e uma métrica autoral baseada no índice de structural similarity (SSIM). Os experimentos foram desenvolvidos em quatro modelos 3D distintos vindos de dois diferentes databases, e revelaram que a abordagem apresentada alcançou um registro de nuvens mais acuraz num tempo menor que as outras técnicas.
44

Redução de ruído em vídeos em tempo real baseado na fusão do filtro de Kalman e filtro bilateral

Pfleger, Sergio Genilson January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016. / Made available in DSpace on 2017-04-04T04:13:05Z (GMT). No. of bitstreams: 1 344613.pdf: 6588279 bytes, checksum: 79ccc6f1f7f11b3a1a4afaaee59cd39a (MD5) Previous issue date: 2016 / Neste trabalho é proposto um filtro para atenuação de ruído em vídeos, em tempo real, baseado na fusão de uma modificação do filtro de Kalman e do filtro bilateral, de forma a aproveitar características espaciais e temporais das imagens, preservando contornos e características essenciais à visão humana e computacional. O algoritmo proposto, chamado STMKF, mantém as características do filtro de Kalman original para regiões onde não há movimento e aplica o filtro bilateral nas regiões onde ocorre movimento, fazendo o filtro de Kalman convergir mais rápido para os novos valores adquiridos. Os resultados experimentais mostraram que o filtro é competitivo em relação aos demais, principalmente onde o fundo da imagem é estacionário. A avaliação de desempenho em CPUs e GPUs mostrou sua viabilidade em tempo real, com a filtragem de aproximadamente 30 frames FullHD por segundo em um Intel i7 e mais de 1000 FPS para um video 480p em GPU.<br> / Abstract : In this work is proposed a filter to minimize noise in videos, in real time, based on the fusion of a modified Kalman Filter and a bilateral filter, taking advantage of statial and temporal characteristics of the images, preserving contours and essential features for human and computer vision. The proposed algorithm, called STMKF, maintains the original Kalman filter characteristics in motionless regions and it applies the bilateral filter in regions with motion, which make the Kalman filter converge faster for the new acquired values. The experimental results show that the proposed filter is competitive in relation to others, mainly in videos with more static backgrounds. The performance evaluation in CPUs and GPUs shows that STMKF is viable in real time, filtering approximately 30 FullHD frames per second in a Intel i7 and over 1000 FPS of a 480p video on a GPU.
45

Utilização de redes neurais artificiais aplicadas na discriminação de padrões de doenças florestais / Use of artificial neural network applied to patterns classification of florest diseases

Favan, João Ricardo [UNESP] 31 July 2015 (has links) (PDF)
Made available in DSpace on 2015-12-10T14:24:03Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-07-31. Added 1 bitstream(s) on 2015-12-10T14:30:13Z : No. of bitstreams: 1 000853211.pdf: 1398658 bytes, checksum: c344bd138e41aaee8de5f99ea0007ff7 (MD5) / O setor florestal tem uma grande importância para a economia brasileira, sendo este, fornecedor de matéria-prima para uso em reflorestamento de áreas degradadas assim como para indústrias como de papel e celulose, carvão, moveleira, entre outras. No entanto para obtenção de bons resultados é necessária a utilização de mudas florestais sadias e livres de doenças. A mancha bacteriana do eucalipto e a mancha causada por Cylindrocladium são duas doenças muito comuns em viveiros e, embora os agentes etiológicos sejam diferentes, seus sintomas são bem parecidos, podendo causar dúvidas em um momento de diagnose. O objetivo do presente trabalho foi desenvolver uma rede neural artificial (RNA) que seja capaz de classificar as duas doenças citadas utilizando imagens digitais. Imagens de ambas doenças foram processadas, utilizando a técnica de limiarização a fim de remover o fundo da imagem, e utilizados seus histogramas para treinamento de uma RNA do tipo perceptron multicamadas com algoritmo backpropagation. Foram realizados dez ensaios com cinco topologias diferentes, sendo elas com 34, 128, 248, 368 e 511 neurônios na camada intermediária. Todas as topologias atingiram em média 95% de acertos, sendo considerada a mais adequada aquela que possuía 256 neurônios. / The forest sector has great importance for the Brazilian economy, whose, is raw materials supplier for reforestation of degraded areas as well as for industries like pulp and paper, coal, furniture, among others. However to achieve good results is necessary to use healthy forest seedlings. Bacterial stain of the eucalyptus and the stain caused by Cylindrocladium are two common diseases in nurseries and although the etiologic agents are different, their symptoms are similar, and may cause doubts in a diagnosis moment. The aim of this study was to develop an artificial neural network (ANN) to classify the two cited diseases using digital images. Images of both diseases were processed using a threshold technique to remove the image background, and their histograms were used to training a multilayer perceptron ANN with backpropagation algorithm. Ten essays with five different topologies ( 34, 128, 248, 368 and 511 neurons in the hidden layer) were carried out. All topologies reached on average 95% of correct classifications. The topology with 256 neurons in hidden layer was considered the most suitable one for this project
46

Ontolime: modelo de ontologia de descrição de imagens médicas

Santos Neto, Martins Fideles dos [UNESP] 11 October 2013 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:26:44Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-10-11Bitstream added on 2014-06-13T19:34:26Z : No. of bitstreams: 1 santosneto_mf_me_mar.pdf: 3962517 bytes, checksum: 7d7ab255348c64d1e9048ff8cdc17a9e (MD5) / No campo da saúde os prontuários de pacientes, bem como as imagens a eles atreladas, são base de referência para o acesso à informação e ao conhecimento com ênfase no tratamento de inúmeras patologias, e igualmente para fins de pesquisa. Esses prontuários, que antes se encontravam registrados em suportes analógicos (papel), atualmente, já estão sendo construídos em suportes eletrônicos ou sendo digitalizados, graças à inserção das tecnologias eletrônicas e digitais de informação no contexto da saúde. Outro aspecto a considerar nesta área são as imagens que fotografam o corpo com tanta perfeição tornando-o transparente. Diante desse novo paradigma, considera-se que o tratamento informacional desses documentos precisa ser inovado e, a adoção de ontologias pode ser uma solução. É, pois, nesse contexto que essa pesquisa se insere contemplando o seguinte questionamento: que critérios deverão ser utilizados para a construção de um modelo de ontologia de imagens médicas? Qual é contribuição da literatura da Área de Ciência da Informação no processo de construção de ontologias? O objetivo básico desta pesquisa consiste em construir um modelo de ontologia de imagens médicas levando em consideração as imagens (humanas e de outros animais) a partir da terminologia da área da saúde e das informações referentes às imagens colhidas nos sites didáticos, visando o acesso e a recuperação da informação imagética na área da saúde, com maior valor agregado. A pesquisa é de cunho exploratório na qual buscamos aprofundar nossos conhecimentos, relativos ao entendimento da imagem no campo da saúde, à representação informacional, assim como sobre ontologias, de modo geral, e particularmente ontologia de imagens. A metodologia de construção da ONTOLIME , baseou-se na Methontology, elaborada pelos Professores Gómez-Perez e Cocho (2002)... / In the health records of the patients , as well as images linked to them , are a benchmark for access to information and knowledge with emphasis on the treatment of many diseases , and also for research purposes . These records , which before were recorded in analog media ( paper) , currently already being built in electronic media or being scanned , thanks to the integration of electronic and digital technologies of information in the context of health . Another aspect to consider in this area are the images that photographing the body so perfectly making it transparent. In this new paradigm , it is considered that the treatment of these informational documents need to be innovative , and the adoption of ontologies can be a solution . It is therefore in this context that this research fits contemplating the question: what criteria should be used to build a model of the ontology of medical images ? What is the contribution of literature Area Information Science in the process of ontology construction ? The basic objective of this research is to build a model of the ontology of medical images taking into account the images ( human and other animals ) from the terminology of healthcare and information related to images taken from the teaching sites in order to access and information retrieval imagery in health , with higher added value . The research is exploratory in which we seek to deepen our knowledge relative to the understanding of the image in the field of health, informational representation , as well as on ontologies , in general , and particularly ontology pictures . The construction methodology of ONTOLIME , was based on Methontology , prepared by Professors Gomez - Perez and trough (2002 ) . The mapping of concepts has been done manually , terminologies in the area and also in the analysis of images collected on the Internet . The ONTOLIME was built in Protégé software... (Complete abstract click electronic access below)
47

Biometric identification with 3D fingerprints acquired through optical coherence tomography

Costa, Henrique Sérgio Gutierrez da January 2016 (has links)
Orientador : Prof. Dr. Luciano Silva / Coorientador : Profª. Olga Regina Pereira Bellon / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 28/06/2016 / Inclui referências : f. 75-82 / Área de concentração / Resumo: Um método para se obter impressões digitais 3D da derme e da epiderme a partir de imagens em alta resolução adquiridas utilizando Tomografia de Coerência Ótica (OCT) é proposto neste trabalho. Este método, resolve limitações das técnicas de reconstrução 3D de impressões digitais que empregam múltiplas câmeras/triangulação ou iluminação estruturada, tais como variações de resolução do centro para as bordas das impressões digitais 3D causadas por erros de reconstrução, sensibilidade a baixa iluminação e contraste insuficiente. Uma técnica de busca e identificação baseados em padrões inovativos, os "mapas KH " (usados para a segmentação de regiões de superfície em imagens de intensidade e de profundidade), extraídos computando as curvaturas Gaussiana (K) e média (H) de uma região de interesse na vizinhança das minúcias (denominada nuvem de minúcia), é apresentada. Grandes bases de mapas KH, uma para cada nuvem de minúcia identificada, podem ser construídos com essa técnica. A estratégia de busca e identificação, em duas etapas, baseia-se primeiro em padrões locais de gradientes (LGP) dos mapas KH, para reduzir o espaço de busca dentro da base, seguidos de uma comparação que utiliza uma medida de similaridade, a correlação cruzada normalizada dos padrões pré-selecionados com o LGP com os que se quer identificar. A acuracidade do método e sua compatibilidade com os métodos correntes, comparável ou superior à dos métodos 2D, é verificada através da identificação biométrica de impressões digitais 3D utilizando duas bases de imagens, uma adquirida através da tecnologia OCT e a outra gentilmente cedida pela Universidade Politécnica de Hong Kong. A base de imagens OCT, a primeira adquirida com essa tecnologia, é composta de imagens coletadas de onze voluntários em duas sessões de escaneamento e contém imagens de dedos de pessoas com diferentes idades, gênero e etnias e contém casos de cicatrizes, calos e alterações, tais como abrasão e arranhões. Uma base de impressões digitais 2D, obtida dos mesmos voluntários através de um leitor regular de impressões digitais, foi adquirida para permitir uma comparação da técnica proposta com os métodos de identificação tradicionais. A aplicabilidade do método proposto à identificação de impressões digitais alteradas, deterioradas acidentalmente ou intencionalmente, é investigada. Nesses casos, a impressão digital 3D extraída da derme e compatível com a da epiderme é empregada. A identificação destas impressões 3D alteradas é testada utilizando a base de imagens adquiridas com OCT. A acuracidade da técnica é comparada com a obtida utilizando os métodos tradicionais 2D usando os gráficos de taxas de Falsa Aceitação e Falsa Rejeição (FAXxFRR) e de Características Cumulativas de Identificação (CMC). Impressões digitais 2D, extraídas a partir das impressões digitais 3D simulando o rolamento do dedo durante a aquisição (rolamento virtual), foram geradas e sua compatibilidade com as bases de imagens 2D foi testada. Um conjunto de medidas de avaliação de qualidade foram aplicados às bases de imagens de impressões digitais 3D e sua correspondência aos escores de identificação foi analisada para determinar aqueles que podem contribuir para melhorar a acuracidade da identificação. Palavras-chave: Impressões digitais 3D. Identificação Biométrica. Tomografia de Coerência Ótica. / Abstract: A method to obtain epidermal and dermal 3D fingerprints from high-resolution images acquired using Optical Coherence Tomography (OCT) is proposed. This method addresses limitations of current 3D reconstruction techniques that employ multiple cameras/triangulation or structured illumination such as depth and resolution variations from the center to the borders of the fingerprint caused by reconstruction errors, sensitivity to low illumination and poor contrast. The availability of these 3D fingerprints allowed the creation of new matching methods that benefit from the rich information available in 3D. A 3D fingerprint matching technique based on novel patterns, the KH maps (used to surface region segmentation in range and intensity images), extracted by computing the Gaussian and mean curvatures (SILVA; BELLON; GOTARDO, 2001) from a region of interest around the minutiae, named minutiae clouds is presented. Large databases of KH maps, one for each identified minutiae cloud can be built. The matching strategy, a two-step approach, relies on local gradient patterns (LGP) of the KH maps to narrow the search space, followed by a similarity matching, the normalized cross correlation of patterns being matched. The accuracy and matching compatibility, comparable or improved in relation to the 2D matching methods, is verified through matching 3D fingerprints from two databases one acquired using OCT and a public database gently made available by the Hong Kong Polytechnic University. The OCT database, the first 3D database acquired using Optical Coherence Tomography, to our knowledge, is made of images collected from eleven volunteers in two scanning sessions and contains images of people of different ages, genders and ethnicities and also cases of scars, calluses and alterations as abrasion and scratches. A 2D fingerprint database, scanned from the same volunteers using a regular fingerprint reader was also obtained for comparison with traditional matching methods. We investigate the applicability of our method to the identification of altered fingerprints, damaged unintentionally or accidentally. In these cases, the 3D dermal fingerprint, compatible with the epidermis fingerprint, is employed. Matching with 3D dermal and epidermal fingerprints is tested in the OCT database. Matching accuracy is compared with the obtained using traditional matching 2D methods by using False Acceptance and False rejection rate (FARxFRR) and Cumulative Matching Characteristics (CMC) graphs. Unwrapped fingerprints, 2D fingerprints extracted from 3D fingerprints by virtual unrolling were generated and tested for compatibility with 2D databases. A set of quality evaluation measures were employed to the 3D fingerprint databases and their correspondence to the matching scores was analyzed to identify those that can contribute to improve the matching accuracy. Key-words: 3D Fingerprints. Biometric identification. Optical Coherence Tomography.
48

Point spread function estimation of solar surface images with a cooperative particle swarm optmization on GPUS

Perroni, Peter Frank 23 May 2013 (has links)
Resumo: Apresentamos um método para a estimativa da função de espalhamento pontual (PSF) de imagens de superfície solar obtidas por telescópios terrestres e corrompidas pela atmosfera. A estimativa e feita obtendo-se a fase da frente de onda usando um conjunto de imagens de curta exposto, a reconstrucão de granulado optico do objeto observado e um modelo PSF parametrizado por polinómios de Zernikes. Estimativas da fase da frente de onda e do PSF sao computados atraves da minimizacao de uma funcao de erro com um metodo de otimizacão cooperativa por nuvens de partículas (CPSO), implementados em OpenCL para tirar vantagem do ambiente altamente paralelo Um metodo de calibracao e apresentado para ajustar os parâmetros do que as unidade de processamento gráfico (GPU) provem. algoritmo para resultados de baixo custo, resultando em solidas estimativas tanto para imagens de baixa frequencia quanto para imagens de alta frequencia. Os resultados mostram que o metodo apresentado possui râpida convergencia e e robusto a degradacao causada por ruídos. Experimentos executados em uma placa NVidia Tesla C2050 computaram 100 PSFs com 50 polinómios de Zernike em " 36 minutos. Ao aumentar-se o námero de coeficientes de Zernike dez vezes, de 50 para 500, o tempo de execucão aumentou somente 17%, o que demonstra que o algoritmo proposto e pouco afetado pelo numero de Zernikes utilizado.
49

Localização automática de pontos de controle em imagens aéreas baseada em cenas terrestres verticais

Berveglieri, Adilson [UNESP] 24 October 2014 (has links) (PDF)
Made available in DSpace on 2015-04-09T12:28:22Z (GMT). No. of bitstreams: 0 Previous issue date: 2014-10-24Bitstream added on 2015-04-09T12:48:14Z : No. of bitstreams: 1 000812754.pdf: 2698955 bytes, checksum: 251d7dc436a0b92a04049609a98ad740 (MD5) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Os pontos de controle são fundamentais nos processos de orientação de imagens. Mesmo com o desenvolvimento e consolidação das técnicas de levantamento aéreo pela integração de Sistemas de Posicionamento por Satélites (Global Navigation Satellite System - GNSS) e sistema inercial, que possibilitam a orientação direta do sensor, pontos de controle são necessários para corrigir erros sistemáticos e avaliar a confiabilidade e a acurácia dos dados. A localização desses pontos de controle nas imagens ainda é uma tarefa realizada por um operador, sendo uma fonte adicional de erros devido às incertezas na identificação visual. Assim, este trabalho propõe um fluxo automático para obter coordenadas de pontos de controle e localizá-las nas imagens aéreas com precisão subpixel. A abordagem baseia-se em cenas terrestres verticais de áreas com características distinguíveis, contendo um ponto levantado por receptor GNSS (como um ponto de controle). Essas cenas terrestres são usadas na correspondência com janelas em imagens aéreas para transferir o ponto levantado. Algoritmos de correspondência de imagem baseada em área e em características são aplicados nessa tarefa, além de um posterior refinamento adaptativo por mínimos quadrados. Para realizar o fluxo automático, desenvolveu-se uma técnica de coleta de imagens terrestres na forma necessária. Além dessa técnica, outras foram desenvolvidas para: preparar a cena terrestre de controle com retificação e ortorretificação; localizar o ponto de controle em janela de busca na imagem aérea e minimizar as diferenças na correspondência entre imagens terrestre e aérea, definindo melhor a posição subpixel do ponto. Vários experimentos avaliaram a viabilidade e a acurácia alcançada com as técnicas propostas usando ajustamento por feixes de raios em modelos e blocos de imagens... / Control field is essential in image orientation procedures and is based on the determination of ground coordinates from distinguishable features. Aerial survey techniques have evolved with the integration of Global Navigation Satellite System (GNSS) and inertial systems, enabling Direct Sensor Orientation (DSO). However, even with the development and consolidation of these techniques, Ground Control Points (GCPs) are still needed to correct for systematic errors and to assess the reliability and accuracy of the orientation data. The location of GCPs over images is still a task performed by an operator, which is an additional source of errors due to the uncertainties in the visual identification. Thus, an automatic flow is proposed in this work to obtain GCP coordinates and locate them in aerial images with sub-pixel accuracy. The approach is based on vertical ground scenes from distinguishable feature areas with a point surveyed by GNSS receiver (like a GCP). These ground scenes are matched with aerial image patches to transfer surveyed points. Feature- and area-based matching algorithms are applied for this task as well as a subsequent adaptive refinement by least squares. To perform the automatic flow, a technique to acquire ground images as required was designed. In addition, other techniques were developed to: prepare control scenes by rectification and orthorectification; locate GCPs into search window in aerial images, and minimize the differences between matched image patches, improving the sub-pixel location of the match point. Different experiments assessed the feasibility and accuracy achieved with the proposed techniques using bundle adjustment in stereo-models and image blocks. The analysis of results was based on discrepancies and residuals at GPCs and independent checkpoints... / FAPESP: 2010/16954-5
50

Medidas de deslocamento e vibrações através de imagens de câmeras digitais

Sabino, Danilo Damasceno [UNESP] 07 October 2013 (has links) (PDF)
Made available in DSpace on 2014-12-02T11:16:54Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-10-07Bitstream added on 2014-12-02T11:20:56Z : No. of bitstreams: 1 000795916.pdf: 3307453 bytes, checksum: f4acdf669e3aaa965609b2d600a6fa5a (MD5) / Nesta dissertação é discutido o desenvolvimento e a implementação de uma técnica de medida de deslocamentos utilizando uma única câmera digital, cujo foco principal é a medição de movimento e vibrações estruturais. A proposta é uma técnica de medição de não contato que tem como base a variação da posição dos pixels de um alvo ou conjunto de alvos (pontos de medições) na sequência de imagens do vídeo utilizado para capturar o movimento do alvo ou conjunto de alvos na cena. Os conceitos e o embasamento teórico são apresentados, envolvendo uma discussão de como se dá a formação e obtenção de imagens digitais, a definição e obtenção dos parâmetros intrínsecos da câmera, bem como as técnicas de processamento de imagens utilizadas para a identificação do alvo na cena. A identificação dos alvos é feita a partir da utilização de várias ferramentas de análise e processamento de imagens, dentre elas, separação de cores, detecção de bordas, thresholding, erosão e dilatação. O movimento do alvo na sequência de imagens é rastreado em termos de pixels e posteriormente é feita a conversão para unidade de medida utilizando a relação unidade de medida/pixel obtida através de um processo de calibração. A avaliação e validação da proposta foram feitas através de testes experimentais, envolvendo tanto medidas estáticas como dinâmicas. Numa etapa final, a técnica foi utilizada para a análise de vibração de um prédio em escala reduzida, mais especificamente, a análise modal com base apenas na resposta da estrutura. Os resultados e análises realizadas mostraram que a metodologia implementada com base na utilização de uma única câmera se mostrou como uma proposta com alto potencial de aplicação como ferramenta de medição de não-contato, relativamente simples e efetiva / In this work is discussed the development and implementation of a technique for measuring of displacements using a single digital camera, whose main focus is the measurement of structural motion and vibrations. The proposal is a non-contact measurement technique, which is based on the variation of the position of the pixels of the target measuring points in the sequence of images of a video used to capture the movement of the target points in the scene. The concepts and theoretical background are presented, involving a discussion concerning to the formation and obtaining of digital images, definition and obtaining of intrinsic parameters of the camera, as well as the image processing techniques used to identify the measuring target points in the scene. The identification of the targets is made from the use of different analysis and image processing tools such as, color separation, edge detection, thresholdding, erosion and dilation used in a complementary way. The movement of the target points in the sequence of image is tracked in terms of pixels and then they are converted in measurement unit using the ratio measurement unit/pixel obtained by a calibration process. The evaluation and validation of the proposal were made through experimental tests, involving both static and dynamic measurements. At a final stage, the technique was used to vibration analyze of a reduced scale building structure, more specifically, the output-only modal analysis of the structure. The results and analyzes showed that the methodology implemented based on the use of a unique camera provided to be a proposal with high application potential as a non-contact measurement tool, relatively simple and effective

Page generated in 0.0738 seconds