• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 533
  • 48
  • 40
  • 40
  • 40
  • 25
  • 25
  • 25
  • 25
  • 25
  • 15
  • 6
  • Tagged with
  • 587
  • 587
  • 298
  • 282
  • 209
  • 180
  • 129
  • 120
  • 114
  • 100
  • 87
  • 84
  • 80
  • 80
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
571

Análise de formas usando wavelets em grafos / Shape analysis using wavelets on graphs

Leandro, Jorge de Jesus Gomes 11 February 2014 (has links)
O presente texto descreve a tese de doutorado intitulada Análise de Formas usando Wavelets em Grafos. O tema está relacionado à área de Visão Computacional, particularmente aos tópicos de Caracterização, Descrição e Classificação de Formas. Dentre os métodos da extensa literatura em Análise de Formas 2D, percebe-se uma presença menor daqueles baseados em grafos com topologia arbitrária e irregular. As contribuições desta tese procuram preencher esta lacuna. É proposta uma metodologia baseada no seguinte pipeline : (i) Amostragem da forma, (ii) Estruturação das amostras em grafos, (iii) Função-base definida nos vértices, (iv) Análise multiescala de grafos por meio da Transformada Wavelet Espectral em grafos, (v) Extração de Características da Transformada Wavelet e (vi) Discriminação. Para cada uma das etapas (i), (ii), (iii), (v) e (vi), são inúmeras as abordagens possíveis. Um dos desafios é encontrar uma combinação de abordagens, dentre as muitas alternativas, que resulte em um pipeline eficaz para nossos propósitos. Em particular, para a etapa (iii), dado um grafo que representa uma forma, o desafio é identificar uma característica associada às amostras que possa ser definida sobre os vértices do grafo. Esta característica deve capturar a influência subjacente da estrutura combinatória de toda a rede sobre cada vértice, em diversas escalas. A Transformada Wavelet Espectral sobre os Grafos revelará esta influência subjacente em cada vértice. São apresentados resultados obtidos de experimentos usando formas 2D de benchmarks conhecidos na literatura, bem como de experimentos de aplicações em astronomia para análise de formas de galáxias do Sloan Digital Sky Survey não-rotuladas e rotuladas pelo projeto Galaxy Zoo 2 , demonstrando o sucesso da técnica proposta, comparada a abordagens clássicas como Transformada de Fourier e Transformada Wavelet Contínua 2D. / This document describes the PhD thesis entitled Shape Analysis by using Wavelets on Graphs. The addressed theme is related to Computer Vision, particularly to the Characterization, Description and Classication topics. Amongst the methods presented in an extensive literature on Shape Analysis 2D, it is perceived a smaller presence of graph-based methods with arbitrary and irregular topologies. The contributions of this thesis aim at fullling this gap. A methodology based on the following pipeline is proposed: (i) Shape sampling, (ii) Samples structuring in graphs, (iii) Function dened on vertices, (iv) Multiscale analysis of graphs through the Spectral Wavelet Transform, (v) Features extraction from the Wavelet Transforms and (vi) Classication. For the stages (i), (ii), (iii), (v) and (vi), there are numerous possible approaches. One great challenge is to nd a proper combination of approaches from the several available alternatives, which may be able to yield an eective pipeline for our purposes. In particular, for the stage (iii), given a graph representing a shape, the challenge is to identify a feature, which may be dened over the graph vertices. This feature should capture the underlying inuence from the combinatorial structure of the entire network over each vertex, in multiple scales. The Spectral Graph Wavelet Transform will reveal such an underpining inuence over each vertex. Yielded results from experiments on 2D benchmarks shapes widely known in literature, as well as results from astronomy applications to the analysis of unlabeled galaxies shapes from the Sloan Digital Sky Survey and labeled galaxies shapes by the Galaxy Zoo 2 Project are presented, demonstrating the achievements of the proposed technique, in comparison to classic approaches such as the 2D Fourier Transform and the 2D Continuous Wavelet Transform.
572

Novos ataques de canal secundário a dispositivos de entrada manual de dados confidenciais. / New side-channel attacks on devices for manual input of sensitive data.

Gerson de Souza Faria 09 December 2016 (has links)
Esta tese apresenta três novos ataques a equipamentos de pagamento eletrônico que possuem teclado mecânico, conhecidos como \"PIN pads\". Mostramos de três formas distintas como tais equipamentos possuem vulnerabilidades de segurança na camada física que permitem o vazamento do PIN (Personal Identification Number) quando o mesmo é digitado. Demonstramos experimentalmente que é possível inferir com elevada taxa de acerto (100% em um dos ataques) a senha digitada, de forma não-invasiva. Os ataques desenvolvidos são baseados na introdução de sensores nos próprios equipamentos ou em seu ambiente de operação: acelerômetros para análise de vibração, microfones para análise acústica e células de carga para medição de forças do pressionamento. Devido à massificação no uso de sensores por dispositivos de consumo, o roubo de informação por meios não convencionais é atividade crescente. Os resultados dos ataques de baixo custo realizados expõem sérias deficiências no processo de certificação de segurança de tais equipamentos. / This thesis presents three new attacks on electronic payment equipment having mechanical keypads, known as \"PIN pads\". We show in three different ways how they have security vulnerabilities at the physical layer allowing the leak of the PIN (Personal Identification Number) when it is entered. We experimentally demonstrated that it is possible to infer with high success rate (100% in one of the attacks) the password entered on the device, in a non-invasive way. The attacks are based on the placement of sensors inside the equipment itself or in its operating environment: accelerometers for doing vibration analysis, microphones for acoustic analysis and load cells for measuring the pressing force. Due to massive deployment of sensors in consumer devices, information theft by unconventional means is increasing. The results of the low-cost attacks here developed expose serious shortcomings in the process of security certification of such equipment.
573

Deep learning methods for detecting anomalies in videos: theoretical and methodological contributions / Métodos de deep learning para a detecção de anomalias em vídeos: contribuições teóricas e metodológicas

Ribeiro, Manassés 05 March 2018 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A detecção de anomalias em vídeos de vigilância é um tema de pesquisa recorrente em visão computacional. Os métodos de aprendizagem profunda têm alcançado o estado da arte para o reconhecimento de padrões em imagens e o Autocodificador Convolucional (ACC) é uma das abordagens mais utilizadas por sua capacidade em capturar as estruturas 2D dos objetos. Neste trabalho, a detecção de anomalias se refere ao problema de encontrar padrões em vídeos que não pertencem a um conceito normal esperado. Com o objetivo de classificar anomalias adequadamente, foram verificadas formas de aprender representações relevantes para essa tarefa. Por esse motivo, estudos tanto da capacidade do modelo em aprender características automaticamente quanto do efeito da fusão de características extraídas manualmente foram realizados. Para problemas de detecção de anomalias do mundo real, a representação da classe normal é uma questão importante, sendo que um ou mais agrupamentos podem descrever diferentes aspectos de normalidade. Para fins de classificação, esses agrupamentos devem ser tão compactos (densos) quanto possível. Esta tese propõe o uso do ACC como uma abordagem orientada a dados aplicada ao contexto de detecção de anomalias em vídeos. Foram propostos métodos para o aprendizado de características espaço-temporais, bem como foi introduzida uma abordagem híbrida chamada Autocodificador Convolucional com Incorporação Compacta (ACC-IC), cujo objetivo é melhorar a compactação dos agrupamentos normais. Além disso, foi proposto um novo critério de parada baseado na sensibilidade e sua adequação para problemas de detecção de anomalias foi verificada. Todos os métodos propostos foram avaliados em conjuntos de dados disponíveis publicamente e comparados com abordagens estado da arte. Além do mais, foram introduzidos dois novos conjuntos de dados projetados para detecção de anomalias em vídeos de vigilância em rodovias. O ACC se mostrou promissor na detecção de anomalias em vídeos. Resultados sugerem que o ACC pode aprender características espaço-temporais automaticamente e a agregação de características extraídas manualmente parece ser valiosa para alguns conjuntos de dados. A compactação introduzida pelo ACC-IC melhorou o desempenho de classificação para a maioria dos casos e o critério de parada baseado na sensibilidade é uma nova abordagem que parece ser uma alternativa interessante. Os vídeos foram analisados qualitativamente de maneira visual, indicando que as características aprendidas com os dois métodos (ACC e ACC-IC) estão intimamente correlacionadas com os eventos anormais que ocorrem em seus quadros. De fato, ainda há muito a ser feito para uma definição mais geral e formal de normalidade, de modo que se possa ajudar pesquisadores a desenvolver métodos computacionais eficientes para a interpretação dos vídeos. / The anomaly detection in automated video surveillance is a recurrent topic in recent computer vision research. Deep Learning (DL) methods have achieved the state-of-the-art performance for pattern recognition in images and the Convolutional Autoencoder (CAE) is one of the most frequently used approach, which is capable of capturing the 2D structure of objects. In this work, anomaly detection refers to the problem of finding patterns in images and videos that do not belong to the expected normal concept. Aiming at classifying anomalies adequately, methods for learning relevant representations were verified. For this reason, both the capability of the model for learning automatically features and the effect of fusing hand-crafted features together with raw data were studied. Indeed, for real-world problems, the representation of the normal class is an important issue for detecting anomalies, in which one or more clusters can describe different aspects of normality. For classification purposes, these clusters must be as compact (dense) as possible. This thesis proposes the use of CAE as a data-driven approach in the context of anomaly detection problems. Methods for feature learning using as input both hand-crafted features and raw data were proposed, and how they affect the classification performance was investigated. This work also introduces a hybrid approach using DL and one-class support vector machine methods, named Convolutional Autoencoder with Compact Embedding (CAE-CE), for enhancing the compactness of normal clusters. Besides, a novel sensitivity-based stop criterion was proposed, and its suitability for anomaly detection problems was assessed. The proposed methods were evaluated using publicly available datasets and compared with the state-of-the-art approaches. Two novel benchmarks, designed for video anomaly detection in highways were introduced. CAE was shown to be promising as a data-driven approach for detecting anomalies in videos. Results suggest that the CAE can learn spatio-temporal features automatically, and the aggregation of hand-crafted features seems to be valuable for some datasets. Also, overall results suggest that the enhanced compactness introduced by the CAE-CE improved the classification performance for most cases, and the stop criterion based on the sensitivity is a novel approach that seems to be an interesting alternative. Videos were qualitatively analyzed at the visual level, indicating that features learned using both methods (CAE and CAE-CE) are closely correlated to the anomalous events occurring in the frames. In fact, there is much yet to be done towards a more general and formal definition of normality/abnormality, so as to support researchers to devise efficient computational methods to mimetize the semantic interpretation of visual scenes by humans.
574

RISO - GCT - Determinação do contexto temporal de conceitos em textos. / RISO - GCT - Determination of the temporal context of concepts in texts.

ALVES, George Marcelo Rodrigues. 06 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-06T17:59:05Z No. of bitstreams: 1 GEORGE MARCELO RODRIGUES ALVES - DISSERTAÇÃO PPGCC 2016..pdf: 15556672 bytes, checksum: 0109aeaa0d0af858151c540948a9859d (MD5) / Made available in DSpace on 2018-08-06T17:59:05Z (GMT). No. of bitstreams: 1 GEORGE MARCELO RODRIGUES ALVES - DISSERTAÇÃO PPGCC 2016..pdf: 15556672 bytes, checksum: 0109aeaa0d0af858151c540948a9859d (MD5) Previous issue date: 2016-02-26 / Devido ao crescimento constante da quantidade de textos disponíveis na Web, existe uma necessidade de catalogar estas informações que surgem a cada instante. No entanto, trata-se de uma tarefa árdua e na qual seres humanos são incapazes de realizar esta tarefa de maneira manual, tendo em vista a quantidade incontável de dados que são disponibilizados a cada segundo. Inúmeras pesquisas têm sido realizadas no intuito de automatizar este processo de catalogação. Uma vertente de grande utilidade para as várias áreas do conhecimento humano é a indexação de documentos com base nos contextos temporais presentes nestes documentos. Esta não é uma tarefa trivial, pois envolve a análise de informações não estruturadas presentes em linguagem natural, disponíveis nos mais diversos idiomas, dentre outras dificuldades. 0 objetivo principal deste trabalho é criar uma abordagem capaz de permitir a indexação de documentos, determinando mapas de tópicos enriquecidos com conceitos e as respectivas informações temporais relacionadas. Tal abordagem deu origem ao RISO-GCT (Geração de Contextos Temporais), componente do Projeto RISO (Recuperação da Informação Semântica de Objetos Textuais), que tem como objetivo criar um ambiente de indexação e recuperação semântica de documentos possibilitando uma recuperação mais acurada. 0 RISO-GCT utilizou os resultados de um módulo preliminar, o RISO-TT (Temporal Tagger), responsável por etiquetar informações temporais presentes em documentos e realizar o processo de normalização das expressões temporais encontradas. Deste processo foi aperfeiçoada a abordagem responsável pela normalização de expressões temporais, para que estas possam ser manipuladas mais facilmente na determinação dos contextos temporais. Foram realizados experimentos para avaliar a eficácia da abordagem proposta nesta pesquisa. 0 primeiro, com o intuito de verificar se o Topic Map previamente criado pelo RISO-IC (Indexação Conceituai), foi enriquecido com as informações temporais relacionadas aos conceitos de maneira correta e o segundo, para analisar a eficácia da abordagem de normalização das expressões temporais extraídas de documentos. Os experimentos concluíram que tanto o RISO-GCT, quanto o RISO-TT incrementado obtiveram resultados superiores aos concorrentes. / Due to the constant growth of the number of texts available on the Web, there is a need to catalog that information which appear at every moment. However, it is an arduous task in which humans are unable to perform this task manually, given the increased amount of data available at every second. Numerous studies have been conducted in order to automate the cataloging process. A research line with utility for various áreas of human knowledge is the indexing of documents based on temporal contexts present in these documents. This is not a trivial task, as it involves the analysis of unstructured information present in natural language, available in several languages, among other difficulties. The main objective of this work is to create a model to allow indexing of documents, creating topic maps enriched with the concepts in text and their related temporal information. This approach led to the RISO-GCT (Temporal Contexts Generation), a part of RISO Project (Semantic Information Retrieval on Text Objects), which aims to create a semantic indexing environment and retrieval of documents, enabling a more accurate recovery. RISO-GCT uses the results of a preliminary module, the RISO-TT (Temporal Tagger) responsible the labeling temporal information contained in documents and carrying out the process of normalization of temporal expressions. Found. In this module the normalization of temporal expressions has been improved, in order allow a richer temporal context determination. Experiments were conducted to evaluate the effectiveness of the approach proposed a in this research. The first, in order to verify that the topic map previously created by RISO-IC has been correctly enriched with temporal information related to the concepts correctly, and the second, to analyze the effectiveness of the normalization of expressions extracted from documents. The experiments concluded that both the RISO-GCT, as the RISO-TT, which was evolved during this work, obtained better results than similar tools.
575

Análise de formas usando wavelets em grafos / Shape analysis using wavelets on graphs

Jorge de Jesus Gomes Leandro 11 February 2014 (has links)
O presente texto descreve a tese de doutorado intitulada Análise de Formas usando Wavelets em Grafos. O tema está relacionado à área de Visão Computacional, particularmente aos tópicos de Caracterização, Descrição e Classificação de Formas. Dentre os métodos da extensa literatura em Análise de Formas 2D, percebe-se uma presença menor daqueles baseados em grafos com topologia arbitrária e irregular. As contribuições desta tese procuram preencher esta lacuna. É proposta uma metodologia baseada no seguinte pipeline : (i) Amostragem da forma, (ii) Estruturação das amostras em grafos, (iii) Função-base definida nos vértices, (iv) Análise multiescala de grafos por meio da Transformada Wavelet Espectral em grafos, (v) Extração de Características da Transformada Wavelet e (vi) Discriminação. Para cada uma das etapas (i), (ii), (iii), (v) e (vi), são inúmeras as abordagens possíveis. Um dos desafios é encontrar uma combinação de abordagens, dentre as muitas alternativas, que resulte em um pipeline eficaz para nossos propósitos. Em particular, para a etapa (iii), dado um grafo que representa uma forma, o desafio é identificar uma característica associada às amostras que possa ser definida sobre os vértices do grafo. Esta característica deve capturar a influência subjacente da estrutura combinatória de toda a rede sobre cada vértice, em diversas escalas. A Transformada Wavelet Espectral sobre os Grafos revelará esta influência subjacente em cada vértice. São apresentados resultados obtidos de experimentos usando formas 2D de benchmarks conhecidos na literatura, bem como de experimentos de aplicações em astronomia para análise de formas de galáxias do Sloan Digital Sky Survey não-rotuladas e rotuladas pelo projeto Galaxy Zoo 2 , demonstrando o sucesso da técnica proposta, comparada a abordagens clássicas como Transformada de Fourier e Transformada Wavelet Contínua 2D. / This document describes the PhD thesis entitled Shape Analysis by using Wavelets on Graphs. The addressed theme is related to Computer Vision, particularly to the Characterization, Description and Classication topics. Amongst the methods presented in an extensive literature on Shape Analysis 2D, it is perceived a smaller presence of graph-based methods with arbitrary and irregular topologies. The contributions of this thesis aim at fullling this gap. A methodology based on the following pipeline is proposed: (i) Shape sampling, (ii) Samples structuring in graphs, (iii) Function dened on vertices, (iv) Multiscale analysis of graphs through the Spectral Wavelet Transform, (v) Features extraction from the Wavelet Transforms and (vi) Classication. For the stages (i), (ii), (iii), (v) and (vi), there are numerous possible approaches. One great challenge is to nd a proper combination of approaches from the several available alternatives, which may be able to yield an eective pipeline for our purposes. In particular, for the stage (iii), given a graph representing a shape, the challenge is to identify a feature, which may be dened over the graph vertices. This feature should capture the underlying inuence from the combinatorial structure of the entire network over each vertex, in multiple scales. The Spectral Graph Wavelet Transform will reveal such an underpining inuence over each vertex. Yielded results from experiments on 2D benchmarks shapes widely known in literature, as well as results from astronomy applications to the analysis of unlabeled galaxies shapes from the Sloan Digital Sky Survey and labeled galaxies shapes by the Galaxy Zoo 2 Project are presented, demonstrating the achievements of the proposed technique, in comparison to classic approaches such as the 2D Fourier Transform and the 2D Continuous Wavelet Transform.
576

Modelos de compressão de dados para classificação e segmentação de texturas

Honório, Tatiane Cruz de Souza 31 August 2010 (has links)
Made available in DSpace on 2015-05-14T12:36:26Z (GMT). No. of bitstreams: 1 parte1.pdf: 2704137 bytes, checksum: 1bc9cc5c3099359131fb11fa1878c22f (MD5) Previous issue date: 2010-08-31 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / This work analyzes methods for textures images classification and segmentation using lossless data compression algorithms models. Two data compression algorithms are evaluated: the Prediction by Partial Matching (PPM) and the Lempel-Ziv-Welch (LZW) that had been applied in textures classification in previous works. The textures are pre-processed using histogram equalization. The classification method is divided into two stages. In the learning stage or training, the compression algorithm builds statistical models for the horizontal and the vertical structures of each class. In the classification stage, samples of textures to be classified are compressed using models built in the learning stage, sweeping the samples horizontally and vertically. A sample is assigned to the class that obtains the highest average compression. The classifier tests were made using the Brodatz textures album. The classifiers were tested for various contexts sizes (in the PPM case), samples number and training sets. For some combinations of these parameters, the classifiers achieved 100% of correct classifications. Texture segmentation process was made only with the PPM. Initially, the horizontal models are created using eight textures samples of size 32 x 32 pixels for each class, with the PPM context of a maximum size 1. The images to be segmented are compressed by the models of classes, initially in blocks of size 64 x 64 pixels. If none of the models achieve a compression ratio at a predetermined interval, the block is divided into four blocks of size 32 x 32. The process is repeated until a model reach a compression ratio in the range of the compression ratios set for the size of the block in question. If the block get the 4 x 4 size it is classified as belonging to the class of the model that reached the highest compression ratio. / Este trabalho se propõe a analisar métodos de classificação e segmentação de texturas de imagens digitais usando algoritmos de compressão de dados sem perdas. Dois algoritmos de compressão são avaliados: o Prediction by Partial Matching (PPM) e o Lempel-Ziv-Welch (LZW), que já havia sido aplicado na classificação de texturas em trabalhos anteriores. As texturas são pré-processadas utilizando equalização de histograma. O método de classificação divide-se em duas etapas. Na etapa de aprendizagem, ou treinamento, o algoritmo de compressão constrói modelos estatísticos para as estruturas horizontal e vertical de cada classe. Na etapa de classificação, amostras de texturas a serem classificadas são comprimidas utilizando modelos construídos na etapa de aprendizagem, varrendo-se as amostras na horizontal e na vertical. Uma amostra é atribuída à classe que obtiver a maior compressão média. Os testes dos classificadores foram feitos utilizando o álbum de texturas de Brodatz. Os classificadores foram testados para vários tamanhos de contexto (no caso do PPM), amostras e conjuntos de treinamento. Para algumas das combinações desses parâmetros, os classificadores alcançaram 100% de classificações corretas. A segmentação de texturas foi realizada apenas com o PPM. Inicialmente, são criados os modelos horizontais usados no processo de segmentação, utilizando-se oito amostras de texturas de tamanho 32 x 32 pixels para cada classe, com o contexto PPM de tamanho máximo 1. As imagens a serem segmentadas são comprimidas utilizando-se os modelos das classes, inicialmente, em blocos de tamanho 64 x 64 pixels. Se nenhum dos modelos conseguir uma razão de compressão em um intervalo pré-definido, o bloco é dividido em quatro blocos de tamanho 32 x 32. O processo se repete até que algum modelo consiga uma razão de compressão no intervalo de razões de compressão definido para o tamanho do bloco em questão, podendo chegar a blocos de tamanho 4 x 4 quando o bloco é classificado como pertencente à classe do modelo que atingiu a maior taxa de compressão.
577

Detecção de glifosato em água por reconhecimento de padrões em espectroscopia assistida por nanopartículas de prata fabricadas por ablação a laser / Detection of glyphosate in water by pattern recognition in laser ablated silver nanoparticles assisted spectroscopy

Góes, Rafael Eleodoro de 19 February 2018 (has links)
A água é um recurso natural que, apesar de abundante, tem sofrido grande restrição em sua disponibilidade por conta da atividade humana, principalmente a agricultura. A garantia de conformidade da água que é distribuída à população quanto aos níveis tidos como seguros para a presença de contaminantes é, portanto, uma questão de saúde pública e que tem atraído grande atenção. De modo a detectar substâncias potencialmente nocivas, complexos procedimentos de química analítica são utilizados para a verificação e emissão de laudos de conformidade, utilizados para a tomada de decisão em relação à sua potabilidade. Neste cenário há demanda para métodos auxiliares para guiar a amostragem e realizar a triagem de amostras. O glifosato é o herbicida sistêmico não seletivo mais utilizado no mundo. Tal substância tem recebido crescente atenção, principalmente devido à sua ampla utilização e controvérsia em relação ao seu efeito potencialmente cancerígeno. Neste trabalho é apresentado um método para a detecção de glifosato diretamente em meio aquoso a partir da interrogação espectroscópica assistida por nanopartículas de prata. Com uso do espalhamento Raman, a região de assinatura espectral de moléculas em solução aquosa é acessível na região visível do espectro eletromagnético. Entretanto, o limite de deteção para este tipo de interrogação é prejudicado pela baixa intensidade do sinal ótico gerado. A intensificação do espalhamento Raman por um corpo metálico nanoestruturado é uma técnica que permite a detecção de traços de substâncias por meio de seu espectro vibracional. Nanopartículas esféricas de prata, com tamanhos de 5 a 20 nm, foram produzidas a partir da técnica de Ablação a Laser Pulsado em Líquidos resultando em uma solução coloidal estabilizada por íons de citrato, usado como surfactante. Um aparato experimental, composto por dois espectrofotômetros a fibra ótica e bombeamento por fontes de radiação laser e banda larga, foi implementado para interrogação das amostras de água com potencial presença de glifosato. O espectro vibracional foi obtido pela medição do espalhamento Raman intensificado em superfície (SERS) do conjunto de aglomerados de nanopartículas de prata formado pela agregação mediada pelo analito. Por meio do espectro de extinção UV-Vis, o estado de agregação das nanopartículas em solução coloidal foi medido. A partir dessa agregação, foi possível medir uma banda de espalhamento Raman intensificado dependente da concentração do analito. Um mecanismo baseado na interação entre o analito e o substrato foi proposto. A a partir dos resultados, realizou-se o ajuste na produção das nanopartículas, bem como sua interação com as amostras, permitindo a determinação do limite de detecção de 6,0 e 7,5 μM (1,0 e 1,3 ppm) para as duas técnicas de interrogação, UV-Vis e Raman, respectivamente. Um sistema de reconhecimento de padrões baseado no método da Análise de Discriminantes pelos Mínimos Quadrados Parciais (PLS-DA) foi implementado para a classificação de amostras. O sistema emprega a fusão em baixo nível dos dados espectroscópicos, UV-Vis e Raman, num único espaço de características. O sistema foi treinado e validado a partir de amostras de água deionizada e testado com amostras de água in natura com adição de glifosato. Considerando um limite de decisão de 10 μM, foi obtido um valor de acurácia de classificação de 0,85. / Water is a natural resource that, although abundant, has been under great limitation in its availability due to human activity, mainly agriculture. Ensuring compliance of the water that is distributed to the population on levels considered safe for the presence of contaminants is therefore a public health issue and has attracted great attention. In order to detect potentially harmful substances, complex analytical chemistry procedures are used to verify and issue conformity reports used for decision making regarding its potability. In this scenario there is a demand for auxiliary methods to guide sampling and to perform sample screening. Glyphosate is the most widely used non-selective systemic herbicide in the world. Such a substance has received increasing attention, mainly due to its wide use and controversy regarding its potentially carcinogenic effect. This work presents a method for the detection of glyphosate directly in aqueous medium from the spectroscopic interrogation assisted by silver nanoparticles. With the use of Raman scattering, the region of spectral signature of molecules in aqueous solution is accessible in the visible region of the electromagnetic spectrum. However, the detection limit for this type of interrogation is impaired by the low intensity of the optical signal generated. The enhancing of Raman scattering by a nanostructured metallic body is a technique that allows the detection of traces of substances by means of their vibrational spectrum. Silver spherical nanoparticles, ranging from 5 to 20 nm in diameter, were produced by Pulsed Laser Ablation in Liquid (PLAL) technique, resulting in a colloidal solution stabilized by citrate ions, used as a surfactant. An experimental apparatus composed of two optical fiber spectrophotometers, and pumping by laser and wideband radiation sources, was implemented to interrogate water samples with the potential presence of glyphosate. The vibrational spectrum was obtained by measuring the surface enhanced Raman scattering (SERS) of the silver nanoparticle clusters, formed by the analyte-mediated aggregation. By means of the UV-Vis extinction spectrum, the state of aggregation of the nanoparticles in colloidal solution was measured. From this aggregation, it was possible to measure one of the analyte concentration dependent enhanced Raman scattering band. A mechanism based on the interaction between the analyte and the substrate has been proposed. From the results, the tuning of the nanoparticles production, as well as their interaction with the samples was carried out. The limit of detection (LOD) of 6.0 and 7.5 μM (1.0 and 1.3 ppm) for the two interrogation techniques, UV-Vis and Raman, respectively, was achieved. A pattern recognition system based on the Partial Least Squares Discriminant Analysis (PLS-DA) method has been implemented for the classification of samples. The system employs the low level fusion of the spectroscopic data, UV-Vis and Raman, in a unique feature space. The system was trained and validated with deionized water samples and tested with fresh water samples with addition of glyphosate. Considering a decision limit of 10 μM, a classification accuracy of 0.85 was obtained.
578

Uso da análise de discriminante linear em conjunto com a transformada wavelet discreta no reconhecimento de espículas / The linear discriminant analysis usage combined with the discrete wavelet transform in spike detection

Pacola, Edras Reily 18 December 2015 (has links)
CAPES / Pesquisadores têm concentrado esforços, nos últimos 20 anos, aplicando a transformada wavelet no processamento, filtragem, reconhecimento de padrões e na classificação de sinais biomédicos, especificamente em sinais de eletroencefalografia (EEG) contendo eventos característicos da epilepsia, as espículas. Várias famílias de wavelets-mães foram utilizadas, mas sem um consenso sobre qual wavelet-mãe é a mais adequada para essa finalidade. Os sinais utilizados apresentam uma gama muito grande de eventos e não possuem características padronizadas. A literatura relata sinais de EEG amostrados entre 100 a 600 Hz, com espículas variando de 20 a 200 ms. Nesse estudo foram utilizadas 98 wavelets. Os sinais de EEG foram amostrados de 200 a 1 kHz. Um neurologista marcou um conjunto de 494 espículas e um conjunto de 1500 eventos não-espícula. Esse estudo inicia avaliando a quantidade de decomposições wavelets necessárias para a detecção de espículas, seguido pela análise detalhada do uso combinado de wavelets-mães de uma mesma família e entre famílias. Na sequência é analisada a influência de descritores e o uso combinado na detecção de espículas. A análise dos resultados desses estudos indica que é mais adequado utilizar um conjunto de wavelets-mães, com vários níveis de decomposição e com vários descritores, ao invés de utilizar uma única wavelet-mãe ou um descritor específico para a detecção de espículas. A seleção desse conjunto de wavelets, de níveis de decomposição e de descritores permite obter níveis de detecção elevados conforme a carga computacional que se deseje ou a plataforma computacional disponível para a implementação. Como resultado, esse estudo atingiu níveis de desempenho entre 0,9936 a 0,9999, dependendo da carga computacional. Outras contribuições desse estudo referem-se à análise dos métodos de extensão de borda na detecção de espículas; e a análise da taxa de amostragem de sinais de EEG no desempenho do classificador de espículas, ambos com resultados significativos. São também apresentadas como contribuições: uma nova arquitetura de detecção de espículas, fazendo uso da análise de discriminante linear; e a apresentação de um novo descritor, energia centrada, baseado na resposta dos coeficientes das sub-bandas de decomposição da transformada wavelet, capaz de melhorar a discriminação de eventos espícula e não-espícula. / Researchers have concentrated efforts in the past 20 years, by applying the wavelet transform in processing, filtering, pattern recognition and classification of biomedical signals, in particular signals of electroencephalogram (EEG) containing events characteristic of epilepsy, the spike. Several families of mother-wavelets were used, but there are no consensus about which mother-wavelet is the most adequate for this purpose. The signals used have a wide range of events. The literature reports EEG signals sampled from 100 to 600 Hz with spikes ranging from 20 to 200 ms. In this study we used 98 wavelets. The EEG signals were sampled from 200 Hz up to 1 kHz. A neurologist has scored a set of 494 spikes and a set 1500 non-spike events. This study starts evaluating the amount of wavelet decompositions required for the detection of spikes, followed by detailed analysis of the combined use of mother-wavelets of the same family and among families. Following is analyzed the influence of descriptors and the combined use of them in spike detection. The results of these studies indicate that it is more appropriate to use a set of mother-wavelets, with many levels of decomposition and with various descriptors, instead of using a single mother-wavelet or a specific descriptor for the detection of spikes. The selection of this set of wavelets, decomposition level and descriptors allows to obtain high levels of detection according to the computational load desired or computing platform available for implementation. This study reached performance levels between 0.9936 to 0.9999, depending on the computational load. Other contributions of this study refer to the analysis of the border extension methods for spike detection; and the influences of the EEG signal sampling rate in the classifier performance, each one with significant results. Also shown are: a new spike detection architecture by making use of linear discriminant analysis; and the presentation of a new descriptor, the centred energy, based on the response of the coefficients of decomposition levels of the wavelet transform, able to improve the discrimination of spike and non-spike events.
579

Uma abordagem para detecção de pessoas em imagens de veículos aéreos não-tripulados / An approach to people detection in unmanned aerial vehicles images

Oliveira, Diulhio Candido de 14 June 2016 (has links)
CAPES / Este trabalho tem como objetivo propor um método reconhecimento de pessoas em imagens aéreas obtidas a partir de Veículos Aéreos Não Tripulados de pequeno porte. Esta é uma aplicação de grande interesse, pois pode ser inserida em diversas situações tanto civis quanto militares como, por exemplo, missões de busca e salvamento. O uso de Veículos Aéreos Não Tripulados autônomos tende a aumentar com o barateamento desta tecnologia. Assim, esta tecnologia pode sobressair sobre outras utilizadas atualmente, como satélites e voos com grandes aeronaves. Para o reconhecimento de pessoas em imagens aéreas de forma autônoma, este trabalho propõe métodos na forma de Sistemas de Reconhecimento de Padrões (SRP) aplicados ao reconhecimento de imagens. Para este métodos, foram testadas quatro técnicas de aprendizado de máquina: Redes Neurais Convolucionais, HOG+SVM, Cascata Haar e Cascata LBP. Além disso, a fim de possibilitar o reconhecimento de pessoas em imagens aéreas em tempo real, foram testadas e avaliadas técnicas de detecção e segmentação de objetos: Mapa de Saliências e o Processamento de Imagens Térmicas de baixa resolução (PIT). Neste trabalho foram avaliadas as taxas de reconhecimento dos SRPs, além do seu tempo de processamento em um sistema embarcado de baixo custo e em uma Base de Controle Móvel (BCM). Os resultados de reconhecimento mostraram a efetividade das Redes Neurais Convolucionais, com uma acurácia de 0,9971, seguido do HOG+SVM com 0,9236, Cascata Haar com 0,7348 e por fim, Cascata LBP com 0,6615. Em situações onde foi simulado a oclusão parcial, as Redes Neurais Convolucionais atingiram Sensibilidade média 0,72, HOG+SVM de 0,50 e as Cascatas 0,20. Nos experimentos com os SRPs (algoritmos de segmentação e detecção juntamente com as técnicas de reconhecimento), o Mapa de Saliências pouco afetou as taxas de reconhecimento, quais ficaram muito próximas das obtidas no experimentos de reconhecimento. Já o Processamento de Imagens Térmicas de baixa resolução apresentou dificuldades em executar uma segmentação precisa, obtendo imagens com variação na translação, prejudicando a precisão do sistema. Por fim, este trabalho propõe uma nova abordagem para implementação de um SRP para o reconhecimento de pessoas em imagens áreas, utilizando Processamento de Imagens Térmicas juntamente com as Redes Neurais Convolucionais. Este SRP une altas taxas de reconhecimento com desempenho computacional de ao menos 1 fps na plataforma BCM. / This work aims to propose a method for people recognition in Small Unmanned Aerial Vehicles aerial imagery. This is an application of high interest, it can be used in several situations, both civilian and military, as search and rescue missions. The use of Unmanned Aerial Vehicles autonomously tends to increase with the cheapening of this technology, supporting search and rescue missions. Thus, this technology can excel over others currently used, as satellites and flights with large aircraft. For autonomous people recognition, this work proposes new methods as Pattern Reconigition System (PRS) applied to image recognition, applying it in aerial images. Four Pattern Reconigition techniques were tested: Convolutional Neural Networks, HOG+SVM, Haar Cascade and LBP Cascade. Furthermore, in order to achieve recognition of people in aerial images in Real-Time target and detection techniques were tested and evaluated: Saliency Maps and Low-resolution Thermal Image Processing (TIP). In this work were considered recognition rates of the methods and their computational time in a low-cost embedded system and a Mobile Ground Control Station (MGCS). The recognition results shown the Convolutional Neural Network potential, where an accuracy of 0.9971 was achieved, followed by HOG + SVM with 0.9236, Haar Cascade with 0.7348 and LBP Cascade with 0.6615. In situations simulated partial occlusion, where was the CNNs achieved average Sensitivity of 0.72, HOG+SVM with 0.50 and both Cascades 0.20. In experiments with PRS (targeting and detection algorithms with the recognition techniques), the Saliency Map had little influence in recongition rates, it was close to the rates achieved in recognition experiments. While the Low-resolution Thermal Image Processing had difficulties in segmentation process, where translation variantions occured, it harmed the system precision. Lastly, this work proposes a new approach for PRS implementation for people recognition in aerial imagery, using TIP with CNN. This PRS combines high rates of recognition with an computational performace of, at least, 1 fps in MGCS plataform.
580

Uso da análise de discriminante linear em conjunto com a transformada wavelet discreta no reconhecimento de espículas / The linear discriminant analysis usage combined with the discrete wavelet transform in spike detection

Pacola, Edras Reily 18 December 2015 (has links)
CAPES / Pesquisadores têm concentrado esforços, nos últimos 20 anos, aplicando a transformada wavelet no processamento, filtragem, reconhecimento de padrões e na classificação de sinais biomédicos, especificamente em sinais de eletroencefalografia (EEG) contendo eventos característicos da epilepsia, as espículas. Várias famílias de wavelets-mães foram utilizadas, mas sem um consenso sobre qual wavelet-mãe é a mais adequada para essa finalidade. Os sinais utilizados apresentam uma gama muito grande de eventos e não possuem características padronizadas. A literatura relata sinais de EEG amostrados entre 100 a 600 Hz, com espículas variando de 20 a 200 ms. Nesse estudo foram utilizadas 98 wavelets. Os sinais de EEG foram amostrados de 200 a 1 kHz. Um neurologista marcou um conjunto de 494 espículas e um conjunto de 1500 eventos não-espícula. Esse estudo inicia avaliando a quantidade de decomposições wavelets necessárias para a detecção de espículas, seguido pela análise detalhada do uso combinado de wavelets-mães de uma mesma família e entre famílias. Na sequência é analisada a influência de descritores e o uso combinado na detecção de espículas. A análise dos resultados desses estudos indica que é mais adequado utilizar um conjunto de wavelets-mães, com vários níveis de decomposição e com vários descritores, ao invés de utilizar uma única wavelet-mãe ou um descritor específico para a detecção de espículas. A seleção desse conjunto de wavelets, de níveis de decomposição e de descritores permite obter níveis de detecção elevados conforme a carga computacional que se deseje ou a plataforma computacional disponível para a implementação. Como resultado, esse estudo atingiu níveis de desempenho entre 0,9936 a 0,9999, dependendo da carga computacional. Outras contribuições desse estudo referem-se à análise dos métodos de extensão de borda na detecção de espículas; e a análise da taxa de amostragem de sinais de EEG no desempenho do classificador de espículas, ambos com resultados significativos. São também apresentadas como contribuições: uma nova arquitetura de detecção de espículas, fazendo uso da análise de discriminante linear; e a apresentação de um novo descritor, energia centrada, baseado na resposta dos coeficientes das sub-bandas de decomposição da transformada wavelet, capaz de melhorar a discriminação de eventos espícula e não-espícula. / Researchers have concentrated efforts in the past 20 years, by applying the wavelet transform in processing, filtering, pattern recognition and classification of biomedical signals, in particular signals of electroencephalogram (EEG) containing events characteristic of epilepsy, the spike. Several families of mother-wavelets were used, but there are no consensus about which mother-wavelet is the most adequate for this purpose. The signals used have a wide range of events. The literature reports EEG signals sampled from 100 to 600 Hz with spikes ranging from 20 to 200 ms. In this study we used 98 wavelets. The EEG signals were sampled from 200 Hz up to 1 kHz. A neurologist has scored a set of 494 spikes and a set 1500 non-spike events. This study starts evaluating the amount of wavelet decompositions required for the detection of spikes, followed by detailed analysis of the combined use of mother-wavelets of the same family and among families. Following is analyzed the influence of descriptors and the combined use of them in spike detection. The results of these studies indicate that it is more appropriate to use a set of mother-wavelets, with many levels of decomposition and with various descriptors, instead of using a single mother-wavelet or a specific descriptor for the detection of spikes. The selection of this set of wavelets, decomposition level and descriptors allows to obtain high levels of detection according to the computational load desired or computing platform available for implementation. This study reached performance levels between 0.9936 to 0.9999, depending on the computational load. Other contributions of this study refer to the analysis of the border extension methods for spike detection; and the influences of the EEG signal sampling rate in the classifier performance, each one with significant results. Also shown are: a new spike detection architecture by making use of linear discriminant analysis; and the presentation of a new descriptor, the centred energy, based on the response of the coefficients of decomposition levels of the wavelet transform, able to improve the discrimination of spike and non-spike events.

Page generated in 0.0774 seconds