• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • Tagged with
  • 37
  • 37
  • 18
  • 17
  • 14
  • 13
  • 12
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Métodos de pré-processamento de texturas para otimizar o reconhecimento de padrões / Texture preprocessing methods to optimize pattern recognition

Mariane Barros Neiva 19 July 2016 (has links)
A textura de uma imagem apresenta informações importantes sobre as características de um objeto. Usar essa informação para reconhecimento de padrões vem sendo uma tarefa bastante pesquisada na área de processamento de imagens e aplicado em atividades como indústria têxtil, biologia, análise de imagens médicas, imagens de satélite, análise de peças industriais, entre outros. Muitos pesquisadores focam em criar mecanismos que convertam a imagem em um vetor de características a fim de utilizar um classificador sobre esse vetores. No entanto, as imagens podem ser transformadas para que que características peculiares sejam evidenciadas fazendo com que extratores de características já existentes explorem melhor as imagens. Esse trabalho tem como objetivo estudar a influência da aplicação de métodos de pré-processamento em imagens de textura para a posterior análise das imagens. Os métodos escolhidos são seis: difusão isotrópica, difusão anisotrópica clássica, dois métodos de regularização da difusão anisotrópica, um método de difusão morfológica e a transformada de distância. Além disso, os métodos foram aliados a sete descritores já conhecidos da literatura para que as características das imagens tranformadas sejam extraídas. Resultados mostram um aumento significativo no desempenho dos classificadores KNN e Naive Bayes quando utilizados nas imagens transformadas de quatro bases de textura: Brodatz, Outex, Usptex e Vistex. / The texture of an image plays an important source of information of the image content. The use of this information to pattern recognition became very popular in image processing area and has applications such in textile industry, biology, medical image analysis, satelite images analysis, industrial equipaments analysis, among others. Many researchers focus on creating different methods to convert the input image to a feature vector to the able to classify the image based on these vectors. However, images can be modified in different ways such that important features are enhanced. Therefore, descriptors are able to extract features easily to perform a better representation of the image. This project aims to apply six different preprocessing methods to analyze their power of enhancement on the texture extraction. The methods are: isotropic diffusion, the classic anisotropic diffusion, two regularizations of the anisotropic diffusion, a morphologic diffusion and the distance transform. To extract the features of these modified images, seven texture analysis algorithms are used along KNN and Naive Bayes to classify the textures. Results show a significant increase when datasets Brodatz, Vistex, Usptex and Outex are transformed prior to texture analysis and classification.
32

Desenvolvimento de um IP core de pré-processamento digital de sinais de voz para aplicação em sistemas embutidos. / Development of a core IP of digital preprocessing of voice signals for application in embedded systems.

SILVA, Daniella Dias Cavalcante da. 30 July 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-30T19:55:32Z No. of bitstreams: 1 DANIELLA DIAS CAVALCANTE DA SILVA - DISSERTAÇÃO PPGCC 2006..pdf: 2114328 bytes, checksum: d2b6ea9368390fa54a2beb6aab40546e (MD5) / Made available in DSpace on 2018-07-30T19:55:32Z (GMT). No. of bitstreams: 1 DANIELLA DIAS CAVALCANTE DA SILVA - DISSERTAÇÃO PPGCC 2006..pdf: 2114328 bytes, checksum: d2b6ea9368390fa54a2beb6aab40546e (MD5) Previous issue date: 2006-07 / Capes / A fala é o meio de comunicação comumente utilizado pelo homem, que o distingue dos demais seres vivos, permitindo-lhe a troca de idéias, expressão de opiniões ou revelação de seu pensamento. Diante do avanço tecnológico e conseqüente surgimento de equipamentos eletrônicos cada vez mais sofisticados, a possibilidade de permitir a interação homemmáquina através da voz tem sido objeto de grande interesse, tanto do meio acadêmico quanto dos fabricantes de tais equipamentos. Pesquisas na área de Processamento Digital de Sinais de Voz têm permitido o desenvolvimento de sistemas de Resposta Vocal, Reconhecimento de Voz e Reconhecimento de Identidade Vocal. Entretanto, requisitos de processamento ainda dificultam a implementação desses sistemas em dispositivos com baixo poder computacional, como celulares, palmtops e eletrodomésticos. O trabalho desenvolvido consiste do estudo e adaptação de técnicas de processamento digital de sinais de voz, resultando em uma biblioteca de pré-processamento, incluindo as funções de pré-ênfase, divisão em quadros e janelamento, de maneira a permitir sua utilização no desenvolvimento de aplicações embutidas de reconhecimento de voz ou locutor. Foram realizadas adaptações dos modelos necessários à realização das funções, implementação em uma linguagem de descrição de hardware, verificação funcional da biblioteca e, por fim, prototipação em um dispositivo de hardware. / Speech is the most common way of communication used by human beings, which distinguishes it from other living beings, allowing the exchange of ideas, expression of opinions or revelation of thought. In face technology advance and consequently appearance of electronics equipments more and more sophisticated, the possibility to allow the man-machine interaction through speech have been object of interesting as to academic environment as to electronic equipment developers. Research in the area of Speech Processing has been allowing the development of Speech Synthesis Systems, Speech Recognition Systems and Speaker Recognition Systems. However, processing requirements still difficult the implementation of those systems in devices with low computational power, as mobile phone, palmtops and home equipments. This work consists of the study and adaptation of digital processing speech signals techniques, resulting in an optimized library of preprocessing including preemphasis, division into frames and windowing, allowing this use in development of speech or speaker recognition embedded applications. It was made adaptations in the models, implementation in a hardware description language, library functional verification and finally the prototyping in a hardware device.
33

Metodologia de pré-processamento textual para extração de informação sobre efeitos de doenças em artigos científicos do domínio biomédico

Matos, Pablo Freire 24 September 2010 (has links)
Made available in DSpace on 2016-06-02T19:05:46Z (GMT). No. of bitstreams: 1 3250.pdf: 4243437 bytes, checksum: 462620b959061657eacd8e13120fedb0 (MD5) Previous issue date: 2010-09-24 / Financiadora de Estudos e Projetos / There is a large volume of unstructured information (i.e., in text format) being published in electronic media, in digital libraries particularly. Thus, the human being becomes restricted to an amount of text that is able to process and to assimilate over time. In this dissertation is proposed a methodology for textual preprocessing to extract information about disease effects in the biomedical domain papers, in order to identify relevant information from a text, to structure and to store this information in a database to provide a future discovery of interesting relationships between the extracted information. The methodology consists of four steps: Data Entrance (Step 1), Sentence Classification (Step 2), Identification of Relevant Terms (Step 3) and Terms Management (Step 4). This methodology uses three information extraction approaches from the literature: machine learning approach, dictionary-based approach and rule-based approach. The first one is developed in Step 2, in which a supervised machine learning algorithm is responsible for classify the sentences. The second and third ones are developed in Step 3, in which a dictionary of terms validated by an expert and rules developed through regular expressions were used to identify relevant terms in sentences. The methodology validation was carried out through its instantiation to an area of the biomedical domain, more specifically using papers on Sickle Cell Anemia. Accordingly, two case studies were conducted in both Step 2 and in Step 3. The obtained accuracy in the sentence classification was above of 60% and F-measure for the negative effect class was above of 70%. These values correspond to the results achieved with the Support Vector Machine algorithm along with the use of the Noise Removal filter. The obtained F-measure with the identification of relevant terms was above of 85% for the fictitious extraction (i.e., manual classification performed by the expert) and above of 80% for the actual extraction (i.e., automatic classification performed by the classifier). The F-measure of the classifier above of 70% and F-measure of the actual extraction above 80% show the relevance of the sentence classification in the proposed methodology. Importantly to say that many false positives would be identified in full text papers without the sentence classification step. / Existe um grande volume de informação não estruturada (i.e., em formato textual) sendo publicada cada vez mais em meios eletrônicos, particularmente em bibliotecas digitais. Assim, com o passar do tempo, o ser humano fica cada vez mais restringido a uma limitada quantidade de texto que é capaz de processar e assimilar. No sentido de identificar as informações relevantes de um texto e com o objetivo de estruturar e armazenar essas informações em um banco de dados, a fim de propiciar uma futura descoberta de relacionamentos interessantes entre as informações extraídas, nesta dissertação é proposta uma metodologia de pré-processamento textual para extração de informação sobre efeitos de doenças em artigos científicos do domínio biomédico. A metodologia é composta por quatro etapas: Entrada de Dados (Etapa 1), Classificação de Sentenças (Etapa 2), Identificação de Termos Relevantes (Etapa 3) e Gerenciamento de Termos (Etapa 4). Esta metodologia utiliza três abordagens de extração de informação encontradas na literatura: abordagem baseada em aprendizado de máquina, abordagem baseada em dicionário e abordagem baseada em regras. A primeira abordagem é desenvolvida na Etapa 2, na qual um algoritmo de aprendizado de máquina supervisionado é responsável em classificar as sentenças. A segunda e a terceira abordagens são desenvolvidas na Etapa 3, na qual um dicionário de termos validados pelo especialista e regras desenvolvidas por meio de expressões regulares foram utilizados para identificar termos relevantes nas sentenças. A validação da metodologia foi realizada por meio de sua instanciação para uma área do domínio biomédico, mais especificamente usando artigos sobre a doença Anemia Falciforme. Nesse sentido, dois estudos de caso foram realizados tanto na Etapa 2 quanto na Etapa 3. O valor da acurácia obtida na classificação de sentenças foi acima de 60% e o valor da medida-F para a classe efeito negativo foi acima de 70%. Estes valores correspondem aos resultados alcançados com o algoritmo de aprendizado de máquina Support Vector Machine juntamente com a aplicação do filtro Remoção de Ruído. A medida-F obtida com a identificação de termos relevantes foi acima de 85% para a extração fictícia (i.e., classificação manual realizada pelo especialista) e acima de 80% para a extração real (i.e., classificação automática realizada pelo classificador). O valor de medida-F acima de 70% do classificador e o valor de medida-F acima de 80% da extração real mostra a relevância da classificação de sentenças na metodologia proposta. É importante ressaltar que sem a classificação de sentença, muitos falsos positivos seriam identificados nos artigos completos.
34

Um processo baseado em parágrafos para a extração de tratamentos de artigos científicos do domínio biomédico

Duque, Juliana Lilian 24 February 2012 (has links)
Made available in DSpace on 2016-06-02T19:05:56Z (GMT). No. of bitstreams: 1 4310.pdf: 3265738 bytes, checksum: 6650fb70eee9b096860bcac6b5ed596c (MD5) Previous issue date: 2012-02-24 / Currently in the medical field there is a large amount of unstructured information (i.e., in textual format). Regarding the large volume of data, it makes it impossible for doctors and specialists to analyze manually all the relevant literature, which requires techniques for automatically analyze the documents. In order to identify relevant information, as well as to structure and store them into a database and to enable future discovery of significant relationships, in this paper we propose a paragraph-based process to extract treatments from scientific papers in the biomedical domain. The hypothesis is that the initial search for sentences that have terms of complication improves the identification and extraction of terms of treatment. This happens because treatments mainly occur in the same sentence of a complication, or in nearby sentences in the same paragraph. Our methodology employs three approaches for information extraction: machine learning-based approach, for classifying sentences of interest that will have terms to be extracted; dictionary-based approach, which uses terms validated by an expert in the field; and rule-based approach. The methodology was validated as proof of concept, using papers from the biomedical domain, specifically, papers related to Sickle Cell Anemia disease. The proof of concept was performed in the classification of sentences and identification of relevant terms. The value obtained in the classification accuracy of sentences was 79% for the classifier of complication and 71% for the classifier of treatment. These values are consistent with the results obtained from the combination of the machine learning algorithm Support Vector Machine with the filter Noise Removal and Balancing of Classes. In the identification of relevant terms, the results of our methodology showed higher F-measure percentage (42%) compared to the manual classification (31%) and to the partial process, i.e., without using the classifier of complication (36%). Even with low percentage of recall, there was no impact observed on the extraction process, and, in addition, we were able to validate the hypothesis considered in this work. In other words, it was possible to obtain 100% of recall for different terms, thus not impacting the extraction process, and further the working hypothesis of this study was proven. / Atualmente na área médica existe uma grande quantidade de informações não estruturadas (i.e., em formato textual) sendo produzidas na literatura médica. Com o grande volume de dados, torna-se impossível que os médicos e especialistas da área analisem toda a literatura de forma manual, exigindo técnicas para automatizar a análise destes documentos. Com o intuito de identificar as informações relevantes, estruturar e armazenar estas informações em um banco de dados, para posteriormente identificar relacionamentos interessantes entre as informações extraídas, nesta dissertação é proposto um processo baseado em parágrafos para a extração de tratamentos de artigos científicos do domínio biomédico. A hipótese é que a busca inicial de sentenças que possuem termos de complicação melhora a eficiência na identificação e na extração de termos de tratamento. Isso acontece porque tratamentos ocorrem principalmente na mesma sentença de complicação ou em sentenças próximas no mesmo parágrafo. Esta metodologia utiliza três abordagens de extração de informação encontradas na literatura: abordagem baseada em aprendizado de máquina para classificar as sentenças de interesse; abordagem baseada em dicionário com termos validados pelo especialista da área e abordagem baseada em regras. A metodologia foi validada como prova de conceito, utilizando artigos do domínio biomédico, mais especificamente da doença Anemia Falciforme. A prova de conceito foi realizada na classificação de sentenças e identificação de termos relevantes. O valor da acurácia obtida na classificação de sentenças foi de 79% para o classificador de complicação e 71% para o classificador de tratamento. Estes valores condizem com os resultados obtidos com a combinação do algoritmo de aprendizado de máquina Support Vector Machine juntamente com a aplicação do filtro Remoção de Ruído e Balanceamento das Classes. Na identificação de termos relevantes, os resultados da metodologia proposta obteve percentual superior de 42% de medida-F comparado à classificação manual (31%) e comparado ao processo parcial, ou seja, sem utilizar o classificador de complicação (36%). Mesmo com a baixa revocação, foi possível obter 100% de revocação para os termos distintos de tratamento, não impactando o processo de extração, e portanto a hipótese considerada neste trabalho foi comprovada.
35

Análise de séries temporais fuzzy para previsão e identificação de padrões comportamentais dinâmicos

Santos, Fábio José Justo dos 30 April 2015 (has links)
Submitted by Izabel Franco (izabel-franco@ufscar.br) on 2016-09-06T18:59:08Z No. of bitstreams: 1 TeseFJJS.pdf: 3277696 bytes, checksum: 0a34a4499fb5e482fa95ea8925603968 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-12T14:12:50Z (GMT) No. of bitstreams: 1 TeseFJJS.pdf: 3277696 bytes, checksum: 0a34a4499fb5e482fa95ea8925603968 (MD5) / Approved for entry into archive by Marina Freitas (marinapf@ufscar.br) on 2016-09-12T14:13:02Z (GMT) No. of bitstreams: 1 TeseFJJS.pdf: 3277696 bytes, checksum: 0a34a4499fb5e482fa95ea8925603968 (MD5) / Made available in DSpace on 2016-09-12T14:13:13Z (GMT). No. of bitstreams: 1 TeseFJJS.pdf: 3277696 bytes, checksum: 0a34a4499fb5e482fa95ea8925603968 (MD5) Previous issue date: 2015-04-30 / Não recebi financiamento / The good results obtained by the fuzzy approaches applied in the analysis of time series (TS) has contributed significantly to the growth of the area. Although there are satisfactory results in TS analysis with methods that use the classic concepts of TS and with the recent concepts of fuzzy time series (FTS), there is a lack of models combining both areas. Face of this context, the contributions of this thesis are associated with the development of models for TS analysis combining the concepts of FTS with statistical methods aiming at the improvement in accuracy of forecasts and in identification of behavioral changes in the TS. In order to allow a suitable fuzzy representation of crisp values observed, the approaches developed in this thesis were combined with a new proposal for pre-processing of the data. The prediction value is calculated from a new smoothing technique combined with an extension of the fuzzy logic relationships. This combination allow to be considered in value computed different degrees of influence to the most recent behavior and to the oldest behavior of the series. In situations where the model does not have the necessary knowledge to calculate the predicted value, the concepts of simple linear regression are combined with the concepts of the FTS to identify the most recent trend in the TS. The approach developed for the behavioral analysis of the TS aims to identify changes in behavior from the definition of prototypes that represent the groups of the TS and from the segmentation of the series that will be analyzed. In this new approach, the dissimilarity between a segment of a TS and the corresponding interval of a given prototype is defined by metric Fuzzy Dynamic Time Warping weighted by a new smoothing technique applied to the distance matrix between the observed data. The accuracy obtained by the forecast model not only demonstrates the effectiveness of the developed approach, but also shows the evolution of model throughout the research and the importance of preprocessing in the forecast. The analysis of segmented TS identifies satisfactorily the behavioral changes of the series by calculating the membership functions of these segments in the respective groups represented by the prototypes. / Os bons resultados obtidos pelas abordagens fuzzy utilizadas para a análise de séries temporais (ST) tem contribuído significativamente para o crescimento da área. Embora haja resultados satisfatórios na análise de ST com métodos que utilizam os conceitos clássicos de ST e também com os conceitos recentes de séries temporais fuzzy (STF), há uma carência de modelos que combinem ambas as áreas. Diante deste contexto, as contribuições deste trabalho estão associadas ao desenvolvimento de modelos para a análise de ST combinando os conceitos de STF e métodos estatísticos visando a melhora na acurácia das previsões e a identificação de alterações comportamentais nas séries. Com o objetivo de permitir uma melhor representação fuzzy dos valores crisp observados, as abordagens desenvolvidas nesta tese foram associadas a uma nova proposta de pré-processamento dos dados. A previsão de valores é calculada a partir de uma nova técnica de suavização combinada a uma extensão das relações lógicas fuzzy. Essa combinação permite que sejam considerados no cálculo do valor previsto diferentes graus de influência para o comportamento mais recente e para o comportamento mais antigo da série. Em ocasiões onde o modelo não dispõe do conhecimento necessário para o cálculo do valor previsto, os conceitos de regressão linear simples são associados aos conceitos das STF para identificar a tendência mais recente da ST. A abordagem desenvolvida para a análise comportamental das séries tem como objetivo identificar mudanças no comportamento a partir da definição de protótipos que representam um grupo de ST e da segmentação das séries a serem analisadas. Nesta nova abordagem, a dissimilaridade entre um segmento de uma ST e o intervalo correspondente de um determinado protótipo é definida por meio da métrica Dynamic Time Warping (DTW) Fuzzy, ponderada por uma nova técnica de suavização aplicada à matriz de distâncias entre os dados observados. A acurácia obtida pelo modelo de previsão não só comprova a eficácia da abordagem desenvolvida, como também demonstra a evolução do modelo ao longo da pesquisa e a importância do pré-processamento nas previsões. A análise das ST segmentadas identifica satisfatoriamente as alterações comportamentais das séries por meio do cálculo da pertinência dos segmentos nos respectivos grupos representados pelos protótipos.
36

O algoritmo de aprendizado semi-supervisionado co-training e sua aplicação na rotulação de documentos / The semi-supervised learning algorithm co-training applied to label text documents

Edson Takashi Matsubara 26 May 2004 (has links)
Em Aprendizado de Máquina, a abordagem supervisionada normalmente necessita de um número significativo de exemplos de treinamento para a indução de classificadores precisos. Entretanto, a rotulação de dados é freqüentemente realizada manualmente, o que torna esse processo demorado e caro. Por outro lado, exemplos não-rotulados são facilmente obtidos se comparados a exemplos rotulados. Isso é particularmente verdade para tarefas de classificação de textos que envolvem fontes de dados on-line tais como páginas de internet, email e artigos científicos. A classificação de textos tem grande importância dado o grande volume de textos disponível on-line. Aprendizado semi-supervisionado, uma área de pesquisa relativamente nova em Aprendizado de Máquina, representa a junção do aprendizado supervisionado e não-supervisionado, e tem o potencial de reduzir a necessidade de dados rotulados quando somente um pequeno conjunto de exemplos rotulados está disponível. Este trabalho descreve o algoritmo de aprendizado semi-supervisionado co-training, que necessita de duas descrições de cada exemplo. Deve ser observado que as duas descrições necessárias para co-training podem ser facilmente obtidas de documentos textuais por meio de pré-processamento. Neste trabalho, várias extensões do algoritmo co-training foram implementadas. Ainda mais, foi implementado um ambiente computacional para o pré-processamento de textos, denominado PreTexT, com o objetivo de utilizar co-training em problemas de classificação de textos. Os resultados experimentais foram obtidos utilizando três conjuntos de dados. Dois conjuntos de dados estão relacionados com classificação de textos e o outro com classificação de páginas de internet. Os resultados, que variam de excelentes a ruins, mostram que co-training, similarmente a outros algoritmos de aprendizado semi-supervisionado, é afetado de maneira bastante complexa pelos diferentes aspectos na indução dos modelos. / In Machine Learning, the supervised approach usually requires a large number of labeled training examples to learn accurately. However, labeling is often manually performed, making this process costly and time-consuming. By contrast, unlabeled examples are often inexpensive and easier to obtain than labeled examples. This is especially true for text classification tasks involving on-line data sources, such as web pages, email and scientific papers. Text classification is of great practical importance today given the massive volume of online text available. Semi-supervised learning, a relatively new area in Machine Learning, represents a blend of supervised and unsupervised learning, and has the potential of reducing the need of expensive labeled data whenever only a small set of labeled examples is available. This work describes the semi-supervised learning algorithm co-training, which requires a partitioned description of each example into two distinct views. It should be observed that the two different views required by co-training can be easily obtained from textual documents through pre-processing. In this works, several extensions of co-training algorithm have been implemented. Furthermore, we have also implemented a computational environment for text pre-processing, called PreTexT, in order to apply the co-training algorithm to text classification problems. Experimental results using co-training on three data sets are described. Two data sets are related to text classification and the other one to web-page classification. Results, which range from excellent to poor, show that co-training, similarly to other semi-supervised learning algorithms, is affected by modelling assumptions in a rather complicated way.
37

Modelagem e desenvolvimento de algoritmos para pré-processamento de sinais em sistemas mecânicos cuja integridade estrutural é monitorada pelo método da impedância eletromecânica / Modeling and development of algorithms for signal preprocessing in mechanical systems whose structural integrity is monitored by the electromechanical impedance method

Borges, Júlio Almeida 24 December 2017 (has links)
CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / INCT - Instituto Nacional de Ciência e Tecnologia / O Monitoramento da Integridade Estrutural baseado na técnica da Impedância Eletromecânica permite a detecção de alterações em estruturas, possibilitando a identificação e o reparo de danos. A técnica baseia-se em obter assinaturas de impedância da estrutura monitorada, em diversos momentos da operação da mesma. Possíveis danos são identificados pela comparação matemática entre as assinaturas obtidas. Sendo uma técnica bastante precisa, variações na temperatura e efeitos externos como vibrações e campos eletromagnéticos atuantes sobre a estrutura monitorada representam perturbações que tendem a gerar erros no processo de monitoramento. Para tornar o processo de diagnóstico mais robusto, torna-se necessário dissociar os verdadeiros efeitos de alteração estrutural daqueles que são considerados interferências externas. O presente trabalho tem por objetivo mostrar um estudo de caso, usando um painel aeronáutico de alumínio como corpo de prova, em que a influência dos fatores não previstos na técnica da impedância é identificada e caracterizada por meio de modelos estatísticos. Para realizar estas análises, foram executados experimentos utilizando transdutores piezelétricos acoplados ao referido painel. Os experimentos submeteram o painel à variação de temperatura e à inclusão de danos simulados. A partir dos dados de assinatura de impedância obtidos, comprovou-se a eficiência dos modelos estatísticos elaborados, sendo possível tanto separar e identificar a influência do dano simulado e da temperatura quanto estabelecer um intervalo de confiança nas análises desenvolvidas. Com esses resultados, é possível indicar que a técnica de análise estatística proposta torna-se uma útil ferramenta de pré-processamento de dados em aplicações de monitoramento de estruturas baseados no método da impedância eletromecânica. / Structural Integrity Monitoring based on the Electromechanical Impedance technique allows the detection of changes in structures, allowing the identification and repair of damages. The technique relies on obtaining impedance signatures from the monitored structure, at various moments of its operation. Possible damages are identified by the mathematical comparison between the signatures obtained. As a very precise technique, variations in temperature and external effects such as vibrations and electromagnetic fields acting on the monitored structure represent perturbations that tend to generate errors in the monitoring process. To make the diagnostic process more robust, it becomes necessary to decouple the true structural alteration effects from those that are considered external interferences. The present work aims to show a case study using an aluminum aeronautical panel as a test body, in which the influence of factors not predicted in the impedance technique is identified and characterized by means of statistical models. To perform these analyzes, experiments were performed using piezoelectric transducers coupled to said panel. The experiments subjected the panel to temperature variation and to the inclusion of simulated damages. From the impedance signature data obtained, the efficiency of the elaborated statistical models was verified, being possible to separate and identify the influence of the simulated damage and the temperature, as well as to establish a confidence interval in the developed analyzes. With these results, it is possible to indicate that the proposed statistical analysis technique becomes a useful tool for data preprocessing in structural monitoring applications based on the electromechanical impedance method. / Dissertação (Mestrado)

Page generated in 0.0815 seconds