• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 533
  • 48
  • 40
  • 40
  • 40
  • 25
  • 25
  • 25
  • 25
  • 25
  • 15
  • 6
  • Tagged with
  • 587
  • 587
  • 298
  • 282
  • 209
  • 180
  • 129
  • 120
  • 114
  • 100
  • 87
  • 84
  • 80
  • 80
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Desenvolvimento de abordagem baseada em técnicas de visão computacional e de aprendizado de máquinas para monitoramento e controle de falhas em correias transportadoras / Development of approach based on computer vision and machine learning techniques for monitoring and control of conveyor belt failures

Balieiro, Ricardo Luís 09 August 2019 (has links)
Correias transportadoras têm sido utilizadas como um modo eficiente de transporte de materiais por diversos ramos da indústria. A vida útil desse equipamento é influenciada pelo desgaste natural ocasionado pelo uso excessivo e falhas, tais como rasgos, cortes e perfurações. Nesse trabalho, é proposto um método de identificação de falhas em correia transportadora por meio de processamento digital de imagens, combinadas com técnicas de escaneamento 3D a laser e aprendizado de máquinas (redes neurais e SVM (Support Vector Machine - Máquina de Vetores de Suporte)). A averiguação experimental foi efetuada em duas etapas: a primeira etapa inicia-se com a aquisição, o pré-processamento e a geração do banco de imagens; a segunda, com a extração e a classificação das amostras. O vetor de características foi submetido a dois classificadores: rede neural do tipo Perceptron Múltiplas Camadas (com 15 topologias candidatas) e um classificador SVM, variando sua função kernel: linear, quadrática, polinomial, gaussiano, RBF (Radial-Basis Function - Função de Base Radial) e MLP (Multilayer Perceptron – Perceptron Múltiplas Camadas). Os resultados experimentais mostram que a metodologia proposta obtém uma boa acurácia na estimação das falhas, mostrando-se promissora na tarefa de diagnosticar e classificar falhas em correias transportadoras. / Conveyor belts have been used as an efficient way of transporting materials by various industry branches. This equipment\'s lifespan is influenced by natural wear caused by overuse and flaws, such as tears, cuts, and perforations. This work proposes a method of identifying flaws in the conveyor belt using digital image processing, combined with 3D laser scanning techniques and machine learning (neural networks and SVM - Support Vector Machine). The experimental investigation has been carried out in two stages: the first stage begins with the acquisition, preprocessing, and generation of an image bank; the second, with the extraction and classification of the samples. The characteristic\'s vector has been submitted to two classifiers: Multi-Layer Perceptron neural network (with 15 candidate topologies) and an SVM classifier, varying its kernel function: linear, quadratic, polynomial, Gaussian, RBF (Radial-Basis Function) and MLP (Multilayer Perceptron). The experimental results show that the proposed methodology obtains a good accuracy in the failure estimation, being promising in the task of diagnosing and classifying flaws in conveyor belts.
202

Estudo de métodos para classificação e localização precisa de padrões usando um sistema de luz estruturada

Kokubum, Christiane Nogueira de Carvalho [UNESP] January 2004 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:23:31Z (GMT). No. of bitstreams: 0 Previous issue date: 2004Bitstream added on 2014-06-13T20:10:58Z : No. of bitstreams: 1 kokubum_cnc_me_prud.pdf: 1515505 bytes, checksum: fe8b88b97a40b979204359fdea7e6912 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) / Algumas das tarefas mais significativas em Visão Computacional e em Fotogrametria Digital à curta distância estão associadas à segmentação, ao reconhecimento de objetos na imagem e à posterior reconstrução. Esta dissertação apresenta uma metodologia para a identificação e para a medição automáticas de alvos projetados em imagens tomadas à curta-distância, usando o sistema ativo denominado luz estruturada. Para a classificação de tais padrões, dois métodos de correspondência são comparados: correspondência por padrão (template matching) e por assinatura. O método de correspondência por padrão consiste na classificação por correlação, que mede a similaridade entre as janelas de referência e de busca utilizando uma função de correlação adequada. Os problemas existentes neste método estão relacionados com os ruídos na imagem, variações de brilho, distorções geométricas, o grande número de padrões a serem comparados e a escolha do tamanho do padrão. O método de assinatura consiste na comparação da representação funcional unidimensional da fronteira do padrão. Este método de assinatura não varia em relação à translação, mas depende da rotação e da mudança de escala. Para a localização precisa, dois métodos foram comparados: correspondência por mínimos quadrados e detector de cantos. O método de correspondência por mínimos quadrados refina a correspondência obtida por correlação, estimando os parâmetros de transformação radiométricos e geométricos entre as janelas de referência e de pesquisa, de acordo com o critério de erro dos mínimos quadrados. Já o detector de cantos determina as coordenadas subpixel usando uma combinação dos operadores de Moravec e de Förstner. Experimentos realizados com dados simulados e reais foram conduzidos com o objetivo de verificar a eficácia da metodologia... / Some of the main tasks in computer vision and close range Photogrammetry are related to the processes of segmentation, object recognition in the image and later reconstruction. The aim of this work is to study an automatic recognition system to identify and to measure targets projected with a structured light system. For target recognition two methods are compared: template matching and the signature method. The template matching method consists in the detection of area similarity by correlation. The idea of correlation is to compare the gray level distribution of a small sub image with its homologous in the search image. In this paper, the function used is the modified cross covariance which presented the best results. The problems in this method are related to illumination differences between the two images, geometric distortions, noise, the great number of templates to be compared and determination of template size. The signature method is based in the analysis of the onedimensional representation of target border. The signature depends on the rotation and the scale changes of the target. Two methods were compared for precise localization: LSM (least square matching) and corner detection. The idea of least squares matching is to minimize the gray level differences between the image patch and the matching window; the geometric and radiometric parameters from the template to the matching window are determined in the adjustment process. The corner detection consists in the determination of the subpixel coordinates of corners using the Förstner and Moravec operators. Experiments were performed, in order to verify the performance of the methodology for detection and precise localization. The results showed that the classification works appropriately, identifying 98% of targets in plane surfaces and 93% in oblique surfaces. Besides, the results of precise localization were equivalent in both methods: LSM and corner detection.
203

Arquitetura de indexação aplicada a servidores de PACS para processamento de imagens

Cotrim, Daniel da Silva January 2007 (has links)
Made available in DSpace on 2013-08-07T18:43:12Z (GMT). No. of bitstreams: 1 000418705-Texto+Completo-0.pdf: 3134300 bytes, checksum: eabc088b0c0c9d9dbf8f313588a9e825 (MD5) Previous issue date: 2007 / Several techniques for image processing have been developed for diagnosis aid support. However, in some cases these techniques are not applied to the images stored in PACS servers (Picture Archiving and Communication Systems). This scene establishes the viability to build a new storage and recovery indexing architecture having the capability of identifing the need for executing certain types of imaging processing for examinations of patients with features defined by user. It can be explained as a result of the intrinsic difficulty related to the integration of these techniques to the hospital production environment. A possible solution for this problem would be a virtual environment to make different processing features available to be executed directly in the PACS. This environment would have as goal to stimulate the medical support application. The proposed indexing architecture uses information from images stored in PACS, relating them to the pre-defined processing class, establishing an execution context. The information associated to each processing class is based on ontologies representing the formalization of the knowledge applied to each group of images or study. A case study has been developed in a PACS. / Apesar de existirem diversas técnicas de processamento de imagens, estas técnicas não constumam ser aplicadas nas imagens armazenadas nos servidores PACS (Picture Archiving and Communication Systems) pela dificuldade de sua extensibilidade a ambientes de hospitalares. Este cenário mostra a viabilidade de construir uma nova arquitetura de indexação para armazenamento e recuperação, com a capacidade de identificar a necessidade de executar determinados tipos de processamentos em imagens médicas com características específicas. A criação de um ambiente virtual para inclusão de diferentes tipos de processamento a serem executados diretamente nos servidores PACS, tem como objetivo estimular a aplicação de sistemas de apoio a diagnóstico nos setores de radiologia dos hospitais. A arquitetura proposta agrega informações às imagens armazenadas no PACS em um índice, que identifica as informações associadas a cada tipo de análise, estabelecendo uma relação entre as imagens e as diversas técnicas de processamento para apoio ao diagnóstico. Uma das características desta arquitetura está baseada na definição de ontologias que representam a formalização do conhecimento aplicado a cada conjunto de imagens ou estudo. Como estudo de caso, a arquitetura proposta foi desenvolvida e integrada a um servidor PACS. Nesta implementação, a arquitetura identifica o contexto das informações associadas às imagens e indica possibilidade de execução de um determinado tipo de processamento disponibilizado diretamente no servidor.
204

Duas metodologias aplicadas à classificação de precipitação convectiva e estratiforme com radar meteorológico

Damian, Eloá Alano 11 May 2012 (has links)
Resumo: A influência da chuva nas diversas áreas da atividade humana torna indispensável o seu monitoramento. A maioria das precipitacções pode ser classificada em dois grupos: sistemas convectivos e estratiformes. Os sistemas estratiformes são caracterizados por chuvas leves e moderadas e grande área de cobertura. Já os convectivos estão associados com altas taxas de precipitação. Devido às acentuadas diferenças que existem entre os dois sistemas, ser capaz de classificálos contribui para a melhora da estimativa de precipitação. Além disso, a classificação torna possível também a identificação, previsão e acompanhamento de tempestades severas (sistemas convectivos), resultados que podem ainda ser utilizados nos alertas de temporais, nchentes e inundações, com aplicações diretas em diversas áreas da atividade humana (energia, agricultura, turismo, defesa civil, entre outros). Tudo isso justifica a necessidade de um critério para separar e classificar os diferentes tipos de chuva que podem ocorrer na região de abrangência do radar. O objetivo deste trabalho é classificar os sistemas meteorológicos em convectivo ou estratiforme, de acordo com as características peculiares a cada evento. Para tanto, duas técnicas são aplicadas. A primeira é um método de reconhecimento de padrões, o chamado Support Vector Machine (SVM), técnica que, a partir de dados previamente classificados, cria um hiperplano separador entre as classes, através do qual novos dados podem ser classificados. Assumindo como padrão imagens de radar classificadas por especialista, os resultados obtidos pelo método apresentam um maior índice de acerto, quando comparados com as soluções obtidas por uma técnica de separação da chuva já existente. O segundo método bordado é uma técnica de análise de agrupamentos, o K-means, que classifica um conjunto de dados em um determinado número de grupos, baseado na similaridade ou dissimilaridade entre os dados. Em relação á classificação feita pelo especialista, o SVM apresenta melhores resultados. Porém, o K-means mostra resultados melhores quando a comparação é feita com a técnica de classificação já existente na literatura. Além disso, o K-means mostrou-se mais eficiente com relação a tempo de execução, e possui a vantagem de não necessitar de dados previamente classificados, já que a classificação, neste caso, é muito subjetiva. Quando a comparação é feita entre as duas técnicas propostas, observa-se que mais de 85% dos dados obtiveram a mesma classificação.
205

Detecção de impressões digitais fraudulentas utilizando padrões mapeados localmente em multiescala /

Contreras, Rodrigo Colnago. January 2015 (has links)
Orientador: Maurílio Boaventura / Coorientador: Inês Aparecida Gasparotto Boaventura / Banca: Adilson Gonzaga / Banca: Luís Gustavo Nonato / Resumo: Aplicações que fazem uso de reconhecimento de impressões digitais estão presentes em muitos contextos do dia a dia, por exemplo, transações em caixas automáticos, registro eletrônico de ponto em empresas e, desde 2008, no processo eleitoral brasileiro. A comparação entre impressões digitais geralmente é feita com base nas posições relativas de pequenos padrões conhecidos como minúcias. Estudos científicos recentes demonstram a possibilidade de confecção de impressões digitais sintéticas, que apresentam a cópia das minúcias presentes em um dedo autêntico, a partir de materiais simples como massa de modelar, silicone, cola de madeira, dentre outros. Diante do perigo iminente de fraude em sistemas biométricos, surgiu uma nova linha de pesquisa: a detecção de impressões digitais fraudulentas (spoofs). Atualmente, estão presentes na literatura alguns métodos capazes de amenizar este problema, mas este ainda é um problema em aberto. O presente trabalho concentra-se na detecção de impressões digitais fraudulentas utilizando técnicas de processamento de imagens e reconhecimento de padrões. A principal contribuição desse estudo é uma nova técnica com a qual as falsificações são detectadas a partir da análise de micropadrões espaciais extraídos das impressões digitais. Além disso, é desenvolvida neste trabalho a versão multiescala do micropadrão espacial conhecido como Padrão Mapeado Localmente (Local Mapped Pattern - LMP). Os experimentos conduzidos mostraram que, através da técnica proposta, é possível alcançar uma detecção com performances superiores aos resultados encontrados no estado da arte na literatura científica especializada / Abstract: Applications which use fingerprint recognition are present in many contexts of everyday life, for example, transactions at ATMs, electronic registration point in companies and, since 2008, in the Brazilian electoral process. The fingerprint matching is usually made based on the relative positions of small patterns known as minutiae. Recent scientific researches show the possibility of making synthetic fingerprints, which have a copy of these minutiae in an authentic finger, from simple materials such as play dough, silicone, wood glue, among others. Faced with the imminent danger of fraud in biometric systems, a new line of research emerged: the detection of fake fingerprints (spoofs). Currently, they are in the literature some methods to minimize this problem, but this is still an open problem. The present study focuses on the detection of fake fingerprints using image processing and pattern recognition techniques. The main contribution of this study is a new technique with which the fakes one are detected from the analysis of spatial micro patterns extracted from the fingerprints. Moreover, it is developed in this work, the multi-scale version of the space micro pattern known as Local Mapped Pattern (LMP). The experiments carried out have shown that through the proposed technique, it is possible to achieve a higher detection performances with the results found state of the art in the specialized literature / Mestre
206

Análise do descritor de padrões mapeados localmente em multiescala para classificação de textura em imagens digitais /

Atoche Bravo, Maria Jacqueline. January 2016 (has links)
Orientador: Maurilio Boaventura / Banca: Marcos William Da Silva Oliveira / Banca: Evanivaldo Castro Silva Júnior / Resumo: No presente trabalho, apresenta-se uma revisão sobre os principais abordagens para análise e classificação de texturas, entre eles o descritor LBP (Local Binary Pattern), o descritor LFP (Local Fuzzy Patterm) e o descritor MSLMP (Multi-scale Local Mapped Pattern), o qual é uma extensão multiescalar do descritor LMP (Local Mapped Pattern). Resultados anteriores presentes na literatura, indicaram que o MSLMP conseguiu resultados superiores aos mencionados anteriormente. Neste trabalho propõe-se uma análise mais abrangente sobre sua viabilidade para concluir que o MSLMP é mais eficaz que os anteriores. Essa análise é feita alterando-se a Matriz de Pesos para os pixels limiarizados. Para avaliar seu desempenho, foi utilizada a base de texturas do Album de Brodatz. Após processá-la pelo descritor MSLMP, com cada uma das matrizes de Pesos propostas neste trabalho, foram comparadas as taxas de acertos alcançadas usando a distância Chi-quadrado. Resultados experimentais mostram um valor de sensibilidade melhor para o descritor MSLMP em comparação aos outros descritores presentes na literatura / Abstract: This work, presents a review about the main techniques for analysis and classification of textures, including the LBP descriptor (Local Binary Pattern), the descriptor LFP (Local Fuzzy Pattern) and the descriptor MSLMP (Multi-Scale Local Mapped Pattern), which is a multi-scale extension of the LMP method (Local Mapped Pattern). Previous results present in the literature, indicated that the MSLMP achieved better results than those mentioned above. This work proposes a more comprehensive analysis of its feasibility to conclude that this descriptor is more effective than the others. This analysis is done by changing the weight matrix for the thresholding pixels. To evaluate its performance, it was used the texture base of the Brodatz album. After processing it by the descriptor MSLMP with each of the weights matrices proposed in this work, the achieved hit rates were compared by using the distance Chi-square. Experimental results show a better sensitivity value for MSLMP descriptor in comparison of other descriptors present in the literature / Mestre
207

Arcabouço para reconhecimento de locutor baseado em aprendizado não supervisionado /

Campos, Victor de Abreu. January 2017 (has links)
Orientador: Daniel Carlos Guimarães Pedronette / Resumo: A quantidade vertiginosa de conteúdo multimídia acumulada diariamente tem demandado o desenvolvimento de abordagens eficazes de recuperação. Nesse contexto, ferramentas de reconhecimento de locutor capazes de identificar automaticamente um indivíduo pela sua voz são de grande relevância. Este trabalho apresenta uma nova abordagem de reconhecimento de locutor modelado como um cenário de recuperação e usando algoritmos de aprendizado não supervisionado recentes. A abordagem proposta considera Coeficientes Cepstrais de Frequência Mel (MFCCs) e Coeficientes de Predição Linear Perceptual (PLPs) como características de locutor, em combinação com múltiplas abordagens de modelagem probabilística, especificamente Quantização Vetorial, Modelos por Mistura de Gaussianas e i-vectors, para calcular distâncias entre gravações de áudio. Em seguida, métodos de aprendizado não supervisionado baseados em ranqueamento são utilizados para aperfeiçoar a eficácia dos resultados de recuperação e, com a aplicação de um classificador de K-Vizinhos Mais Próximos, toma-se uma decisão quanto a identidade do locutor. Experimentos foram conduzidos considerando três conjuntos de dados públicos de diferentes cenários e carregando ruídos de diversas origens. Resultados da avaliação experimental demonstram que a abordagem proposta pode atingir resultados de eficácia altos. Adicionalmente, ganhos de eficácia relativos de até +318% foram obtidos pelo procedimento de aprendizado não supervisionado na tarefa de... / Abstract: The huge amount of multimedia content accumulated daily has demanded the development of effective retrieval approaches. In this context, speaker recognition tools capable of automatically identifying a person through their voice are of great relevance. This work presents a novel speaker recognition approach modelled as a retrieval scenario and using recent unsupervised learning methods. The proposed approach considers Mel-Frequency Cepstral Coefficients (MFCCs) and Perceptual Linear Prediction Coefficients (PLPs) as features along with multiple modelling approaches, namely Vector Quantization, Gaussian Mixture Models and i-vector to compute distances among audio objects. Next, rank-based unsupervised learning methods are used for improving the effectiveness of retrieval results and, based on a K-Nearest Neighbors classifier, an identity decision is taken. Several experiments were conducted considering three public datasets from different scenarios, carrying noise from various sources. Experimental results demonstrate that the proposed approach can achieve very high effectiveness results. In addition, effectiveness gains up to +318% were obtained by the unsupervised learning procedure in a speaker retrieval task. Also, accuracy gains up to +7,05% were obtained by the unsupervised learning procedure in a speaker identification task considering recordings from different domains / Mestre
208

"Sistema de apoio a pratica do CEP utilizando reconhecimento sintatico de padrões

Candido, Marco Antonio Barbosa January 1994 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2012-10-16T06:23:52Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T18:53:11Z : No. of bitstreams: 1 94749.pdf: 3557625 bytes, checksum: 0c72fba1c05c9c7290ec051e0251e611 (MD5) / O Controle Estatístico de Processos (CEP) vem se mostrando uma importante ferramenta para a melhoria contínua da qualidade, através do monitoramento contínuo dos processos produtivos e do estudo da capabilidade dos mesmos. O CEP já se encontra bastante difundido entre empresas que adotam modelos de gestão mais "avançados", baseados no conceito de Qualidade Total ou correlatos. A proposta deste trabalho é o desenvolvimento de um sistema computacional que auxilie a prática do CEP, utilizando ferramentas de inteligência artificial no reconhecimento de padrões de gráfico de controle. Foi utilizada a abordagem sintática para o reconhecimento de padrões de gráficos de controle, tendo sido desenvolvido e implementado um sistema classificador de padrões deformados utilizando técnicas de reconhecimento sintático com correção de erro e de conjuntos difusos. O sistema ainda associa causas prováveis aos padrões não naturais detectados.
209

RECONHECIMENTO DE PADRÕES DE VIBRAÇÃO EM MÁQUINAS ROTATIVAS UTILIZANDO REDE NEURAL ARTIFICIAL

PACHECO, JOSÉ ROBERTO DA SILVA 07 December 2007 (has links)
Submitted by Diogo Barreiros (diogo.barreiros@ufba.br) on 2017-02-17T15:32:24Z No. of bitstreams: 1 Dissertação J R Pacheco.pdf: 628707 bytes, checksum: 7d202afb9b4dff0b0674f5ffc4fd9874 (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-02-17T15:40:03Z (GMT) No. of bitstreams: 1 Dissertação J R Pacheco.pdf: 628707 bytes, checksum: 7d202afb9b4dff0b0674f5ffc4fd9874 (MD5) / Made available in DSpace on 2017-02-17T15:40:03Z (GMT). No. of bitstreams: 1 Dissertação J R Pacheco.pdf: 628707 bytes, checksum: 7d202afb9b4dff0b0674f5ffc4fd9874 (MD5) / Esta dissertação tem como objetivo principal o desenvolvimento de uma metodologia de reconhecimento de padrões de vibração em máquinas rotativas utilizando redes neurais artificiais. A proposta é reproduzir o diagnóstico dado por especialistas em vibração ao analisar um espectro de freqüência gerado a partir de dados de vibração coletado por sensores instalados em diversos pontos de uma máquina rotativa. Juntamente com a metodologia foi desenvolvido um algoritmo em programa Matlab, software amplamente utilizado e conhecido nos meios acadêmicos. De modo diferente do que é encontrado em sistemas industriais comercializados por empresas especializadas, o código do programa é aberto e com isto pode ser compreendido, aperfeiçoado ou ampliado por outros pesquisadores, especialistas em vibração ou engenheiros de manutenção. Pode também ser ajustado a condições próprias de cada instalação ou características de operação de grupo de máquinas a ser analisado. Os dados de vibração foram obtidos de uma empresa especializada que atua no Pólo Petroquímico de Camaçari. Com o uso desta metodologia, o pesquisador ou profissional da área de manutenção pode, a partir de dados gerados por coletores de dados de vibração, aplicar o método para desenvolver, por exemplo, um programa de manutenção preditiva para um grupo de máquinas. Devido ao foco do trabalho ser de caráter aplicativo, é evitado o uso de demonstrações matemáticas, focando em utilização de ferramentas já dominadas como a Análise de Fourier e algoritmos para redes neurais, amplamente disponíveis na literatura. Uma das contribuições deste trabalho é mostrar que um sistema de reconhecimento de padrões de vibração pode ser desenvolvido facilmente a partir das ferramentas citadas, com baixo custo e sem necessidade de um modelo matemático específico para a máquina a ser analisada. Uma outra contribuição é mostrar mais um estudo de caso de aplicações de redes neurais em manutenção preditiva de máquinas. Os fundamentos para o desenvolvimento de um software aberto para monitoração e diagnóstico de vibração foram definidos. Restringe-se o âmbito da pesquisa a problemas de vibração causados por desbalanceamento do rotor ou desalinhamento do eixo em máquinas rotativas, problemas que são considerados bastante comuns em um ambiente industrial
210

Comparação entre escalogramas e bancos de filtros Wavelet utilizados na classificação de padrões epileptiformes

Almeida, Eduarda Rosado de January 2016 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Elétrica, Florianópolis, 2016. / Made available in DSpace on 2017-04-25T04:09:29Z (GMT). No. of bitstreams: 1 345348.pdf: 4052096 bytes, checksum: 952b762d8a1b26e7b80757dfa8ca7fa7 (MD5) Previous issue date: 2016 / A comprovação clínica do diagnóstico da epilepsia é realizada por um neurofisiologista que analisa registros de eletroencefalograma (EEG) do indivíduo com suspeita da doença, resultando em um processo demorado. Embora muitos estudos tenham proposto métodos ou sistemas de automatização da análise dos registros de EEG, ainda não existe um algoritmo ou sistema que realize este tipo de tarefa com o sucesso esperado no ambiente clínico. Uma solução adotada para aumentar o desempenho de tais classificadores é o processamento digital dos sinais de EEG. Dentre os métodos de processamento, a Transformada Wavelet tem apresentado resultados promissores. Em continuidade aos estudos desenvolvidos em uma linha de pesquisa do Instituto de Engenharia Biomédica (IEB-UFSC) da Universidade Federal de Santa Catarina (UFSC), este trabalho propõe-se a realizar uma comparação direta entre os dois métodos de aplicação da Transformada Wavelet: Banco de Filtros e Escalogramas. As funções Wavelet analisadas neste trabalho foram escolhidas de acordo com uma revisão da literatura. Uma base de dados com segmentos de sinais de EEG é processada com banco de filtros e escalogramas. A base de dados processada é aplicada à entrada de redes neurais artificiais para o reconhecimento de padrões eletrográficos característicos de pacientes com Epilepsia. Os resultados são analisados a partir de dois métodos: análise não paramétrica e análise da rede com maior eficiência obtida para cada função Wavelet. Utilizando análise não paramétrica, as funções Coif 4 e Db 4, utilizando Banco de Filtros, e Bior 3.1 e Coif 1, utilizando Escalogramas, apresentam bom desempenho. Por sua vez, fazendo análise com base em apenas uma única rede para cada função, a melhor configuração é utilizando a função Bior 3.1 com processamento por Banco de Filtros.<br> / Abstract : The clinical evidence of the diagnosis of epilepsy is performed by a neurophysiologist who analyzes the electroencephalogram (EEG) records of the individual with suspected disease, resulting in a time consuming process. Although many studies have proposed methods or automated systems for EEG record analysis, there is still no algorithm or system that performs this type of task with the expected success in the clinical setting. One solution adopted to increase the performance of such classifiers is the digital processing of the EEG signals. Among the processing methods, the Wavelet Transform has presented promising results. In continuity to the studies developed in a line of research of the Institute of Biomedical Engineering (IEB-UFSC) of the Federal University of Santa Catarina (UFSC), this work proposes to make a direct comparison between the two methods of application of the Wavelet Transform: Bank of Filters and Scalograms. The Wavelet functions analyzed in this work were chosen according to a literature review. A database with segments of EEG signals is processed with Wavelet Filter Banks and Scalograms. The processed database is applied to the input of artificial neural networks for the recognition of electrographic patterns characteristic of patients with Epilepsy. The results are analyzed using two methods: non-parametric analysis and the most efficient network obtained for each Wavelet function. Using non-parametric analysis, the Coif 4 and Db 4 functions, for Filter Banks, and the Bior 3.1 and Coif 1 functions, using Scalograms, perform well. In turn, doing the analysis based only a single network for each function, the best configuration is using the Bior 3.1 function and processing by Filter Bank.

Page generated in 0.2437 seconds