• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 13
  • 9
  • 7
  • 7
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Ευφυής ψηφιακή επεξεργασία σημάτων με μεθόδους EMD, TKO και συνδυασμοί

Μπάρκουλα, Κωνσταντίνα 26 August 2010 (has links)
Στα πλαίσια της διπλωματικής αυτής εργασίας στόχος μας είναι η εφαρμογή τεχνικών ψηφιακής επεξεργασίας σήματος σε γεωφυσικά σήματα και συγκεκριμένα κατά κύριο λόγο σε σήματα γεωηλεκτρικού δυναμικού μακράς διάρκειας και σε σήματα σεισμικών κυμάτων. Έχουμε εστιάσει την επεξεργασία μας στην διερεύνηση της εφαρμογής δυο τεχνικών επεξεργασίας ξεχωριστά και σε συνδυασμό. Η πρώτη αφορά την εκτίμηση της στιγμιαίας συχνότητας ενός σήματος μέσω του τελεστή Teager-Kaiser [Maragos_1991] στοχεύοντας σε μια εναλλακτική στα προβλήματα συμβιβασμού της διακριτικής ικανότητας, στην υπολογιστική πολυπλοκότητα, στην ανίχνευση αρνητικών συχνοτήτων και στην εμφάνιση cross-terms άλλων κλασικών μεθόδων. Η δεύτερη που είναι η Empirical Mode Decomposition (EMD) [Huang_1998] αφορά την ανάλυση των δεδομένων σε συνιστώσες AM-FM μορφής καθοδηγούμενη από τα δεδομένα, για την ανάδειξη χαρακτηριστικών δεδομένων μη-στάσιμων και μη-γραμμικών διαδικασιών. Ο συνδυασμός των μεθόδων είναι η εύρεση του συχνοτικού περιεχομένου ενός σήματος με την χρήση του τελεστή Teager- Kaiser από τις επιμέρους συνιστώσες που έχουν προκύψει με την μέθοδο (EMD) και ονομάζεται μετασχηματισμός Teager-Huang και αποτελεί μια εναλλακτική δυνατότητα στην εύρεση του φάσματος ενός σήματος. Στα επόμενα κεφάλαια περιγράφουμε τα υπό εξέταση σήματα, τους μηχανισμούς καταγραφής τους, μια ανασκόπηση των βασικών επεξεργασιών που έχουν υποστεί και την ανάλυση στην οποία υποβλήθηκαν στα πλαίσια της συγκεκριμένης εργασίας. Έτσι στο κεφάλαιο 2 παρουσιάζουμε τα υπό ανάλυση σήματα, αναφέροντας τις διαδικασίες με τις οποίες προκύπτουν και τις διατάξεις μέτρησής τους. Στο κεφάλαιο 3 κάνουμε μια ανασκόπηση των τεχνικών επεξεργασίας των σημάτων γεωηλεκτρικού δυναμικού μέχρι σήμερα. Στα κεφάλαια 4, 5 και 6 αναφέρουμε το θεωρητικό υπόβαθρο, την πειραματική διαδικασία επεξεργασίας που ακολουθήθηκε και τα συμπεράσματα με την εφαρμογή του τελεστή Teager, της μεθόδου EMD και του μετασχηματισμού Teager-Huang αντίστοιχα που αποτελούν πρωτότυπη εφαρμογή στον χώρο των γεωφυσικών σημάτων. Στο κεφάλαιο 7 αναφερόμαστε σε επεξεργασία που έχει γίνει υποβοηθητικά ή συμπληρωματικά της επεξεργασίας των προηγούμενων κεφαλαίων. Για τα πειράματα των κεφαλαίων 4-7, αναφέρουμε το όνομα του script αρχείου που τα υλοποιεί εντός παρενθέσεων δίπλα στο όνομα του πειράματος. Ο σχετικός κώδικας μπορεί να βρεθεί στο συνοδευτικό CD της διπλωματικής εργασίας. Στο κεφάλαιο 8 καταλήγουμε με τα κύρια συμπεράσματα και ορισμένες κατευθύνσεις περαιτέρω επεξεργασίας ως επέκταση της τρέχουσας διπλωματικής. / This work concerns the study and implementation of the Teager-Kaiser Operator, the Empirical Mode Decomposition method, and the combination of them known as Teager-Huang transformation.
2

Data-Driven Rescaling of Energy Features for Noisy Speech Recognition

Luan, Miau 18 July 2012 (has links)
In this paper, we investigate rescaling of energy features for noise-robust speech recognition. The performance of the speech recognition system will degrade very quickly by the influence of environmental noise. As a result, speech robustness technique has become an important research issue for a long time. However, many studies have pointed out that the impact of speech recognition under the noisy environment is enormous. Therefore, we proposed the data-driven energy features rescaling (DEFR) to adjust the features. The method is divided into three parts, that are voice activity detection (VAD), piecewise log rescaling function and parameter searching algorithm. The purpose is to reduce the difference of noisy and clean speech features. We apply this method on Mel-frequency cepstral coefficients (MFCC) and Teager energy cepstral coefficients (TECC), and we compare the proposed method with mean subtraction (MS) and mean and variance normalization (MVN). We use the Aurora 2.0 and Aurora 3.0 databases to evaluate the performance. From the experimental results, we proved that the proposed method can effectively improve the recognition accuracy.
3

Détection et modification des transitoires d'un signal de parole dans le but de rendre un codec plus robuste aux pertes de paquets

Lemyre, Catherine January 2012 (has links)
Pour transmettre les signaux de parole de façon efficace, ces derniers sont compressés et transmis en trames typiquement de 10 à 20 ms. Lors de la transmission des trames, il arrive que ces dernières soient perdues. Lors de la reconstruction du signal au décodeur, il est préférable de remplacer les trames perdues par un signal qui se rapproche le plus possible du signal manquant. Le signal perdu est souvent reconstruit en se basant sur l'information des dernières trames reçues, puisque, de façon générale, les propriétés statistiques du signal de parole évoluent relativement lentement d'une trame à la suivante. Les signaux de parole peuvent être classés en différentes catégories (parole voisée, nonvoisée, transitoire, etc.). Afin de mieux exploiter les caractéristiques de chaque catégorie, il est pertinent d'appliquer un classificateur à chaque trame de signal. Cette classification des signaux permet un meilleur camouflage des trames perdues, optimisé pour les différentes classes. La classification des trames est parfois imprécise lors des transitions entre une trame non-voisée et une trame voisée. Ces erreurs de classification entraînent de mauvaises reconstructions de signal lors des pertes de trames. Pour pallier ces erreurs, cette Thèse propose un nouvel algorithme robuste qui identifie les trames critiques et qui applique la classification appropriée. Pour les trames dont les propriétés ne correspondent pas exactement à l'une des classes disponibles, une modification transparente du signal est appliquée pour rendre ces trames conformes à la classification proposée. Ces modifications permettent d'obtenir une meilleure reconstruction du signal si les trames suivantes sont perdues.
4

Brain Dynamics Based Automated Epileptic Seizure Detection

January 2012 (has links)
abstract: Approximately 1% of the world population suffers from epilepsy. Continuous long-term electroencephalographic (EEG) monitoring is the gold-standard for recording epileptic seizures and assisting in the diagnosis and treatment of patients with epilepsy. However, this process still requires that seizures are visually detected and marked by experienced and trained electroencephalographers. The motivation for the development of an automated seizure detection algorithm in this research was to assist physicians in such a laborious, time consuming and expensive task. Seizures in the EEG vary in duration (seconds to minutes), morphology and severity (clinical to subclinical, occurrence rate) within the same patient and across patients. The task of seizure detection is also made difficult due to the presence of movement and other recording artifacts. An early approach towards the development of automated seizure detection algorithms utilizing both EEG changes and clinical manifestations resulted to a sensitivity of 70-80% and 1 false detection per hour. Approaches based on artificial neural networks have improved the detection performance at the cost of algorithm's training. Measures of nonlinear dynamics, such as Lyapunov exponents, have been applied successfully to seizure prediction. Within the framework of this MS research, a seizure detection algorithm based on measures of linear and nonlinear dynamics, i.e., the adaptive short-term maximum Lyapunov exponent (ASTLmax) and the adaptive Teager energy (ATE) was developed and tested. The algorithm was tested on long-term (0.5-11.7 days) continuous EEG recordings from five patients (3 with intracranial and 2 with scalp EEG) and a total of 56 seizures, producing a mean sensitivity of 93% and mean specificity of 0.048 false positives per hour. The developed seizure detection algorithm is data-adaptive, training-free and patient-independent. It is expected that this algorithm will assist physicians in reducing the time spent on detecting seizures, lead to faster and more accurate diagnosis, better evaluation of treatment, and possibly to better treatments if it is incorporated on-line and real-time with advanced neuromodulation therapies for epilepsy. / Dissertation/Thesis / M.S. Electrical Engineering 2012
5

Geoacoustic inversion : improvement and extension of the sources image method / Inversion géoacoustique : amélioration et extension de la méthode des sources images

Drira, Achraf 10 December 2015 (has links)
Ce travail de thèse propose d’analyser les signaux issus d’une source omnidirectionnelle sphérique réfléchis par un milieu sédimentaire stratifié et enregistré par une antenne d’hydrophones, en vue de caractériser quantitativement les sédiments marins aux moyennes fréquences, i.e. comprises entre 1 et 10 kHz. La recherche développée dans ce manuscrit propose une méthodologie facilitant la recherche des paramètres géoacoustiques du milieu avec la méthode des sources images, ainsi qu’un ensemble de solutions techniques appropriées afin d’améliorer cette méthode d’inversion récemment développée. La méthode des sources images repose sur une modélisation physique de la réflexion des ondes émises par une source sur un milieu stratifié sous l’approximation de Born. Par conséquent, la réflexion de l’onde sur le milieu stratifié peut être représentée par une collection de sources images, symétriques de la source réelle par rapport aux interfaces, dont les positions spatiales sont liées à la vitesse des ondes acoustiques et aux épaisseurs des couches. L’étude se décline en deux volets : traitements des signaux et inversion des paramètres géoacoustiques. La première partie du travail est focalisée sur le développement de la méthode des sources images. La méthode originelle se basait sur la construction de cartes de migration et de semblance de signaux pour déterminer les paramètres d’entrée de l’algorithme d’inversion qui sont des temps de trajet et des angles d’arrivée. Afin d’éviter cette étape, nous détectons les temps d’arrivée avec l’opérateur d’énergie de Teager-Kaiser (TKEO) et nous trouvons les angles par une méthode de triangulation. Le modèle d’inversion a été ensuite intégré en prenant en compte la possibilité de déformation de l’antenne. Cette partie se termine par une nouvelle approche qui combine TKEO et des méthodes temps fréquence afin d’avoir une bonne détection du temps d’arrivée dans le cas de signaux fortement bruités. Sur le plan du modèle et de l’inversion géoacoustique, nous proposons tout d’abord une description précise du modèle direct en introduisant le concept de sources images virtuelles. Cette étape permet de mieux comprendre l’approche développée. Ensuite, nous proposons une extension de la méthode des sources image pour l’inversion de paramètres géoacoustiques supplémentaires : la densité, l’atténuation et la vitesse des ondes de cisaillement. Cette extension est basée sur les résultats de l’inversion originelle (estimation du nombre de strates, de leur épaisseur, et de la vitesse des ondes de compression) ainsi que sur l’utilisation de l’amplitude des signaux réfléchis. Ces améliorations et extensions de la méthode des sources images sont illustrées par leur application sur des signaux synthétiques et des signaux réels issus d’expérimentations en cuve et à la mer. Les résultats obtenus sont très satisfaisants, tant au niveau des performances de calcul que de la qualité des estimations fournies. / This thesis aims at analyzing the signals emitted from a spherical omnidirectional source reflected by a stratified sedimentary environment and recorded by a hydrophone array in order to characterize quantitatively the marine sediments at medium frequencies, i.e. between 1 and 10 kHz. The research developed in this manuscript provides a methodology to facilitate the estimation of medium geoacoustic parameters with the image source method, and some appropriate technical solutions to improve this recently developed inversion method. The image source method is based on a physical modeling of the wave reflection emitted from a source by a stratified medium under the Born approximation. As result, the reflection of the wave on the layered medium can be represented by a set of image sources, symmetrical to the real source with respect to the interfaces, whose spatial positions are related to the sound speeds and the thicknesses of the layers. The study consists of two parts : signal processing and inversion of geoacoustic parameters. The first part of the work is focused on the development of the image source method. The original method was based on migration and semblance maps of the recorded signals to determine the input parameters of the inversion algorithm which are travel times and arrival angles. To avoid this step, we propose to determine the travel times with the Teager-Kaiser energy operator (TKEO) and the arrival angles are estimate with a triangulation approach. The inversion model is then integrated, taking into account the possible deformation of the antenna. This part concludes with a new approach that combines TKEO and time-frequency representations in order to have a good estimation of the travel times in the case of noisy signals. For the modeling and geoacoustic inversion part, we propose first an accurate description of the forward model by introducing the concept of virtual image sources. This idea provides a deeper understanding of the developed approach. Then, we propose an extension of the image sources method to the estimation of supplementary geoacoustic parameters : the density, the absorption coefficient, and the shear wave sound speed. This extension is based on the results of the original inversion (estimation of the number of layers, their thicknesses, and the pressure sound speeds) and on the use of the amplitudes of the reflected signals. These improvements and extents of the image source method are illustrated by their applications on both synthetic and real signals, the latter coming from tank and at-sea measurements. The obtained results are very satisfactory, from a computational point of view as well as for the quality of the provided estimations.
6

Multi-dimensional Teager-Kaiser signal processing for improved characterization using white light interferometry / Traitement du signal Teager-Kaiser multi-dimensionel pour la caractérisation améliorée avec l'interférométrie en lumière blanche

Gianto, Gianto 14 September 2018 (has links)
L'utilisation de franges d'interférence en lumière blanche comme une sonde optique en microscopie interférométrique est d'une importance croissante dans la caractérisation des matériaux, la métrologie de surface et de l'imagerie médicale. L'Interférométrie en lumière blanche est une technique basée sur la détection de l'enveloppe de franges d'interférence. Il a été démontré antérieurement, la capacité des approches 2D à rivaliser avec certaines méthodes classiques utilisées dans le domaine de l'interférométrie, en termes de robustesse et de temps de calcul. En outre, alors que la plupart des méthodes tiennent compte seulement des données 1 D, il semblerait avantageux de prendre en compte le voisinage spatial utilisant des approches multidimensionnelles (2D/3D), y compris le paramètre de temps afin d'améliorer les mesures. Le but de ce projet de thèse est de développer de nouvelles approches n-D qui sont appropriées pour une meilleure caractérisation des surfaces plus complexes et des couches transparentes. / The use of white light interference fringes as an optical probe in microscopy is of growing importance in materials characterization, surface metrology and medical imaging. Coherence Scanning Interferometry (CSI, also known as White Light Scanning Interferometry, WSLI) is well known for surface roughness and topology measurement [1]. Full-Field Optical Coherence Tomography (FF-OCT) is the version used for the tomographic analysis of complex transparent layers. Both techniques generally make use of some sort of fringe scanning along the optical axis and the acquisition of a stack of xyz images. Image processing is then used to identify the fringe envelopes along z at each pixel in order to measure the positions of either a single surface or of multiple scattering objects within a layer.In CSI, the measurement of surface shape generally requires peak or phase extraction of the mono dimensional fringe signal. Most of the methods are based on an AM-FM signal model, which represents the variation in light intensity measured along the optical axis of an interference microscope [2]. We have demonstrated earlier [3, 4] the ability of 2D approaches to compete with some classical methods used in the field of interferometry, in terms of robustness and computing time. In addition, whereas most methods only take into account the 1D data, it would seem advantageous to take into account the spatial neighborhood using multidimensional approaches (2D, 3D, 4D), including the time parameter in order to improve the measurements.The purpose of this PhD project is to develop new n-D approaches that are suitable for improved characterization of more complex surfaces and transparent layers. In addition, we will enrich the field of study by means of heterogeneous image processing from multiple sensor sources (heterogeneous data fusion). Applications considered will be in the fields of materials metrology, biomaterials and medical imaging.
7

Reliability of Isometric Neck Strength and Electromyography Measures Relevant for Concussion Prevention in Athletes

Almosnino, Sivan 24 September 2009 (has links)
The purpose of this investigation was to assess the between-day reliability of selected force-time curve indices and the activity onset of selected neck muscles in the performance of maximal, isometric contractions in five different directions. The measures extracted are deemed important for future investigations aimed at exploring the role of cervical musculature in reduction of concussion occurrences in sports. Twenty eight physically active male participants performed two testing sessions separated by 7-8 days. In each testing session, force and surface electromyography (EMG) data were recorded simultaneously in a custom-made testing apparatus whilst subjects performed four randomized maximal isometric efforts in extension, flexion, and left and right lateral bending and protraction. The variables examined were the peak force, rate of force development (RFD), time to 50% of peak force and bilateral activity onset of the splenius capitis, upper trapezius, and sternocleidomastoid. For all variables, reliability was assessed by: 1) difference scores between the testing sessions and corresponding 95% confidence intervals; 2) standard error of measurement (SEM), expressed in either the original units of measurement, or as a coefficient of variation; and, 3) Intraclass correlation coefficients (ICC). The results indicated that for all variables, in all testing directions, no differences in scores were observed between the first and second testing sessions. The precision of measurement for all measures, barring muscle onsets obtained in protraction, was deemed acceptable for future clinical application. ICC score ranges for force-time curve-based measurements were high (< 0.90), while for muscle onsets, the ICC ranges are low to moderate (0.23 -0.79). Based on these results, it was concluded that, in highly active male participants, a dedicated familiarization session for the elimination of potential learning effects is not required. In addition, for the majority of testing directions, the force-time curve-based variables as well as muscle activity onsets are recorded with a sufficiently high level of precision, which make them prime candidates for utilization in future investigations concerned with quantitative assessment of cervical musculature function. / Thesis (Master, Kinesiology & Health Studies) -- Queen's University, 2009-09-23 01:23:12.324
8

Modèles AM-FM et Approche par Équations aux Dérivées Partielles de la Décomposition Modale Empirique pour l'Analyse des Signaux et des Images

Diop, El Hadji Samba 30 November 2009 (has links) (PDF)
Le travail de thèse traite de l'analyse des signaux et des images par décomposition modale empirique (EMD) et par modèles AM-FM. Dans la première partie de cette thèse, nous apportons des cadres théoriques à l'EMD 1D et 2D. Nous approchons localement les enveloppes supérieures et inférieures, dans le processus de tamisage de l'EMD, par des opérateurs continus. Par suite, nous formulons différemment la moyenne locale et prouvons que les itérations du tamisage 1D et 2D peuvent être approchées par des équations aux dérivées partielles (EDP) bien posées. Nous apportons des justifications théoriques et proposons des caractérisations analytiques des modes empiriques 1D et 2D. Ce travail a permis d'éclaircir de nombreux points et notions relatifs à l'EMD, et définis en 1D comme en 2D, que de manière très intuitive ou sur la base de simulations numériques contrôlées. Nous apportons de la sorte des contributions théoriques à l'EMD 1D et 2D, initialement définie par un algorithme et dont la principale limite est le manque de cadre théorique. Enfin, nous proposons de nouveaux algorithmes EMD 1D et 2D, et résolvons numériquement les EDP proposées en 1D et 2D. Nous illustrons nos approches par EDP sur de nombreux signaux et images. Dans la seconde partie, nous étudions les modèles AM-FM pour l'analyse d'images. Ces modèles se basent sur une décomposition des images en composantes regroupant les niveaux de gris des parties texturées (AM), d'une part, et une partie contenant la géométrie de l'image (FM), d'autre part. Nous proposons d'abord une amélioration de la démodulation d'images large bande. Dans un deuxième temps, nous explorons la démodulation d'images avec les opérateurs de Teager-Kaiser d'ordres supérieurs (HODEO 2D), en proposant de meilleurs algorithmes de démodulation, basés sur les HODEO 2D. Nous proposons ensuite une application à la segmentation d'images sonar et illustrons nos approches sur de nombreuses images. Les résultats sont comparés à ceux obtenus avec l'algorithme DESA (Discrete Energy Separation Algorithm) et l'approche par image analytique.
9

Analyse des signaux non-stationnaires par transformation de Huang, Opérateur deTeager-Kaiser, et Transformation de Huang-Teager (THT)

Cexus, Jean-Christophe 12 December 2005 (has links) (PDF)
L'objectif repose sur le traitement et l'analyse des signaux non-stationnaires, multi-composantes. <br />Pour le traitement (filtrage et débruitage), nous proposons de nouveaux outils fondés sur la Transformation de Huang (ou Décomposition modale empirique : EMD). Partant de l'opérateur de Teager-Kaiser, nous proposons un nouvel opérateur de mesure d'interaction entre deux signaux complexes. Nous établissons les liens théoriques avec les représentations temps-fréquence de la classe de Cohen. Nous montrons que c'est une mesure de similarité et qu'il est adapté à la détection de signaux. <br />Pour l'analyse, nous introduisons une nouvelle méthode temps-fréquence basée sur l'utilisation conjointe de l'EMD et de l'opérateur de Teager-Kaiser : la Transformation de Huang-Teager (THT). Pour illustrer ces concepts, des résultats de filtrage, de débruitage, de détection, d'analyse temps-fréquence de signaux sont présentés. Nous terminons par l'analyse et classification des échos de cibles sonars par THT.
10

Wavelet Based Algorithms For Spike Detection In Micro Electrode Array Recordings

Nabar, Nisseem S 06 1900 (has links)
In this work, the problem of detecting neuronal spikes or action potentials (AP) in noisy recordings from a Microelectrode Array (MEA) is investigated. In particular, the spike detection algorithms should be less complex and with low computational complexity so as to be amenable for real time applications. The use of the MEA is that it allows collection of extracellular signals from either a single unit or multiple (45) units within a small area. The noisy MEA recordings then undergo basic filtering, digitization and are presented to a computer for further processing. The challenge lies in using this data for detection of spikes from neuronal firings and extracting spatiotemporal patterns from the spike train which may allow control of a robotic limb or other neuroprosthetic device directly from the brain. The aim is to understand the spiking action of the neurons, and use this knowledge to devise efficient algorithms for Brain Machine Interfaces (BMIs). An effective BMI will require a realtime, computationally efficient implementation which can be carried out on a DSP board or FPGA system. The aim is to devise algorithms which can detect spikes and underlying spatio-temporal correlations having computational and time complexities to make a real time implementation feasible on a specialized DSP chip or an FPGA device. The time-frequency localization, multiresolution representation and analysis properties of wavelets make them suitable for analysing sharp transients and spikes in signals and distinguish them from noise resembling a transient or the spike. Three algorithms for the detection of spikes in low SNR MEA neuronal recordings are proposed: 1. A wavelet denoising method based on the Discrete Wavelet Transform (DWT) to suppress the noise power in the MEA signal or improve the SNR followed by standard thresholding techniques to detect the spikes from the denoised signal. 2. Directly thresholding the coefficients of the Stationary (Undecimated) Wavelet Transform (SWT) to detect the spikes. 3. Thresholding the output of a Teager Energy Operator (TEO) applied to the signal on the discrete wavelet decomposed signal resulting in a multiresolution TEO framework. The performance of the proposed three wavelet based algorithms in terms of the accuracy of spike detection, percentage of false positives and the computational complexity for different types of wavelet families in the presence of colored AR(5) (autoregressive model with order 5) and additive white Gaussian noise (AWGN) is evaluated. The performance is further evaluated for the wavelet family chosen under different levels of SNR in the presence of the colored AR(5) and AWGN noise. Chapter 1 gives an introduction to the concept behind Brain Machine Interfaces (BMIs), an overview of their history, the current state-of-the-art and the trends for the future. It also describes the working of the Microelectrode Arrays (MEAs). The generation of a spike in a neuron, the proposed mechanism behind it and its modeling as an electrical circuit based on the Hodgkin-Huxley model is described. An overview of some of the algorithms that have been suggested for spike detection purposes whether in MEA recordings or Electroencephalographic (EEG) signals is given. Chapter 2 describes in brief the underlying ideas that lead us to the Wavelet Transform paradigm. An introduction to the Fourier Transform, the Short Time Fourier Transform (STFT) and the Time-Frequency Uncertainty Principle is provided. This is followed by a brief description of the Continuous Wavelet Transform and the Multiresolution Analysis (MRA) property of wavelets. The Discrete Wavelet Transform (DWT) and its filter bank implementation are described next. It is proposed to apply the wavelet denoising algorithm pioneered by Donoho, to first denoise the MEA recordings followed by standard thresholding technique for spike detection. Chapter 3 deals with the use of the Stationary or Undecimated Wavelet Transform (SWT) for spike detection. It brings out the differences between the DWT and the SWT. A brief discussion of the analysis of non-stationary time series using the SWT is presented. An algorithm for spike detection based on directly thresholding the SWT coefficients without any need for reconstructing the denoised signal followed by thresholding technique as in the first method is presented. In chapter 4 a spike detection method based on multiresolution Teager Energy Operator is discussed. The Teager Energy Operator (TEO) picks up localized spikes in signal energy and thus is directly used for spike detection in many applications including R wave detection in ECG and various (alpha, beta) rhythms in EEG. Some basic properties of the TEO are discussed followed by the need for a multiresolution approach to TEO and the methods existing in literature. The wavelet decomposition and the subsampled signal involved at each level naturally lends it to a multiresolution TEO framework at the same time significantly reducing the computational complexity due the subsampled signal at each level. A wavelet-TEO algorithm for spike detection with similar accuracies as the previous two algorithms is proposed. The method proposed here differs significantly from that in literature since wavelets are used instead of time domain processing. Chapter 5 describes the method of evaluation of the three algorithms proposed in the previous chapters. The spike templates are obtained from MEA recordings, resampled and normalized for use in spike trains simulated as Poisson processes. The noise is modeled as colored autoregressive (AR) of order 5, i.e AR(5), as well as Additive White Gaussian Noise (AWGN). The noise in most human and animal MEA recordings conforms to the autoregressive model with orders of around 5. The AWGN Noise model is used in most spike detection methods in the literature. The performance of the proposed three wavelet based algorithms is measured in terms of the accuracy of spike detection, percentage of false positives and the computational complexity for different types of wavelet families. The optimal wavelet for this purpose is then chosen from the wavelet family which gives the best results. Also, optimal levels of decomposition and threshold factors are chosen while maintaining a balance between accuracy and false positives. The algorithms are then tested for performance under different levels of SNR with the noise modeled as AR(5) or AWGN. The proposed wavelet based algorithms exhibit a detection accuracy of approximately 90% at a low SNR of 2.35 dB with the false positives below 5%. This constitutes a significant improvement over the results in existing literature which claim an accuracy of 80% with false positives of nearly 10%. As the SNR increases, the detection accuracy increases to close to 100% and the false alarm rate falls to 0. Chapter 6 summarizes the work. A comparison is made between the three proposed algorithms in terms of detection accuracy and false positives. Directions in which future work may be carried out are suggested.

Page generated in 0.0275 seconds