11 |
Représentation de signaux robuste aux bruits - Application à la détection et l'identification des signaux d'alarme / Signals representation robust to noise - Application to the detection and identification of alarm signalsEl jili, Fatimetou 17 December 2018 (has links)
Ces travaux ont pour application la détection l'identification des signaux audio et particulièrement les signaux d'alarmes de voitures prioritaires. Dans un premier temps, nous proposons une méthode de détection des signaux d'alarme dans un environnement bruité, fondée sur des techniques d'analyse temps-fréquence des signaux. Cette méthode permet de détecter et d'identifier des signaux d'alarmes noyés dans du bruit, y compris pour des rapports signal à bruit négatifs. Puis nous proposons une quantification des signaux robuste aux bruits de transmission. Il s'agit de remplacer chaque niveau de bit d'un vecteur d'échantillons temporels ou fréquentiels par un mot binaire de même longueur fourni par un codeur correcteur d'erreur. Dans une première approche, chaque niveau de bits est quantifié indépendamment des autres selon le critère de minimisation de la distance de Hamming. Dans une seconde approche, pour réduire l'erreur de quantification à robustesse égale, les différents niveaux de bits sont quantifiés successivement selon un algorithme de type matching pursuit. Cette quantification donne aux signaux une forme spécifique permettant par la suite de les reconnaitre facilement parmi d'autres signaux. Nous proposons donc enfin deux méthodes de détection et d'identification des signaux fondées sur la quantification robuste, opérant dans le domaine temporel ou dans le domaine fréquentiel, par minimisation de la distance entre les signaux reçus restreints à leurs bits de poids fort et les signaux de référence. Ces méthodes permettent de détecter et d'identifier les signaux dans des environnements à rapport signal à bruit très faible et ceci grâce à la quantification. Par ailleurs, la première méthode, fondée sur la signature temps-fréquence, s'avère plus performante avec les signaux quantifiés. / This work targets the detection and identification of audio signals and in particular alarm signals from priority cars. First, we propose a method for detecting alarm signals in a noisy environment, based on time-frequency signal analysis. This method makes it possible to detect and identify alarm signals embedded in noise, even with negative signal-to-noise ratios. Then we propose a signal quantization robust against transmission noise. This involves replacing each bit level of a vector of time or frequency samples with a binary word of the same length provided by an error- correcting encoder. In a first approach, each bit level is quantized independently of the others according to the Hamming distance minimization criterion. In a second approach, to reduce the quantization error at equal robustness, the different bit levels are quantized successively by a matching pursuit algorithm. This quantization gives the signals a specific shape that allows them to be easily recognized among other signals. Finally, we propose two methods for detecting and identifying signals based on robust quantization, operating in the time domain or in the frequency domain, by minimizing the distance between the received signals restricted to their high-weight bits and the reference signals. These methods make it possible to detect and identify signals in environments with very low signal-to-noise ratios, thanks to quantization. In addition, the first method, based on the time-frequency signature, is more efficient with quantized signals.
|
12 |
Analysis and modeling of diffuse ultrasonic signals for structural health monitoringLu, Yinghui 06 July 2007 (has links)
Structural Health Monitoring (SHM) refers to the process of nondestructive autonomous in situ monitoring of the integrity of critical engineering structures such as airplanes, bridges and buildings. Ultrasonic wave propagation is an ideal interrogation method for SHM because ultrasound is the elastic vibration of the material itself and is thus directly affected by any structural damage occurring in the paths of the propagating waves. The objective of this thesis is to provide a comprehensive damage detection strategy for SHM using diffuse ultrasonic waves. This strategy includes a systematic temperature compensation method, differential feature extraction methods optimized for discriminating benign surface condition changes from damage, and data fusion methods to determine the structural status. The temperature compensation method is based upon a set of pre-recorded baselines. Using the methods of baseline selection and baseline correction, a baseline that best matches a monitored signal in temperature is provided. For the differential feature extraction, three types of features are proposed. The first type includes basic differential features such as mean squared error. The second type is derived from a matching pursuit based signal decomposition. An ultrasonic signal is decomposed into a sum of characteristic wavelets, and differential features are extracted based upon changes in the decomposition between a baseline signal and a monitored signal. The third type is a phase space feature extraction method, where an ultrasonic signal is embedded into phase space and features are extracted based on changes of the phase portrait. The structural status is determined based on a data fusion strategy consisting of a threshold selection method, fusion at the feature level, and fusion at the sensor level. The proposed damage detection strategy is applied to experiments on aluminum specimens with artificial defects subjected to a variety of environmental variations. Results as measured by the probability of detection, the false alarm rate, and the size of damage detected demonstrate the viability of the proposed techniques.
|
13 |
Synthetic Aperture Radar Image Formation Via Sparse DecompositionJanuary 2011 (has links)
abstract: Spotlight mode synthetic aperture radar (SAR) imaging involves a tomo- graphic reconstruction from projections, necessitating acquisition of large amounts of data in order to form a moderately sized image. Since typical SAR sensors are hosted on mobile platforms, it is common to have limitations on SAR data acquisi- tion, storage and communication that can lead to data corruption and a resulting degradation of image quality. It is convenient to consider corrupted samples as missing, creating a sparsely sampled aperture. A sparse aperture would also result from compressive sensing, which is a very attractive concept for data intensive sen- sors such as SAR. Recent developments in sparse decomposition algorithms can be applied to the problem of SAR image formation from a sparsely sampled aperture. Two modified sparse decomposition algorithms are developed, based on well known existing algorithms, modified to be practical in application on modest computa- tional resources. The two algorithms are demonstrated on real-world SAR images. Algorithm performance with respect to super-resolution, noise, coherent speckle and target/clutter decomposition is explored. These algorithms yield more accu- rate image reconstruction from sparsely sampled apertures than classical spectral estimators. At the current state of development, sparse image reconstruction using these two algorithms require about two orders of magnitude greater processing time than classical SAR image formation. / Dissertation/Thesis / M.S. Electrical Engineering 2011
|
14 |
Zedboard based platform for condition monitoring and control experimentsAdrielsson, Anders January 2018 (has links)
New methods for monitoring the condition of roller element bearings in rotating machinery offer possibilities to reduce repair- and maintenance costs, and reduced use of environmentally harmful lubricants. One such method is sparse representation of vibration signals using matching pursuit with dictionary learning, which so far has been tested on PCs with data from controlled tests. Further testing requires a platform capable of signal processing and control in more realistic experiments. This thesis focuses on the integration of a hybrid CPU-FPGA hardware system with a 16-bit analog-to-digital converter and an oil pump, granting the possibility of collecting real-time data, executing the algorithm in closed loop and supplying lubrication to the machine under test, if need be. The aforementioned algorithm is implemented in a Zynq-7000 System-on-Chip and the analog-to-digital converter as well as the pump motor controller are integrated. This platform enables portable operation of the matching pursuit with dictionary learning in the field under a larger variety of environmental and operational conditions, conditions which might prove difficult to reproduce in a laboratory setup. The platform developed throughout this project can collect data using the analog-to-digital converter and operations can be performed on that data in both the CPU and the FPGA. A test of the system function at a sampling rate of 5 kHz is presented and the input and output are verified to function correctly.
|
15 |
ADAPTIVE LEARNING OF NEURAL ACTIVITY DURING DEEP BRAIN STIMULATIONJanuary 2015 (has links)
abstract: Parkinson's disease is a neurodegenerative condition diagnosed on patients with
clinical history and motor signs of tremor, rigidity and bradykinesia, and the estimated
number of patients living with Parkinson's disease around the world is seven
to ten million. Deep brain stimulation (DBS) provides substantial relief of the motor
signs of Parkinson's disease patients. It is an advanced surgical technique that is used
when drug therapy is no longer sufficient for Parkinson's disease patients. DBS alleviates the motor symptoms of Parkinson's disease by targeting the subthalamic nucleus using high-frequency electrical stimulation.
This work proposes a behavior recognition model for patients with Parkinson's
disease. In particular, an adaptive learning method is proposed to classify behavioral
tasks of Parkinson's disease patients using local field potential and electrocorticography
signals that are collected during DBS implantation surgeries. Unique patterns
exhibited between these signals in a matched feature space would lead to distinction
between motor and language behavioral tasks. Unique features are first extracted
from deep brain signals in the time-frequency space using the matching pursuit decomposition
algorithm. The Dirichlet process Gaussian mixture model uses the extracted
features to cluster the different behavioral signal patterns, without training or
any prior information. The performance of the method is then compared with other
machine learning methods and the advantages of each method is discussed under
different conditions. / Dissertation/Thesis / Masters Thesis Electrical Engineering 2015
|
16 |
Detección de husos sigma en señales de EEG usando algoritmos Matching Pursuit y K-SVDTsutsumi Concha, Yoshiro Ricardo January 2017 (has links)
Ingeniero Civil Eléctrico / La identificación de husos sigma se realiza manualmente por expertos en la medicina del sueño. El proceso consiste en inspeccionar el electroencefalograma (EEG) de los registros polisomnográficos y marcar los intervalos en los que se observan los patrones. Este proceso es bastante tedioso y complicado, especialmente considerando que se buscan patrones de onda que no suelen durar más de algunos segundos en registros de aproximadamente 8 horas. Para aliviar el trabajo de los expertos se han desarrollado sistemas automáticos de detección de husos sigma capaces de identificar estos patrones en el EEG.
En esta memoria se propone un nuevo método de detección automático de husos sigma en que se entrenan las formas de onda de un diccionario, usando un algoritmo de aprendizaje supervisado, para que éstas sean representativas de los husos sigma. Posteriormente, se utiliza un modelo de descomposición de señal para descomponer la señal de un canal del EEG en un número finito de componentes representados por la convolución entre las formas de onda del diccionario aprendido y un conjunto de trenes de pulsos que indican los intervalos de la señal donde se identifican patrones de onda semejantes a las formas de onda del diccionario aprendido.
Los intervalos de la señal que son descompuestos por el modelo de descomposición, son consideradas como las detecciones del método, debido a que estos intervalos presentan una alta correlacción con las formas de onda representativas de los husos sigma que componen el diccionario aprendido. En el desarrollo de este método se utilizó un único registro polisom- nográfico de un niño de 10 años, con el cual se formaron los conjuntos de entrenamiento y de prueba usando fragmentos del registro en la etapa de sueño N2.
El método obtuvo resultados preliminares satisfactorios que verifican su capacidad para detector husos sigma en la etapa de sueño N2 de un registro polisomnográfico, con una tasa de verdaderos positivos promedio de 85,080 % y una tasa de falsos positivos promedio de 14,995 %. El método de detección de husos sigma propuesto ofrece una metodología novedosa que no utiliza los usuales métodos espectrales para analizar el EEG. Además con este proceso se obtiene un diccionario con formas de onda representativas de los husos sigma que se puede utilizar para estudiar y caracterizar los husos sigma detectados por el método.
|
17 |
Représentations redondantes et hiérarchiques pour l'archivage et la compression de scènes sonores / Sparse and herarchical representations for archival and compression of audio scenesMoussallam, Manuel 18 December 2012 (has links)
L'objet de cette thèse est l'analyse et le traitement automatique de grands volumes de données audio. Plus particulièrement, on s'intéresse à l'archivage, tâche qui regroupe, au moins, deux problématiques: la compression des données, et l'indexation du contenu de celles-ci. Ces deux problématiques définissent chacune des objectifs, parfois concurrents, dont la prise en compte simultanée s'avère donc difficile. Au centre de cette thèse, il y a donc la volonté de construire un cadre cohérent à la fois pour la compression et pour l'indexation d'archives sonores. Les représentations parcimonieuses de signaux dans des dictionnaires redondants ont récemment montré leur capacité à remplir une telle fonction. Leurs propriétés ainsi que les méthodes et algorithmes permettant de les obtenir sont donc étudiés dans une première partie de cette thèse. Le cadre applicatif relativement contraignant (volume des données) va nous amener à choisir parmi ces derniers des algorithmes itératifs, appelés également gloutons. Une première contribution de cette thèse consiste en la proposition de variantes du célèbre Matching Pursuit basées sur un sous-échantillonnage aléatoire et dynamique de dictionnaires. L'adaptation au cas de dictionnaires temps-fréquence structurés (union de bases de cosinus locaux) nous permet d'espérer une amélioration significative des performances en compression de scènes sonores. Ces nouveaux algorithmes s'accompagnent d'une modélisation statistique originale des propriétés de convergence usant d'outils empruntés à la théorie des valeurs extrêmes. Les autres contributions de cette thèse s'attaquent au second membre du problème d'archivage: l'indexation. Le même cadre est cette fois-ci envisagé pour mettre à jour les différents niveaux de structuration des données. Au premier plan, la détection de redondances et répétitions. A grande échelle, un système robuste de détection de motifs récurrents dans un flux radiophonique par comparaison d'empreintes est proposé. Ses performances comparatives sur une campagne d'évaluation du projet QUAERO confirment la pertinence de cette approche. L'exploitation des structures pour un contexte autre que la compression est également envisagé. Nous proposons en particulier une application à la séparation de sources informée par la redondance pour illustrer la variété de traitements que le cadre choisi autorise. La synthèse des différents éléments permet alors d'envisager un système d'archivage répondant aux contraintes par la hiérarchisation des objectifs et des traitements. / The main goal of this work is automated processing of large volumes of audio data. Most specifically, one is interested in archiving, a process that encompass at least two distinct problems: data compression and data indexing. Jointly addressing these problems is a difficult task since many of their objectives may be concurrent. Therefore, building a consistent framework for audio archival is the matter of this thesis. Sparse representations of signals in redundant dictionaries have recently been found of interest for many sub-problems of the archival task. Sparsity is a desirable property both for compression and for indexing. Methods and algorithms to build such representations are the first topic of this thesis. Given the dimensionality of the considered data, greedy algorithms will be particularly studied. A first contribution of this thesis is the proposal of a variant of the famous Matching Pursuit algorithm, that exploits randomness and sub-sampling of very large time frequency dictionaries. We show that audio compression (especially at low bit-rate) can be improved using this method. This new algorithms comes with an original modeling of asymptotic pursuit behaviors, using order statistics and tools from extreme values theory. Other contributions deal with the second member of the archival problem: indexing. The same framework is used and applied to different layers of signal structures. First, redundancies and musical repetition detection is addressed. At larger scale, we investigate audio fingerprinting schemes and apply it to radio broadcast on-line segmentation. Performances have been evaluated during an international campaign within the QUAERO project. Finally, the same framework is used to perform source separation informed by the redundancy. All these elements validate the proposed framework for the audio archiving task. The layered structures of audio data are accessed hierarchically by greedy decomposition algorithms and allow processing the different objectives of archival at different steps, thus addressing them within the same framework.
|
18 |
Algorithmes de poursuite stochastiques et inégalités de concentration empiriques pour l'apprentissage statistique / Stochastic pursuit algorithms and empirical concentration inequalities for machine learningPeel, Thomas 29 November 2013 (has links)
La première partie de cette thèse introduit de nouveaux algorithmes de décomposition parcimonieuse de signaux. Basés sur Matching Pursuit (MP) ils répondent au problème suivant : comment réduire le temps de calcul de l'étape de sélection de MP, souvent très coûteuse. En réponse, nous sous-échantillonnons le dictionnaire à chaque itération, en lignes et en colonnes. Nous montrons que cette approche fondée théoriquement affiche de bons résultats en pratique. Nous proposons ensuite un algorithme itératif de descente de gradient par blocs de coordonnées pour sélectionner des caractéristiques en classification multi-classes. Celui-ci s'appuie sur l'utilisation de codes correcteurs d'erreurs transformant le problème en un problème de représentation parcimonieuse simultanée de signaux. La deuxième partie expose de nouvelles inégalités de concentration empiriques de type Bernstein. En premier, elles concernent la théorie des U-statistiques et sont utilisées pour élaborer des bornes en généralisation dans le cadre d'algorithmes de ranking. Ces bornes tirent parti d'un estimateur de variance pour lequel nous proposons un algorithme de calcul efficace. Ensuite, nous présentons une version empirique de l'inégalité de type Bernstein proposée par Freedman [1975] pour les martingales. Ici encore, la force de notre borne réside dans l'introduction d'un estimateur de variance calculable à partir des données. Cela nous permet de proposer des bornes en généralisation pour l'ensemble des algorithmes d'apprentissage en ligne améliorant l'état de l'art et ouvrant la porte à une nouvelle famille d'algorithmes d'apprentissage tirant parti de cette information empirique. / The first part of this thesis introduces new algorithms for the sparse encoding of signals. Based on Matching Pursuit (MP) they focus on the following problem : how to reduce the computation time of the selection step of MP. As an answer, we sub-sample the dictionary in line and column at each iteration. We show that this theoretically grounded approach has good empirical performances. We then propose a bloc coordinate gradient descent algorithm for feature selection problems in the multiclass classification setting. Thanks to the use of error-correcting output codes, this task can be seen as a simultaneous sparse encoding of signals problem. The second part exposes new empirical Bernstein inequalities. Firstly, they concern the theory of the U-Statistics and are applied in order to design generalization bounds for ranking algorithms. These bounds take advantage of a variance estimator and we propose an efficient algorithm to compute it. Then, we present an empirical version of the Bernstein type inequality for martingales by Freedman [1975]. Again, the strength of our result lies in the variance estimator computable from the data. This allows us to propose generalization bounds for online learning algorithms which improve the state of the art and pave the way to a new family of learning algorithms taking advantage of this empirical information.
|
19 |
Modèles et algorithmes pour la modélisation parcimonieuse de signaux de grande dimensionMailhé, Boris 02 December 2009 (has links) (PDF)
Cette thèse propose des algorithmes rapides pour les représentations parcimonieuses. Les représentations parcimonieuses consistent à approcher le signal par une combinaison linéaire de peu d'atomes choisis dans un dictionnaire redondant (plus d'atomes que la dimension du signal). Comment décomposer un signal donné sur un dictionnaire donné ? C'est un problème NP-complet. Les algorithmes approchés existants sont trop coûteux pour être employés sur de grands signaux ou bien calculent une approximation grossière. Nous proposons un nouvel algorithme, LocOMP, qui passe à l'échelle sans sacrifier la qualité d'approximation. LocOMP nécessite des dictionnaires locaux : la longueur du support d'un atome est petite devant celle du signal. Comment apprendre un dictionnaire qui permet la représentation parcimonieuse d'une famille de signaux donnée ? C'est un problème encore plus complexe : on le résout habituellement en itérant plusieurs décompositions parcimonieuses. Nous proposons une amélioration de l'algorithme d'Olshausen-Field qui optimise le dictionnaire par descente de gradient à pas fixe. Nous exprimons le pas optimal la descente. L'algorithme converge ainsi plus vite vers un meilleur dictionnaire. Enfin, nous avons appliqué ces outils pour isoler les signaux de fibrillation atriale dans l'électrocardiogramme du patient. La fibrillation atriale est une arythmie cardiaque : les atria tremblent au lieu de battre. On souhaite observer la fibrillation dans l'ECG, mais elle est mélangée à l'activité ventriculaire. Notre méthode de séparation est basée sur l'apprentissage d'un dictionnaire pour la fibrillation et un pour l'activité ventriculaire, tous deux appris sur le même ECG.
|
20 |
Panic Detection in Human Crowds using Sparse CodingKumar, Abhishek 21 August 2012 (has links)
Recently, the surveillance of human activities has drawn a lot of attention from the research community and the camera based surveillance is being tried with the aid of computers. Cameras are being used extensively for surveilling human activities; however, placing cameras and transmitting visual data is not the end of a surveillance system. Surveillance needs to detect abnormal or unwanted activities. Such abnormal activities are very infrequent as compared to regular activities. At present, surveillance is done manually, where the job of operators is to watch a set of surveillance video screens to discover an abnormal event. This is expensive and prone to error.
The limitation of these surveillance systems can be effectively removed if an automated anomaly detection system is designed. With powerful computers, computer vision is being seen as a panacea for surveillance. A computer vision aided anomaly detection system will enable the selection of those video frames which contain an anomaly, and only those selected frames will be used for manual verifications.
A panic is a type of anomaly in a human crowd, which appears when a group of people start to move faster than the usual speed. Such situations can arise due to a fearsome activity near a crowd such as fight, robbery, riot, etc. A variety of computer vision based algorithms have been developed to detect panic in human crowds, however, most of the proposed algorithms are computationally expensive and hence too slow to be real-time.
Dictionary learning is a robust tool to model a behaviour in terms of the linear combination of dictionary elements. A few panic detection algorithms have shown high accuracy using the dictionary learning method; however, the dictionary learning approach is computationally expensive. Orthogonal matching pursuit (OMP) is an inexpensive way to model a behaviour using dictionary elements and in this research OMP is used to design a panic detection algorithm. The proposed algorithm has been tested on two datasets and results are found to be comparable to state-of-the-art algorithms.
|
Page generated in 0.5088 seconds