Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
501 |
Diagnosis of reinforced concrete structures in civil engineering by GPR technology : development of alternate methods for precise geometric recognition / Diagnosis of reinforced concrete structues in civil engineering by GPR technology : development of alternate methods for precise geometric recognitionAl-Soudani, Maha 11 July 2017 (has links)
La méconnaissance de la géométrie réelle d'une structure mène à une évaluation incorrecte de son état. Par conséquent, une estimation imprécise de sa capacité portante, sa durabilité, sa stabilité et la nécessité de mettre en place une réparation ou un renforcement. En outre, l'optimisation du temps requis pour le processus de réparation a besoin de bien connaître les différentes parties de la structure à évaluer et également pour éviter les zones critiques telles que les aciers, les câbles, etc., lors de la réparation. Par conséquent, il est nécessaire d'utiliser des techniques d'évaluation non destructive (END) afin de connaître la géométrie réelle de la structure, notamment l'emplacement des armatures dans les structures en béton armé. Le GPR est considéré comme une technique non-destructive idéale pour détecter et localiser les renforts. Cependant, sa précision de localisation est limitée. Le but de ce projet de recherche a donc été d'accroître la précision du GPR en matière de reconnaissance géométrique interne de structures en béton armé. L'objectif principal de cette étude est de localiser précisément le positionnement des armatures dans le plan ausculté ainsi qu'en profondeur. Pour atteindre cet objectif, une nouvelle méthodologie de mesures et du traitement des signaux GPR a été proposée dans cette étude. Plusieurs configurations d'acquisition de données en utilisant des signaux simulés sont testées pour proposer et développer un algorithme d'imagerie du milieu de propagation afin de définir sa géométrie interne et de localiser précisément les barres de renforcement. Des traitements supplémentaires sont appliqués pour améliorer la précision de la détection et pour identifier les différentes interfaces dans le milieu testé. L'algorithme et le traitement sont appliqués aux signaux simulés. Des validations expérimentales ont ensuite été appliquées aux signaux réels acquis sur différentes dalles en béton armé. L'objectif est de tester la capacité de l'algorithme d'imagerie proposé pour localiser différents objets enfouis. Les résultats encourageants montrent que cet algorithme est capable d'estimer la position de différents objets enfouis et pas uniquement les armatures avec une erreur d'estimation de (0-1) mm. Les performances de l'algorithme ont été comparées à celles d'une méthode de migration et aux résultats de mesure obtenus avec un pachomètre. Ces comparaisons ont systématiquement révélé une meilleure précision de la localisation avec l'algorithme développé.Une autre étude a été proposée dans ce travail en testant l'algorithme avec des signaux réels modifiés. Ces signaux sont produits en réduisant le gain le moins possible. La conclusion la plus évidente de cette étude est que l'algorithme proposé est capable de localiser les différents objets même si les signaux réfléchis par eux sont de faible amplitude. / Lack of acquaintance in the real geometry of a structure leads to incorrect evaluation of its state. Consequently, this will lead to inaccurate estimation of bearing capacity, durability, stability and moreover, the need for repair or strengthening. Furthermore, optimization of the required time for repair process needs to well recognize the parts of structure to be assessed and also to avoid the critical zones such as reinforcing bars, cables, etc., during repairing. Therefore; it becomes necessary to use a non-destructive testing (NDT) method in order to know the real geometry of structure in particular, the location of reinforcements in reinforced concrete structures. GPR is considered as an ideal non-invasive technique in detecting and locating these reinforcements. However, its accuracy in localization is limited. The aim of this research project has therefore been to increase the accuracy of GPR in recognizing the internal geometry of reinforced concrete structures. The main objective of this study is to locate accurately the position of reinforcements into three dimensions. To achieve this purpose, a new methodology for GPR measurement and processing is proposed in this study.Several configurations of data acquisition using simulated signals are tested to propose and develop an appropriate imaging algorithm for the propagation medium to imagine its internal geometry and to locate accurately the reinforcing bars. Further processing are applied to improve the accuracy of detection and to identify the different interfaces in the tested medium. Both algorithm and processing are applied on simulated signals. Subsequent experimental validations have been applied using real signals acquired from different real reinforced concrete slabs. The goal is to test the ability of proposed imaging algorithm for the localization of different targets. The encouraging results indicate that this algorithm is able to estimate the position of different buried targets and not only the reinforcing bars with an estimation error of (0-1)mm.The performance of proposed algorithm has compared to those of migration method and to the results obtained from pachometer. These comparisons have systematically revealed a better localization accuracy using the developed algorithm.Another study has been proposed in this work by testing the algorithm using modified real signals. These signals are produced by reducing the gain as less as possible. The most obvious finding to emerge from this study is that the proposed algorithm is able to localize the different goals even if the signals reflected by them are of low amplitude.
|
502 |
Méthodes bayésiennes pour l'analyse génétique / Bayesian methods for gene expression factor analysisBazot, Cécile 27 September 2013 (has links)
Ces dernières années, la génomique a connu un intérêt scientifique grandissant, notamment depuis la publication complète des cartes du génome humain au début des années 2000. A présent, les équipes médicales sont confrontées à un nouvel enjeu : l'exploitation des signaux délivrés par les puces ADN. Ces signaux, souvent de grande taille, permettent de connaître à un instant donné quel est le niveau d'expression des gênes dans un tissu considéré, sous des conditions particulières (phénotype, traitement, ...), pour un individu. Le but de cette recherche est d'identifier des séquences temporelles caractéristiques d'une pathologie, afin de détecter, voire de prévenir, une maladie chez un groupe de patients observés. Les solutions développées dans cette thèse consistent en la décomposition de ces signaux en facteurs élémentaires (ou signatures génétiques) selon un modèle bayésien de mélange linéaire, permettant une estimation conjointe de ces facteurs et de leur proportion dans chaque échantillon. L’utilisation de méthodes de Monte Carlo par chaînes de Markov sera tout particulièrement appropriée aux modèles bayésiens hiérarchiques proposés puisqu'elle permettra de surmonter les difficultés liées à leur complexité calculatoire. / In the past few years, genomics has received growing scientic interest, particularly since the map of the human genome was completed and published in early 2000's. Currently, medical teams are facing a new challenge: processing the signals issued by DNA microarrays. These signals, often of voluminous size, allow one to discover the level of a gene expression in a given tissue at any time, under specic conditions (phenotype, treatment, ...). The aim of this research is to identify characteristic temporal gene expression proles of host response to a pathogen, in order to detect or even prevent a disease in a group of observed patients. The solutions developed in this thesis consist of the decomposition of these signals into elementary factors (genetic signatures) following a Bayesian linear mixing model, allowing for joint estimation of these factors and their relative contributions to each sample. The use of Markov chain Monte Carlo methods is particularly suitable for the proposed hierarchical Bayesian models. Indeed they allow one to overcome the diculties related to their computational complexity.
|
503 |
Estimation non-ambigüe de cibles grâce à une représentation parcimonieuse Bayésienne d'un signal radar large bande / Unambiguous target estimation using Bayesian sparse representation of a wideband radar signalLasserre, Marie 20 November 2017 (has links)
Les travaux menés lors de cette thèse s’inscrivent dans le cadre général de la détection de cibles en utilisant une forme d’onde non-conventionnelle large bande. L’utilisation d’une forme d’onde large bande à faible PRF a été proposée par le passé une alternative aux traitements multi-PRF qui limitent le temps d’illumination de la scène. En effet, l’augmentation de la bande instantanée permet d’obtenir une meilleure résolution distance ; les cibles rapides sont alors susceptibles de migrer lors du temps de traitement, mais ce phénomène de couplage distance-vitesse peut être mis à profit pour lever les ambiguïtés. L’objectif de la thèse est alors de développer, pour une forme d’onde large bande avec faible PRF, des traitements prenant en compte la migration des cibles et capables de lever les ambiguïtés vitesse dans des scénarios réalistes. Les travaux se basent sur un algorithme de représentation parcimonieuse non-ambigüe de cibles migrantes, dans un cadre algorithmique Bayésien. Cet algorithme est en revanche développé sous certaines hypothèses, et des travaux de robustification sont alors entrepris afin de l’utiliser sur des scénarios plus réalistes. Dans un premier temps, l’algorithme est robustifié au désalignement des cibles par rapport à la grille d’analyse, puis modifié pour prendre également en compte une possible composante diffuse de bruit. Il est également remanié pour estimer correctement une scène comportant une forte diversité de puissance, où des cibles fortes masquent potentiellement des cibles faibles. Les différents algorithmes sont validés à la fois sur des données synthétiques et expérimentales. / The work conducted during this PhD falls within the general context of radar target detection using a non-conventional wideband waveform. More precisely, the use of a low-PRF wideband waveform has been proposed in the past as an alternative to the classical staggered-PRF processing used to mitigate velocity ambiguities that limits dwell time. Increasing the instantaneous bandwidth improves range resolution; fast moving targets are then likely to migrate during the coherent processing interval. This range-velocity coupling can then be used to mitigate velocity ambiguities. This PhD thesis aims at developing an algorithm able to provide unambiguous estimation of migrating targets using a low-PRF wideband waveform. It is based on a sparse representation algorithm able to unambiguously estimate migrating targets, within a Bayesian framework. However, this algorithm is developed under some hypothesis, and then requires robustification to be used on more realistic scenarii. First, the algorithm is robustified to the case of off-grid targets, and then upgraded to take into account a possible diffuse clutter component. On the other hand, the reference algorithm is modified to accurately estimate high dynamic range scenes where weak targets compete with strong targets. All the developed algorithms have been validated on synthetic and experimental data recorded by the PARSAX radar from the Technical University of Delft, The Netherlands.
|
504 |
Multiscale Information Transfer in Turbulence / Transfert de l'information en turbulence : une vision multi-échellesGranero Belinchon, Carlos 26 September 2018 (has links)
Cette thèse est consacrée à l’étude statistique des systèmes complexes à travers l’analyse de signaux expérimentaux, de signaux synthétiques et de signaux générés à partir de modèles théoriques. On a choisi la turbulence comme paradigme d’ ́etude en raison de ses propriétés: dynamique non linéaire, comportement multi-échelle, cascade d’énergie, intermittence ... Afin de faire une caractérisation statistique d’un système complexe on s’intéresse à l’étude de la distribution (fonction de densité de probabilité), des corrélations et dépendances, et des relations de causalité de Wiener, des signaux qui décrivent le système. La théorie de l’information apparaît comme un cadre idéal pour developer ce type d’analyse. Dans le cadre de la théorie de l’information on a développé deux méthodologies, différentes mais reliées, pour analyser les propriétés d’auto similarité d’un système complexe, et plus précisément de la turbulence. La première méthodologie est basée sur l’analyse des incréments du processus étudié, avec l’entropie de Shannon et la divergence de Kullback-Leibler. La deuxième méthode, qui permet d’analyser des processus non stationnaires, est basée sur l’analyse du processus avec le taux d’entropie de Shannon. On a étudié la relation entre les deux méthodologies, lesquelles caractérisent la distribution d’information du système et la déformation de la distribution des incréments, à travers les échelles. / Most of the time when studying a system, scientists face processes whose properties are a priori unknown. Characterising these processes is a major task to describe the studied system. During this thesis, which combines signal processing and physics, we were mainly motivated by the study of complex systems and turbulence, and consequently, we were interested in the study of regularity and self-similarity properties, long range dependence structures and multi-scale behavior. In order to perform this kind of study, we use information theory quantities, which are functions of the probability density function of the analysed process, and so depend on any order statistics of its PDF. We developed different, but related, data analysis methodologies, based on information theory, to analyse a process across scales τ. These scales are usually identified with the sampling parameter of Takens embedding procedure, but also with the size of the increments of the process. The methodologies developed during this thesis, can be used to characterize stationnary and non-stationnary processes by analysing time windows of length T of the studied signal.
|
505 |
One-class classification for cyber intrusion detection in industrial systems / Classification mono-classe pour la détection des cyber-intrusions dans les systèmes industrielsNader, Patric 24 September 2015 (has links)
La sécurité des infrastructures critiques a suscité l'attention des chercheurs récemment avec l'augmentation du risque des cyber-attaques et des menaces terroristes contre ces systèmes. La majorité des infrastructures est contrôlée par des systèmes SCADA (Supervisory Control And Data Acquisition) permettant le contrôle à distance des processus industriels, comme les réseaux électriques, le transport de gaz, la distribution d'eau potable, les centrales nucléaires, etc. Les systèmes traditionnels de détection d'intrusions sont incapables de détecter les nouvelles attaques ne figurant pas dans leurs bases de données. L'objectif de cette thèse est d'apporter une aide supplémentaire à ces systèmes pour assurer une meilleure protection contre les cyber-attaques.La complexité et la diversité des attaques rendent leur modélisation difficile. Pour surmonter cet obstacle, nous utilisons des méthodes d'apprentissage statistique mono-classes. Ces méthodes élaborent une fonction de décision à partir de données d'apprentissage, pour classer les nouveaux échantillons en données aberrantes ou données normales. La fonction de décision définie l’enveloppe d’une région de l’espace de données contenant la majeure partie des données d’apprentissage. Cette thèse propose des méthodes de classification mono-classe, des formulations parcimonieuses de ces méthodes, et une méthode en ligne pour la détection temps réel. Les performances de ces méthodes sont montrées sur des données benchmark de différents types d’infrastructures critiques / The security of critical infrastructures has been an interesting topic recently with the increasing risk of cyber-attacks and terrorist threats against these systems. The majority of these infrastructures is controlled via SCADA (Supervisory Control And Data Acquisition) systems, which allow remote monitoring of industrial processes such as electrical power grids, gas pipelines, water distribution systems, wastewater collection systems, nuclear power plants, etc. Traditional intrusion detection systems (IDS) cannot detect new types of attacks not listed in their databases, so they cannot ensure maximum protection for these infrastructures.The objective of this thesis is to provide additional help to IDS to ensure better protection for industrial systems against cyber-attacks and intrusions. The complexity of studied systems and the diversity of attacks make modeling these attacks very difficult. To overcome this difficulty, we use machine learning, especially one-class classification. Based on training samples, these methods develop decision rules to classify new samples as outliers or normal ones. This dissertation proposes specific one-class classification approaches, sparse formulations of these approaches, and an online approach to improve the real-time detection. The relevance of these approaches is illustrated on benchmark data from three different types of critical infrastructures
|
506 |
Contrôle santé des structures composites : génération de délaminages par choc laser et quantification par apprentissage machine / Structural Health Monitoring of composite structures : LASER shock delamination generation and machine learning-based quantificationGhrib, Meriem 07 December 2017 (has links)
Dans ce travail, nous abordons la quantification de dommage de type délaminage dans des stratifiés en CFRP. Le problème de quantification est transformé en un problème de classification multiclasses au sens de l'apprentissage statistique. Chaque classe correspond à une certaine sévérité de dommage. Le modèle de machine à vecteurs de support (SVM) est utilisé pour effectuer la classification. Généralement, des descripteurs de dommage basés sur une utilisation directe des signaux mesurés (SBF) sont utilisés pour apprendre les modèles décisionnels. Dans ce travail, nous nous basons sur l'hypothèse qu'un dommage génère nécessairement une part de non linéarité dans la réponse dynamique de la structure et nous investiguons la pertinence de l'utilisation de descripteurs de dommage basés sur un modèle non linéaire (NMBF) pour améliorer les performances du modèle décisionnel. Les NMBF proposés sont calculés en se basant sur le modèle de Hammerstein en parallèle identifié avec un signal de type "sweep exponentiel". Une réduction de dimension du vecteur des caractéristiques en utilisant l'ACP est également conduite et son effet sur les performances du processus de quantification suggéré est étudié. L'approche de quantification proposée a été testée et validée en utilisant des résultats de simulation puis des résultats expérimentaux obtenus sur des plaques composites en CFRP équipées d'éléments piézoélectriques et contenant diverses sévérités de délaminage. Les dommages de type délaminage ont été générés au sein des échantillons de manière calibrée et réaliste à l'aide de la technique du choc LASER et plus particulièrement du choc LASER symétrique. Nous avons démontré expérimentalement que cette configuration de choc LASER est une alternative efficace aux méthodes classiques de génération de dommage telles que les impacts classiques et les patches de Téflon, permettant une meilleure calibration du dommage en type, profondeur et taille. / In this work, we approach delamination quantification in Carbon Fiber Reinforced Polymer (CFRP) laminates as a classification problem whereby each class corresponds to a certain damage extent. A Support Vector Machine (SVM) is used to perform multi-class classification task. Classically, Signal Based Features (SBF) are used to train SVMs when approaching SHM from a machine learning perspective. In this work, starting from the assumption that damage causes a structure to exhibit nonlinear response, we investigate whether the use of Nonlinear Model Based Features (NMBF) increases classification performance. NMBF are computed based on parallel Hammerstein models which are identified with an Exponential Sine Sweep (ESS) signal. Dimensionality reduction of features vector using Principal Component Analysis (PCA) is also conducted in order to find out if it allows robustifying the quantification process suggested in this work. The proposed quantification approach was first tested and validated using simulation results. Thereafter, experimental results on CFRP composite plates equipped with piezoelectric elements and containing various delamination severities are considered for demonstration. Delamination-type damage is introduced into samples in a calibrated and realistic way using LASER Shock Wave Technique (LSWT) and more particularly symmetrical LASER shock configuration. We have experimentally demonstrated that such a configuration of LASER shock is an effective alternative to conventional damage generation techniques such as conventional impacts and Teflon inserts since it allows for a better calibration of damage in type, depth and size.
|
507 |
IRM fonctionnelle chez le rat : défis méthodologiques / Functional MRI of the rat : a Methodological ChallengeReyt, Sébastien 09 November 2012 (has links)
L'imagerie par résonance magnétique fonctionnelle (IRMf ) permet de détecter sur le cerveau entier des activations neuronales en réponse à un stimulus, par le biais de l'observation des modifications hémodynamiques occasionnées. En particulier, l'IRMf est un outil de choix pour l'étude des mécanismes de la stimulation cérébrale profonde et de la stimulation du nerf vague qui sont encore mal connus. Cependant, cette technique n'est pas facilement utilisable chez l'homme en raison des problèmes de sécurité vis-à-vis de l'action des champs magnétiques intenses utilisés en IRM au niveau des électrodes implantées. Les développements méthodologiques chez l'animal sont donc nécessaires. L'objectif principal de cette thèse est l'étude des mécanismes à distance de la stimulation du système nerveux central et périphérique par IRMf chez le rat. Nous présentons dans un premier temps les séquences IRM rapides utilisées en IRMf, comme l'Echo-Planar Imaging multishot, permettant d'imager le cerveau entier en 1 à 2 secondes seulement, ainsi que les différents problèmes posés par l'utilisation de ces séquences, comme les artefacts de susceptibilité magnétique. Le couplage des séquences développées durant cette thèse avec des mesures électrophysiologiques a notamment permis l'imagerie des réseaux épileptiques chez le rat. Dans un second temps, nous développons les problèmes posés par la préparation animale, particulière en IRMf de par le fait que le couplage neurovasculaire doit être préservé sous anesthésie afin de préserver les activations neuronales. Après comparaison avec les anesthésies à l'isoflurane et la kétamine, nous avons déduit que la médétomidine constituait un anesthésique de choix pour l'IRMf du rongeur, et précisons le protocole de préparation animale utilisé pour l'imagerie. De plus, les électrodes utilisées en stimulation intracérébrale induisent des artefacts importants en imagerie, et des électrodes constituées de matériaux amagnétiques sont nécessaires. Nous expliquons pourquoi nous avons choisi des électrodes en carbone, et présentons le protocole de fabrication utilisé. Nous avons ensuite validé ces développements méthodologiques par des expériences d'IRMf de challenges hypercapniques et de stimulation de la patte chez le rat. Puis nous avons conduit une étude IRMf approfondie des mécanismes d'action de la stimulation du nerf vague, en s'intéressant à la distinction entre activations neuronales et effets cardiovasculaires confondants par modélisation causale dynamique. Nous présentons aussi des résultats en IRMf de la stimulation électrique intracérébrale chez le rat. Plusieurs cibles ont été stimulées (noyau géniculé dorso-latéral, gyrus dentelé, striatum et thalamus), et des activations ont été obtenues à distance de l'électrode, conformément aux connaissances actuelles sur les connexions neuroanatomiques de ces noyaux. Ainsi, nous avons mis au point et validé l'IRMf du rat et son application à la stimulation électrique du système nerveux périphérique et central. / Functional magnetic resonance imaging (fMRI) can detect neuronal activations in the entire brain, in response to a stimulus, through the observation of subsequent hemodynamic changes. In particular, fMRI is a good tool for studying the mechanisms of deep brain stimulation and vagus nerve stimulation, which are still poorly understood. However, this technique is not readily usable in humans because of safety concerns towards the action of the strong magnetic fields used in MRI on implanted electrodes. Indeed, methodological developments in animals are needed. The main goal of this thesis is to study the mechanisms of central and peripheral nervous system stimulation in rats by fMRI. First, fast MRI sequences used in fMRI are exposed, such as multishot Echo-Planar Imaging, allowing to image the entire brain in a couple of seconds. Various imaging problems posed by these sequences, such as magnetic susceptibility artifacts, are also presented. These sequences, developed during this thesis, associated with electrophysiological measurements, allowed imaging of epileptic networks in the rat. Secondly, animal preparation is developped, as it is peculiar in fMRI : neuronal activations, as well as neurovascular coupling, must be preserved under anesthesia. Compared to anesthesia by isoflurane and ketamine, it was concluded that medetomidine was an anesthetic of choice for fMRI of the rodent, and the protocol used for animal preparation for imaging is specified. Furthermore, the electrodes used in deep brain stimulation induce significant artifacts in MRI images, and electrodes made of amagnetic materials are needed. Our choice of carbon electrodes is explained, and the manufacturing protocol used is exposed. These methodological developments were then validated in fMRI experiments of hypercapnic challenges and forepaw stimulation. Finally, an fMRI experiment studying mechanisms of action of vagus nerve stimulation was conducted, focusing on the distinction between neuronal activations and confounding cardiovascular effects by dynamic causal modeling. Also, results on fMRI of deep brain stimulation in rats are presented. Several targets were stimulated (dorsolateral geniculate nucleus, dentate gyrus, striatum and thalamus), and activations were obtained at a distance from the electrode. Results were in accordance with current knowledge on neuroanatomical connections of these nuclei. Thus, we developed and validated fMRI of the rat and its application to electrical stimulation of peripheral and central nervous system.
|
508 |
Modélisation de signaux longs multicomposantes modulés non linéairement en fréquence et en amplitude : suivi de ces composantes dans le plan temps-fréquence / Modeling of long-time multicomponent signals with nonlinear frequency and amplitude modulations : component tracking in the time-frequency planeLi, Zhongyang 09 July 2013 (has links)
Cette thèse propose une nouvelle méthode pour modéliser les fonctions non linéaires de modulations d’amplitude et de fréquence de signaux multicomposantes non stationnaires de durée longue. La méthode repose sur une décomposition du signal en segments courts pour une modélisation locale sur les segments. Pour initialiser la modélisation, nous avons conçu une première étape qui peut être considérée comme un estimateur indépendant et non paramétrique des fonctions de modulations. L’originalité de l’approche réside dans la définition d’une matrice de convergence totale intégrant simultanément les valeurs d’amplitude et de fréquence et utilisé pour l’association d’un pic à une composante selon un critère d’acceptation stochastique. Suite à cette initialisation, la méthode estime les fonctions de modulations par l'enchaînement des étapes de segmentation, modélisation et fusion. Les fonctions de modulations estimées localement par maximum de vraisemblance sont connectées dans l'étape de fusion, qui supprime les discontinuités, et produit l’estimation globale sur la durée totale du signal. Les étapes sont conçues afin de pouvoir modéliser des signaux multicomposantes avec des morts et naissances, ce qui en fait une de ses originalités par rapport aux techniques existantes. Les résultats sur des signaux réels et simulés ont illustré les bonnes performances et l’adaptabilité de la méthode proposée. / In this thesis, a novel method is proposed for modeling the non-linear amplitude and frequency modulations of non-stationary multi-component signals of long duration. The method relies on the decomposition of the signal into short time segments to carry out local modelings on these segments. In order to initialize the modeling, a first step is designed which can be considered as an independent estimator of the modulations over the entire duration of the signal. The originality of this approach lies in the definition of the total divergence matrix integrating simultaneously the amplitude and frequency values, which are employed for the association of a peak to a component according to a stochastic acceptation criteria. Following the initialization, the proposed method estimates the modulations by the step sequence of segmentation, modeling and fusion. The locally obtained modulation functions estimated by maximum likelihood are finally connected in the fusion step which suppresses their discontinuity and yields the global estimation over the entire signal duration. All these steps are defined in order to be able to model multicomponent signals with births and deaths, making one of its original features compared to existing techniques. The results on real and simulated signals have shown the good performance and adaptability of the proposed method.
|
509 |
Signal Processing on Graphs - Contributions to an Emerging Field / Traitement du signal sur graphes - Contributions à un domaine émergentGirault, Benjamin 01 December 2015 (has links)
Ce manuscrit introduit dans une première partie le domaine du traitement du signal sur graphe en commençant par poser les bases d'algèbre linéaire et de théorie spectrale des graphes. Nous définissons ensuite le traitement du signal sur graphe et donnons des intuitions sur ses forces et faiblesses actuelles comparativement au traitement du signal classique. En seconde partie, nous introduisons nos contributions au domaine. Le chapitre 4 cible plus particulièrement l'étude de la structure d'un graphe par l'analyse des signaux temporels via une transformation graphe vers série temporelle. Ce faisant, nous exploitons une approche unifiée d'apprentissage semi-supervisé sur graphe dédiée à la classification pour obtenir une série temporelle lisse. Enfin, nous montrons que cette approche s'apparente à du lissage de signaux sur graphe. Le chapitre 5 de cette partie introduit un nouvel opérateur de translation sur graphe définit par analogie avec l'opérateur classique de translation en temps et vérifiant la propriété clé d'isométrie. Cet opérateur est comparé aux deux opérateurs de la littérature et son action est décrite empiriquement sur quelques graphes clés. Le chapitre 6 décrit l'utilisation de l'opérateur ci-dessus pour définir la notion de signal stationnaire sur graphe. Après avoir étudié la caractérisation spectrale de tels signaux, nous donnons plusieurs outils essentiels pour étudier et tester cette propriété sur des signaux réels. Le dernier chapitre s'attache à décrire la boite à outils \matlab développée et utilisée tout au long de cette thèse. / This dissertation introduces in its first part the field of signal processing on graphs. We start by reminding the required elements from linear algebra and spectral graph theory. Then, we define signal processing on graphs and give intuitions on its strengths and weaknesses compared to classical signal processing. In the second part, we introduce our contributions to the field. Chapter 4 aims at the study of structural properties of graphs using classical signal processing through a transformation from graphs to time series. Doing so, we take advantage of a unified method of semi-supervised learning on graphs dedicated to classification to obtain a smooth time series. Finally, we show that we can recognize in our method a smoothing operator on graph signals. Chapter 5 introduces a new translation operator on graphs defined by analogy to the classical time shift operator and verifying the key property of isometry. Our operator is compared to the two operators of the literature and its action is empirically described on several graphs. Chapter 6 describes the use of the operator above to define stationary graph signals. After giving a spectral characterization of these graph signals, we give a method to study and test stationarity on real graph signals. The closing chapter shows the strength of the matlab toolbox developed and used during the course of this PhD.
|
510 |
Kernel-based machine learning for tracking and environmental monitoring in wireless sensor networkds / Méthodes à noyaux pour le suivi de cibles et la surveillance de l'environnement dans les réseaux de capteursMahfouz, Sandy 14 October 2015 (has links)
Cette thèse porte sur les problèmes de localisation et de surveillance de champ de gaz à l'aide de réseaux de capteurs sans fil. Nous nous intéressons d'abord à la géolocalisation des capteurs et au suivi de cibles. Nous proposons ainsi une approche exploitant la puissance des signaux échangés entre les capteurs et appliquant les méthodes à noyaux avec la technique de fingerprinting. Nous élaborons ensuite une méthode de suivi de cibles, en se basant sur l'approche de localisation proposée. Cette méthode permet d'améliorer la position estimée de la cible en tenant compte de ses accélérations, et cela à l'aide du filtre de Kalman. Nous proposons également un modèle semi-paramétrique estimant les distances inter-capteurs en se basant sur les puissances des signaux échangés entre ces capteurs. Ce modèle est une combinaison du modèle physique de propagation avec un terme non linéaire estimé par les méthodes à noyaux. Les données d'accélérations sont également utilisées ici avec les distances, pour localiser la cible, en s'appuyant sur un filtrage de Kalman et un filtrage particulaire. Dans un autre contexte, nous proposons une méthode pour la surveillance de la diffusion d'un gaz dans une zone d'intérêt, basée sur l'apprentissage par noyaux. Cette méthode permet de détecter la diffusion d'un gaz en utilisant des concentrations relevées régulièrement par des capteurs déployés dans la zone. Les concentrations mesurées sont ensuite traitées pour estimer les paramètres de la source de gaz, notamment sa position et la quantité du gaz libéré / This thesis focuses on the problems of localization and gas field monitoring using wireless sensor networks. First, we focus on the geolocalization of sensors and target tracking. Using the powers of the signals exchanged between sensors, we propose a localization method combining radio-location fingerprinting and kernel methods from statistical machine learning. Based on this localization method, we develop a target tracking method that enhances the estimated position of the target by combining it to acceleration information using the Kalman filter. We also provide a semi-parametric model that estimates the distances separating sensors based on the powers of the signals exchanged between them. This semi-parametric model is a combination of the well-known log-distance propagation model with a non-linear fluctuation term estimated within the framework of kernel methods. The target's position is estimated by incorporating acceleration information to the distances separating the target from the sensors, using either the Kalman filter or the particle filter. In another context, we study gas diffusions in wireless sensor networks, using also machine learning. We propose a method that allows the detection of multiple gas diffusions based on concentration measures regularly collected from the studied region. The method estimates then the parameters of the multiple gas sources, including the sources' locations and their release rates
|
Page generated in 0.0849 seconds