• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Estimation de vitesse de rotation par mesures de direction / Estimation of angular rate from direction sensors

Magnis, Lionel 06 July 2015 (has links)
Cette thèse étudie l’estimation de vitesse de rotation d’un corps rigide à partir de mesures de directions (par exemple champ magnétique, direction du soleil) embarquées. L’objectif est de remplacer les gyromètres qui sont chers comparés aux autres capteurs inertiels et sujets à des saturations et à des dysfonctionnements. Dans une première partie de la thèse, on traite les cas spécifiques d’une rotation à axe fixe ou légèrement variable. Dans une seconde partie, on traite le cas d’une rotation quelconque par un observateur asymptotique non-linéaire. On construit l’observateur à partir de mesures de deux vecteurs de référence non colinéaires, ou bien d’un seul vecteur. La connaissance des coordonnées inertielles des vecteurs de référence n’est pas nécessaire. On étend ensuite l’observateur pour estimer en plus le couple et les paramètres d’inertie. Les équations d’Euler jouent un rôle central dans les travaux présentés ici. Il apparaît que, du moins pour les illustrations considérées, les gyromètres peuvent être remplacés par un algorithme d’estimation basé sur des capteurs de direction qui sont bien moins chers et plus robustes. / This thesis addresses the general question of estimating the angular rate of a rigid body from on-board direction sensors (e.g. magnetometers, Sun sensors). The objective is to replace rate gyros which are very expensive compared to direction sensors, prone to saturation during high rate rotations and subject to failure. In a first part of the thesis, we address the specific cases of single-axis and slightly perturbed axis rotations.In a second part, we address the general case by an asymptotic non-linear observer. We build the observer from two non-collinear vector measurements or from a single vector measurements. The knowledge of the inertial coordinates of the reference vectors is not necessary. We then extend the observer to further estimate unknown torques and inertia parameters. The Euler’s equations play a central role in all the works developed in this thesis. It appears that, at least for the illustrative cases considered, rate gyros could be replaced with an estimation algorithm employing direction sensors which are much cheaper,more rugged and more resilient sensors.
202

Analyse et reconnaissance de signaux vibratoires : contribution au traitement et à l'analyse de signaux cardiaques pour la télémédecine / Analysis and recognition of vibratory signals : contribution to the treatment and analysis of cardiac signals for telemedecine

Beya, Ouadi 15 May 2014 (has links)
Le coeur est un muscle. Son fonctionnement mécanique est celui d'une pompe chargée de distribuer et de récupérer le sang dans les poumons et dans le système cardiovasculaire. Son fonctionnement électrique est régulé par le son noeud sinusal, un stimulateur ou régulateur électrique chargé de déclencher les battements naturels du coeur qui rythment le fonctionnement du corps. Les médecins surveillent ce fonctionnement électromécanique du coeur en enregistrant un signal électrique appelé électrocardiogramme (ECG) ou un signal sonore : le phono-cardiogramme (PCG). L'analyse et le traitement de ces deux signaux sont fondamentaux pour établir un diagnostic et aider à déceler des anomalies et des pathologies cardiaques. L’objectif de cette thèse est de développer des techniques de traitement des signaux ECG et notamment PCG afin d’aider le médecin dans son analyse de ces signaux. L’idée de fond est de mettre en point des algorithmes relativement simples et peu coûteux en temps de calcul. Le premier intérêt serait de garantir leur implantation aisée dans un système mobile de surveillance cardiaque à l’usage du médecin, voire du patient. Le deuxième intérêt réside dans la possibilité d’une analyse automatique en temps réel des signaux avec le dispositif mobile, autorisant le choix de la transmission de ces signaux pour une levée de doute. De nombreux travaux ont mené à des avancées significatives dans l’analyse des signaux ECG et la reconnaissance automatiques des pathologies cardiaques. Des bases de données de signaux réels ou synthétiques annotées permettent également d’évaluer les performances de toute nouvelle méthode. Quant aux signaux PCG, ils sont nettement moins étudiés, difficiles à analyser et à interpréter. Même si les grandes familles de méthodes (Fourier, Wigner Ville et ondelettes) ont été testées, elles n’autorisent pas une reconnaissance automatique des signatures, d’en avoir une analyse et une compréhension assez fines.La Transformée en Ondelettes (TO) sur les signaux cardiaques a montré son efficacité pour filtrer et localiser les informations utiles mais elle fait intervenir une fonction externe de traitement (ondelette mère) dont le choix dépend de la connaissance au préalable du signal à traiter. Ce n'est pas toujours adapté aux signaux cardiaques. De plus, la Transformée en ondelettes induit généralement une imprécision dans la localisation due à la fonction externe et éventuellement au sous-échantillonnage des signatures. La nature non stationnaire de l'ECG et du PCG et leur sensibilité aux bruits rendent difficile la séparation d’une transition informative d'une transition due aux bruits de mesure. Le choix de l'outil de traitement doit permettre un débruitage et une analyse de ces signaux sans délocalisation des singularités ni altération de leurs caractéristiques. En réponse à nos objectifs et considérant ces différents problèmes, nous proposons de nous appuyer principalement sur la décomposition modale empirique (EMD) ou transformée de Hilbert Huang (THH) pour développer des solutions. L’EMD est une approche non linéaire capable de décomposer le signal étudié en fonctions modales intrinsèques (IMF), oscillations du type FM-AM, donnant ainsi une représentation temps/échelle du signal. Associée à la transformée de Hilbert (TH), la THH permet de déterminer les amplitudes instantanées (AI) et les fréquences instantanées (FI) de chaque mode, menant ainsi à une représentation temps/fréquence des signaux.Sans faire intervenir une fonction externe, on peut ainsi restaurer (réduction de bruit), analyser et reconstruire le signal sans délocalisation de ses singularités. Cette approche permet de localiser les pics R de l'ECG, déterminer le rythme cardiaque et étudier la variabilité fréquentielle cardiaque (VFC), localiser et analyser les composantes des bruits B1 et B2 du PCG. / The heart is a muscle. Its mechanical operation is like a pump charged for distributing and retrieving the blood in the lungs and cardiovascular system. Its electrical operation is regulated by the sinus node, a pacemaker or electric regulator responsible for triggering the natural heart beats that punctuate the functioning of the body.Doctors monitor the electromechanical functioning of the heart by recording an electrical signal called an electrocardiogram (ECG) or an audible signal : the phonocardiogram (PCG). The analysis and processing of these two signals are essential for diagnosis, to help detect anomalies and cardiac pathologies.The objective of this thesis is to develop signal processing tools on ECG and PCG to assist cardiologist in his analysis of these signals. The basic idea is to develop algorithms of low complexity and having inexpensive computing time. The primary interest is to ensure their easy implementation in a mobile heart monitoring system for use by the doctor or the patient. The second advantage lies in the possibility of automatic real-time analysis of signals with the mobile device, allowing control of the transmission of these signals to a removal of doubt.Numerous studies have led to significant advances in the analysis of ECG signals and the automatic recognition of cardiac conditions. Databases of real or synthetic signals annotated also assess the performance of new methods. PCG signals are much less studied, difficult to analyze and to interpret. The main methods (Fourier, wavelet and Wigner Ville) were tested : they do not allow automatic recognition of signatures, and an accurate understanding of their contents.Wavelet Transform (WT) on cardiac signals showed its effectiveness to filter and locate useful information, but it involves an external processing function (mother wavelet) whose the choice depends on the prior knowledge on the signal to be processed. This is not always suitable for cardiac signals. Moreover, the wavelet transform generally induces inaccuracies in the location due to the external function and optionally due to the sub- sampling of the signatures.The non-stationary nature of the ECG and PCG and their sensitivity to noise makes it difficult to separate an informative transition of a transition due to measurement noise. The choice of treatment tool should allow denoising and analysis of these signals without alteration or the processing tool delocalization of the singularities.In response to our objectives and considering these problems, we propose to rely primarily on empirical mode decomposition (EMD) and Hilbert Huang Transform (HHT) to develop solutions. The EMD is a non linear approach decomposing the signal in intrinsic signal (IMF), oscillations of the type FM-AM, giving a time/scale signal representation. Associated with the Hilbert transform (TH), the THH determines the instantaneous amplitude (IA) and instantaneous frequency (IF) of each mode, leading to a time/frequency representation of the ECG and PCG.Without involving an external function, EMD approach can restore (noise reduction), analyze and reconstruct the signal without relocation of its singularities. This approach allows to locate R peaks of the ECG, heart rate and study the cardiac frequency variability (CFV), locate and analyze the sound components B1 and B2 of the PCG.Among the trials and developments that we made, we present in particular a new method (EDA : empirical denoising approach) inspired by the EMD approach for denoising cardiac signals. We also set out the implementation of two approaches for locating ECG signature (QRS complex, T and P waves). The first is based on the detection of local maxima : in using Modulus Maxima and Lipschitz exponent followed by a classifier. The second uses NFLS, wich an nonlinear approach for the detection and location of unique transitions in the discrete domain.
203

Diagnostic de groupes électrogènes diesel par analyse de la vitesse de rotation du vilebrequin / Diagnostic de groupes électrogènes diesel par analyse de la vitesse de rotation du vilebrequin. Pas de titre fourni en anglais

Desbazeille, Mathieu 02 July 2010 (has links)
Cette thèse porte sur le diagnostic d’un moteur diesel vingt cylindres entraînant un groupe électrogène de secours de centrale nucléaire. L’objectif est de réaliser un diagnostic de ce moteur à partir d’une mesure des fluctuations de vitesse du vilebrequin. L’étude s’est focalisée sur les défauts affectant le processus de combustion. Du fait des dimensions imposantes du moteur, les premiers modes de torsion du vilebrequin sont situés dans les basses fréquences. La superposition des ondes de torsion au déplacement du vilebrequin en tant que corps rigide complique considérablement l’analyse du signal. Peu de travaux ont ainsi été entrepris sur un moteur aussi gros. Dans cette thèse, un modèle dynamique en torsion du vilebrequin sous l’hypothèse d’élasticité de celui-ci est tout d’abord établi. Les paramètres de ce modèle sont optimisés afin de reproduire au mieux la réponse en vitesse réelle du vilebrequin. Une méthode de diagnostic originale basée sur une reconnaissance de formes du signal de vitesse est ensuite proposée. En effet, du fait de l’excitation des premiers modes de torsion, la réponse en vitesse du système présente une signature distincte en fonction du cylindre défectueux. Les formes types, représentatives des différents modes de fonctionnement du moteur, sont obtenues à partir du modèle précédemment établi et non à partir d’essais expérimentaux constituant ainsi la principale originalité de ce travail. Les résultats obtenus en phase opérationnelle sont encourageants. Un défaut réel de combustion a été correctement diagnostiqué incluant la détection du défaut, la localisation du cylindre défectueux ainsi que la quantification de la sévérité du défaut / This thesis deals with the diagnosis of a powerful 20-cylinder diesel engine which runs a generator set in a nuclear plant. The objective is to make a diagnosis by analyzing the crankshaft angular speed variations. Only combustion related faults are investigated. As the engine is very large, the first crankshaft natural modes are in the low frequencies. Torsional vibrations of the flexible crankshaft strongly complicate the analysis of the angular speed variations. Little attention has been paid to such large engines in the literature. First, a dynamical model with the assumption of a flexible crankshaft is established. The parameters of the model are optimized with the help of actual data. Then, an original automated diagnosis based on pattern recognition of the angular speed waveforms is proposed. Indeed, any faulty cylinder in combustion stroke will distort the angular speed waveform in a specific way which depends on its location with respect to nodes and anti-nodes of the modes. Reference patterns, representative of the engine conditions, are computed with the model constituting the main originality of this work. Promising results are obtained in operational phase. An experimental fuel leakage fault was correctly diagnosed, including detection and localization of the faulty cylinder and an indication of the severity of the fault
204

Analyse de méthodes statistiques en traitement du signal pour les tomographies acoustique et ultrasonore des arbres sur pied / Analysis of statistical methods in signal-processing for acoustic and ultrasonic tomography of standing trees

Arciniegas Mosquera, Andrés Felipe 24 November 2014 (has links)
La tomographie acoustique est une méthode d'imagerie permettant de réaliser des cartographies bidimensionnelles du plan radial-transverse des arbres en fonction de la vitesse (ou la lenteur) des ondes élastiques de basse fréquence (<20 kHz). Les images couramment obtenues avec les appareils commerciaux possèdent une résolution spatiale faible (de l'ordre de quelques centimètres) et sont parfois difficiles à interpréter. Cette résolution est limitée par l'utilisation des ondes de basse fréquence, le faible nombre de sondes et la non-prise en compte des propriétés du bois (anisotropie, hétérogénéité). À ce jour, il n'existe pas d'appareils de terrain utilisant les ultrasons, spécialement adaptés à l'imagerie des arbres sur pied. Compte-tenu des limitations évoquées, nous proposons ici deux études cherchant à améliorer la qualité des images des tomographie acoustique et ultrasonore. Dans un premier temps nous comparons des méthodes de traitement du signal pour la mesure du temps de propagation et nous en précisons des limites expérimentales de validité. L'approche développée a permis de sélectionner les méthodes de traitement du signal en caractérisant les erreurs systématiques et aléatoires induites en fonction du niveau de bruit. Dans un deuxième temps, une étude numérique de la robustesse d'algorithmes de reconstruction est proposée. Deux nouveaux algorithmes sont présentés et comparés à deux algorithmes classiques utilisés dans les appareils commerciaux. Cette comparaison est axée sur les critères liés aux contraintes expérimentales (faible nombre de sondes et mesures bruitées) et aux exigences techniques (faible temps de calcul) pour une utilisation sur le terrain. / Acoustic tomography is an imaging technique used to perform two-dimensional mappings of the radial-transverse plane of trees, based on the velocity (or the slowness) of low frequency elastic waves (<20 kHz). The images currently obtained with the commercial devices have a low spatial resolution (of the order of a few centimeters) and are difficult to interpret. These resolution is limited by the use of low frequency waves, the low number of sensors and the fact of not taking into account the properties of wood (anisotropy, heterogeneity). To date, there are no field devices using ultrasound, specially adapted for standing trees imaging. Taking into account the limitations mentioned previously, we present hereby two studies that aim to improve the quality of acoustic and ultrasonic tomography images. In the first part of this work we compare signal-processing methods for the measurement of the propagation time and we specify experimental limits of validity. The approach developed permitted to choose the signal-processing methods by characterizing their systematic and random errors associated with the noise level. In the second part of this work, a numerical study of the robustness of reconstruction algorithms is proposed. Two new reconstruction algorithms are presented and compared to two conventional algorithms used in the commercial devices. These comparison is based on the criteria related to experimental constraints (low number of sensors and noisy measurements) and technical requirements (low computation time) for use in the field.
205

De l'indexation d'évènements dans des films : application à la détection de violence / On events indexing in movies : application to violence detection

Penet, Cédric 10 October 2013 (has links)
Dans cette thèse, nous nous intéressons à la détection de concepts sémantiques dans des films "Hollywoodiens" à l'aide de concepts audio et vidéos, dans le cadre applicatif de la détection de violence. Nos travaux se portent sur deux axes : la détection de concepts audio violents, tels que les coups de feu et les explosions, puis la détection de violence, dans un premier temps uniquement fondée sur l'audio, et dans un deuxième temps fondée sur l'audio et la vidéo. Dans le cadre de la détection de concepts audio, nous mettons tout d'abord un problème de généralisation en lumière, et nous montrons que ce problème est probablement dû à une divergence statistique entre les attributs audio extraits des films. Nous proposons pour résoudre ce problème d'utiliser le concept des mots audio, de façon à réduire cette variabilité en groupant les échantillons par similarité, associé à des réseaux Bayésiens contextuels. Les résultats obtenus sont très encourageants, et une comparaison avec un état de l'art obtenu sur les même données montre que les résultats sont équivalents. Le système obtenu peut être soit très robuste vis-à-vis du seuil appliqué en utilisant la fusion précoce des attributs, soit proposer une grande variété de points de fonctionnement. Nous proposons enfin une adaptation de l'analyse factorielle développée dans le cadre de la reconnaissance du locuteur, et montrons que son intégration dans notre système améliore les résultats obtenus. Dans le cadre de la détection de violence, nous présentons la campagne d'évaluation MediaEval Affect Task 2012, dont l'objectif est de regrouper les équipes travaillant sur le sujet de la détection de violence. Nous proposons ensuite trois systèmes pour détecter la violence, deux fondés uniquement sur l'audio, le premier utilisant une description TF-IDF, et le second étant une intégration du système de détection de concepts audio dans le cadre de la détection violence, et un système multimodal utilisant l'apprentissage de structures de graphe dans des réseaux bayésiens. Les performances obtenues dans le cadre des différents systèmes, et une comparaison avec les systèmes développés dans le cadre de MediaEval, montrent que nous sommes au niveau de l'état de l'art, et révèlent la complexité de tels systèmes. / In this thesis, we focus on the detection of semantic concepts in "Hollywood" movies using audio and video concepts for the detection of violence. We present experiments in two main areas : the detection of violent audio concepts such as gunshots and explosions, and the detection of violence, initially based only on audio, then based on both audio and video. In the context of audio concepts detection, we first show a generalisation arising between movies. We show that this problem is probably due to a statistical divergence between the audio features extracted from the movies. In order to solve it, we propose to use the concept of audio words, so as to reduce the variability by grouping samples by similarity, combined with contextual Bayesian networks. The results are very encouraging, and a comparison with the state of the art obtained on the same data shows that the results we obtain are equivalent. The resulting system can be either robust against the threshold applied by using early fusion of features, or provides a wide variety of operating points. We finally propose an adaptation of the factor analysis scheme developed in the context of speaker recognition, and show that its integration into our system improves the results. In the context of the detection of violence, we present the Mediaeval Affect Task 2012 evaluation campaign, which aims at bringing together teams working on the topic of violence detection. We then propose three systems for detecting the violence. The first two are based only on audio, the first using a TF-IDF description, and the second being the integration of the previous system for the detection violence. The last system we present is a multimodal system based on Bayesian networks that allows us to explore structure learning algorithms for graphs. The performance obtained in the different systems, and a comparison to the systems developed within Mediaeval, show that we are comparable to the state of the art, and show the complexity of such systems.
206

Estimation d'incertitudes d'identification modale avec et sans entrées connues : théorie, validation, application / Uncertainty estimation of Input / Output and Output-Only modal identification : theory, validation and application

Mellinger, Philippe 16 December 2014 (has links)
La détermination des caractéristiques vibratoires est une étape cruciale lors du processus de certification d'une structure ou lors de l'évaluation de sa détérioration. Quelle que soit la technique utilisée, l'identification des modes d'une structure nécessite d'effectuer des essais de vibration. Durant ces essais, on effectue des mesures qui permettent d'observer la réponse du système à une excitation connue, partiellement connue ou inconnue. Les méthodes d'identification modale sont des méthodes globales. Elles permettent de déterminer les modes de la structure à partir d'un post-traitement des données mesurées. Certaines techniques d'identification modale, telles que les méthodes basées sur la minimisation d'erreur de modélisation ARX ou les méthodes sous-espaces, se sont fortement répandues dans le monde industriel ces quinze dernières années. Cependant, malgré ce succès, ces méthodes ne fourniront jamais les paramètres modaux exacts de la structure étudiée. En effet, à cause de nombreuses sources d'erreurs (e.g. bruits sur les capteurs, bruits environnementaux), l'identification modale à partir de données réelles ne peut mener qu'à des estimations des paramètres modaux. Une estimation est par définition entachée d'une erreur statistique, la variance. Le but de cette thèse est l'étude approfondie de l'estimation de cette erreur statistique. Le manuscrit est découpé en trois partie. La première concerne la description détaillée de deux familles d'identification modale (minimisation d'erreur de modélisation ARX et méthodes sous-espace). La seconde partie décrit le principe de l'estimation des incertitudes et fournit les chaînes de propagation des variances. La troisième partie présente une validation poussée de ces méthodes dans le but d'une utilisation opérationnelle. / Determinination of vibration characteristics is a crucial step for structure certification or health monitoring. Whatever the method, modes identification of a structure requires vibration tests. During these tests, measurements are made in order to observe responses of the system to known, partially known or unknown excitations. Modal identification methods are global methods. They allow the determination of modes from data post-treatment. Some modal identification methods, such as those based on ARX modelisation error minimisation or subspace methods, have been largely spread into the industry for about fifteen years. Despite this succes, these methods will never provide exact results. Indeed, due to numerous error sources (e.g. sensor noises, environmental noises), modal identifications based on measured data can only lead to modal parameters estimations. By definition, an estimation is subject to statistical errors, also called variances. The purpose of this thesis is to give an in-depth study of these statistical errors estimation. This document is divided in three parts. Firstly, a description of two kind of modal identification methods (ARX modelisation error minimisation and subspace methods) is given. Secondly, the uncertainty estimation principle is explained and propagation schemes of variances are given. Finally, the third part provides an in-depth validation of these methods in order to proceed to industrial utilisations.
207

Tridimensional Estimation of Turbulent Fluid Velocity / Estimation tridimensionnelle de vitesse de fluides turbulents

Barbu, Ioana 15 December 2014 (has links)
L'analyse du mouvement en 3 dimensions (3D) des fluides turbulents à évoluée vers un cadre nécessitant (i). un système de capteurs puissants (ii). le développement d'outils d'estimation de basse complexité (iii). des connaissances a priori issues de la physique du fluide. Des nouvelles techniques formulées dans ce contexte et s'appuyant sur le traitement d'images ont été proposées. Leur méthodologie repose sur la conjugaison du savoir propre à la communauté Vision par Ordinateur avec des modèles physiques de la dynamiques du fluide. Mais voilà, la plupart de ces procédures sont exprimées dans un cadre bidimensionnel (2D), dans le sens où elles reconstruisent un champ 2D à partir des deux images consécutives 2D ; dès lors, ces-dernières ne sont pas adaptées pour certains régimes du fluide. Récemment, des nouvelles contributions ont proposé l'estimation du champ 3D des fluides à partir des densités volumiques préalablement reconstruites. De plus, une amélioration de ces schémas classiques suggère un apport signifiant en netteté de la reconstruction dans un cadre joint d'estimation volume-mouvement. Motivés par ces développements, nous proposons dans cette étude une alternative au schéma joint déjà présent dans la littérature afin d'estimer la vitesse 3D des fluides à partir de plusieurs séquences synchronisées d'images 2D. Le cadre théorique de cette thèse a été présenté en connexion avec les communautés de la Vision par Ordinateur, du Traitement du Signal et de la Tomographie PIV. Notre travail peut être divisé en trois tâches majeures : (i). la formulation d'un modèle proche de la physique du système observé (ii). la conception des algorithmes de reconstruction volumique de basse complexité qui prennent en compte des particularités notables sur le système (iii). l'élaboration d'un schéma de reconstruction des champs de vitesse qui considère des scénarios bruités et la structure cohérente volumique entre deux instants. Nous évaluons les performances de nos méthodes sur des scènes réalistes représentant le signal de Tomographie PIV. / The challenge of the modern understanding of the 3D turbulent flows involves the need for (i). a reliable sensing technology (ii). the design of low-complexity estimation tools (iii). Physically-sound priors. Novel techniques relying on processing image sequences have been advanced. Their methodology relies on conjugating approaches issued from the computer vision community with physical knowledge on fluid dynamics with the intent of designing an accurate motion estimator.Most of these procedures are formalized within a bidimensional framework, i.e., they reconstruct a 2D motion field out of two consecutive 2D images, making them unsuitable for several fluid regimes with high 3D structures. Estimating the fluid motion within a 3D framework seems more pertinent. In related work, the velocity fields are most often retrieved from previously estimated volumetric densities. Recent contributions estimating the volumetric distribution with regard to the motion field that links them suggest a joint optimization approach as the appropriate modus operandi towards rigorous retrieval of turbulent fluid flow. In this thesis, we have proposed a novel joint solution to address the task of 3D fluid motion estimation out of multiple sequences of synchronized 2D images. The theoretical frame has been presented with connections to the computer vision and signal processing fields, as well as to the Tomographic PIV (tomoPIV) community. Our work can be divided into three main tasks: (i). the design of a physically sound model with respect to the nature of the visualized scene (ii). the devise of volume reconstruction algorithmic schemes with low complexity that take into account known priors on the physical signal and output a satisfying estimation within a few iterations (iii). the formalization of a velocity reconstruction scheme that accounts for noisy settings and for the linked structure between two instantaneous volume reconstructions. We evaluate the agility of our methods and highlight their performance throughout realistic numerical experiments mimicking the real-world tomoPIV signal.
208

Méthodes adaptatives d'apprentissage pour des interfaces cerveau-ordinateur basées sur les potentiels évoqués / Adaptive machine learning methods for event related potential-based brain computer interfaces

Gayraud, Nathalie 11 December 2018 (has links)
Les interfaces cerveau machine (BCI pour Brain Computer Interfaces) non invasives permettent à leur utilisateur de contrôler une machine par la pensée. Ce dernier doit porter un dispositif d'acquisition de signaux électroencéphalographiques (EEG), qui sont dotés d'un rapport signal sur bruit assez faible ; à ceci s'ajoute l’importante variabilité tant à travers les sessions d'utilisation qu’à travers les utilisateurs. Par conséquent, la calibration du BCI est souvent nécessaire avant son utilisation. Cette thèse étudie les sources de cette variabilité, dans le but d'explorer, concevoir, et implémenter des méthodes d'autocalibration. Nous étudions la variabilité des potentiels évoqués, particulièrement une composante tardive appelée P300. Nous nous penchons sur trois méthodes d’apprentissage par transfert : la Géométrie Riemannienne, le Transport Optimal, et l’apprentissage ensembliste. Nous proposons un modèle de l'EEG qui tient compte de la variabilité. Les paramètres résultants de nos analyses nous servent à calibrer ce modèle et à simuler une base de données, qui nous sert à évaluer la performance des méthodes d’apprentissage par transfert. Puis ces méthodes sont combinées et appliquées à des données expérimentales. Nous proposons une méthode de classification basée sur le Transport Optimal dont nous évaluons la performance. Ensuite, nous introduisons un marqueur de séparabilité qui nous permet de combiner Géométrie Riemannienne, Transport Optimal et apprentissage ensembliste. La combinaison de plusieurs méthodes d’apprentissage par transfert nous permet d’obtenir un classifieur qui s’affranchit des différentes sources de variabilité des signaux EEG. / Non-invasive Brain Computer Interfaces (BCIs) allow a user to control a machine using only their brain activity. The BCI system acquires electroencephalographic (EEG) signals, characterized by a low signal-to-noise ratio and an important variability both across sessions and across users. Typically, the BCI system is calibrated before each use, in a process during which the user has to perform a predefined task. This thesis studies of the sources of this variability, with the aim of exploring, designing, and implementing zero-calibration methods. We review the variability of the event related potentials (ERP), focusing mostly on a late component known as the P300. This allows us to quantify the sources of EEG signal variability. Our solution to tackle this variability is to focus on adaptive machine learning methods. We focus on three transfer learning methods: Riemannian Geometry, Optimal Transport, and Ensemble Learning. We propose a model of the EEG takes variability into account. The parameters resulting from our analyses allow us to calibrate this model in a set of simulations, which we use to evaluate the performance of the aforementioned transfer learning methods. These methods are combined and applied to experimental data. We first propose a classification method based on Optimal Transport. Then, we introduce a separability marker which we use to combine Riemannian Geometry, Optimal Transport and Ensemble Learning. Our results demonstrate that the combination of several transfer learning methods produces a classifier that efficiently handles multiple sources of EEG signal variability.
209

Système coopératif radiofréquence de positionnement latéral d'un véhicule sur la chaussée / Radiofrequency cooperative system for lateral positioning of a vehicle on the roadway

Mohsen, Ibrahim 27 April 2017 (has links)
La recherche menée durant cette thèse a comme objectif de développer un système de positionnement latéral d’un véhicule sur sa voie de circulation afin d’alerter le conducteur en cas de sortie involontaire de sa voie ou de fournir à un système de conduite autonome la position latérale du véhicule. Le système développé est basé sur une interaction de type hyperfréquence entre un module d’émission-réception embarqué dans le véhicule et des transpondeurs passifs intégrés dans la chaussée entre chaque voies de circulation. Ce système fonctionne dans la bande UHF. Les transpondeurs passifs contiennent chacun une antenne connectée à deux résonateurs à onde acoustique de surface ayant des coefficients de qualité élevés à leur fréquence de résonance. Chaque transpondeur reçoit l’onde émise par le module hyperfréquence puis la réémet en lui ajoutant une signature spécifique venant des résonateurs. Le module hyperfréquence embarqué dans le véhicule contient des antennes d’émission et de réception ainsi qu’une chaine de transmission et d’acquisition. Il fonctionne autour des deux fréquences centrales des résonateurs. Un algorithme de traitement du signal reçu permet de déterminer la distance latérale entre le véhicule et les transpondeurs en utilisant les déphasages d’arrivé du signal du transpondeur après l’avoir extrait du signal global reçu. Le système a été expérimenté en milieu extérieur et il présente une erreur d’estimation de la distance latérale d’environ 4cm. / The research carried out during this thesis aims to develop a lateral positioning system of a vehicle on its lane in order to alert the driver in case of an unintentional lane departure or to provide the lateral position of the vehicle for an autonomous driving system. The system developed is based on a hyperfrequency interaction between a transceiver module embedded in the vehicle and passive transponders integrated in the road. This system operates in the UHF band. Each passive transponder contains an antenna connected to two surface acoustic wave resonators that have a high quality coefficient at their resonant frequency. Each transponder receives the waves emitted by the hyperfrequency module and then retransmits it by adding a specific signature due to the resonators. The hyperfrequency module embedded in the vehicle contains transmitting and receiving antennas as well as a transmission and acquisition chain. It operates around the two center frequencies of the resonators. A received signal processing algorithm was devemoped to determine the lateral distance between the vehicle and the transponders by using the phase of the transponder signal after having extracted it from the received global signal. The system has been tested in an external environment and has an estimated lateral distance error of 4 cm.
210

Multi-scale computational rhythm analysis : a framework for sections, downbeats, beats, and microtiming / Analyse numérique multi-échelle du rythme musical : un cadre unifié pour les sections, premiers temps, temps et microtiming

Fuentes, Magdalena 12 November 2019 (has links)
La modélisation computationnelle du rythme a pour objet l'extraction et le traitement d’informations rythmiques à partir d’un signal audio de musique. Cela s'avère être une tâche extrêmement complexe car, pour traiter un enregistrement audio réel, il faut pouvoir gérer sa complexité acoustique et sémantique à plusieurs niveaux de représentation. Les méthodes d’analyse rythmique existantes se concentrent généralement sur l'un de ces aspects à la fois et n’exploitent pas la richesse de la structure musicale, ce qui compromet la cohérence musicale des estimations automatiques. Dans ce travail, nous proposons de nouvelles approches tirant parti des informations multi-échelles pour l'analyse automatique du rythme. Nos modèles prennent en compte des interdépendances intrinsèques aux signaux audio de musique, en permettant ainsi l’interaction entre différentes échelles de temps et en assurant la cohérence musicale entre elles. En particulier, nous effectuons une analyse systématique des systèmes de l’état de l’art pour la détection des premiers temps, ce qui nous conduit à nous tourner vers des architectures convolutionnelles et récurrentes qui exploitent la modélisation acoustique à court et long terme; nous introduisons un modèle de champ aléatoire conditionnel à saut de chaîne pour la détection des premiers temps. Ce système est conçu pour tirer parti des informations de structure musicale (c'est-à-dire des répétitions de sections musicales) dans un cadre unifié. Nous proposons également un modèle linguistique pour la détection conjointe des temps et du micro-timing dans la musique afro-latino-américaine. Nos méthodes sont systématiquement évaluées sur diverses bases de données, allant de la musique occidentale à des genres plus spécifiques culturellement, et comparés à des systèmes de l’état de l’art, ainsi qu’à des variantes plus simples. Les résultats globaux montrent que nos modèles d’estimation des premiers temps sont aussi performants que ceux de l’état de l'art, tout en étant plus cohérents sur le plan musical. De plus, notre modèle d’estimation conjointe des temps et du microtiming représente une avancée vers des systèmes plus interprétables. Les méthodes présentées ici offrent des alternatives nouvelles et plus holistiques pour l'analyse numérique du rythme, ouvrant des perspectives vers une analyse automatique plus complète de la musique. / Computational rhythm analysis deals with extracting and processing meaningful rhythmical information from musical audio. It proves to be a highly complex task, since dealing with real audio recordings requires the ability to handle its acoustic and semantic complexity at multiple levels of representation. Existing methods for rhythmic analysis typically focus on one of those levels, failing to exploit music’s rich structure and compromising the musical consistency of automatic estimations. In this work, we propose novel approaches for leveraging multi-scale information for computational rhythm analysis. Our models account for interrelated dependencies that musical audio naturally conveys, allowing the interplay between different time scales and accounting for music coherence across them. In particular, we conduct a systematic analysis of downbeat tracking systems, leading to convolutional-recurrent architectures that exploit short and long term acoustic modeling; we introduce a skip-chain conditional random field model for downbeat tracking designed to take advantage of music structure information (i.e. music sections repetitions) in a unified framework; and we propose a language model for joint tracking of beats and micro-timing in Afro-Latin American music. Our methods are systematically evaluated on a diverse group of datasets, ranging from Western music to more culturally specific genres, and compared to state-of-the-art systems and simpler variations. The overall results show that our models for downbeat tracking perform on par with the state of the art, while being more musically consistent. Moreover, our model for the joint estimation of beats and microtiming takes further steps towards more interpretable systems. The methods presented here offer novel and more holistic alternatives for computational rhythm analysis, towards a more comprehensive automatic analysis of music.

Page generated in 0.0884 seconds