Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
531 |
Collaboration entre un humain, un robot et un système ambiant pour l’évaluation de comportements / Human, robot an ambient system collaboration for behavior evaluationDumont, Emmanuel 07 May 2019 (has links)
Évaluer un comportement humain c’est évaluer tous les marqueurs traduisant ce comportement (gestes, paroles interactions, etc.). L’observation par un humain de certains marqueurs tels que les expressions faciales, la prosodie ou encore la linguistique, nécessite une formation spécialisée. Pour faciliter l’évaluation du comportement, des échelles indiquant les observations à mener et les conclusions à faire sont employées. Ainsi, automatiser l’évaluation du comportement revient à automatiser l’analyse d’un environnement par le biais de plusieurs capteurs, puis analyser les signaux obtenus afin d’en extraire les marqueurs permettant la déduction du comportement observé. Suite à la variabilité des observations de l’humain lors d’analyses trop spécifiques, de plus en plus d’études emploient ces systèmes automatiques d’observation et d’évaluation du comportement. L’objectif est d’assister l’analyse et l’évaluation humaine en exploitant des systèmes automatiques capables d’extraire des informations difficilement observables pour l’humain. En conséquence, la collaboration entre l’humain et les systèmes informatiques permet d’analyser plus d’éléments du comportement de manière fiable et objective. Cette thèse propose une approche de l’analyse du comportement s’appuyant sur la collaboration entre l’humain et un système automatique. Nous avons mis en place une plate-forme électronique et informatique composée d’un robot mobile et d’un système ambiant afin d’évaluer le comportement humain. Cette plate-forme se définie comme étant : — Modulaire à l’ajout ou le retrait de capteurs : L’ajout et la suppression de capteurs est faisable sans qu’un système ne soit impacté autrement que sur ses performances à reconnaître précisément les comportements; — Accessible à la lecture des données enregistrées : L’utilisation d’ontologies, en tant que base de données sémantiques et logiques, rend la plate-forme utilisable et accessible aux personnes non familiarisées aux systèmes informatiques complexes; — Robuste aux ambiguïtés : Chaque système de la plate-forme (ambiant ou robot) est indépendant et a sa propre représentation de l’environnement. Cependant, ils collaborent entre eux pour répondre aux incohérences ou aux manques d’informations durant l’accomplissement d’une tâche. A partir de la plate-forme présentée précédemment, nous analysons et mesurons la qualité de l’interaction entre un patient et un soignant lors d’une prise de sang réalisée en conditions habituelles. Pour cela, nous utilisons deux méthodes de renseignement des échelles : par un observateur présent lors du soin et par une étude de l’enregistrement vidéo réalisé durant le soin par la plate-forme. Nous émettons l’hypothèse que la présence d’un système automatique d’aide au diagnostic lors de l’analyse des vidéos enregistrées limite la complexité de l’évaluation du comportement et améliore l’objectivité de l’analyse. / To evaluate a human behavior is equivalent to evaluate all the markers translating this behavior (gestures, lyrics interactions, etc.). The observation by a human of certain markers such as facial expressions, prosody or linguistics, requires specialized training. To facilitate the assessment of behavior, scales indicating the observations to be made and the conclusions to be made are used. Thus, automating the evaluation of the behavior amounts to automate the analysis of an environment by means of several sensors, then analyzing the signals obtained in order to extract the markers allowing the deduction of the observed behavior. Due to the variability of human observations in overly specific analyzes, more and more studies are using thes automatic observation and behavioral evaluation systems. The objective is to assist human analysis and evaluation by exploiting automatic systems capable of extracting information that is difficult to observe for humans. As a result, the collaboration between the human and the computer systems makes it possible to analyze more elements of the behavior in a reliable and objective way. This thesis proposes an approach of behavior analysis based on the collaboration between humans and an automatic system. We set up an electronic and computer platform consisting of a mobile robot and an ambient system to evaluate human behavior. This platform is defined as: — Modular to the addition or removal of sensors: The addition and removal of sensors is feasible without a system is impacted otherwise than its performance to accurately recognize behaviors; — Accessible to Reading Recorded Data: The use of ontologies, as a semantic and logical database, makes the platform usable and accessible to people unfamiliar With complex computer systems; — Robust to ambiguities: every platform system (ambient or robot) is independent and has its own representation of the environment. However, they collaborate With each Other to respond to inconsistencies or lack of information during the performance of a task.
|
532 |
Réseau de capteurs compatible IRM pour l’imagerie cardiaque et la cartographie électrique endocavitaire / MR compatible sensor array for cardiac imaging and endocavitary electric mappingDos Reis Sánchez, Jesús Enrique 03 September 2019 (has links)
L’électrocardiogramme (ECG) permet de mesurer l’activité électrique du cœur. Il est utilisé pendant les examens d’Imagerie par Résonance Magnétique (IRM) depuis plusieurs décennies pour améliorer la surveillance des patients et synchroniser les acquisitions des images. Néanmoins, cette technique est réalisée en utilisant des dispositifs électroniques avec une bande passante faible et un nombre limité d’électrodes ne permettant pas de fournir un signal de qualité diagnostic. En effet, un ECG diagnostic nécessite une large bande passante (0.05 – 150 Hz) ainsi que 10 électrodes de mesure qui permettent d’acquérir 12 dérivations. L’IRM est caractérisée par un environnement avec un champ magnétique statique intense, des champs électromagnétiques dynamiques à haute fréquence et à basse fréquence. La conception et le développement d’un capteur ECG compatible IRM nécessite de prendre en compte cet environnement afin de réduire les risques d’échauffements du dispositif pendant les séquences d’images et réduire les perturbations sur les signaux mesurés. L’utilisation de dispositifs avec des câbles courts réduit les risques d’échauffement par effet antenne, ce qui garantit la sécurité des patients, mais l’induction de bruit sur les signaux est inévitable. Le travail de thèse a été organisé en cinq parties principales. Les deux premières parties étaient orientées sur l’étude de la littérature et la conception d’un nouveau prototype de capteur avec une large bande passante d’ECG. L’objectif était de développer un dispositif doté d’une puissance de calcul suffisante pour intégrer les algorithmes de traitement du signal développés par le laboratoire IADI, afin d’éliminer le bruit superposé aux signaux. La troisième partie a été consacrée à la construction d’un réseau de capteurs à partir de N capteurs. L’objectif était de multiplier le nombre d’électrodes de mesure pour augmenter la résolution spatiale de l’ECG et reconstruire un ECG 12 dérivations pendant l’examen IRM. La finalité de ce travail est l’imagerie ECG non invasive à partir de cartes de potentiel électrique de surface et à partir de modèles anatomiques de patients obtenus simultanément par IRM. La quatrième partie expose un nouveau procédé de correction en temps réel des signaux ECG à partir d’une acquisition à haute fréquence d’échantillonnage, sur la base du dispositif développé. La cinquième et dernière partie présente une autre application de ce capteur en salle d’électrophysiologie interventionnelle, pendant l’activation d’un système de Navigation Magnétique à distance (NMD) du cathéter, qui génère des perturbations similaires à celles observées en IRM. / The electrocardiogram (ECG) is used to measure heart electrical activity. It has been used during Magnetic Resonance Imaging (MRI) examinations for several decades to improve patient monitoring and synchronize image acquisition. Nevertheless, this technique is performed using electronic devices with a low bandwidth and a limited number of electrodes that do not provide a diagnostic signal quality. Indeed, a diagnostic ECG requires a wide bandwidth (0.05 - 150 Hz) and 10 measuring electrodes that allow 12 leads to be acquired. MRI is characterized by an environment with an intense static magnetic field, high frequency and low frequency dynamic electromagnetic fields. The design and development of an MRI-compatible ECG sensor needs to take into account this environment to reduce the risk of overheating of the device during image sequences and to reduce disturbances on the measured signals. The use of devices with short cables reduces the risk of overheating by antenna effect, which ensures patient safety, but the induction of noise on the signals is inevitable. This thesis is organized in five parts. The first two parts were oriented towards the study of the literature and the design of a new sensor prototype with a broad bandwidth of ECG. The objective was to develop a device with sufficient computing power to integrate the signal processing algorithms developed by the IADI laboratory, to eliminate the noise superimposed on the signals. The third part was dedicated to the construction of a sensor network from N sensors. The goal was to multiply the number of measurement electrodes to increase the spatial resolution of the ECG and reconstruct a 12-lead ECG during MRI examination. The purpose of this work is noninvasive ECG imaging from surface electrical potential maps and from anatomical models of patients obtained simultaneously by MRI. The fourth part presents a new method of real-time correction of ECG signals from a high frequency sampling acquisition, based on the device developed. The fifth and last part presents another application of this sensor in the interventional electrophysiology room, during the activation of a Magnetic Navigation System of the catheter, which generates disturbances similar to those observed in MRI.
|
533 |
Méthodes statistiques utilisant des simulations hydrodynamiques d'atmosphères stellaires pour détecter des exoplanètes en vitesse radiale / Statistical methods using hydrodynamic simulations of stellar atmospheres for detecting exoplanets in radial velocity dataSulis, Sophia 02 October 2017 (has links)
Considérant une série temporelle affectée par un bruit coloré dont les propriétés statistiques sont inconnues, la difficulté pour la détection de signaux périodiques est de contrôler le degré de confiance avec lequel les tests de détection rejettent l'hypothèse nulle en faveur de l'hypothèse alternative. L'objectif de cette thèse est de développer une nouvelle méthode utilisant des séries temporelles simulées du bruit pour améliorer ce contrôle. Dans le cas d'un échantillonnage régulier, nous avons analysé les performances de différents tests de détection appliqués à un périodogramme standardisé par le spectre simulé du bruit. La standardisation proposée entraîne, dans la majorité des cas, des tests de détection puissants dont les taux de fausses alarmes sont constants. Grâce au développement des distributions asymptotiques de ce périodogramme, nous avons déterminé des expressions analytiques pour les probabilités de fausses alarmes (PFA) et de détections de différents tests. Dans le cas d'un échantillonnage irrégulier, nous montrons qu'il est possible de combiner la standardisation proposée du périodogramme avec des techniques de bootstrap pour contrôler la PFA de manière fiable. La procédure peut être optimisée en utilisant les valeurs extrêmes généralisées. Cette étude a été appliquée au cas de la détection de planètes extrasolaires par la méthode des vitesses radiales dont l'une des principales barrières pour détecter des planètes de masse terrestre vient de l'activité de l'étoile hôte, notamment la convection de surface. Le travail effectué dans cette thèse a porté sur la contribution de simulations hydrodynamiques du bruit convectif dans le processus de détection. / Considering a time series affected by a colored noise of unknown statistics, a difficulty for periodic signal detection is to control the true significance level at which the detection tests are conducted. The objective of this thesis is to develop a new method using training datasets of the noise to improve this control. For the case of regularly sampled observations, we analyze the performances of various detectors applied to periodograms standardized using the noise training datasets. The proposed standardization leads, in some cases, to powerful constant false alarm rate tests. Thanks to the development of the asymptotical distribution of the standardized periodogram, we derive analytical expressions for the false alarm and detection rates of several tests. In the case of irregular sampling, we show that it is possible to combine the proposed periodogram standardization and bootstrap techniques to consistently estimate the false alarm rate. We also show that the procedure can be improved by using generalized extreme value distributions. This study has been applied to the case of extrasolar planet detection in radial velocity (RV) data. The main barrier to detect Earth-mass planets comes from the host star activity, as the convection at the stellar surface. This work investigates the possibility of using hydrodynamic simulations of the stellar convection in the detection process to control exoplanet detection claims.
|
534 |
Diffusion acoustique vers l'avant d'objets élastiques immergés dans l'eau / Forward acoustic scattering from elastic objects immersed in waterSoubsol, David 04 October 2018 (has links)
L’étude de la diffusion acoustique pour des objets sphériques et de forme LINE (cylindre terminé à chacune de ses extrémités par une calotte hémisphérique) pleins et immergés dans l’eau en configuration bistatique est l’objet de ce mémoire. Une attention particulière est portée à la diffusion vers l’avant par ces objets. L’analyse en configuration bistatique est effectuée dans un premier temps pour un objet sphérique pour lequel une théorie analytique a déjà été développée. Les tracés des diagrammes angulaires expérimentaux et théoriques (à plusieurs fréquences données) montrent l’existence d’un lobe de forte amplitude localisé en zone d’ombre. Une analyse temporelle est menée, pour la sphère pleine, précisément dans la zone d’ombre où deux échos majeurs, révélateurs d’au moins deux types d’ondes, sont isolés. Les ondes principalement responsables de ces échos sont ensuite identifiées, en comparant les résultats expérimentaux obtenus et les calculs théoriques, comme étant d’une part une onde de Franz F0, et d’autre part une onde de Galerie à échos l=2. Leurs vitesses de propagation sur le solide sont calculées par le biais des seules données expérimentales. En considérant une LINE pleine excitée axialement, sur sa partie sphérique, il est intéressant de noter que les mécanismes physiques à l’origine de la génération des ondes sont les mêmes que pour une sphère pleine. Il est donc possible de retrouver dans le cas de la LINE pleine excitée axialement les mêmes types d’ondes se propageant que pour la sphère pleine. D’autres ondes sont ensuite identifiées (principalement dues à des réflexions parasites et à la discontinuité cylindre/hémisphère de la LINE). Enfin, la caractérisation de la LINE à l’aide d’un modèle numérique en tant que cible acoustique est effectuée, d’une part avec le critère d’index de cible, et d’autre part avec un critère Rsn. Ce dernier critère nous permet notamment de mesurer les contributions résonantes de l’objet et d’établir une cartographie des contributions résonantes. / Forward acoustic scattering for solid spherical and LINE (limited cylinder bounded by hemispherical endcaps) objects immersed in water in bistatic configuration is the topic of this study. First, bistatic configuration analysis is carried out for a spherical object whose analytical theory has already been developped. Experimental and theoretical angular diagrams show, for differents frequencies, a peak of strong amplitude located in the shadow area. After the temporal analysis for a solid sphere in the shadow area, two important echoes revealing at least two different kind of waves are isolated. Then, the waves mainly responsible for these echoes are then identified comparing experimental results and theretical calculations. These are the Franz wave F0 and the whispering gallery wave l=2. Their propagation velocities on the object are calculated experimentally. Considering a solid LINE excited axially, on its spherical part, it is interesting to note that the physical mechanisms responsible for the wave generation are the same than for a solid sphere. It is then possible to find for a axially excited solid LINE the same kind of waves than for a solid sphere. Others waves are then identified (mainly caused by parasite difraction and by the cylinder/hemispherical discontinuity of the LINE). At last, the caracterization of the LINE as an acoustic target by the mean of a numerical simulation is performed, first with the target strenght standard, and then with the Rsn criterion. This last number allow us to assess the resonating contributions of the object and then to establish a map of resonance contributions.
|
535 |
Implémentation optimale de filtres linéaires en arithmétique virgule fixe / Optimal implementation of linear filters in fixed-point arithmeticLopez, Benoit 27 November 2014 (has links)
De nombreux systèmes embarqués implémentent des applications de traitement du signal, notamment lors de communications. Certains de ces traitements sont effectués par des filtres linéaires, qu'il est donc nécessaire de mettre en oeuvre numériquement sur ces cibles. Les systèmes embarqués sont sujets à diverses contraintes qu'il faut optimiser tout en conservant des systèmes fiables en terme de performance et de précision. L'arithmétique virgule fixe est généralement préférée à l'arithmétique flottante pour des systèmes embarqués de traitement du signal, entre autres car elle est moins coûteuse, disponibles dans tous les systèmes, permet d'utiliser des largeurs arbitraires sur des cibles matérielles et est généralement suffisante en terme de précision pour les applications de traitement du signal. Le calcul en virgule fixe nécessite d'aligner les positions des virgules pour ainsi rendre cohérent des calculs à base de nombres entiers. Cela implique des quantifications et l'enjeu est donc de minimiser la répercussion de ces arrondis sur le résultat final, en proposant une garantie sur l'erreur sur la sortie. Une méthodologie a été proposée durant cette thèse qui, à partir d'un algorithme de filtre linéaire, utilise une méthode analytique pour implémenter cet algorithme en virgule fixe et générer du code. Cette méthodologie considère à la fois les implémentations logicielles, et les implémentations matérielles qui impliquent la résolution d'un problème d'optimisation. Un outil, nommé FiPoGen, a été développé pour mettre en oeuvre les méthodes proposées et fournir automatiquement un code virgule fixe implémentant un filtre donné avec garantie sur l'erreur sur la sortie. / Embedded systems implement signal processing systems, such as linear filters, for example for communication through networks. These devices are subject to various constraints, such as power consumption, time-To-Market, area consumption, and so on, that is necessary to optimize while guaranteeing reliability and accuracy of the implemented systems. Fixed-Point arithmetic is generally used instead of floating-Point arithmetic for signal processing embedded systems because it is less expensive, all devices support fixed-Point numbers (as they are implemented only using integers), allows arbitrary word-Lengths in hardware implementation and is enough accurate for signal processing programs. Fixed-Point computations need the operands of an operation to be aligned together with the same position of the binary point. This leads to quantification errors and the goal is to minimize these round-Off effects onto the final result, by proposing a guarantee on the output error. During this thesis, a methodology has been proposed which implements a given algorithm in fixed-Point using analytical approach, and generates some codes. This methodology consider both software and hardware targets. The hardware approach is realized solving a word-Length optimization problem. A tool, named FiPoGen, has been developed that realizes this methodology and automatically yields fixed-Point code corresponding to a given filter algorithm with a guarantee on the output error.
|
536 |
On temporal coherency of probabilistic models for audio-to-score alignment / Modèles probabilistes temporellement cohérents pour l'alignement audio-sur-partitionCuvillier, Philippe 15 December 2016 (has links)
Cette thèse porte sur l'alignement automatique d'un enregistrement audio avec la partition de musique correspondante. Nous adoptons une approche probabiliste et proposons une démarche théorique pour la modélisation algorithmique de ce problème d'alignement automatique. La question est de modéliser l'évolution temporelle des événements par des processus stochastiques. Notre démarche part d'une spécificité de l'alignement musical : une partition attribue à chaque événement une durée nominale, qui est une information a priori sur la durée probable d'occurrence de l'événement. La problématique qui nous occupe est celle de la modélisation probabiliste de cette information de durée. Nous définissons la notion de cohérence temporelle à travers plusieurs critères de cohérence que devrait respecter tout algorithme d'alignement musical. Ensuite, nous menons une démarche axiomatique autour du cas des modèles de semi-Markov cachés. Nous démontrons que ces critères sont respectés lorsque des conditions mathématiques particulières sont vérifiées par les lois a priori du modèle probabiliste de la partition. Ces conditions proviennent de deux domaines mathématiques jusqu'ici étrangers à la question de l'alignement : les processus de Lévy et la totale positivité d'ordre deux. De nouveaux résultats théoriques sont démontrés sur l'interrelation entre ces deux notions. En outre, les bienfaits pratiques de ces résultats théoriques sont démontrés expérimentalement sur des algorithmes d'alignement en temps réel. / This thesis deals with automatic alignment of audio recordings with corresponding music scores. We study algorithmic solutions for this problem in the framework of probabilistic models which represent hidden evolution on the music score as stochastic process. We begin this work by investigating theoretical foundations of the design of such models. To do so, we undertake an axiomatic approach which is based on an application peculiarity: music scores provide nominal duration for each event, which is a hint for the actual and unknown duration. Thus, modeling this specific temporal structure through stochastic processes is our main problematic. We define temporal coherency as compliance with such prior information and refine this abstract notion by stating two criteria of coherency. Focusing on hidden semi-Markov models, we demonstrate that coherency is guaranteed by specific mathematical conditions on the probabilistic design and that fulfilling these prescriptions significantly improves precision of alignment algorithms. Such conditions are derived by combining two fields of mathematics, Lévy processes and total positivity of order 2. This is why the second part of this work is a theoretical investigation which extends existing results in the related literature.
|
537 |
Techniques d'estimation de paramètres pour la localisation à l'intérieur via WiFi / Parameter estimation techniques for indoor localisation via WiFiBazzi, Ahmad 23 October 2017 (has links)
Dans un environnement intérieur, le problème de l'extraction du composant l'Angle de Arrivée de la Line-of-Sight entre un émetteur et un récepteur Wi-Fi utilisant un lien SIMO est la principale préoccupation de cette thèse. Un des principaux défis à relever est dû au riche canal multipath que les environnements intérieurs apprécient. C'est ainsi parce que multipath résulte du fait que le canal de propagation se compose de plusieurs obstacles et réflecteurs. Ainsi, le signal reçu arrive comme un ensemble imprévisible de réflexions et / ou d'ondes directes avec son degré d'atténuation et de retard. D'autres défis sont la limitation des ressources, telles que le nombre d'antennes, la bande passante disponible et le rapport Signal / Bruit; sans parler des «imperfections» Wi-Fi, telles que les disparités de gain / phase entre les antennes et les problèmes de synchronisation entre l'émetteur et le récepteur. Dans cette thèse, notre objectif principal est de mettre en place un système en temps réel qui pourrait mesurer l'angle entre un émetteur et un récepteur en présence de tous les défis. En particulier, nous avons pris en compte tous les facteurs qui perturbent le problème d'estimation de l'angle articulaire et du délai et formulé un modèle de système en conséquence. Ces facteurs sont les suivants: Sampling Frequency offset (SFO), Carrier Frequency Offset (CFO), et Phase/Delay offsets à chaque antenne. Pour compenser l'efficacité de ces facteurs critiques, nous proposons une méthode d'étalonnage optimale pour compenser tous leurs effets. Cette thèse comprendra également d'autres méthodes théoriques qui doivent faire face au problème d'estimation de l'angle d'arrivée, à partir du point de vue de la compression et du traitement du signal. / In an indoor environment, the problem of extracting the Angle-of-Arrival of the Line-of-Sight component between a transmitter and Wi-Fi receiver using a SIMO link is the main concern of this thesis. One main challenge in doing so is due to the rich multipath channel that indoor environments enjoy. This is so because multipath results from the fact that the propagation channel consists of several obstacles and reflectors. Thus, the received signal arrives as an unpredictable set of reflections and/or direct waves each with its own degree of attenuation and delay. Other challenges are limitation of resources, such as number of antennas, available bandwidth, and Signal-to-Noise-Ratio; not to mention the Wi-Fi ”imperfections”, such as gain/phase mismatches between antennas and synchronisation issues between transmitter and receiver. In this thesis, our main focus is implementing a real-time system that could measure the angle between a transmitter and receiver in the presence of all challenges. In particular, we have taken into account all factors that perturb the Joint Angle and Delay estimation problem and formulated a system model accordingly. These factors are: Sampling Frequency offset (SFO), Carrier Frequency Offset (CFO), Phase and Delay offsets at each antenna. To compensate for the effect of these critical factors, we propose an offline calibration method to compensate for all their effects. This thesis will also include other theoretical methods that have to deal with Angle-of-Arrival Estimation problem from compressed sensing and signal processing point of views.
|
538 |
Vers des interfaces cérébrales adaptées aux utilisateurs : interaction robuste et apprentissage statistique basé sur la géométrie riemannienne / Toward user-adapted brain computer interfaces : robust interaction and machine learning based on riemannian geometryKalunga, Emmanuel 30 August 2017 (has links)
Au cours des deux dernières décennies, l'intérêt porté aux interfaces cérébrales ou Brain Computer Interfaces (BCI) s’est considérablement accru, avec un nombre croissant de laboratoires de recherche travaillant sur le sujet. Depuis le projet Brain Computer Interface, où la BCI a été présentée à des fins de réadaptation et d'assistance, l'utilisation de la BCI a été étendue à d'autres applications telles que le neurofeedback et l’industrie du jeux vidéo. Ce progrès a été réalisé grâce à une meilleure compréhension de l'électroencéphalographie (EEG), une amélioration des systèmes d’enregistrement du EEG, et une augmentation de puissance de calcul.Malgré son potentiel, la technologie de la BCI n’est pas encore mature et ne peut être utilisé en dehors des laboratoires. Il y a un tas de défis qui doivent être surmontés avant que les systèmes BCI puissent être utilisés à leur plein potentiel. Ce travail porte sur des aspects importants de ces défis, à savoir la spécificité des systèmes BCI aux capacités physiques des utilisateurs, la robustesse de la représentation et de l'apprentissage du EEG, ainsi que la suffisance des données d’entrainement. L'objectif est de fournir un système BCI qui peut s’adapter aux utilisateurs en fonction de leurs capacités physiques et des variabilités dans les signaux du cerveau enregistrés.À ces fins, deux voies principales sont explorées : la première, qui peut être considérée comme un ajustement de haut niveau, est un changement de paradigmes BCI. Elle porte sur la création de nouveaux paradigmes qui peuvent augmenter les performances de la BCI, alléger l'inconfort de l'utilisation de ces systèmes, et s’adapter aux besoins des utilisateurs. La deuxième voie, considérée comme une solution de bas niveau, porte sur l’amélioration des techniques de traitement du signal et d’apprentissage statistique pour améliorer la qualité du signal EEG, la reconnaissance des formes, ainsi que la tache de classification.D'une part, une nouvelle méthodologie dans le contexte de la robotique d'assistance est définie : il s’agit d’une approche hybride où une interface physique est complémentée par une interface cérébrale pour une interaction homme-machine plus fluide. Ce système hybride utilise les capacités motrices résiduelles des utilisateurs et offre la BCI comme un choix optionnel : l'utilisateur choisit quand utiliser la BCI et peut alterner entre les interfaces cérébrales et musculaire selon le besoin.D'autre part, pour l’amélioration des techniques de traitement du signal et d'apprentissage statistique, ce travail utilise un cadre Riemannien. Un frein majeur dans le domaine de la BCI est la faible résolution spatiale du EEG. Ce problème est dû à l'effet de conductance des os du crâne qui agissent comme un filtre passe-bas non linéaire, en mélangeant les signaux de différentes sources du cerveau et réduisant ainsi le rapport signal-à-bruit. Par conséquent, les méthodes de filtrage spatial ont été développées ou adaptées. La plupart d'entre elles – à savoir la Common Spatial Pattern (CSP), la xDAWN et la Canonical Correlation Analysis (CCA) – sont basées sur des estimations de matrice de covariance. Les matrices de covariance sont essentielles dans la représentation d’information contenue dans le signal EEG et constituent un élément important dans leur classification. Dans la plupart des algorithmes d'apprentissage statistique existants, les matrices de covariance sont traitées comme des éléments de l'espace euclidien. Cependant, étant symétrique et défini positive (SDP), les matrices de covariance sont situées dans un espace courbe qui est identifié comme une variété riemannienne. Utiliser les matrices de covariance comme caractéristique pour la classification des signaux EEG, et les manipuler avec les outils fournis par la géométrie de Riemann, fournit un cadre solide pour la représentation et l'apprentissage du EEG. / In the last two decades, interest in Brain-Computer Interfaces (BCI) has tremendously grown, with a number of research laboratories working on the topic. Since the Brain-Computer Interface Project of Vidal in 1973, where BCI was introduced for rehabilitative and assistive purposes, the use of BCI has been extended to more applications such as neurofeedback and entertainment. The credit of this progress should be granted to an improved understanding of electroencephalography (EEG), an improvement in its measurement techniques, and increased computational power.Despite the opportunities and potential of Brain-Computer Interface, the technology has yet to reach maturity and be used out of laboratories. There are several challenges that need to be addresses before BCI systems can be used to their full potential. This work examines in depth some of these challenges, namely the specificity of BCI systems to users physical abilities, the robustness of EEG representation and machine learning, and the adequacy of training data. The aim is to provide a BCI system that can adapt to individual users in terms of their physical abilities/disabilities, and variability in recorded brain signals.To this end, two main avenues are explored: the first, which can be regarded as a high-level adjustment, is a change in BCI paradigms. It is about creating new paradigms that increase their performance, ease the discomfort of using BCI systems, and adapt to the user’s needs. The second avenue, regarded as a low-level solution, is the refinement of signal processing and machine learning techniques to enhance the EEG signal quality, pattern recognition and classification.On the one hand, a new methodology in the context of assistive robotics is defined: it is a hybrid approach where a physical interface is complemented by a Brain-Computer Interface (BCI) for human machine interaction. This hybrid system makes use of users residual motor abilities and offers BCI as an optional choice: the user can choose when to rely on BCI and could alternate between the muscular- and brain-mediated interface at the appropriate time.On the other hand, for the refinement of signal processing and machine learning techniques, this work uses a Riemannian framework. A major limitation in this filed is the EEG poor spatial resolution. This limitation is due to the volume conductance effect, as the skull bones act as a non-linear low pass filter, mixing the brain source signals and thus reducing the signal-to-noise ratio. Consequently, spatial filtering methods have been developed or adapted. Most of them (i.e. Common Spatial Pattern, xDAWN, and Canonical Correlation Analysis) are based on covariance matrix estimations. The covariance matrices are key in the representation of information contained in the EEG signal and constitute an important feature in their classification. In most of the existing machine learning algorithms, covariance matrices are treated as elements of the Euclidean space. However, being Symmetric and Positive-Definite (SPD), covariance matrices lie on a curved space that is identified as a Riemannian manifold. Using covariance matrices as features for classification of EEG signals and handling them with the tools provided by Riemannian geometry provide a robust framework for EEG representation and learning.
|
539 |
Communications multi-utilisateurs dans les réseaux d’accès radio centralisés : architecture, coordination et optimisation / Multi-user Communication in Cloud Radio Access Network : Architecture, Coordination and OptimizationBoviz, Dora 19 June 2017 (has links)
Dans les réseaux mobiles du future, un déploiement plus dense des points d’accés radio est prévu pour satisfaire la demande accrue de débit, mais les terminaux utilisateurs peuvent être affectés par une interférence inter-cellulaire plus forte. Par chance, la centralisation des traitements de signal en bande de base dans l’achitecture Cloud RAN (C-RAN) offre la possibilité de la coordination et du traitement conjoint de plusieurs cellules. Pour réellement permettre de déployer ces techniques, une étude bout-à-bout du CRAN est nécessaire selon plusieurs aspects, notamment l’architecture fonctionnelle, la stratégie de coordination, l’implémentation du traitement de signal multiutilisateur et les optimisations possibles pour un fonctionnement plus efficace.Dans cette thèse, nous proposons en premier une architecture qui définit le placement des fonctions du traitement en bande de base entre les unités distribuées et le serveur central. Le but de ce design est de permettre la réalisation des fonctions multi-utilisateurs en transmettant avec la moins de débit possible sur les liens de fronthaul reliant les différentes entités. Dans un second temps, nous présentons comment il est possible de coordiner les différentes cellules servies par le C-RAN en utilisant le concept de réseaux définis par logiciels adapté pour les réseaux d’accès radio. Nous avons mis en place un prototype démontrant la faisabilité de la méthode de contrôle proposée. Finalement, nous étudions l’allocation adaptative du débit sur les liens de fronthaul transportant les symboles numériques quantifiés des utilisateurs en besoin de traitement multi-cellulaire sur la voie montante pour exploiter l’interférence entre eux. Nous proposons un modèle d’optimisation qui inclut le coût des transmissions fronthaul pour maximiser ainsi le gain obtenu par l’opérateur du réseau où la communication multiutilisateur a lieu. Nous réalisons l’optimisation pour différents modèles de coût et en utilisants deux types de données: d’abord les estimations de canal supposées parfaites et disponibles en temps réel, puis seulement les statistiques du canal. Nous montrons que la méthode d’optimisation proposée permet d’exploiter plus efficacement les liens de fronthaul dans l’architecture précedemment définie. / In future mobile networks denser deployment of radio access points is planned to satisfy demand of higher throughput, but an increased number of mobile users can suffer from inter-cell interference. Fortunately, the centralization of base-band processing offered by Cloud Radio Access Network (C-RAN) architecture enables coordination and joint physical layer processing between cells. To make practical deployment of these techniques possible, we have to study C-RAN in an end-to-end view regarding several aspects: the functional architecture of a deployment, the multi-cell coordination strategy, the implementation of multi-user signal processing and possibilities for optimization to increase operational efficiency.In this thesis, first, we propose an architecture defining the placement of base-band processing functions between the distributed remote units and the central processing unit. The aim of this design is to enable multi-cell processing both on the uplink and the downlink while requiring low data rate between the involved entities. Secondly, we study how low latency coordination can be realized inside the central unit using software defined networking adapted to radio access networks. Our demonstration through a real-time prototype deployment shows the feasibility of the proposed control framework. Finally, we investigate adaptive allocation of fronthaul rate that is used for transferring quantized base-band symbols for users participating in uplink multi-cell reception in order to exploit interference between them. We propose an optimization model that includes the cost of fronthaul tranmissions and aims to maximize the gain of network operators from multi-user transmissions in C-RAN. We solve the optimization problem for different fronthaul pricing models, in a scenario where real-time and accurate channel estimates are available and in another where only channel statistics are exploited. Using our method - fitting in the architecture that we have defined - cost efficiency of fronthaul usage can be significantly improved.
|
540 |
Développement d’un système SHM pour aéronef par ondes élastiques guidées / Development of a SHM system by elastic guided waves applied to aeronautic structuresKulakovskyi, Andrii 27 May 2019 (has links)
Un système SHM par ondes guidées a pour but d'évaluer l'intégrité d'une grande variété de structures fines, telles que les fuselages d'avions, les tuyaux, les réservoirs, etc. Un tel système est basé sur un réseau de capteurs piézoélectriques pour l'excitation et la mesure des ondes guidées. Cette méthode de SHM par ondes guidées est prometteuse pour l'inspection de structures de grande taille, ces ondes se propageant sur de grandes distances avec peu d'atténuation, tout en étant sensibles aux défauts surfaciques et subsurfaciques.Cette thèse présente les travaux menés dans le but de développer un système de SHM par ondes guidées capable de détecter, localiser et dimensionner efficacement les défauts dans des structures aéronautiques assimilables à des plaques, en matériaux composites ou en aluminium. Des simulations et des méthodes d'apprentissage sont utilisées pour déterminer les caractéristiques principales des ondes guidées propagées, notamment les vitesses de phase et de groupe ainsi que la fonction de Green 3D. Celles-ci sont ensuite utilisées pour traiter les signaux des ondes guidées afin de produire des images représentant l'intégrité des structures étudiées. Ce travail comprend également une étude approfondie des algorithmes d'imagerie DAS, MV et Excitelet, les plus prometteurs parmi ceux de la littérature, une évaluation de leurs performances par analyse statistique sur une grande base de données de résultats de simulations d'imagerie par ondes guidées et propose une méthode d'imagerie parcimonieuse.Alors que la détection et la localisation des défauts à partir de l'analyse des images est aisée, le dimensionnement du défaut est un problème plus complexe en raison de sa forte dimensionnalité et de sa non-linéarité. Il est démontré que ce problème peut être résolu par des méthodes d'apprentissage automatique sur une grande base de données de résultats de simulations d'imagerie par ondes guidées. Ces méthodes d'imagerie nécessitent cependant une référence, mesurée sur la structure dans un état supposé sain. Elles sont efficaces dans des conditions opérationnelles stationnaires mais sont sensibles aux variations de l'environnement et notamment aux fluctuations de température.Ce travail présente donc l'étude de la robustesse face aux effets thermiques des méthodes d'imagerie par ondes guidées et propose un modèle de détection de défauts capable d'analyser des résultats d'imagerie détériorés. Plusieurs techniques de compensation des effets thermiques sont étudiées et des améliorations sont proposées. Leur efficacité est validée pour les plaques d'aluminium mais des améliorations supplémentaires sont nécessaires pour les étendre aux plaques de composites. / A guided wave-based structural health monitoring (SHM) system aims at determining the integrity of a wide variety of plate-like structures, including aircraft fuselages, pipes, tanks etc. It relies on a sparse array of piezoelectric transducers for guided waves (GWs) excitation and sensing. With a number of benefits, these waves are standing out among other methods as a promising method for the inspection of large structures. They can propagate on significant distances with small attenuation while being sensitive to surface and subsurface defects.This thesis presents studies conducted with the purpose of developing such a GWs-based SHM system that is capable of efficient defect detection, localization and sizing aeronautical plate-like structures made of aluminum and composite materials. Simulation and data-driven approaches are presented for determining principal characteristics of propagating GWs, namely modal group and phase velocities, 3D Green's functions etc. in structures of interest. They are then used for GWs signals processing in order to compute images representing the integrity of studied structures. This work also provides a comprehensive overview of DAS, MV and Excitelet defect imaging algorithms, determines their performance using statistical analysis of an extensive dataset of simulated guided waves imaging (GWI) results and proposes a method for sparse defect imaging.While defect detection and localization are straightforward from the image analysis, the defect sizing is a more complex problem due to its high dimensionality and non-linearity. It is demonstrated that this problem can be solved by means of machine learning methods, relying on an extensive database of simulated GWI results. Aforementioned defect imaging methods are baseline demanding. They are efficient under stationary operational conditions but vulnerable to environmental variations, especially to the temperature fluctuation.Finally, this work presents studies on the robustness of GWI methods against thermal effects, and a defect detection model capable of analyzing deteriorated GWI results is proposed. Different techniques for thermal effects compensation are reviewed, and improvements are proposed. Their effectiveness is validated for aluminum plates but further improvements are required to translate these techniques to composite plates.
|
Page generated in 0.0736 seconds