Spelling suggestions: "subject:"acquisition comprimé."" "subject:"acquisition comprimés.""
1 |
Systèmes de localisation en temps réel basés sur les réseaux de communication sans filAbid, Mohamed Amine January 2016 (has links)
Des techniques fiables de radiolocalisation s’avèrent indispensables au développement d’un grand nombre de nouveaux systèmes pertinents. Les techniques de localisation basées sur les réseaux de communication sans-fil (WNs) sont particulièrement adéquates aux espaces confinés et fortement urbanisés. Le présent projet de recherche s’intéresse aux systèmes de localisation en temps réel (RTLS) basés sur les technologies de communication sans-fil existantes. Deux nouvelles techniques de radiolocalisation alternatives sont proposées pour améliorer la précision de positionnement des nœuds sans-fil mobiles par rapport aux méthodes conventionnelles basées sur la puissance des signaux reçus (RSS). La première méthode de type géométrique propose une nouvelle métrique de compensation entre les puissances de signaux reçus par rapport à des paires de stations réceptrices fixes. L’avantage de cette technique est de réduire l’effet des variations du milieu de propagation et des puissances d’émission des signaux sur la précision de localisation. La même métrique est sélectionnée pour former les signatures utilisées pour créer la carte radio de l’environnement de localisation durant la phase hors-ligne dans la deuxième méthode de type analyse de situation. Durant la phase de localisation en temps réel, la technique d’acquisition comprimée (CS) est appliquée pour retrouver les positions des nœuds mobiles à partir d’un nombre réduit d’échantillons de signaux reçus en les comparant à la carte radio préétablie. Le calcul d’algèbre multilinéaire proposé dans ce travail permet l’utilisation de ce type de métrique ternaire, équivalemment la différence des temps d’arrivée (TDOA), pour calculer les positions des cibles selon la technique de CS. Les deux méthodes sont ensuite validées par des simulations et des expérimentations effectuées dans des environnements à deux et à trois dimensions. Les expériences ont été menées dans un bâtiment multi-étages (MFB) en utilisant l’infrastructure sans-fil existante pour retrouver conjointement la position et l’étage des cibles en utilisant les techniques proposées. Un exemple emblématique de l’application des RTLS dans les zones urbaines est celui des systèmes de transport intelligents (ITS) pour améliorer la sécurité routière. Ce projet s’intéresse également à la performance d’une application de sécurité des piétons au niveau des intersections routières. L’accomplissement d’un tel système repose sur l’échange fiable, sous des contraintes temporelles sévères, des données de positionnement géographique entre nœuds mobiles pour se tenir mutuellement informés de leurs présences et positions afin de prévenir les risques de collision. Ce projet mène une étude comparative entre deux architectures d’un système ITS permettant la communication entre piétons et véhicules, directement et via une unité de l’infrastructure, conformément aux standards de communication dans les réseaux ad hoc véhiculaires (VANETs).
|
2 |
Gaussian geometry and tools for compressed sensing / Méthodes gaussiennes et application à l'acquisition compriméeMourareau, Stéphane 24 June 2016 (has links)
Cette thèse s'inscrit dans le cadre de l'analyse statistique en grande dimension. Plus précisé- ment, l'objet de cette thèse est d'étudier la possible application d'outils issus de la théorie des processus Gaussiens afin de redémontrer certaines propriétés des matrices à entrées Gaussiennes et d'étendre certaines procédures de test du modèle linéaire Gaussien standard. Dans la première partie, nous nous concentrons sur les matrices Gaussiennes. Notre objectif est de démontrer, via des formules du type Kac-Rice, qu'une telle matrice satisfait, avec très grande probabilité, la Null Space Property (NSP) et la Propriété d'Isométrie Restreinte (RIP). De plus, nous déduisons des transitions de phases dépendant des paramètres classiques de la régression parcimonieuse, à savoir le nombre d'observations, le nombre de prédicteurs et le degré de sparsité. Dans la seconde partie, nous traitons le cas du test de nullité globale des paramètres pour le modèle linéaire Gaussien, afin de l'appliquer au cas de la sélection de modèle. Dans ces travaux, qui s'inscrivent dans la continuité de Taylor, Loftus et Tibshirani, nous proposons un test non conditionnel pour l'hypothèse de nullité globale dans le cadre du lasso et discutons autour de sa puissance. De plus, nous généralisons ces résultats aux processus Gaussiens, pour inclure, par exemple, la cas de la super-résolution. Dans une troisième partie, nous présentons quelques applications de la formule de Rice visantà calculer la fonction de répartition du maximum d'un processus Gaussien afin d'en déduire une version numériquement implémentable. Dans un deuxième temps, nous discutons de l'efficacité ou non de certaines approximations classiques pour la fonction de répartition du maximum. Enfin, nous étudions le comportement asymptotique du nombre de franchissements d'un niveau donné u sur un intervalle de temps [0,T] pour un processus Gaussien dérivable. / This thesis fallin within the context of high-dimensional data analysis. More specificaly, the purpose is to study the possible application of some Gaussian tools to prove classical results on matrices with Gaussian entries and to extend existing test procedures for Gaussian linear models. In a first part, we focus on Gaussian matrices. Our aim is to prove, using a Kac-Rice formula on Gaussian processes, that such a matrice satisfies, with overwhelming probability, the Null Space Property (NSP) and the Restricted Isometry Property (RIP). Moreover, we derive phase transition graphs depending on the classical parameters of sparse regression, namely the number of observations, the number of predictors and the level of sparsity. In a second part, we deal with global null testing for Gaussian linear models, with application to Compressed Sensing. Following recent works of Taylor, Loftus and Tibshirani, we purpose a test for global null hypothesis in the lasso case and discuss about its power. Furthermore, we generalize these method to Gaussian processes, to include, for instance, the super-resolution case. In a third part, we present some applications of Rice formula to compute the cumulative distribution function of the maximum of a Gaussian process and derive corresponding numerical routines to investigate the efficiency of classical approximations. Finaly, we consider the asymp- totical comportement of the number of crossings of a differentiable Gaussian process for a given level u and time interval [0,T].
|
3 |
La programmation DC et DCA en analyse d'image : acquisition comprimée, segmentation et restauration / DC programming and DCA in image processing : compressed sensing, segmentation and restorationNguyen, Thi Bich Thuy 11 December 2014 (has links)
L’image est une des informations les plus importantes dans la vie. Avec le développement rapide des dispositifs d’acquisition d’images numériques par exemple les appareils photo numériques, les caméras de téléphones, les appareils d’imagerie médicale ou les dispositifs d’imagerie satellite..., les besoins de traitement et d’analyse des images sont de plus en plus croissants. Ils concernent les problèmes de l’acquisition, du stockage des images, de l’amélioration ou de l’information d’extraction d’une image,... Dans cette thèse, nous étudions le traitement et l’analyse des problèmes: acquisition comprimée, apprentissage de dictionnaire et débruitage d’images, segmentation d’images. La méthode que nous décrivons se base sur les approches d’optimisation déterministe, nommées la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution des problèmes d’analyse d’images cités précédemment. 1. Acquisition comprimée: une technique de traitement du signal pour acquérir et reconstruire un signal respectant les limites traditionnelles du théorème d’échantillonnage de Nyquist–Shannon, en trouvant la solution la plus parcimonieuse d’un système linéaire sous-déterminé. Cette méthode apporte la parcimonie ou la compressibilité du signal lorsqu’il est représenté dans une base ou un dictionnaire approprié qui permet au signal entier d’être déterminé à partir de certains mesures relatives. Dans cette thématique, nous nous intéressons à deux problèmes. Le premier est de trouver la représentation parcimonieuse d’un signal. Le second est la récupération du signal à partir de ses mesures compressées sur une base incohérente ou un dictionnaire. Les deux problèmes ci-dessus conduisent à résoudre un problème d’optimisation non convexe. Nous étudions trois modèles avec quatre approximations pour ces problèmes. Des algorithmes appropriés basés sur la programmation DC et DCA sont présentés. 2. Apprentissage du dictionnaire: Nous avons vu la puissance et les avantages de la représentation parcimonieuse des signaux dans l’acquisition comprimée. La représentation parcimonieuse d’un signal entier dépend non seulement des algorithmes de représentation mais aussi de la base ou du dictionnaire qui sont utilisés dans la représentation. Ainsi conduit un problème critique et les autres applications d’une manière naturelle. Au lieu d’utiliser une base fixe, comme wavelets (ondelettes) ou Fourier, on peut apprendre un dictionnaire, la matrice D, pour optimiser la représentation parcimonieuse d’une large classe de signaux donnés. La matrice D est appelée le dictionnaire appris. Pour ce problème, nous avons proposé un algorithme efficace basé sur DCA qui comprend deux étapes: la première étape - codage parcimonieux; le seconde étape - dictionnaire mis à jour. Une application de ce problème, débruitage d’images, est également considérée. 3. Segmentation d’images: il s’agit de partitionner une image numérique en segments multiples (ensembles des pixels). Le but de la segmentation est de simplifier et/ou de modifier la représentation d’une image en une forme qui est plus significative et plus facile à analyser. Nous avons développé une méthode efficace pour la segmentation d’images via le clustering flou avec la pondération de variables. Nous étudions également une application médicale qui est le problème de comptage de cellules. Nous proposons une combinaison de phase de segmentation et des opérations morphologiques pour compter automatiquement le nombre de cellules. Notre approche donne des résultats prometteurs dans la comparaison avec l’analyse manuelle traditionnelle en dépit de la densité cellulaire très élevée / Image is one of the most important information in our lives. Along with the rapid development of digital image acquisition devices such as digital cameras, phone cameras, the medical imaging devices or the satellite imaging devices..., the needs of processing and analyzing images is more and more demanding. It concerns with the problem of image acquiring, storing, enhancing or extracting information from an image,... In this thesis, we are considering the image processing and analyzing problems including: compressed sensing, dictionary learning and image denoising, and image segmentation. Our method is based on deterministic optimization approach, named the DC (Difference of Convex) programming and DCA (Difference of Convex Algorithms) for solving some classes of image analysis addressed above. 1. Compressed sensing is a signal processing technique for efficiently acquiring and reconstructing a signal, which is breaking the traditional limits of sampling theory of Nyquist–Shannon by finding solutions to underdetermined linear systems. This takes advantage of the signal’s sparseness or compressibility when it is represented in a suitable basis or dictionary, which allows the entire signal to be determined from few relative measurements. In this problem, we are interested in two aspects phases. The first one is finding the sparse representation of a signal. The other one is recovering the signal from its compressed measurements on an incoherent basis or dictionary. These problems lead to solve a NP–hard nonconvex optimization problem. We investigated three models with four approximations for each model. Appropriate algorithms based on DC programming and DCA are presented. 2. Dictionary learning: we have seen the power and the advantages of the sparse representation of signals in compressed sensing. Finding out the sparsest representation of a set of signals depends not only on the sparse representation algorithms but also on the basis or the dictionary used to represent them. This leads to the critical problems and other applications in a natural way. Instead of using a fixed basis such as wavelets or Fourier, one can learn the dictionary, a matrix D, to optimize the sparsity of the representation for a large class of given signals (data). The matrix D is called the learned dictionary. For this problem, we proposed an efficient DCA based algorithm including two stages: sparse coding and dictionary updating. An application of this problem, image denoising, is also considered. 3. Image segmentation: partitioning a digital image into multiple segments (sets of pixels). The goal of segmentation is to simplify and/or change the representation of an image into a form that is more meaningful and easier to analyze. We have developed an efficient method for image segmentation via feature weighted fuzzy clustering model. We also study an application of image segmentation for cell counting problem in medicine. We propose a combination of segmentation phase and morphological operations to automatically count the number of cells. Our approach gives promising results in comparison with the traditional manual analysis in despite of the very high cell density
|
4 |
Outils pour l'analyse de données de vitesses radiales / Tools for radial velocity data analysisHara, Nathan 27 October 2017 (has links)
Lorqu'une étoile a des compagnons planétaires, elle décrit un mouvement quasi épicycloïdal autour du centre de masse du système. Si l'orientation du plan de l'orbite le permet, un observateur situé sur la Terre peut détecter la composante de ce mouvement sur la ligne de visée grâce à l'effet Doppler. Il mesure ainsi la ``vitesse radiale de l'étoile''. Si cette vitesse présente des variations périodiques suffisamment claires, la présence de planètes peut être inférée et leurs orbites contraintes. Une des difficultés de l'analyse de telles mesures est qu'une combinaison de signaux de plusieurs planètes et de divers bruits peut être confondue avec l'effet d'une planète en réalité inexistante. Après avoir présenté les effets à prendre en compte pour analyser des données de vitesses radiales, nous abordons ce problème. Pour limiter son occurrence, nous utilisons un algorithme de poursuite de base modifié, dont on démontre l'efficacité sur des signaux réels et simulés. Nous abordons ensuite le problème de l'estimation des paramètres orbitaux pour un système donné ainsi que leur distribution pour une population de planètes. On s'intéresse en particulier à l'excentricité, dont on montre qu'elle est d'autant plus surestimée que le modèle du signal est mauvais. Nous proposons des solutions pour une estimation robuste des paramètres orbitaux. / When a star is orbited by planetary companions, it describes a nearly epicyclic motion around the center of mass of the system. When the orientation of the orbital plane is appropriate, an observer on Earth can measure the velocity of the star along the line of sight by Doppler effect. If this ``radial velocity'' presents clear enough periodic variations, the presence of planets can be inferred and their orbit can be constrained. Detection and estimation of orbits is made difficult by the photon noise, the unpredictable variations of luminosity of the star as well as instrumental faults. In particular, signals from several planets can add coherently with the noises and mimic the effect of a planet absent from the system. After listing the relevant effects to make inference on exoplanets from radial velocity data, we tackle this problem. To limit its rate of occurrence, we use a modified basis pursuit algorithm, allowing to search for several signals simultaneously. The efficiency of the method is demonstrated on real and simulated signals. We then address the problem of orbital parameters estimation for a given system, as well as the estimation of their distribution on a planet population. We look in detail at the eccentricity, and show that its overestimation increases as the model moves away from the correct one. We suggest methods for robust inference of orbital parameters.
|
5 |
Solutions algorithmiques pour des applications d'acquisition parcimonieuse en bio-imagerie optique / Algorithmic solutions toward applications of compressed sensing for optical imagingLe Montagner, Yoann 12 November 2013 (has links)
Ces dernières années, la théorie mathématique de l'échantillonnage compressé (CS) a émergé en tant que nouvel outil en traitement d'images, permettant notamment de dépasser certaines limites établies par la théorie de l'échantillonnage de Nyquist. En particulier, la théorie du CS établit qu'un signal (une image, une séquence vidéo, etc.) peut être reconstruit à partir d'un faible nombre de mesures linéaires non-adaptatives et aléatoires, pourvu qu'il présente une structure parcimonieuse. Dans la mesure où cette hypothèse se vérifie pour une large classe d'images naturelles, plusieurs applications d'imagerie ont d'ores-et-déjà bénéficié à des titres divers des résultats issus de cette théorie. Le but du travail doctoral présent est d'étudier comment la théorie du CS - et plus généralement les idées et méthodes en relation avec les problèmes de reconstruction de signaux parcimonieux - peuvent être utilisés pour concevoir des dispositifs d'acquisition optiques à haute-résolution spatiale et temporelle pour des applications en imagerie biologique. Nous étudions tout d'abord quelques questions pratiques liées à l'étape de reconstruction nécessairement associée aux systèmes d'acquisition exploitant le CS, ainsi qu'à la sélection des paramètres d'échantillonnage. Nous examinons ensuite comment le CS peut être utilisé dans le cadre d'applications d'échantillonnage de signaux vidéo. Enfin, avec dans l'idée l'utilisation dans des problèmes de débruitage de méthodes inspirées du CS, nous abordons la question de l'estimation d'erreur dans les problèmes de débruitage d'images acquises en conditions de faible luminosité, notamment dans le cadre d'applications de microscopie. / In the past few years, the mathematical theory of compressed sensing (CS) has emerged as a new tool in the image processing field, leading to some progress in surpassing the limits stated by the Nyquist sampling theory. In particular, the CS theory establishes that a signal (image, video, etc.) can be reconstructed from a relatively small subset of non-adaptive linear random measurements, assuming that it presents a sparse structure. As this hypothesis actually holds for a large number of natural images, several imaging applications have already benefited from this theory in various aspects. The goal of the present PhD work is to investigate how the CS theory - and more generally the ideas and methods developed in relation with sparse signal reconstruction problematics - can be used to design efficient optical sensing devices with high spatial and temporal resolution for biological imaging applications. We first investigate some practical issues related to the post-processing stage required by CS acquisition schemes, and to the selection of sampling parameters. We then examine how CS can benefit to video sampling applications. Finally, with the application of CS methods for denoising tasks in mind, we focus on the error estimation issue in image denoising problems for low-light microscopy applications.
|
6 |
Asservissement visuel direct utilisant les décompositions en shearlets et en ondelettes de l'image / Direct visual servoingusing shearlet and wavelet transforms of the imageDuflot, Lesley-Ann 13 July 2018 (has links)
L'asservissement visuel est un procédé consistant à utiliser l'information visuelle obtenue par un capteur afin de commander un système robotique. Ces informations, appelées primitives visuelles peuvent être d'ordre 2D ou 3D. Le travail présenté ici porte sur une nouvelle approche 2D utilisant des primitives directes : les décompositions de l'image en ondelettes ou en shearlets. Ces représentations présentent en effet l'avantage de décrire l'image sous différentes formes, mettant l'accent soit sur les basses fréquences de l'image, soit sur les hautes fréquences selon plusieurs directions. Les zones de l'image contenant beaucoup d'information, comme les contours ou les points singuliers, possèdent alors de forts coefficients dans la transformée en ondelettes ou en shearlets de l'image, tandis que les zones uniformes possèdent des coefficients proches de zéro. Les travaux de cette thèse montrent la précision et la robustesse de l'approche utilisant la décomposition en shearlets dans le cadre de l'imagerie échographique. Néanmoins, sa contribution majeure est l'élaboration d'une commande permettant d'utiliser au choix les ondelettes ou les shearlets ainsi que la validation de cette méthode sur caméra monoculaire et sur capteur de type tomographie par cohérence optique dans différentes conditions d'utilisation. Cette méthode présente des performances significatives en termes de précision et de robustesse et ouvre la porte vers une utilisation couplée de l'asservissement visuel et de l'acquisition comprimée. / A visual servoing scheme consists of a closed-loop control approach which uses visual information feedback to control the movement of a robotic system. This data, called visual features, can be 2D or 3D. This thesis deals with the development of a new generation of 2D direct visual servoing methods in which the signal control inputs are the coefficients of a multiscale image representation. Specially, we consider the use of multiscale image representations that are based on discrete wavelet and shearlet transformations. This kind of representations allows us to obtain several descriptions of the image based on either low or high frequencies levels. Indeed, high coefficients in the wavelet or in the shearlet transformation of the image correspond to image singularities. This thesis has begun with the development of a shearlet-based visual servoing for ultrasound imaging that has performed well in precision and robustness for this medical application. Nevertheless, the main contribution is a framework allowing us to use several multi-scale representations of the image. It was then tested with conventional white light camera and with an optical coherence tomography imaging system with nominal and unfavorable conditions. Then, the wavelet and the shearlet based methods showed their accuracy and their robustness in several conditions and led to the use of both visual servoing and compressed sensing as the main perspective of this work.
|
7 |
Apprentissage de modèles de mélange à large échelle par Sketching / Sketching for large-scale learning of mixture modelsKeriven, Nicolas 12 October 2017 (has links)
Les bases de données modernes sont de très grande taille, parfois divisées et distribuées sur plusieurs lieux de stockage, ou encore sous forme de flux de données : ceci soulève de nouveaux défis majeurs pour les méthodes d’apprentissage statistique. Une des méthodes récentes capable de s’adapter à ces situations consiste à d’abord compresser les données en une structure appelée sketch linéaire, puis ensuite de réaliser la tâche d’apprentissage en utilisant uniquement ce sketch, ce qui est extrêmement rapide si celui-ci est de petite taille. Dans cette thèse, nous définissons une telle méthode pour estimer un modèle de mélange de distributions de probabilités à partir des données, en utilisant uniquement un sketch de celles-ci. Ce sketch est défini en s’inspirant de plusieurs notions venant du domaine des méthodes à noyaux : le plongement par noyau moyen et les approximations aléatoires de noyaux. Défini comme tel, le sketch correspond à des mesures linéaires de la distribution de probabilité sous-jacente aux données. Ainsi nous analysons le problème en utilisant des outils venant du domaine de l’acquisition comprimée, dans lequel un signal est mesuré aléatoirement sans perte d’information, sous certaines conditions. Nous étendons certains résultats de l’acquisition comprimée à la dimension infinie, donnons des conditions génériques garantissant le succès de notre méthode d’estimation de modèles de mélanges, et les appliquons à plusieurs problèmes, dont notamment celui d’estimer des mélanges de distributions stables multivariées, pour lequel il n’existait à ce jour aucun estimateur. Notre analyse est basée sur la construction d’opérateurs de sketch construits aléatoirement, qui satisfont une Propriété d’Isométrie Restreinte dans l’espace de Banach des mesures finies signées avec forte probabilité. Dans une second partie, nous introduisons un algorithme glouton capable heuristiquement d’estimer un modèle de mélange depuis un sketch linéaire. Cet algorithme est appliqué sur données simulées et réelles à trois problèmes : l’estimation de centres significatifs dans les données, pour lequel on constate que la méthode de sketch est significativement plus rapide qu’un algorithme de k-moyennes classique, l’estimation de mélanges de Gaussiennes, pour lequel elle est plus rapide qu’un algorithme d’Espérance-Maximisation, et enfin l’estimation de mélange de distributions stables multivariées, pour lequel il n’existait à ce jour, à notre connaissance, aucun algorithme capable de réaliser une telle tâche. / Learning parameters from voluminous data can be prohibitive in terms of memory and computational requirements. Furthermore, new challenges arise from modern database architectures, such as the requirements for learning methods to be amenable to streaming, parallel and distributed computing. In this context, an increasingly popular approach is to first compress the database into a representation called a linear sketch, that satisfies all the mentioned requirements, then learn the desired information using only this sketch, which can be significantly faster than using the full data if the sketch is small. In this thesis, we introduce a generic methodology to fit a mixture of probability distributions on the data, using only a sketch of the database. The sketch is defined by combining two notions from the reproducing kernel literature, namely kernel mean embedding and Random Features expansions. It is seen to correspond to linear measurements of the underlying probability distribution of the data, and the estimation problem is thus analyzed under the lens of Compressive Sensing (CS), in which a (traditionally finite-dimensional) signal is randomly measured and recovered. We extend CS results to our infinite-dimensional framework, give generic conditions for successful estimation and apply them analysis to many problems, with a focus on mixture models estimation. We base our method on the construction of random sketching operators such that some Restricted Isometry Property (RIP) condition holds in the Banach space of finite signed measures with high probability. In a second part we introduce a flexible heuristic greedy algorithm to estimate mixture models from a sketch. We apply it on synthetic and real data on three problems: the estimation of centroids from a sketch, for which it is seen to be significantly faster than k-means, Gaussian Mixture Model estimation, for which it is more efficient than Expectation-Maximization, and the estimation of mixtures of multivariate stable distributions, for which, to our knowledge, it is the only algorithm capable of performing such a task.
|
8 |
Développement d'une technique de compression passive appliquée à l'imagerie microonde / Passive compression for a simplification of microwave imaging systemsFromenteze, Thomas 24 September 2015 (has links)
Ces travaux portent sur le développement d'une technique de compression appliquée à la simplification des systèmes d'imagerie dans le domaine microonde. Cette approche repose sur le développement de composants passifs capables de compresser les ondes émises et reçues, autorisant ainsi une réduction du nombre de modules actifs nécessaires au fonctionnement de certaines architectures de radars. Ce principe est basé sur l'exploitation de la diversité modale présente dans les composants développés, le rendant compatible avec l'utilisation de très larges bandes passantes. Plusieurs preuves de concept sont réalisées au moyen de différents composants étudiés dans cet ouvrage, permettant d'adapter cette technique à de nombreuses spécifications d'architectures et de bandes passantes. / This work is focused on the development of a compressive technique applied to the simplification of microwave imaging systems. This principle is based on the study of passive devices able to compress transmitted and received waves, allowing for the reduction of the hardware complexity required by radar systems. This approach exploits the modal diversity in the developed components, making it compatible with ultra wide bandwidth. Several proofs of concept are presented using different passive devices, allowing this technique to be adapted to a large variety of architectures and bandwidths.
|
9 |
Approche déterministe de l'acquisition comprimée et la reconstruction des signaux issus de capteurs intelligents distribués / Determinitic approach of compressed sensing and reconstruction of signals from wireless body sensor networksRavelomanantsoa, Andrianiaina 09 November 2015 (has links)
Le réseau sans fil sur le corps humain ou « wireless body area network (WBAN) » est une nouvelle technologie de réseau sans fil dédié à la surveillance des paramètres physiologiques d’une personne. Le réseau est composé de dispositifs électroniques miniatures, appelés nœuds, disposés aux alentours ou à l’intérieur du corps humain. Chaque nœud est doté d’un ou plusieurs capteurs mesurant les paramètres physiologiques de la personne, comme l’électrocardiogramme ou bien la température du corps, et les caractéristiques de l’environnement qui l’entoure. Ces nœuds sont surtout soumis à une contrainte énergétique importante puisque la miniaturisation a réduit les dimensions de leurs batteries. Puisque les nœuds consomment la majorité de l’énergie pour transmettre les données, une solution pour diminuer leur consommation consisterait à compresser les données avant la transmission. Les méthodes classiques de compression ne sont pas adaptées pour le WBAN particulièrement à cause de la puissance de calcul requise et la consommation qui en résulterait. Dans cette thèse, pour contourner ces problèmes, nous utilisons une méthode à base de l’acquisition comprimée pour compresser et reconstruire les données provenant des nœuds. Nous proposons un encodeur simple et facile à mettre en œuvre pour compresser les signaux. Nous présentons aussi un algorithme permettant de réduire la complexité de la phase de reconstruction des signaux. Un travail collaboratif avec l’entreprise TEA (Technologie Ergonomie Appliquées) nous a permis de valider expérimentalement une version numérique de l’encodeur et l’algorithme de reconstruction. Nous avons aussi développé et validé une version analogique de l’encodeur en utilisant des composants standards. / A wireless body area network (WBAN) is a new class of wireless networks dedicated to monitor human physiological parameters. It consists of small electronic devices, also called nodes, attached to or implanted in the human body. Each node comprises one or many sensors which measure physiological signals, such as electrocardiogram or body heat, and the characteristics of the surrounding environment. These nodes are mainly subject to a significant energy constraint due to the fact that the miniaturization has reduced the size of their batteries. A solution to minimize the energy consumption would be to compress the sensed data before wirelessly transmitting them. Indeed, research has shown that most of the available energy are consumed by the wireless transmitter. Conventional compression methods are not suitable for WBANs because they involve a high computational power and increase the energy consumption. To overcome these limitations, we use compressed sensing (CS) to compress and recover the sensed data. We propose a simple and efficient encoder to compress the data. We also introduce a new algorithm to reduce the complexity of the recovery process. A partnership with TEA (Technologie Ergonomie Appliquées) company allowed us to experimentally evaluate the performance of the proposed method during which a numeric version of the encoder has been used. We also developed and validated an analog version of the encoder.
|
10 |
Récepteur radiofréquence basé sur l’échantillonnage parcimonieux pour de l'extraction de caractéristiques dans les applications de radio cognitive / Radiofrequency receiver based on compressive sampling for feature extraction in cognitive radio applicationsMarnat, Marguerite 29 November 2018 (has links)
Cette thèse traite de la conception de récepteurs radiofréquences basés sur l'acquisition compressée pour de l'estimation paramétrique en radio cognitive.L'acquisition compressée est un changement de paradigme dans la conversion analogique-numérique qui permet de s'affranchir de la fréquence d'échantillonnage de Nyquist.Dans ces travaux, les estimations sont effectuées directement sur les échantillons compressés vu le coût prohibitif de la reconstruction du signal d'entrée.Tout d'abord, l'aspect architecture du récepteur est abordé,avec notamment le choix des codes de mélange pour le convertisseur modulé à large bande (MWC).Une analyse haut niveau des propriétés de la matrice d'acquisition, à savoir la cohérence pour réduire le nombre de mesures et l'isométrie pour la robustesse au bruit,est menée puis validée par une plateforme de simulation.Enfin l'estimation paramétrique à partir des échantillons compressés est abordée à travers la borne de Cramér-Rao sur la variance d'un estimateur non biaisé.Une forme analytique de la matrice de Fisher est établie sous certaines hypothèses et permet de dissocier les effets de la compression et de la création de diversité.L'influence du processus d'acquisition compressée, notamment le couplage entre paramètres et la fuite spectrale, est illustré par l'exemple. / This work deals with the topic of radiofrequency receivers based on Compressive Sampling for feature extraction in Cognitive Radio.Compressive Sampling is a paradigm shift in analog to digital conversion that bypasses the Nyquist sampling frequency.In this work, estimations are carried out directly on the compressed samples due to the prohibitive cost of signal reconstruction.First, the receiver architecture is considered, in particular through the choice of the mixing codes of the Modulated Wideband Converter.A high-level analysis on properties of the sensing matrix, coherence to reduce the number of measurement and isometry for noise robustness,is carried out and validated by a simulation platform.Finally, parametric estimation based on compressed samples is tackled through the prism of the Cram'{e}r-Rao lower bound on unbiased estimators.A closed form expression of the Fisher matrix is established under certain assumptions and enables to dissociate the effects of compression and diversity creation.The influence of Compressive Sampling on estimation bounds, in particular coupling between parameters and spectral leakage, is illustrated by the example.
|
Page generated in 0.1188 seconds