• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 10
  • 1
  • Tagged with
  • 22
  • 16
  • 13
  • 12
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Formes d’onde à saut de fréquences et Compressed Sensing : Application à la détection et à la reconnaissance aéroportées / Step frequency waveforms and compressed sensing : Application to airborne detection and recognition

Mesnard, Philippe 28 June 2019 (has links)
Les changements dans le contexte du traitement radar aéroporté impliquent de plus en plus d'améliorations qui justifient la recherche d'une alternative au filtrage adapté, qui est le processus utilisé classiquement pour estimer les paramètres des cibles détectées. Le Compressed Sensing ouvre la perspective d'un nouveau traitement, également efficace dans les configurations de cibles multiples, avec de meilleures performances de suivi et de reconnaissance que l'approche classique. Nous cherchons à appliquer ce traitement aux formes d'onde dites à évasion de fréquence. Le choix intégral des paramètres de définition du signal transmis déterminee entièrement la matrice de mesure de la procédure du Compressed Sensing, laquelle solution fournit toutes les informations recherchées sur la scène observée. Pour chaque signal à évasion de fréquence, et d'amplitude constante, la matrice de mesure correspondante est obtenue en extrayant certaines lignes d'une matrice de Fourier étendue particulière, la matrice de Fourier 2D. La construction de la génération de la matrice de mesure est importante car le succès de la reconstruction dépend des propriétés algébriques de cette matrice. / Changes in the context of airborne radar processing implie more and more improvements that justify to look for an alternative to Matched Filtering, the process conventionally used to estimate the parameters of detected targets. Compressed Sensing suggests a new treatment, also performing in multi-target cases, with better tracking and recognition performances than classical approach. We seek to apply this treatment to step frequency waveforms. The whole choice of definition parameters for the transmitted signal entirely builds the measurement matrix of the Compressed Sensing procedure which solution gives all the sought information of the observed scene. For each step frequency signal with constant amplitude, the resulting measurement matrix is obtained by extracting some lines from a particular extended Fourier matrix, the 2D Fourier matrix. The construction of the measurement matrix generation is important since the success of the reconstruction depends on the algebraic properties of this matrix.
12

Approche déterministe de l'acquisition comprimée et la reconstruction des signaux issus de capteurs intelligents distribués / Determinitic approach of compressed sensing and reconstruction of signals from wireless body sensor networks

Ravelomanantsoa, Andrianiaina 09 November 2015 (has links)
Le réseau sans fil sur le corps humain ou « wireless body area network (WBAN) » est une nouvelle technologie de réseau sans fil dédié à la surveillance des paramètres physiologiques d’une personne. Le réseau est composé de dispositifs électroniques miniatures, appelés nœuds, disposés aux alentours ou à l’intérieur du corps humain. Chaque nœud est doté d’un ou plusieurs capteurs mesurant les paramètres physiologiques de la personne, comme l’électrocardiogramme ou bien la température du corps, et les caractéristiques de l’environnement qui l’entoure. Ces nœuds sont surtout soumis à une contrainte énergétique importante puisque la miniaturisation a réduit les dimensions de leurs batteries. Puisque les nœuds consomment la majorité de l’énergie pour transmettre les données, une solution pour diminuer leur consommation consisterait à compresser les données avant la transmission. Les méthodes classiques de compression ne sont pas adaptées pour le WBAN particulièrement à cause de la puissance de calcul requise et la consommation qui en résulterait. Dans cette thèse, pour contourner ces problèmes, nous utilisons une méthode à base de l’acquisition comprimée pour compresser et reconstruire les données provenant des nœuds. Nous proposons un encodeur simple et facile à mettre en œuvre pour compresser les signaux. Nous présentons aussi un algorithme permettant de réduire la complexité de la phase de reconstruction des signaux. Un travail collaboratif avec l’entreprise TEA (Technologie Ergonomie Appliquées) nous a permis de valider expérimentalement une version numérique de l’encodeur et l’algorithme de reconstruction. Nous avons aussi développé et validé une version analogique de l’encodeur en utilisant des composants standards. / A wireless body area network (WBAN) is a new class of wireless networks dedicated to monitor human physiological parameters. It consists of small electronic devices, also called nodes, attached to or implanted in the human body. Each node comprises one or many sensors which measure physiological signals, such as electrocardiogram or body heat, and the characteristics of the surrounding environment. These nodes are mainly subject to a significant energy constraint due to the fact that the miniaturization has reduced the size of their batteries. A solution to minimize the energy consumption would be to compress the sensed data before wirelessly transmitting them. Indeed, research has shown that most of the available energy are consumed by the wireless transmitter. Conventional compression methods are not suitable for WBANs because they involve a high computational power and increase the energy consumption. To overcome these limitations, we use compressed sensing (CS) to compress and recover the sensed data. We propose a simple and efficient encoder to compress the data. We also introduce a new algorithm to reduce the complexity of the recovery process. A partnership with TEA (Technologie Ergonomie Appliquées) company allowed us to experimentally evaluate the performance of the proposed method during which a numeric version of the encoder has been used. We also developed and validated an analog version of the encoder.
13

Récepteur radiofréquence basé sur l’échantillonnage parcimonieux pour de l'extraction de caractéristiques dans les applications de radio cognitive / Radiofrequency receiver based on compressive sampling for feature extraction in cognitive radio applications

Marnat, Marguerite 29 November 2018 (has links)
Cette thèse traite de la conception de récepteurs radiofréquences basés sur l'acquisition compressée pour de l'estimation paramétrique en radio cognitive.L'acquisition compressée est un changement de paradigme dans la conversion analogique-numérique qui permet de s'affranchir de la fréquence d'échantillonnage de Nyquist.Dans ces travaux, les estimations sont effectuées directement sur les échantillons compressés vu le coût prohibitif de la reconstruction du signal d'entrée.Tout d'abord, l'aspect architecture du récepteur est abordé,avec notamment le choix des codes de mélange pour le convertisseur modulé à large bande (MWC).Une analyse haut niveau des propriétés de la matrice d'acquisition, à savoir la cohérence pour réduire le nombre de mesures et l'isométrie pour la robustesse au bruit,est menée puis validée par une plateforme de simulation.Enfin l'estimation paramétrique à partir des échantillons compressés est abordée à travers la borne de Cramér-Rao sur la variance d'un estimateur non biaisé.Une forme analytique de la matrice de Fisher est établie sous certaines hypothèses et permet de dissocier les effets de la compression et de la création de diversité.L'influence du processus d'acquisition compressée, notamment le couplage entre paramètres et la fuite spectrale, est illustré par l'exemple. / This work deals with the topic of radiofrequency receivers based on Compressive Sampling for feature extraction in Cognitive Radio.Compressive Sampling is a paradigm shift in analog to digital conversion that bypasses the Nyquist sampling frequency.In this work, estimations are carried out directly on the compressed samples due to the prohibitive cost of signal reconstruction.First, the receiver architecture is considered, in particular through the choice of the mixing codes of the Modulated Wideband Converter.A high-level analysis on properties of the sensing matrix, coherence to reduce the number of measurement and isometry for noise robustness,is carried out and validated by a simulation platform.Finally, parametric estimation based on compressed samples is tackled through the prism of the Cram'{e}r-Rao lower bound on unbiased estimators.A closed form expression of the Fisher matrix is established under certain assumptions and enables to dissociate the effects of compression and diversity creation.The influence of Compressive Sampling on estimation bounds, in particular coupling between parameters and spectral leakage, is illustrated by the example.
14

visual tracking and object motion prediction for intelligent vehicles / Suivi visuel et prédiction de mouvement des objets pour véhicules intelligents

Yang, Tao 02 May 2019 (has links)
Le suivi d’objets et la prédiction de mouvement sont des aspects importants pour les véhicules autonomes. Tout d'abord, nous avons développé une méthode de suivi mono-objet en utilisant le compressive tracking, afin de corriger le suivi à base de flux optique et d’arriver ainsi à un compromis entre performance et vitesse de traitement. Compte tenu de l'efficacité de l'extraction de caractéristiques comprimées (compressive features), nous avons appliqué cette méthode de suivi au cas multi-objets pour améliorer les performances sans trop ralentir la vitesse de traitement. Deuxièmement, nous avons amélioré la méthode de suivi mono-objet basée sur DCF en utilisant des caractéristiques provenant d’un CNN multicouches, une analyse de fiabilité spatiale (via un masque d'objet) ainsi qu’une stratégie conditionnelle de mise à jour de modèle. Ensuite, nous avons appliqué la méthode améliorée au cas du suivi multi-objets. Les VGGNet-19 et DCFNet pré-entraînés sont testés respectivement en tant qu’extracteurs de caractéristiques. Le modèle discriminant réalisé par DCF est pris en compte dans l’étape d'association des données. Troisièmement, deux modèles LSTM (seq2seq et seq2dense) pour la prédiction de mouvement des véhicules et piétons dans le système de référence de la caméra sont proposés. En se basant sur des données visuelles et un nuage de points 3D (LiDAR), un système de suivi multi-objets basé sur un filtre de Kalman avec un détecteur 3D sont utilisés pour générer les trajectoires des objets à tester. Les modèles proposées et le modèle de régression polynomiale, considéré comme méthode de référence, sont comparés et évalués. / Object tracking and motion prediction are important for autonomous vehicles and can be applied in many other fields. First, we design a single object tracker using compressive tracking to correct the optical flow tracking in order to achieve a balance between performance and processing speed. Considering the efficiency of compressive feature extraction, we apply this tracker to multi-object tracking to improve the performance without slowing down too much speed. Second, we improve the DCF based single object tracker by introducing multi-layer CNN features, spatial reliability analysis (through a foreground mask) and conditionally model updating strategy. Then, we apply the DCF based CNN tracker to multi-object tracking. The pre-trained VGGNet-19 and DCFNet are tested as feature extractors respectively. The discriminative model achieved by DCF is considered for data association. Third, two proposed LSTM models (seq2seq and seq2dense) for motion prediction of vehicles and pedestrians in the camera coordinate are proposed. Based on visual data and 3D points cloud (LiDAR), a Kalman filter based multi-object tracking system with a 3D detector are used to generate the object trajectories for testing. The proposed models, and polynomial regression model, considered as baseline, are compared for evaluation.
15

Les concepts clés pour la réalisation d'un Holter intégré sur puce

Ding, Hao 13 October 2011 (has links) (PDF)
En dépit du développement rapide de la médecine, les maladies cardiovasculaires restent la première cause de mortalité dans le monde. En France, chaque année, plus de 50 000 personnes meurent subitement en raison d'arythmies cardiaques. L'identification des patients à risque élevé de décès soudain est toujours un défi. Pour détecter les arythmies cardiaques, actuellement Holter est généralement utilisé pour enregistrer les signaux électrocardiogramme (ECG) à 1~3 dérivations pendant 24h à 72h. Cependant l'utilisation de Holter est limitée parmi la population en raison de son encombrement (pas convivial) et de son coût. Un Holter mono puce portable nommé SoC-Holter qui permet d'enregistrer 1 à 4 dérivations est introduit. Le déploiement d'un réseau de capteurs sans fil exige que chaque SoC-Holter soit peu encombrant et peu cher, et consomme peu d'énergie. Afin de minimiser la consommation d'énergie et le coût du système, la technologie Complementary Metal Oxide Semiconductor (CMOS) (0.35μm) est utilisée pour la première implémentation de SoC-Holter. Puis une nouvelle méthode de détection basée sur Acquisition Comprimée (CS) est introduite pour résoudre les problèmes de consommation d'énergie et de capacité de stockage de SoC-Holter. Le principe premier de cette plate-forme est d'échantillonner les signaux ECG sous la fréquence de Nyquist 'sub-Nyquist' et par la suite de classer directement les mesures compressées en états normal et anormal. Minimiser le nombre de fils qui relient les électrodes à la plate-forme peut rendre l'utilisateur de SoC-Holter plus confortable, car deux électrodes sont très proches sur la surface du corps. La différence ECG enregistrée est analysée à l'aide de Vectocardiogramme (VCG). Les résultats expérimentaux montrent qu'une approche intégrée, à faible coût et de faible encombrement (SoC-Holter) est faisable. Le SoC-Holter consomme moins de 10mW en fonctionnement. L'estimation des paramètres du signal acquis est effectuée directement à partir de mesures compressées, éliminant ainsi l'étape de la reconstruction et réduisant la complexité et le volume des calculs. En outre, le système fournit les signaux ECG compressés sans perte d'information, de ce fait il réduit significativement la consommation d'énergie pour l'envoi de message et l'espace de stockage mémoire. L'effet de placement des électrodes est évalué sur la QRS complexe lorsqu'il a enregistré avec deux électrodes adjacentes. La méthode est basée sur l'algorithme de 'QRS-VCG loop alignment'. La méthode moindre carré est utilisée pour estimer la corrélation entre une boucle VCG observée et une boucle de référence en respectant les transformations de rotation et la synchronisation du temps. Les emplacements d'électrodes les moins sensibles aux interférences sont étudiés.
16

Key concepts for implementing SoC-Holter / Les concepts clés pour la réalisation d'un Holter intégré sur puce

Ding, Hao 13 October 2011 (has links)
En dépit du développement rapide de la médecine, les maladies cardiovasculaires restent la première cause de mortalité dans le monde. En France, chaque année, plus de 50 000 personnes meurent subitement en raison d'arythmies cardiaques. L'identification des patients à risque élevé de décès soudain est toujours un défi. Pour détecter les arythmies cardiaques, actuellement Holter est généralement utilisé pour enregistrer les signaux électrocardiogramme (ECG) à 1~3 dérivations pendant 24h à 72h. Cependant l'utilisation de Holter est limitée parmi la population en raison de son encombrement (pas convivial) et de son coût. Un Holter mono puce portable nommé SoC-Holter qui permet d'enregistrer 1 à 4 dérivations est introduit. Le déploiement d'un réseau de capteurs sans fil exige que chaque SoC-Holter soit peu encombrant et peu cher, et consomme peu d’énergie. Afin de minimiser la consommation d'énergie et le coût du système, la technologie Complementary Metal Oxide Semiconductor (CMOS) (0.35μm) est utilisée pour la première implémentation de SoC-Holter. Puis une nouvelle méthode de détection basée sur Acquisition Comprimée (CS) est introduite pour résoudre les problèmes de consommation d'énergie et de capacité de stockage de SoC-Holter. Le principe premier de cette plate-forme est d'échantillonner les signaux ECG sous la fréquence de Nyquist ‘sub-Nyquist’ et par la suite de classer directement les mesures compressées en états normal et anormal. Minimiser le nombre de fils qui relient les électrodes à la plate-forme peut rendre l’utilisateur de SoC-Holter plus confortable, car deux électrodes sont très proches sur la surface du corps. La différence ECG enregistrée est analysée à l'aide de Vectocardiogramme (VCG). Les résultats expérimentaux montrent qu'une approche intégrée, à faible coût et de faible encombrement (SoC-Holter) est faisable. Le SoC-Holter consomme moins de 10mW en fonctionnement. L'estimation des paramètres du signal acquis est effectuée directement à partir de mesures compressées, éliminant ainsi l'étape de la reconstruction et réduisant la complexité et le volume des calculs. En outre, le système fournit les signaux ECG compressés sans perte d'information, de ce fait il réduit significativement la consommation d'énergie pour l'envoi de message et l’espace de stockage mémoire. L'effet de placement des électrodes est évalué sur la QRS complexe lorsqu'il a enregistré avec deux électrodes adjacentes. La méthode est basée sur l'algorithme de ‘QRS-VCG loop alignment’. La méthode moindre carré est utilisée pour estimer la corrélation entre une boucle VCG observée et une boucle de référence en respectant les transformations de rotation et la synchronisation du temps. Les emplacements d'électrodes les moins sensibles aux interférences sont étudiés. / According to the figures released by World Health Organization (WHO), cardiovascular disease is the number one cause of death in the world. In France every year more than 50,000 people die suddenly due cardiac arrhythmias. Identification of high risk sudden death patients is still a challenge. To detect cardiac arrhythmias, currently Holter is generally used to record 1~4 leads electrocardiogram (ECG) signals during 24h to 72h. However the use of Holter is limited among the population due to its form factor (not user-friendly) and cost. An integrated single chip wearable Holter named SoC-Holter that enables to record 1 to 4 leads ECG is introduced. Deployment of wireless sensor network requires each SoC-Holter with less power consumption, low-cost charging system and less die area.To minimize energy consumption and system cost, Complementary Metal Oxide Semiconductor (CMOS) technology (0.35μm) is used to prototype the first implementation of SoC-Holter. Then a novel method based on Compressed Sensing (CS) technique is introduced for solving the problems of power consumption and storage capacity of SoC-Holter. The main principle underlying this framework is to sample analog signals at sub-Nyquist rate and to classify directly compressed measurement into normal and abnormal state. Minimizing the wire connected electrodes to the platform can make the carrier more comfortable because two electrodes are attached closely on the surface of the body. Recording difference ECG is analyzed using Vectorcardiogram (VCG) theory. Experimental results show that an integrated, low cost, and user-friendly SoC-Holter is feasible. SoC-Holter consumes less than 10mW while the device is operating. It takes advantage of estimating parameters directly from compressed measurements, thereby eliminating the reconstruction stage and reducing the computational complexity on the platform. In addition, the framework provides compressed ECG signals without loss of information, reducing significantly the power consumption for message sending and memory storage space. The effect of electrode placement is evaluated by estimating QRS complex in recorded ECG signals by two adjacent electrodes. The method is based on the QRS-VCG loop alignment algorithm that estimates Least Square (LS) between an observed VCG loop and a reference loop with respect to the transformations of rotation and time synchronization. The electrode location with less sensitive to interference is investigated.
17

Solutions évolutives pour les réseaux de communication quantique / Scalable solutions for quantum communication networks

Fedrici, Bruno 13 December 2017 (has links)
Le déploiement de réseaux de communication quantique représente un défi auquel cette thèse apporte des solutions originales. Deux dispositifs très performants sont construits uniquement autour de composants standards de l'optique intégrée et des télécommunications optiques. Le premier correspond à un schéma de synchronisation tout optique sur longue distance à très haute cadence et de précision inégalée pour la communication sécurisée par cryptographie quantique. Le montage expérimental repose sur une configuration de relais quantique mettant en œuvre deux sources indépendantes de paires de photons intriqués dont il faut synchroniser les temps d'émissions. L’idée principale s’appuie sur l’utilisation d’un unique laser télécom picoseconde cadencé à 2.5 GHz afin de générer l’horloge et de pouvoir la distribuer efficacement aux deux sources. Nous démontrons la synchronisation de notre lien relais pour une distance effective séparant les sources de plus de 100 km. Le second dispositif correspond quant à lui à la réalisation d'une expérience de compression à une longueur d'onde des télécommunications réalisée, pour la première fois, de manière entièrement guidée. La lumière comprimée étant une ressource fondamentale dans bon nombre de protocoles d'information quantique, la réalisation de systèmes expérimentaux facilement reconfigurables et compatibles avec les réseaux télécoms fibrés existants représente une étape cruciale en vue du déploiement de dispositifs de communication quantique en régime de variables continues. Enfin, un traitement quantique des effets de gigue temporelle dans les détecteurs de photons 0N/0FF est proposé. Malgré l'importance des systèmes de détection dans les technologies quantiques photoniques émergentes, aucune modélisation quantique de leurs effets de gigue temporelle n'avait été, à notre connaissance, développé jusqu'à présent. / This thesis presents solutions to the challenges of developing quantum communication networks. Two powerful experimental devices have been set up relying only on standard telecom and integrated optical components. The first device corresponds to an all-optical synchronization scheme allowing, with an unprecedented accuracy, quantum key distribution at a high rate over long distances. The experimental scheme relies on two independent entangled photon pair sources that have to be synchronized in their emission time. Our approach is based on using a 2.5 GHz picosecond telecom laser as a master clock to efficiently synchronize the different sources. We demonstrate the synchronization for an effective distance of 100 km between sources. With our second device, we perform a squeezing experiment at telecom wavelengths and this for the first time in a fully guided-wave approach. Squeezed light being a fundamental resource for several quantum information protocols, developing plug-and-play experimental devices that are compatible with already existing telecom fiber networks is of first interest in the perspective of future quantum networks. Finally, we propose a quantum description of timing jitter effects in 0N/0FF detectors. Despite the importance of detection systems in emerging photonic quantum technologies, no quantum description of their timing jitter effects has been proposed so far.
18

Nouveau récepteur radio numérique pour les observations astrophysiques spatiales dans la bande de fréquence 1 kHz à 50 MHz / New digital radio receiver for space astrophysical observations in the frequency range 1 kHz to 50 MHz

Gargouri, Yosra 21 November 2017 (has links)
Plusieurs phénomènes astronomiques émettent des ondes radios basses fréquences tels que les éruptions solaires, les magnétosphères, les pulsars . . . Certains de ces ondes sont mal captées par les observatoires terrestres à cause, principalement, de la coupure ionosphérique. Il devient indispensable d’envoyer des récepteurs radio dans l’espace pour les acquérir. Cependant, ces récepteurs sont consommation d’énergie et le taux de transmission. Un paradigme récent pour l’acquisition et la reconstruction des signaux, appelé l’échantillonnage comprimé (Compressive sampling, Compressed Sensing, CS) pourra être une réponse adéquate à ces problématiques en limitant, dès l’acquisition, la quantité de données numérisés : En effet, le CS a permis l’émergence d’un nouveau type de Convertisseur Analogique-Numérique (ADC) appelé Convertisseur Analogique-Information (AIC) qui permet d’échantillonner à une fréquence potentiellement inférieure à celle prescrite par Nyquist-Shannon, en exploitant le caractère parcimonieux des signaux. Nous proposons dans le cadre de cette thèse d’étudier l’application de l’échantillonnage comprimé pour l’acquisition des signaux astrophysiques spatiaux dans la bande de fréquence [1kHz à 50 MHz]. Nous nous focalisons sur des signaux émis par les deux sources radio les plus brillantes dans le ciel telles que vues de la Terre, à savoir le Soleil et Jupiter. En se basant sur les propriétés caractéristiques de nos signaux d’intérêt, nous avons construit progressivement et méthodologiquement notre schéma d’acquisition : En commençant par l’étude de compressibilité des signaux, puis l’identification de l’architecture du Convertisseur Analogique-Information (AIC) appropriée et enfin le choix de l’algorithme de reconstruction du signal. Nous avons également proposé une nouvelle implémentation flexible et programmable de l’AIC retenu, qui permet l’acquisition de différents types de signal ayant le même domaine de compressibilité avec différents facteurs de compression. En utilisant une technologie CMOS 65 nm, nous avons évalué le gain en quantité de données acquise et en consommation de puissance de cette architecture par rapport au convertisseur analogique-numérique traditionnel. / Several astronomical phenomena emit low-frequency radio waves such as solar flares, magnetospheres, pulsars ... Some of these emissions are poorly captured by ground-based observatories mainly because of the Earth’s ionospheric cutoff frequency. It becomes necessary to send radio receivers in space to acquire them. However, these receivers are faced with strong restrictions on storage capacity, energy consumption and transmission rate.To overcome these challenges, sampling architectures should be reviewed and improved. A recent paradigm for signal acquisition and reconstruction, known as compressive sampling hat require a limited number of measurements and leads to the development of a new type of converter : the Analog to Information Converter (AIC). Unlike standard Analog to Digital converters (ADC), AIC can sample at a lower rate than that prescribed by Nyquist Shannon, exploiting the sparsity of signals.The main goal of this thesis is to study the application of compressed sampling for the acquisition of spatial astrophysical signals in the frequency band [1 kHz to 50 MHz]. We focus on signals emitted by the two brightest radio sources in the sky as seen from the Earth, namely the Sun and Jupiter. Based on the characteristic properties of our signals of interest, we progressively and methodologically constructed our acquisition scheme : From the study of signals compressibility, to the choice of the AIC architecture and the signal reconstruction algorithm. We also proposed a new, flexible and programmable implementation of the selected AIC which allows the acquisition of different types of signal having the same compressibility domain and with different compression factors. Using a 65-nm CMOS technology, we evaluated the gain in terms of the amount of data acquired and power consumed of this architecture compared to the traditional analog-to-digital converter.
19

Contributions aux algorithmes stochastiques pour le Big Data et à la théorie des valeurs extrèmes multivariés. / Contributions to stochastic algorithm for Big Data and multivariate extreme value theory.

Ho, Zhen Wai Olivier 04 October 2018 (has links)
La thèse comporte deux parties distinctes. La première partie concerne des modèles pour les extrêmes multivariés.On donne une construction de vecteurs aléatoires multivariés à variations régulières. La construction se base sur une extension multivariée d'un lemme de Breiman établissant la propriété de variation régulière d'un produit $RZ$ de variable aléatoire avec $R$ positive à variation régulière et $Z$ positive suffisamment intégrable. En prenant $mathbf{Z}$ multivarié et suffisamment intégrable, on montre que $Rmathbf{Z}$ est un vecteur aléatoire à variations régulières et on caractérise sa mesure limite. On montre ensuite que pour $mathbf{Z}$ de loi bien choisie, on retrouve des modèles stables classiques comme le modèle t-extremal, Hüsler-Reiss, etc. Puis, on étend notre construction pour considérer la notion de variation régulière multivariée non standard. On montre ensuite que le modèle de Pareto (qu'on appelle Hüsler-Reiss Pareto) associé au modèle max-stable Hüsler-Reiss forme une famille exponentielle complète. On donne quelques propriétés du modèle Hüsler-Reiss Pareto puis on propose un algorithme de simulation exacte. On étudie l'inférence par le maximum de vraisemblance. Finalement, on considère une extension du modèle Hüsler-Reiss Pareto utilisant la notion de variation régulière non standard. On étudie l'inférence par le maximum de vraisemblance du modèle généralisé et on propose une méthode d'estimation des paramètres. On donne une étude numérique sur l'estimateur du maximum de vraisemblance pour le modèle Hüsler-Reiss Pareto. Dans la second partie qui concerne l'apprentissage statistique, on commence par donner une borne sur la valeur singulière minimale d'une matrice perturbée par l'ajout d'une colonne. On propose alors un algorithme de sélection de colonne afin d'extraire les caractéristiques de la matrice. On illustre notre algorithme sur des données réelles de séries temporelles où chaque série est pris comme étant une colonne de la matrice. Deuxièmement, on montre que si une matrice $X$ à une propriété d'incohérence alors $X$ possède aussi une version affaiblie de la propriété NSP (null space property). Puis, on s'intéresse au problème de sélection de matrice incohérente. A partir d'une matrice $Xin mathbb{R}^{n imes p}$ et $mu>0$, on cherche la plus grande sous-matrice de $X$ avec une cohérence inférieure à $mu$. Ce problème est formulé comme un programme linéaire avec contrainte quadratique sur ${0,1}^p$. Comme ce problème est NP-dur, on considère une relaxation sur la sphère et on obtient une borne sur l'erreur lorsqu'on considère le problème relaxé. Enfin, on analyse l'algorithme de gradient stochastique projeté pour l'analyse en composante principale online. On montre qu'en espérance, l'algorithme converge vers un vecteur propre maximum et on propose un algorithme pour sélectionner le pas de l'algorithme. On illustre ensuite cet algorithme par une expérience de simulation. / This thesis in divided in two parts. The first part studies models for multivariate extremes. We give a method to construct multivariate regularly varying random vectors. The method is based on a multivariate extension of a Breiman Lemma that states that a product $RZ$ of a random non negative regularly varying variable $R$ and a non negative $Z$ sufficiently integrable is also regularly varying. Replacing $Z$ with a random vector $mathbf{Z}$, we show that the product $Rmathbf{Z}$ is regularly varying and we give a characterisation of its limit measure. Then, we show that taking specific distributions for $mathbf{Z}$, we obtain classical max-stable models. We extend our result to non-standard regular variations. Next, we show that the Pareto model associated with the Hüsler-Reiss max-stable model forms a full exponential family. We show some properties of this model and we give an algorithm for exact simulation. We study the properties of the maximum likelihood estimator. Then, we extend our model to non-standard regular variations. To finish the first part, we propose a numerical study of the Hüsler-Reiss Pareto model.In the second part, we start by giving a lower bound of the smallest singular value of a matrix perturbed by appending a column. Then, we give a greedy algorithm for feature selection and we illustrate this algorithm on a time series dataset. Secondly, we show that an incoherent matrix satisfies a weakened version of the NSP property. Thirdly, we study the problem of column selection of $Xinmathbb{R}^{n imes p}$ given a coherence threshold $mu$. This means we want the largest submatrix satisfying some coherence property. We formulate the problem as a linear program with quadratic constraint on ${0,1}^p$. Then, we consider a relaxation on the sphere and we bound the relaxation error. Finally, we study the projected stochastic gradient descent for online PCA. We show that in expectation, the algorithm converges to a leading eigenvector and we suggest an algorithm for step-size selection. We illustrate this algorithm with a numerical experiment.
20

Transparence induite électromagnétiquement et mémoires quantiques sur la raie D2 du césium : effet de l'élargissement inhomogène dans une structure atomique multi-niveaux

Scherman, Michael 27 March 2012 (has links) (PDF)
Parce qu'il permet une interaction lumière-matière forte, contrôlable, et cohérente, le phénomène de transparence induite électromagnétiquement (EIT) trouve aujourd'hui des applications dans un champ très large de la physique. Cependant, sur la raie D2 du 133Cs, la transparence expérimentalement mesurée est très faible en présence d'élargissement inhomogène. Nous menons donc une étude théorique qui prend en compte les multiples niveaux excités de la raie et précise leur influence sur l'EIT. Elle conclut à l'existence de classes de vitesses atomiques particulières, responsables de la diminution de la transparence. Nous proposons alors une méthode originale permettant de restaurer l'EIT en creusant localement la distribution de vitesses. L'augmentation ainsi prévue de la transparence est ensuite vérifiée expérimentalement. Deux expériences de mémoire par EIT sont ensuite présentées. Dans la première, deux quadratures orthogonales d'une bande latérale unique sont stockées dans une vapeur chaude de cesium, puis relues sans mesurer d'excès de bruit. Dans la seconde, le stockage d'un état cohérent en régime de photon unique est obtenu dans un nuage d'atomes froids. Afin de préparer le stockage de lumière non classique, l'asservissement de la mesure d'un état comprimé sur une quadrature fixe a été réalisé. Ce montage doit permettre de démontrer l'intrication déterministe de deux ensembles atomiques.

Page generated in 0.0304 seconds