• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 34
  • 13
  • Tagged with
  • 105
  • 45
  • 45
  • 21
  • 19
  • 18
  • 18
  • 17
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Dispositifs impulsionnels pour la communication quantique à variables continues

Wenger, Jérôme 09 September 2004 (has links) (PDF)
L'objectif central de cette thèse est d'exploiter les propriétés quantiques du champ électromagnétique pour développer de nouveaux dispositifs de communication. L'étude porte sur les composantes de quadrature (variables quantiques continues) d'un mode impulsionnel du champ lumineux. Une démonstration expérimentale de cryptographie quantique avec des états cohérents a été réalisée. Le dispositif se base sur des impulsions modulées en amplitude et en phase et comportant en moyenne une centaine de photons. Pour chaque impulsion lumineuse, une détection homodyne résolue en temps permet de mesurer une composante de quadrature particulière avec une forte efficacité. Une clé secrète a ainsi été transmise à un débit de 1.7 Mbits/s en l'absence de pertes et 75 kbits/s pour une transmission présentant des pertes de 3.1 dB, ce qui ouvre la voie pour des applications de cryptographie quantique à hauts débits. Afin d'étudier l'utilisation de spécificités quantiques, nous avons développé une source impulsionnelle d'états comprimés et d'états intriqués. Cette source utilise des conversions non-linéaires d'impulsions ultrabrèves intervenant dans un cristal mince de niobate de potassium. Suivant la configuration, la réduction du bruit en quadrature est de 2.7 dB sous le niveau de bruit quantique standard, ou les corrélations entre les quadratures des faisceaux intriqués sont de 2.5 dB. Grâce à ce dispositif, nous avons mis en oeuvre la première expérience de "dégaussification", pour transformer des impulsions de vide comprimé en des états non-gaussiens. Ce protocole est directement lié à la distillation de l'intrication de variables continues, qui permet d'améliorer la portée des dispositifs de cryptographie. Enfin, des schémas sont étudiés pour réaliser des tests complets des inégalités de Bell avec des variables continues mesurées par des détections homodynes.
82

Étude théorique et expérimentale de superpositions quantiques cohérentes et d'états intriqués non-gaussiens de la lumière

Ourjoumtsev, Alexei 19 November 2007 (has links) (PDF)
Cette thèse porte sur la manipulation d'états non-classiques de la lumière, et leurs applications à l'information quantique. Nous montrons que les outils propres à une description discrète, où la lumière est considérée comme un ensemble de photons, peuvent être efficacement combinés avec une approche continue, où l'on s'intéresse aux quadratures de l'onde électromagnétique, pour créer, transformer et analyser des états quantiques complexes. Nous avons ainsi préparé des impulsions lumineuses ultrabrèves dans des états "chat de Schrödinger" (superpositions quantiques d'états cohérents). Le champ électromagnétique de l'onde lumineuse n'est alors plus décrit par une distribution statistique classique, mais par une fonction de Wigner prenant des valeurs négatives. Grâce à une reconstruction par tomographie homodyne, nous avons réalisé la première observation expérimentale de cette négativité pour de petits " chatons de Schrödinger " en propagation libre. Nous avons ensuite développé et démontré expérimentalement un protocole permettant de préparer des " chats de Schrödinger " optiques de taille arbitraire et d'ouvrir la voie vers de multiples applications en information quantique. Nous avons également montré que la soustraction conditionnelle de photons permettait d'augmenter l'intrication d'états gaussiens. Avec cette approche, nous avons intriqué deux impulsions séparées et indépendantes, en utilisant un canal quantique de fortes pertes. On peut ainsi préparer, entre deux sites éloignés, des états fortement intriqués à fonction de Wigner négative, élément essentiel pour la distillation d'intrication et les communications quantiques à grande distance.
83

Identification de la variabilité spatiale des champs de contraintes dans les agrégats polycristallins et application à l'approche locale de la rupture

Dang, Xuan Hung 11 October 2012 (has links) (PDF)
Cette thèse est une contribution à la construction de l'Approche Locale de la rupture à l'échelle microscopique à l'aide de la modélisation d'agrégats polycristallins. Elle consiste à prendre en compte la variabilité spatiale de la microstructure du matériau. Pour ce faire, la modélisation micromécanique du matériau est réalisée par la simulation d'agrégats polycristallins par éléments finis. Les champs aléatoires de contrainte (principale maximale et de clivage) dans le matériau qui représentent la variabilité spatiale de la microstructure sont ensuite modélisés par un champ aléatoire gaussien stationnaire ergodique. Les propriétés de variabilité spatiale de ces champs sont identifiés par une méthode d'identification, e.g. méthode du périodogramme, méthode du variogramme, méthode du maximum de vraisemblance. Des réalisations synthétiques des champs de contraintes sont ensuite simulées par une méthode de simulation, e.g. méthode Karhunen-Loève discrète, méthode "Circulant Embedding", méthode spectrale, sans nouveau calcul aux éléments finis. Enfin, le modèle d'Approche Locale de la rupture par simulation de champ de contrainte de clivage permettant d'y intégrer les réalisations simulées du champ est construit pour estimer la probabilité de rupture du matériau.
84

Méta-modèles adaptatifs pour l'analyse de fiabilité et l'optimisation sous contrainte fiabiliste

Dubourg, Vincent 05 December 2011 (has links) (PDF)
Cette thèse est une contribution à la résolution du problème d'optimisation sous contrainte de fiabilité. Cette méthode de dimensionnement probabiliste vise à prendre en compte les incertitudes inhérentes au système à concevoir, en vue de proposer des solutions optimales et sûres. Le niveau de sûreté est quantifié par une probabilité de défaillance. Le problème d'optimisation consiste alors à s'assurer que cette probabilité reste inférieure à un seuil fixé par les donneurs d'ordres. La résolution de ce problème nécessite un grand nombre d'appels à la fonction d'état-limite caractérisant le problème de fiabilité sous-jacent. Ainsi,cette méthodologie devient complexe à appliquer dès lors que le dimensionnement s'appuie sur un modèle numérique coûteux à évaluer (e.g. un modèle aux éléments finis). Dans ce contexte, ce manuscrit propose une stratégie basée sur la substitution adaptative de la fonction d'état-limite par un méta-modèle par Krigeage. On s'est particulièrement employé à quantifier, réduire et finalement éliminer l'erreur commise par l'utilisation de ce méta-modèle en lieu et place du modèle original. La méthodologie proposée est appliquée au dimensionnement des coques géométriquement imparfaites soumises au flambement.
85

Contributions en segmentation statistique d'images et reconnaissance de formes 2D

Derrode, Stéphane 29 April 2008 (has links) (PDF)
Ce mémoire retrace les activités de recherche que j'ai développées depuis 9 années dont 7 passées au sein de l'équipe Groupe Signaux Multidimensionnels de l'Institut Fresnel et à l'École Centrale Marseille. Les travaux que je présente explorent certains aspects de la segmentation statistique d'images pour des applications en imagerie spatiale et de la description invariante de formes 2D pour la reconnaissance d'objets en imagerie vidéo. Plus précisément, la première partie de ce document expose plusieurs extensions du modèle des chaînes de Markov cachées (CMC). Ces extensions portent sur des modifications soit de la modélisation des données observées avec le modèle de chaîne de Markov vectorielle et des données cachées avec le modèle de chaîne de Markov floue, soit de la topologie de la chaîne -et donc des hypothèses de dépendance statistique sous-jacentes-, aboutissant aux modèles appelés chaîne de Markov d'ordre supérieur et chaîne de Markov couple. Ces modèles sont évalués dans le cadre de la segmentation d'images radar et de la détection de changements lors de catastrophes naturelles. La seconde partie traite de la reconnaissance de formes 2D, avec pour thème centrale l'invariance géométrique. Dans un premier temps nous avons proposé de nouvelles familles complètes de descripteurs de forme invariants aux similitudes issues de la transformée de Fourier-Mellin et des moments complexes, pour des applications d'indexation de bases d'objets à niveaux de gris. La suite des travaux s'est orientée vers la détection d'objets avec l'intégration d'un a priori de forme invariant aux similitudes dans le modèle des snakes et la poursuite d'objets d'intérêt dans les séquences vidéo par un modèle de mélange de couleurs non gaussien. Le document se conclut avec les perspectives que je compte donner à mes recherches, notamment les projets combinant segmentation d'images et reconnaissance de formes, dans le cadre des images très haute résolution des futurs capteurs optique et radar qui permettent d'accéder à des données sub-métriques.
86

Séparation de Sources Dans des Mélanges non-Lineaires / Blind Source Separation in Nonlinear Mixtures

Ehsandoust, Bahram 30 April 2018 (has links)
La séparation aveugle de sources aveugle (BSS) est une technique d’estimation des différents signaux observés au travers de leurs mélanges à l’aide de plusieurs capteurs, lorsque le mélange et les signaux sont inconnus. Bien qu’il ait été démontré mathématiquement que pour des mélanges linéaires, sous des conditions faibles, des sources mutuellement indépendantes peuvent être estimées, il n’existe dans de résultats théoriques généraux dans le cas de mélanges non-linéaires. La littérature sur ce sujet est limitée à des résultats concernant des mélanges non linéaires spécifiques.Dans la présente étude, le problème est abordé en utilisant une nouvelle approche utilisant l’information temporelle des signaux. L’idée originale conduisant à ce résultat, est d’étudier le problème de mélanges linéaires, mais variant dans le temps, déduit du problème non linéaire initial par dérivation. Il est démontré que les contre-exemples déjà présentés, démontrant l’inefficacité de l’analyse par composants indépendants (ACI) pour les mélanges non-linéaires, perdent leur validité, considérant l’indépendance au sens des processus stochastiques, au lieu de l’indépendance au sens des variables aléatoires. Sur la base de cette approche, de bons résultats théoriques et des développements algorithmiques sont fournis. Bien que ces réalisations ne soient pas considérées comme une preuve mathématique de la séparabilité des mélanges non-linéaires, il est démontré que, compte tenu de quelques hypothèses satisfaites dans la plupart des applications pratiques, elles sont séparables.De plus, les BSS non-linéaires pour deux ensembles utiles de signaux sources sont également traités, lorsque les sources sont (1) spatialement parcimonieuses, ou (2) des processus Gaussiens. Des méthodes BSS particulières sont proposées pour ces deux cas, dont chacun a été largement étudié dans la littérature qui correspond à des propriétés réalistes pour de nombreuses applications pratiques.Dans le cas de processus Gaussiens, il est démontré que toutes les applications non-linéaires ne peuvent pas préserver la gaussianité de l’entrée, cependant, si on restreint l’étude aux fonctions polynomiales, la seule fonction préservant le caractère gaussiens des processus (signaux) est la fonction linéaire. Cette idée est utilisée pour proposer un algorithme de linéarisation qui, en cascade par une méthode BSS linéaire classique, sépare les mélanges polynomiaux de processus Gaussiens.En ce qui concerne les sources parcimonieuses, on montre qu’elles constituent des variétés distinctes dans l’espaces des observations et peuvent être séparées une fois que les variétés sont apprises. À cette fin, plusieurs problèmes d’apprentissage multiple ont été généralement étudiés, dont les résultats ne se limitent pas au cadre proposé du SRS et peuvent être utilisés dans d’autres domaines nécessitant un problème similaire. / Blind Source Separation (BSS) is a technique for estimating individual source components from their mixtures at multiple sensors, where the mixing model is unknown. Although it has been mathematically shown that for linear mixtures, under mild conditions, mutually independent sources can be reconstructed up to accepted ambiguities, there is not such theoretical basis for general nonlinear models. This is why there are relatively few results in the literature in this regard in the recent decades, which are focused on specific structured nonlinearities.In the present study, the problem is tackled using a novel approach utilizing temporal information of the signals. The original idea followed in this purpose is to study a linear time-varying source separation problem deduced from the initial nonlinear problem by derivations. It is shown that already-proposed counter-examples showing inefficiency of Independent Component Analysis (ICA) for nonlinear mixtures, loose their validity, considering independence in the sense of stochastic processes instead of simple random variables. Based on this approach, both nice theoretical results and algorithmic developments are provided. Even though these achievements are not claimed to be a mathematical proof for the separability of nonlinear mixtures, it is shown that given a few assumptions, which are satisfied in most practical applications, they are separable.Moreover, nonlinear BSS for two useful sets of source signals is also addressed: (1) spatially sparse sources and (2) Gaussian processes. Distinct BSS methods are proposed for these two cases, each of which has been widely studied in the literature and has been shown to be quite beneficial in modeling many practical applications.Concerning Gaussian processes, it is demonstrated that not all nonlinear mappings can preserve Gaussianity of the input. For example being restricted to polynomial functions, the only Gaussianity-preserving function is linear. This idea is utilized for proposing a linearizing algorithm which, cascaded by a conventional linear BSS method, separates polynomial mixturesof Gaussian processes.Concerning spatially sparse sources, it is shown that spatially sparsesources make manifolds in the observations space, and can be separated once the manifolds are clustered and learned. For this purpose, multiple manifold learning problem has been generally studied, whose results are not limited to the proposed BSS framework and can be employed in other topics requiring a similar issue.
87

Méthodes probabilistes pour l'évaluation de risques en production industrielle / Probabilistic methodes for risks evaluation in industrial production

Oger, Julie 16 April 2014 (has links)
Dans un contexte industriel compétitif, une prévision fiable du rendement est une information primordiale pour déterminer avec précision les coûts de production et donc assurer la rentabilité d'un projet. La quantification des risques en amont du démarrage d'un processus de fabrication permet des prises de décision efficaces. Durant la phase de conception d'un produit, les efforts de développement peuvent être alors identifiés et ordonnés par priorité. Afin de mesurer l'impact des fluctuations des procédés industriels sur les performances d'un produit donné, la construction de la probabilité du risque défaillance est développée dans cette thèse. La relation complexe entre le processus de fabrication et le produit conçu (non linéaire, caractéristiques multi-modales...) est assurée par une méthode de régression bayésienne. Un champ aléatoire représente ainsi, pour chaque configuration du produit, l'information disponible concernant la probabilité de défaillance. Après une présentation du modèle gaussien, nous décrivons un raisonnement bayésien évitant le choix a priori des paramètres de position et d'échelle. Dans notre modèle, le mélange gaussien a priori, conditionné par des données mesurées (ou calculées), conduit à un posterior caractérisé par une distribution de Student multivariée. La nature probabiliste du modèle est alors exploitée pour construire une probabilité de risque de défaillance, définie comme une variable aléatoire. Pour ce faire, notre approche consiste à considérer comme aléatoire toutes les données inconnues, inaccessibles ou fluctuantes. Afin de propager les incertitudes, une approche basée sur les ensembles flous fournit un cadre approprié pour la mise en œuvre d'un modèle bayésien imitant le raisonnement d'expert. L'idée sous-jacente est d'ajouter un minimum d'information a priori dans le modèle du risque de défaillance. Notre méthodologie a été mise en œuvre dans un logiciel nommé GoNoGo. La pertinence de cette approche est illustrée par des exemples théoriques ainsi que sur un exemple réel provenant de la société STMicroelectronics. / In competitive industries, a reliable yield forecasting is a prime factor to accurately determine the production costs and therefore ensure profitability. Indeed, quantifying the risks long before the effective manufacturing process enables fact-based decision-making. From the development stage, improvement efforts can be early identified and prioritized. In order to measure the impact of industrial process fluctuations on the product performances, the construction of a failure risk probability estimator is developed in this thesis. The complex relationship between the process technology and the product design (non linearities, multi-modal features...) is handled via random process regression. A random field encodes, for each product configuration, the available information regarding the risk of non-compliance. After a presentation of the Gaussian model approach, we describe a Bayesian reasoning avoiding a priori choices of location and scale parameters. The Gaussian mixture prior, conditioned by measured (or calculated) data, yields a posterior characterized by a multivariate Student distribution. The probabilistic nature of the model is then operated to derive a failure risk probability, defined as a random variable. To do this, our approach is to consider as random all unknown, inaccessible or fluctuating data. In order to propagate uncertainties, a fuzzy set approach provides an appropriate framework for the implementation of a Bayesian model mimicking expert elicitation. The underlying leitmotiv is to insert minimal a priori information in the failure risk model. Our reasoning has been implemented in a software called GoNoGo. The relevancy of this concept is illustrated with theoretical examples and on real-data example coming from the company STMicroelectronics.
88

Modélisation de la propagation électromagnétique en milieux inhomogènes basée sur les faisceaux gaussiens : application à la propagation en atmosphère réaliste et à la radio-occultation entre satellites / Electromagnetic propagation modeling in inhomogeneous media with refractive index gradients based on Gaussian beams : application to realistic atmospheric propagation and radio occultation between satellites

L'hour, Charles-Antoine 19 April 2017 (has links)
La thèse, dont le sujet est "Modélisation de la propagation électromagnétique en milieux à gradient d'indice basée sur les faisceaux gaussiens - Application à la propagation en atmosphère réaliste et à la radio-occultation entre satellites" a été commencée le 2 décembre 2013, au Département ÉlectroMagnétisme et Radar (DEMR) de l'Onera de Toulouse et avec le laboratoire LAPLACE de l'Université Paul Sabatier. Elle est co-financée par l'ONERA et par la Région Midi-Pyrénées. L'encadrement a été assuré par Jérôme Sokoloff (Laplace/UPS, directeur de thèse), Alexandre Chabory (ENAC, co-directeur) et Vincent Fabbro (ONERA). L'École Doctorale est l' "École Doctorale Génie Électrique, Électronique, Télécommunications : du système au nanosystème". Le faisceau gaussien a été principalement utilisé dans la recherche scientifique afin d'étudier les systèmes optiques tels que les lasers. Des études plus rares et plus récentes ont proposé de l'utiliser pour modéliser la propagation des ondes sismiques. Ses propriétés spatiales et spectrales ont amené certains auteurs à étudier son utilisation dans des modèles de propagation atmosphériques. Cette thèse a consisté à développer un modèle, appelé GBAR (Gaussian Beam for Atmospheric Refraction), de propagation troposphérique réaliste et déterministe en utilisant le formalisme des faisceaux gaussiens. La démarche adoptée a consisté à reprendre les équations fondamentales introduites par Cerveny et Popov décrivant de façon itérative la propagation d'un faisceau gaussien en milieu inhomogène, sous hypothèse de haute fréquence (modèle asymptotique). De nouvelles équations ont été développées à partir d'elles pour obtenir une description analytique de la propagation d'un faisceau gaussien dans un milieu troposphérique décrit par les variations spatiales de l'indice de réfraction. L'hypothèse de base pour l'obtention de la formulation analytique est que le gradient de l'indice de réfraction peut être considéré vertical et constant au voisinage du faisceau. Les équations analytiques pour la description de la propagation d'un seul faisceau ont ensuite été étendues à la modélisation d'un champ quelconque dans un milieu troposphérique pouvant contenir de fortes variations du gradient d'indice, y compris des inversions de gradient. Ceci a été réalisé en couplant les équations analytiques avec la procédure de décomposition multi-faisceaux développée dans sa thèse pas Alexandre Chabory. Le modèle GBAR a été validé dans des milieux troposphériques réalistes issus de simulations du modèle météo méso-échelle WRF (Weather Research and Forecasting). Dans un troisième temps, le modèle a été utilisé pour simuler des inversions de données de radio-occultation. Des outils existent pour fournir un modèle d'interprétation de ces données pour estimer les propriétés physiques de l'atmosphère à partir des mesures en phase, amplitude, Doppler et délai des signaux GNSS transmis entre satellites en orbite autour de la Terre / The subject of this PhD thesis is " Electromagnetic propagation modeling in inhomogeneous media with refractive index gradients based on Gaussian beams - Application to realistic atmospheric propagation and radio occultation between satellites ". The study started on december 2nd, 2013 at the DEMR (Département Électromagnétisme et Radar) department of the ONERA research laboratory, in Toulouse, France. It was funded both by the ONERA and Région Midi-Pyrénées. It was supervised by Jérôme Sokoloff (LAPLACE/UPS, thesis director), Alexandre Chabory (ENAC, thesis co-director) and Vincent Fabbro (ONERA). The doctoral school was "École Doctorale Génie Électrique, Électronique, Télécommunications : du système au nanosystème ". The Gaussian beam was mostly used in scientific investigations to study optical systems such as lasers. Rarer and more recent works suggested the use of the Gaussian beam formalism in order to model the propagation of seismic waves. The properties of the Gaussian beam also led some authors to develop models for atmospheric propagation. In this thesis a model based on Gaussian beams called GBAR (Gaussian Beam for Atmospheric Refraction) was developped for tropospheric propagation in realistic and deterministic conditions. The scientific approach consisted in rewritting the fundamental equations introduced by Cerveny and Popov describing iteratively the propagation of a Gaussian beam in inhomogeneous media, under the high-frequency assumption (asymptotic model). New equations were derived from them in order to get analytical equations of the propagation of a Gaussian beam in inhomogeneous media described by the variations of the refractive index. The basic assumption under to get the analytical equations is to consider that the refractive index gradient is vertical and constant around the beam axis. The analytical equations that describe the propagation of a Gaussian beam were extended to model the propagation of an arbitrary field in a tropospheric medium with strong variations and inversions of the refractive index. This was done by coupling the analytical equations with the multibeam expansion procedure developped by Alexandre Chabory in his PhD thesis. The GBAR model was validated in tropospheric conditions, using refractive index grids from the WRF (Weather Research and Forecasting) mesoscale meteorological model. In the third and final phase, the GBAR model was used to simulate Radio Occultation data inversions. Tools exist to allow for interpretations of Radio Occultation data in order to estimate the physical properties of the atmosphere from measured phased, amplitude, Doppler shift and delay of GNSS signals transmitted between satellites orbiting around the Earth
89

Degradation modeling based on a time-dependent Ornstein-Uhlenbeck process and prognosis of system failures / Modélisation des dégradations par un processus d’Ornstein-Uhlenbeck et pronostic de défaillances du système

Deng, Yingjun 24 February 2015 (has links)
Cette thèse est consacrée à la description, la prédiction et la prévention des défaillances de systèmes. Elle se compose de quatre parties relatives à la modélisation stochastique de dégradation, au pronostic de défaillance du système, à l'estimation du niveau de défaillance et à l'optimisation de maintenance.Le processus d'Ornstein-Uhlenbeck (OU) dépendant du temps est introduit dans un objectif de modélisation des dégradations. Sur la base de ce processus, le premier instant de passage d’un niveau de défaillance prédéfini est considéré comme l’instant de défaillance du système considéré. Différentes méthodes sont ensuite proposées pour réaliser le pronostic de défaillance. Dans la suite, le niveau de défaillance associé au processus de dégradation est estimé à partir de la distribution de durée de vie en résolvant un problème inverse de premier passage. Cette approche permet d’associer les enregistrements de défaillance et le suivi de dégradation pour améliorer la qualité du pronostic posé comme un problème de premier passage. Le pronostic de défaillances du système permet d'optimiser sa maintenance. Le cas d'un système contrôlé en permanence est considéré. La caractérisation de l’instant de premier passage permet une rationalisation de la prise de décision de maintenance préventive. L’aide à la décision se fait par la recherche d'un niveau virtuel de défaillance dont le calcul est optimisé en fonction de critères proposés / This thesis is dedicated to describe, predict and prevent system failures. It consists of four issues: i) stochastic degradation modeling, ii) prognosis of system failures, iii) failure level estimation and iv) maintenance optimization. The time-dependent Ornstein-Uhlenbeck (OU) process is introduced for degradation modeling. The time-dependent OU process is interesting from its statistical properties on controllable mean, variance and correlation. Based on such a process, the first passage time is considered as the system failure time to a pre-set failure level. Different methods are then proposed for the prognosis of system failures, which can be classified into three categories: analytical approximations, numerical algorithms and Monte-Carlo simulation methods. Moreover, the failure level is estimated from the lifetime distribution by solving inverse first passage problems. This is to make up the potential gap between failure and degradation records to reinforce the prognosis process via first passage problems. From the prognosis of system failures, the maintenance optimization for a continuously monitored system is performed. By introducing first passage problems, the arrangement of preventive maintenance is simplified. The maintenance decision rule is based on a virtual failure level, which is solution of an optimization problem for proposed objective functions
90

Quantum information with optical continuous variables: nonlocality, entanglement, and error correction / Information quantique avec variables continues optiques: nonlocalité, intrication, et correction d'erreur

Niset, Julien 03 October 2008 (has links)
L'objectif de ce travail de recherche est l'étude des posibilités offertes par une nouvelle approche de l'information quantique basée sur des variables quantiques continues. Lorsque ces variables continues sont portées par le champs éléctromagnétique, un grand nombre de protocoles d'information quantique peuvent être implémentés à l'aide de lasers et d'éléments d'optique linéaire standards. Cette simplicité expérimentale rend cette approche très intéressantes d'un point de vue pratique, en particulier pour le développement des futurs réseaux de communications quantiques.<p><p>Le travail peut se diviser en deux parties complémentaires. Dans la première partie, plus fondamentale, la relation complexe qui existe entre l'intrication et la nonlocalité de la mécanique quantique est étudiée sur base des variables optiques continues. Ces deux ressources étant essentielles pour l'information quantique, il est nécessaire de bien les comprendre et de bien les caractériser. Dans la seconde partie, orientée vers des applications concrètes, le problème de la correction d'erreur à variables continues est étudié. Pouvoir transmettre et manipuler l'information sans erreurs est nécessaire au bon développemnent de l'information quantique, mais, en pratique, les erreurs sont inévitables. Les codes correcteurs d'erreurs permettent de détecter et corriger ces erreures de manière efficace.<p> / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished

Page generated in 0.0587 seconds