• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 31
  • 3
  • 1
  • 1
  • Tagged with
  • 93
  • 34
  • 31
  • 30
  • 22
  • 20
  • 17
  • 16
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Mitigating error propagation of decision feedback equalization in boradband communications

Wang, Rujiang 13 April 2018 (has links)
L'interférence inter-symboles (ISI) représente un des obstacles majeurs à l'obtention de communications numériques fiables. Sauf pour le cas particulier des systèmes de signalisation à réponse partielle, le taux ISI doit être réduit le plus possible pour obtenir les communications numériques les plus fiables possibles. Pour les communications numériques à large bande , une des techniques les plus utilisées pour minimiser le taux ISI est l'égalisation. Les égalisateurs décisionnels à contre-réaction (DFE) sont parmi les structures les plus fréquemment utilisées, à cause de leur simplicité et de leur bonne performance. Cette thèse s'attaque au problème de la diminution de la propagation des erreurs dans un egalisateur décisionnel à contre réaction basé sur l'erreur quadratique moyenne (MMSE-DFE). Les DFE constituent une part importante des communications numériques modernes. De façon à réduire la propagation des erreurs dans les DFE, ce qui est de fait la limitation la plus importante de ceux-ci, un modèle basé sur l'erreur quadratique moyenne (MSE) est proposé. En s'appuyant sur ce nouveau modèle, les pondérations des filtres DFE, les éminceurs d'effacement (erasure slicer) et les éminceurs souples (soft slicer) peuvent être optimisés. Après une analyse théorique, on procède aux simulations numériques de ces modèles. Ces derniers sont relativement simples à implanter, ce qui contraste avec les modèles traditionnels basés sur les chaînes de Markov. Simultanément, on obtient une précision de prédiction qui se compare très avantageusement à celle obtenue avec les critères conventionnels basés sur l'erreur quadratique moyenne. On constate que l'éminceur souple optimal obtenu excède celui obtenu par l'optimisation conjointe DFE des pondérations et un éminceur à effacement. Les filtres de pondération DFE avec un éminceur optimal souple peuvent être considérés comme un sytème MMSE DFE vrai. La seconde contribution de ce travail de thèse consiste en une nouvelle forme de codage qui interagit avec la propagation des erreurs dans un DFE pour les modulations d'ordre supérieur. Les bits redondantes dans le diagramme d'éparpillement de la nouvelle modulation obtenue augmentent de façon dramatique l'immunité à la propagation des erreurs pour les symboles ayant le même niveau moyen d'énergie. De plus, la méthode proposée n'introduit pas de délais de décodage additionnels et la robustesse à la propagation des erreurs est néanmoins maintenue, même lorsque les pondérations de contre-réaction sont grandes par rapport à celles d'un DFE conventionnel. Globalement, cette thèse explore plusieurs moyens pour combattre la propagation des erreurs dans les DFE. Cette propagation est difficile à analyser surtout à cause de la non-linéarité de l'éminceur dans la boucle de contre réaction. Notre étude démontre que l'introduction de la propagation des erreurs dans le modèle du DFE-MSE conduit à une meilleure optimisation du DFE. L'approximation statistique du bruit et de l'ISI avant l'éminceur s'avère très appropriée pour la simulation numérique. Des connaissances additionnelles sur l'utilisation des DFE dans les canaux large bande ont également été obtenues. Un élément fondamental de nos travaux est la démonstration de l'exigence cyclique en transmission pour les égalisateurs à porteuse unique dans le domaine de la fréquence (SC-FDE). Bien que le traitement du signal en milieu fréquentiel soit largement accepté comme technique pour réduire les efforts de calcul requis, l'analyse théorique et la sirnulation révèlent qu'il y a également un autre avantage au traitement dans le domaine des fréquences. En effet, on montre que lorsque la réponse impulsionnelle du canal est plus longue que le préfixe cyclique du SC-FDE, un traitement dans le domaine fréquentiel amène une meilleure fidélité du signal qu'un traitement dans le temps. On a également regardé l'effet de la limitation de la largeur de bande pour un SC-FDE. Les résultats obtenus montrent qu'il existe une diversité de fréquences aux deux extrémités des secteurs des FFT. Ceci peut amener des idées directrices pour la réalisation physique des SC-FDE, particulièrement pour tenir compte du fait que les caractéristiques des secteurs de FFT requièrent des algorithmes différents pour un canal soumis à l'évanouissement.
72

Capital humain des femmes et utilisation de la biomasse verte : évidence de l'Afrique subsaharienne

Ouoba, Yienouyaba Gaetan 16 March 2021 (has links)
Ce mémoire analyse les facteurs déterminants de l’utilisation de la biomasse verte en Afrique subsaharienne (ASS), particulièrement en Ouganda et en Éthiopie. Pour ce faire, l’étude se focalise sur l’aspect endogène du capital humain avec comme proxy l’éducation. En effet, la littérature existante occulte le caractère endogène de l’éducation qui pourrait biaiser les résultats. Les données utilisées proviennent des Enquêtes démographiques et sanitaires (EDS) 2015-2016 pour l’Ouganda, et 2008 pour l’Éthiopie. Afin d’éliminer tout biais lié à la non-prise en compte du caractère endogène de l’éducation, nous nous basons sur la variabilité de la participation à l’école introduite par la réforme au niveau du primaire dans ces deux pays. Nos résultats confirment la majorité des études empiriques en montrant que l’éducation a un effet positif sur le choix de la biomasse verte comme source d’énergie. Ces résultats rappellent l’importance de faire de l’éducation des filles un instrument de politique publique pour faire face aux enjeux climatiques en Afrique.
73

From Classical to Quantum Secret Sharing

Chouha, Paul-Robert 04 1900 (has links)
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ). / In this thesis, we will focus on a cryptographic primitive known as secret sharing. We will explore both the classical and quantum domains of such schemes culminating our study by presenting a new protocol for sharing a quantum secret using the minimal number of possible quantum shares i.e. one single quantum share per participant. We will start our study by presenting in the preliminary chapter, a brief mathematical survey of quantum information theory (QIT) which has for goal primarily to establish the notation used throughout the manuscript as well as presenting a précis of the mathematical properties of the Greenberger-Horne-Zeilinger (GHZ)-state, which is used thoroughly in cryptography and in communication games. But as we mentioned above, our main focus will be on cryptography. In chapter two, we will pay a close attention to classical and quantum error corrections codes (QECC) since they will become of extreme importance when we introduce quantum secret sharing schemes in the following chapter. In the first part of chapter three, we will focus on classical secret shearing, presenting a general framework for such a primitive all the while illustrating the abstract concepts with examples presented both for their historical and analytical relevance. This first part (chapters one and two) will pave the way for our exposition of the theory of Quantum Secret Sharing (QSS), which will be the focus of the second part of chapter three. We will present then the most general theorems and definitions known to date for the construction of such primitives putting emphasis on the special case of quantum threshold schemes. We will show how quantum error correction codes are related to QSS schemes and show how this relation leads to a very solid correspondence to the point that QECC’s are closer analogues to QSS schemes than are the classical secret sharing primitives. Finally, we will present one of the three results we have in A. Broadbent, P.-R. Chouha, A. Tapp (2009) in particular, a secure minimal quantum threshold protocol (the other two results deal with communication complexity and the classical simulation of the GHZ-state).
74

L'impact de la finance de marché sur le comportement d'investissement des entreprises : une confrontation des approches microéconomique et macroéconomique

Guy, Yann 03 July 2012 (has links) (PDF)
La recherche porte sur les liens entre la stratégie de croissance des entreprises non financières et les conditions de son financement en France depuis le début des années 1980. Selon cet objectif, le travail empirique consiste à entreprendre une comparaison entre les phénomènes observés au plan microéconomique sur la base des comptes consolidés des grands groupes cotés, et au plan macroéconomique à partir des données de la comptabilité nationale. La thèse met à jour deux points essentiels. Dans le cadre du régime d'accumulation financiarisé et sous l'impulsion des groupes cotés, l'investissement des entreprises françaises (i) a un caractère dépressif sur le long terme, qui s'accentue nettement en fin de période ; et (ii) est pris dans un cycle financier déflationniste. Nous testons ces évolutions à travers une modélisation VECM sur données de comptabilité nationale et par l'estimateur GMM en première différence sur un panel des groupes cotés au SBF 250. Les équations de comportement estimées sont issues des modèles SFC post-keynésiens.
75

Polynomes sur les corps finis pour la cryptographie / Polynomials over finite fields for cryptography

Caullery, Florian 28 May 2014 (has links)
Les fonctions de F_q dans lui-même sont des objets étudiés dans de divers domaines tels que la cryptographie, la théorie des codes correcteurs d'erreurs, la géométrie finie ainsi que la géométrie algébrique. Il est bien connu que ces fonctions sont en correspondance exacte avec les polynômes en une variable à coefficients dans F_q. Nous étudierons trois classes de polynômes particulières: les polynômes Presque Parfaitement Non linéaires (Almost Perfect Nonlinear (APN)), les polynômes planaires ou parfaitement non linéaire (PN) et les o-polynômes.Les fonctions APN sont principalement étudiées pour leurs applications en cryptographie. En effet, ces fonctions sont celles qui offre la meilleure résistance contre la cryptanalyse différentielle.Les polynômes PN et les o-polynômes sont eux liés à des problèmes célèbres de géométrie finie. Les premiers décrivent des plans projectifs et les seconds sont en correspondance directe avec les ovales et hyperovales de P^2(F_q). Néanmoins, leurs champ d'application a été récemment étendu à la cryptographie symétrique et à la théorie des codes correcteurs d'erreurs.L'un des moyens utilisé pour compléter la classification est de considérer les polynômes présentant l'une des propriétés recherchées sur une infinité d'extension de F_q. Ces fonctions sont appelées fonction APN (respectivement PN ou o-polynômes) exceptionnelles.Nous étendrons la classification des polynômes APN et PN exceptionnels et nous donneront une description complète des o-polynômes exceptionnels. Les techniques employées sont basées principalement sur la borne de Lang-Weil et sur des méthodes élémentaires. / Functions from F_q to itself are interesting objects arising in various domains such as cryptography, coding theory, finite geometry or algebraic geometry. It is well known that these functions admit a univariate polynomial representation. There exists many interesting classes of such polynomials with plenty of applications in pure or applied maths. We are interested in three of them: Almost Perfect Nonlinear (APN) polynomials, Planar (PN) polynomials and o-polynomials. APN polynomials are mostly used in cryptography to provide S-boxes with the best resistance to differential cryptanalysis and in coding theory to construct double error-correcting codes. PN polynomials and o-polynomials first appeared in finite geometry. They give rise respectively to projective planes and ovals in P^2(F_q). Also, their field of applications was recently extended to symmetric cryptography and error-correcting codes.A complete classification of APN, PN and o-polynomials is an interesting open problem that has been widely studied by many authors. A first approach toward the classification was to consider only power functions and the studies were recently extended to polynomial functions.One way to face the problem of the classification is to consider the polynomials that are APN, PN or o-polynomials over infinitely many extensions of F_q, namely, the exceptional APN, PN or o-polynomials.We improve the partial classification of exceptional APN and PN polynomials and give a full classification of exceptional o-polynomials. The proof technique is based on the Lang-Weil bound for the number of rational points in algebraic varieties together with elementary methods.
76

Méthodes d’analyse et de modélisation pertinentes pour la propagation des ondes à l’échelle méso dans des milieux hétérogènes / Relevant numerical methods for meso-scale wave propagation in heterogeneous media

Xu, Wen 17 July 2018 (has links)
Les travaux de la présente thèse portent sur l’estimation d'erreur a posteriori pour les solutions numériques par éléments finis de l'équation des ondes élastiques dans les milieux hétérogènes. Deux types d’estimation ont été développés. Le premier considère directement l’équation élastodynamique et conduit à un nouvel estimateur d'erreur a posteriori explicite en norme L∞ en temps. Les principales caractéristiques de cet estimateur explicite sont l'utilisation de la méthode de résidus et le développement de reconstructions en temps et en espace selon les différentes régularités exigées par les différents termes contribuant à l’obtention d’une borne supérieure. L’analyse numérique de cet estimateur dans le cas des maillages uniformes montre qu’il assure bien une borne supérieure mais avec une propriété asymptotique qui reste à améliorer. Le deuxième type d’estimateur d’erreur est développé dans le contexte de la propagation des ondes à haute fréquence dans des milieux hétérogènes à l’échelle mésoscopique. Il s’agit d’une nouvelle erreur en résidus basée sur l'équation de transfert radiatif, qui est obtenue par un développement asymptotique multi-échelle de l'équation d'onde en utilisant la transformation de Wigner en espace-temps. Les résidus sont exprimés en termes de densités énergétiques calculés dans l’espace des phases pour les solutions d’onde numériques transitoires par éléments finis. L’analyse numérique de cette erreur appliquée aux milieux homogènes et hétérogènes en 1D a permis de valider notre approche. Les champs d’application visés sont la propagation des ondes sismiques dans les milieux géophysiques ou la propagation des ondes ultrasonores dans les milieux polycristallins. / This thesis work deals with a posteriori error estimates for finite element solutions of the elastic wave equation in heterogeneous media. Two different a posteriori estimation approaches are developed. The first one, in a classical way, considers directly the elastodynamic equation and results in a new explicit error estimator in a non-natural L∞ norm in time. Its key features are the use of the residual method and the development of space and time reconstructions with respect to regularities required by different residual operators contributing to the proposed error bound. Numerical applications of the error bound with different mesh sizes show that it gives rise to a fully computable upper bound. However, its effectivity index and its asymptotic accuracy remain to be improved. The second error estimator is derived for high frequency wave propagation problem in heterogeneous media in the weak coupling regime. It is a new residual-type error based on the radiative transfer equation, which is derived by a multi-scale asymptotic expansion of the wave equation in terms of the spatio-temporal Wigner transforms of wave fields. The residual errors are in terms of angularly resolved energy quantities of numerical solutions of waves by finite element method. Numerical calculations of the defined errors in 1D homogeneous and heterogeneous media allow validating the proposed error estimation approach. The application field of this work is the numerical modelling of the seismic wave propagation in geophysical media or the ultrasonic wave propagation in polycrystalline materials.
77

De novo algorithms to identify patterns associated with biological events in de Bruijn graphs built from NGS data / Algorithmes de novo pour l'identification de motifs associés à des événements biologiques dans les graphes de De Bruijn construits à partir de données NGS

Ishi Soares de Lima, Leandro 23 April 2019 (has links)
L'objectif principal de cette thèse est le développement, l'amélioration et l'évaluation de méthodes de traitement de données massives de séquençage, principalement des lectures de séquençage d'ARN courtes et longues, pour éventuellement aider la communauté à répondre à certaines questions biologiques, en particulier dans les contextes de transcriptomique et d'épissage alternatif. Notre objectif initial était de développer des méthodes pour traiter les données d'ARN-seq de deuxième génération à l'aide de graphes de De Bruijn afin de contribuer à la littérature sur l'épissage alternatif, qui a été exploré dans les trois premiers travaux. Le premier article (Chapitre 3, article [77]) a exploré le problème que les répétitions apportent aux assembleurs de transcriptome si elles ne sont pas correctement traitées. Nous avons montré que la sensibilité et la précision de notre assembleur local d'épissage alternatif augmentaient considérablement lorsque les répétitions étaient formellement modélisées. Le second (Chapitre 4, article [11]) montre que l'annotation d'événements d'épissage alternatifs avec une seule approche conduit à rater un grand nombre de candidats, dont beaucoup sont importants. Ainsi, afin d'explorer de manière exhaustive les événements d'épissage alternatifs dans un échantillon, nous préconisons l'utilisation combinée des approches mapping-first et assembly-first. Étant donné que nous avons une énorme quantité de bulles dans les graphes de De Bruijn construits à partir de données réelles d'ARN-seq, qui est impossible à analyser dans la pratique, dans le troisième travail (Chapitre 5, articles [1, 2]), nous avons exploré théoriquement la manière de représenter efficacement et de manière compacte l'espace des bulles via un générateur des bulles. L'exploration et l'analyse des bulles dans le générateur sont réalisables dans la pratique et peuvent être complémentaires aux algorithmes de l'état de l'art qui analysent un sous-ensemble de l'espace des bulles. Les collaborations et les avancées sur la technologie de séquençage nous ont incités à travailler dans d'autres sous-domaines de la bioinformatique, tels que: études d'association à l'échelle des génomes, correction d'erreur et assemblage hybride. Notre quatrième travail (Chapitre 6, article [48]) décrit une méthode efficace pour trouver et interpréter des unitigs fortement associées à un phénotype, en particulier la résistance aux antibiotiques, ce qui rend les études d'association à l'échelle des génomes plus accessibles aux panels bactériens, surtout ceux qui contiennent des bactéries plastiques. Dans notre cinquième travail (Chapitre 7, article [76]), nous évaluons dans quelle mesure les méthodes existantes de correction d'erreur ADN à lecture longue sont capables de corriger les lectures longues d'ARN-seq à taux d'erreur élevé. Nous concluons qu'aucun outil ne surpasse tous les autres pour tous les indicateurs et est le mieux adapté à toutes les situations, et que le choix devrait être guidé par l'analyse en aval. Les lectures longues d'ARN-seq fournissent une nouvelle perspective sur la manière d'analyser les données transcriptomiques, puisqu'elles sont capables de décrire les séquences complètes des ARN messagers, ce qui n'était pas possible avec des lectures courtes dans plusieurs cas, même en utilisant des assembleurs de transcriptome de l'état de l'art. En tant que tel, dans notre dernier travail (Chapitre 8, article [75]), nous explorons une méthode hybride d'assemblage d'épissages alternatifs qui utilise des lectures à la fois courtes et longues afin de répertorier les événements d'épissage alternatifs de manière complète, grâce aux lectures courtes, guidé par le contexte intégral fourni par les lectures longues / The main goal of this thesis is the development, improvement and evaluation of methods to process massively sequenced data, mainly short and long RNA-sequencing reads, to eventually help the community to answer some biological questions, especially in the transcriptomic and alternative splicing contexts. Our initial objective was to develop methods to process second-generation RNA-seq data through de Bruijn graphs to contribute to the literature of alternative splicing, which was explored in the first three works. The first paper (Chapter 3, paper [77]) explored the issue that repeats bring to transcriptome assemblers if not addressed properly. We showed that the sensitivity and the precision of our local alternative splicing assembler increased significantly when repeats were formally modeled. The second (Chapter 4, paper [11]), shows that annotating alternative splicing events with a single approach leads to missing out a large number of candidates, many of which are significant. Thus, to comprehensively explore the alternative splicing events in a sample, we advocate for the combined use of both mapping-first and assembly-first approaches. Given that we have a huge amount of bubbles in de Bruijn graphs built from real RNA-seq data, which are unfeasible to be analysed in practice, in the third work (Chapter 5, papers [1, 2]), we explored theoretically how to efficiently and compactly represent the bubble space through a bubble generator. Exploring and analysing the bubbles in the generator is feasible in practice and can be complementary to state-of-the-art algorithms that analyse a subset of the bubble space. Collaborations and advances on the sequencing technology encouraged us to work in other subareas of bioinformatics, such as: genome-wide association studies, error correction, and hybrid assembly. Our fourth work (Chapter 6, paper [48]) describes an efficient method to find and interpret unitigs highly associated to a phenotype, especially antibiotic resistance, making genome-wide association studies more amenable to bacterial panels, especially plastic ones. In our fifth work (Chapter 7, paper [76]), we evaluate the extent to which existing long-read DNA error correction methods are capable of correcting high-error-rate RNA-seq long reads. We conclude that no tool outperforms all the others across all metrics and is the most suited in all situations, and that the choice should be guided by the downstream analysis. RNA-seq long reads provide a new perspective on how to analyse transcriptomic data, since they are able to describe the full-length sequences of mRNAs, which was not possible with short reads in several cases, even by using state-of-the-art transcriptome assemblers. As such, in our last work (Chapter 8, paper [75]) we explore a hybrid alternative splicing assembly method, which makes use of both short and long reads, in order to list alternative splicing events in a comprehensive manner, thanks to short reads, guided by the full-length context provided by the long reads
78

Synthèse Automatique de Contrôleurs avec Contraintes de Sûreté de Fonctionnement

Rochet, Raphaël 18 September 1996 (has links) (PDF)
Cette thèse propose de nouvelles méthodes de synthèse automatique des contrôleurs internes aux circuits numériques. Elles permettent en particulier d'intégrer, directement au niveau du contrôleur, des dispositifs de détection d'erreurs ou de tolérance aux fautes. En ce qui concerne la détection d'erreurs, quatre flots de synthèse ont été implantés. Deux d'entre eux utilisent la méthode classique de duplication et comparaison, tandis que les deux autres sont basés sur la vérification d'un flot de contrôle par analyse de signature. La signature est une information permettant de caractériser la séquence parcourue d'états du contrôleur. La vérification du flot de contrôle correspond à la détection des séquences illégales d'états. En ce qui concerne la tolérance aux fautes, quatre flots ont été implantés. Deux d'entre eux utilisent la méthode classique de triplement et vote majoritaire, tandis que les deux autres sont basés sur l'utilisation d'un code correcteur d'erreurs lors du codage du contrôleur. Une erreur survenant dans le code de l'état courant peut ainsi être corrigée en utilisant les propriétés du code correcteur choisi. L'analyse des résultats de synthèse de nombreux exemples montre l'intérêt des nouvelles méthodes de détection et de tolérance proposées, et des algorithmes de synthèse implantés. Ainsi, ces méthodes et ces algorithmes permettent, entre autres, de définir de nouveaux compromis coût/sûreté de fonctionnement, en réduisant sensiblement le coût matériel de la redondance implantée. L'automatisation des traitements permet de plus de réduire le coût de conception lié à l'amélioration de la sûreté de fonctionnement des contrôleurs, en particulier lorsque des techniques plus pointues sont préférées à la redondance massive
79

Erreurs de prévision d'un modèle océanique barotrope du Golfe de Gascogne en réponse aux incertitudes sur les forçages atmosphériques : caractérisation et utilisation dans un schéma d'assimilation de données à ordre réduit

Lamouroux, Julien 17 February 2006 (has links) (PDF)
Nous avons caractérisé et estimé les erreurs du modèle océanique barotrope MOG2D en réponse aux incertitudes sur les forçages météorologiques à haute fréquence (pression et vent ARPEGE), dans le Golfe de Gascogne et la Manche. Les covariances d'erreur sont obtenues par méthode d'ensemble sous forme d'EOFs d'ensemble multivariés. En Manche, les erreurs océaniques sont fortement liées aux erreurs de vent, tandis que sur le Golfe de Gascogne elles sont surtout contrôlées par les incertitudes sur la pression. Puis ces statistiques d'erreur sont utilisées dans le système d'assimilation de données à ordre réduit SEQUOIA/MOG2D pour évaluer le contrôle du modèle via des expériences jumelles, dans différentes configurations du système et dans plusieurs scenarii de réseau d'observation in situ et altimétriques. Moyennant une correction du forçage atmosphérique, les réseaux marégraphiques permettent un contrôle efficace de l'erreur modèle et apparaissent complémentaires des réseaux de radars HF.
80

Etude théorique de la distribution quantique de clés à variables continues

Leverrier, Anthony 20 November 2009 (has links) (PDF)
Cette thèse porte sur la distribution quantique de clés, qui est une primitive cryptographique permettant à deux correspondants éloignés, Alice et Bob, d'établir une clé secrète commune malgré la présence potentielle d'un espion. On s'intéresse notamment aux protocoles " à variables continues " où Alice et Bob encodent l'information dans l'espace des phases. L'intérêt majeur de ces protocoles est qu'ils sont faciles à mettre en œuvre car ils ne requièrent que des composants télécom standards. La sécurité de ces protocoles repose sur les lois de la physique quantique : acquérir de l'information sur les données échangées par Alice et Bob induit nécessairement un bruit qui révèle la présence de l'espion. Une étape particulièrement délicate pour les protocoles à variables continues est la " réconciliation " durant laquelle Alice et Bob utilisent leurs résultats de mesure classiques pour se mettre d'accord sur une chaîne de bits identiques. Nous proposons d'abord un algorithme de réconciliation optimal pour le protocole initial, puis introduisons un nouveau protocole qui résout automatiquement le problème de la réconciliation grâce à l'emploi d'une modulation discrète. Parce que les protocoles à variables continues sont formellement décrits dans un espace de Hilbert de dimension infinie, prouver leur sécurité pose des problèmes mathématiques originaux. Nous nous intéressons d'abord à des symétries spécifiques de ces protocoles dans l'espace des phases. Ces symétries permettent de simplifier considérablement l'analyse de sécurité. Enfin, nous étudions l'influence des effets de tailles finies, tels que l'estimation du canal quantique, sur les performances des protocoles.

Page generated in 0.0622 seconds