• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 31
  • 3
  • 1
  • 1
  • Tagged with
  • 93
  • 34
  • 31
  • 30
  • 22
  • 20
  • 17
  • 16
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Sur les codes de convolution /

Bonneau, Dave. January 2008 (has links) (PDF)
Thèse (M.Sc.)--Université Laval, 2008. / Bibliogr.: f. [102]-103. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
2

Divisibilité des codes cycliques : applications et prolongements /

Levy-Dit-Vehel, Françoise. January 1900 (has links)
Th. doct.--Informatique--Paris 6, 1994. / 1994 d'après la déclaration du dépot légal. INRIA = Institut national de recherche en informatique et en automatique. Bibliogr. p. 191-196. Index.
3

Codage multi-couches pour systèmes de communication par satellites

Cantillo, Juan 19 May 2008 (has links) (PDF)
Les architectures satellitaires actuelles pour distribution de services interactifs IP et la connectivité large bande sont basées sur les principes en couches du modèle de référence OSI. Il ne fait aucun doute que l'approche classique basée sur la résolution de problèmes spécifiques à chaque couche dans le cadre du modèle de référence a été très fructueuse jusqu'à aujourd'hui. De nombreux protocoles ont été adaptés aux environnements satellite, et les couches physiques actuelles opèrent près de leurs limites théoriques de performance grâce à l'état très avancé des techniques de modulation et de codage. Cependant, les caractéristiques uniques des transmissions par satellite font que de nombreux et importants problèmes tels que la transparence de la mobilité, le respect des niveaux de services négociés ou la fiabilisation à grande échelle des communications point à multipoint n'ont pas encore trouvé de solutions satisfaisantes dans le cadre de l'approche traditionnelle en couches. L'approche modulaire n'appréhende que moyennement les interactions complexes qui existent entre les couches ainsi que celles avec le médium sans fil, et de ce fait le design actuel fait apparaître des redondances et inefficacités affectant les performances globales. De nombreux chercheurs ont donc commencé à aborder ces différents problèmes de manière holistique, en mettant l'accent sur les avantages potentiels d'une collaboration entre couches au-delà du modèle de référence. La flexibilité résultant d'échanges accrus entre les différentes couches offre en effet de riches possibilités d'optimisation globales, favorisant une meilleure intégration des satellites dans un environnement réseau de plus en plus hétérogène. Cette "optimisation multi-couches" apparaît aujourd'hui comme un domaine de recherche très prometteur pour les communications satellitaires et sans fil en général. Elle se caractérise par une approche pluridisciplinaire mêlant différents aspects de la théorie de l'information, du design de protocoles réseau et du traitement du signal avancé. Force est de constater que de nombreuses techniques multi-couches récemment proposées ont commencé à traiter avec succès quelques uns des problèmes énumérés auparavant, ce qui explique que nombreux protocoles, standards et systèmes de nouvelle génération ont déjà commencé à intégrer ces principes de facto. Cette thèse aborde les problèmes liés à la fiabilité des transmissions satellitaires depuis la perspective de l'optimisation multi-couches. S'agissant d'un aspect crucial des communications satellitaires ayant des implications à presque tous les niveaux de la communication - tels que la qualité de service, la complexité des terminaux ou l'utilisation du spectre - le contrôle des erreurs est sans doute l'une des thématiques satellite où les techniques multi-couche peuvent jouer un rôle important. Après une introduction dédiée aux techniques multi couche en général, la première partie de ce travail s'intéresse à la stratégie de contrôle des erreurs des satellites DVB de première génération, où sont identifiées des redondances liées à une gestion inefficace du problème par le décodeur canal et les couches d'adaptation. Une solution basée sur une approche multi-couche réduisant ces inefficacités et améliorant l'utilisation des ressources est alors proposée. Dans un deuxième temps, nous nous consacrons au standard satellite DVB de nouvelle génération et à la définition de GSE, sa nouvelle couche d'adaptation pour IP. Nous montrons comment GSE intègre de nombreux concepts multi-couches, parmi lesquels ceux liés à une gestion des erreurs basée sur les considérations de la première partie de ce travail. La troisième et dernière partie de ce travail présente HERACLES. Ce nouveau mécanisme multi-couches permet d'apporter des capacités accrues de correction d'erreurs et de synchronisation paquets à tout système de communication par paquets sans consommation supplémentaire de bande. HERACLES a été entièrement développé dans le cadre de cette thèse et a fait l'objet de deux brevets récents. Les résultats globaux de ce travail montrent les possibilités offertes par l'approche multi-couches au problème du contrôle des erreurs, et ouvrent d'excellentes perspectives de déploiement dans les réseaux futurs.
4

Contribution à l'étude du traitement des erreurs au niveau lexico-syntaxique dans un texte écrit en français

Strube de Lima, Vera Lúcia. Courtin, Jacques. Boitet, Christian. Peccoud, François. January 2008 (has links)
Reproduction de : Thèse de doctorat : Informatique : Grenoble 1 : 1990. / Titre provenant de l'écran-titre. Bibliogr. p. 176-186.
5

Étude des codes correcteurs d'erreurs pour faisceaux hertziens à grand nombre d'états : application au MAQ 64 /

Kamanou, Pierre-François. January 1988 (has links)
Th. doct-ing.--Informatique--École nationale supérieure des télécommunications, 1988. / Bibliogr. p. 157-160.
6

Les modulations codées pour les communications avec les mobiles /

Boullé, Kitty. January 1992 (has links)
Th. doct.--Électronique et communications--Paris--ENST, 1992. / Notes bibliogr.
7

Complexité du décodage des codes stabilisateurs quantiques / Hardness of decoding stabilizer codes

Iyer Sridharan, Pavithran January 2014 (has links)
Résumé : Ce mémoire porte sur l’étude de la complexité du problème du décodage des codes stabilisateurs quantiques. Les trois premiers chapitres introduisent les notions nécessaires pour comprendre notre résultat principal. D’abord, nous rappelons les bases de la théorie de la complexité et illustrons les concepts qui s’y rattachent à l’aide d’exemples tirés de la physique. Ensuite, nous expliquons le problème du décodage des codes correcteurs classiques. Nous considérons les codes linéaires sur le canal binaire symétrique et nous discutons du célèbre résultat de McEliece et al. [1]. Dans le troisième chapitre, nous étudions le problème de la communication quantique sur des canaux de Pauli. Dans ce chapitre, nous introduisons le formalisme des codes stabilisateurs pour étudier la correction d’erreur quantique et mettons en évidence le concept de dégénérescence. Le problème de décodage des codes stabilisateurs quantiques négligeant la dégénérescence est appelé «quantum maximum likelihood decoding»(QMLD). Il a été démontré que ce problème est NP-complet par Min Hseiu Heish et al., dans [2]. Nous nous concentrons sur la stratégie optimale de décodage, appelée «degenerate quantum maximum likelihood decoding »(DQMLD), qui prend en compte la présence de la dégénérescence et nous mettons en évidence quelques instances pour lesquelles les performances de ces deux méthodes diffèrent drastiquement. La contribution principale de ce mémoire est de prouver que DQMLD est considérablement plus difficile que ce que les résultats précédents indiquaient. Dans le dernier chapitre, nous présentons notre résultat principal (Thm. 5.1.1), établissant que DQMLD est #P-complet. Pour le prouver, nous démontrons que le problème de l’évaluation de l’énumérateur de poids d’un code linéaire, qui est #P-complet, se réduit au problème DQMLD. Le résultat principal de ce mémoire est présenté sous forme d’article dans [3] et est présentement considéré pour publication dans IEEE Transactions on Information Theory. Nous montrons également que, sous certaines conditions, les résultats de QMLD et DQMLD coïncident. Il s’agit d’une amélioration par rapport aux résultats obtenus dans [4, 5]. // Abstract : This thesis deals with the study of computational complexity of decoding stabilizer codes. The first three chapters contain all the necessary background to understand the main result of this thesis. First, we explain the necessary notions in computational complexity, introducing P, NP, #P classes of problems, along with some examples intended for physicists. Then, we explain the decoding problem in classical error correction, for linear codes on the binary symmetric channel and discuss the celebrated result of Mcleicee et al., in [1]. In the third chapter, we study the problem of quantum communication, over Pauli channels. Here, using the stabilizer formalism, we discuss the concept of degenerate errors. The decoding problem for stabilizer codes, which simply neglects the presence of degenerate errors, is called quantum maximum likelihood decoding (QMLD) and it was shown to be NP-complete, by Min Hseiu Heish et al., in [2]. We focus on the problem of optimal decoding, called degenerate quantum maximum likelihood decoding (DQMLD), which accounts for the presence of degenerate errors. We will highlight some instances of stabilizer codes, where the presence of degenerate errors causes drastic variations between the performances of DQMLD and QMLD. The main contribution of this thesis is to demonstrate that the optimal decoding problem for stabilizer codes is much harder than what the previous results had anticipated. In the last chapter, we present our own result (in Thm. 5.1.1), establishing that the optimal decoding problem for stabilizer codes, is #P-complete. To prove this, we demonstrate that the problem of evaluating the weight enumerator of a binary linear code, which is #P-complete, can be reduced (in polynomial time) to the DQMLD problem, see (Sec. 5.1). Our principal result is also presented as an article in [3], which is currently under review for publication in IEEE Transactions on Information Theory. In addition to the main result, we also show that under certain conditions, the outputs of DQMLD and QMLD always agree. We consider the conditions developed by us to be an improvement over the ones in [4, 5].
8

Intégration des réseaux sur silicium optimisation des preformances des couches physique et liaison /

Philippe, Jean-Marc Sentieys, Olivier. Pillement, Sébastien January 2005 (has links) (PDF)
Thèse doctorat : Traitement du signal et télécommunications : Rennes 1 : 2005. / Bibliogr. p. 175-183.
9

Codage pour le canal d'enregistrement magnétique /

Siala, Mohamed. January 1995 (has links)
Th. doct.--Electronique et communications--Paris--ENST, 1995. / Bibliogr. p. 331-338. Résumé en anglais et en français. Introd. et conclusion en français.
10

Utilisation des déformations spatiales en assimilation de données / Use of spatial deformation in data assimilation

Legrand, Raphaël 10 December 2015 (has links)
L'assimilation de données permet de construire un état initial du modèle (l'analyse) à partir de deux sources d'information : les observations disponibles et une prévision récente (l'ébauche). L'importance relative de chacune des sources dépend du modèle d'erreurs qui leur est attribué. Le modèle le plus commun en prévision numérique du temps (PNT) consiste à formuler l'erreur d'ébauche comme un incrément additif en amplitude et, avec une approche probabiliste, de spécifier sa fonction de densité de probabilité (PDF) par une Gaussienne spécifiée avec une moyenne nulle et une matrice de covariance B. Le premier problème abordé durant cette thèse est le manque de dépendance au flux des modélisations de B. Le deuxième est l'écartement à l'hypothèse Gaussienne notamment en présence d'erreurs de déplacement. La démarche suivie est d'utiliser des déformations spatiales dans un cadre ensembliste pour raffiner la modélisation des corrélations d'erreurs d'ébauche, et de corriger les erreurs de déplacement pour tenter de se rapprocher de l'hypothèse Gaussienne. La première partie du travail de thèse consiste à améliorer la modélisation de B, en prenant en compte objectivement l'anisotropie des corrélations d'erreurs d'ébauche à l'aide de déformations spatiales estimées statistiquement à partir d'un ensemble de prévisions générées avec un ensemble d'assimilation (EDA). Cette méthode statistique (ST) est appliquée à une simulation réelle du modèle global de Météo-France ARPEGE, et son efficacité est comparée à celle de la transformée géostrophique (GT) à l'aide de diagnostics d'anisotropie. Les résultats montrent que la ST est plus efficace que la GT avec une prise en compte plus systématique de l'anisotropie des corrélations spatiales. Dans une deuxième partie, une documentation de la non-Gaussianité (NG) des erreurs d'ébauche d'AROME, le modèle à échelle convective de Météo-France, est proposée. La NG des distributions d'erreurs d'ébauche, diagnostiquées à partir d'un EDA, est quantifiée par un indice uniquement basé sur leur asymétrie et leur aplatissement. La NG diagnostiquée a une forte dépendance spatiale et temporelle, avec des structures spatiales qui suivent les structures météorologiques. Le lien avec certains processus non-linéaires , liés par exemple à la présence de nuages, est notamment observé. Les diagnostics montrent également que le processus d'analyse réduit fortement la NG observée dans l'ébauche, et que la vorticité et la divergence sont les variables de contrôle de l'assimilation les moins Gaussiennes. Une des causes possibles de la NG étant la présence d'erreurs de déplacement, la troisième partie de ce travail de thèse s'attache à documenter les apports de ce modèle d'erreurs alternatif. Un algorithme d'estimation des erreurs de déplacements a tout d'abord été mis en place. Cet algorithme, qui s'inspire des méthodes d'estimation du flot optique, se base sur une approche variationnelle quasi-linéaire, quasi Gaussienne et multi-échelles. Le comportement de la méthode a été testé sur des cas idéalisés, puis sur des cas réels basés sur des prévisions AROME. Ceci permet d'envisager à l'avenir l'estimation statistique des principaux paramètres caractérisants ce type d' erreurs, ainsi que leur exploitation dans des algorithmes visant à corriger ces erreurs en amont de la correction d'amplitude. / Data assimilation provides initial conditions (the analysis) for the model from two sources of information: the available observations and a short term forecast (the background). The relative weights of both sources depend on the chosen error model. Usually, background errors are modeled as additive amplitude errors and, following a probabilistic approach, their probability density function (PDF) are modeled as Gaussians, specified with a zero mean and a covariance matrix B. For this PhD, the tackled issue are the lack of flow dependency of B and the non-Gaussianity (NG) frequently arising in numerical weather prediction (NWP), especially in case of displacement error. Using spatial deformation methods and ensemble of forecasts generated from an ensemble of data (EDA), the aim of this work is to refine the model of background error correlations, and to correct displacement errors as a possible way to get closer to the Gaussian hypothesis. A first part of this work is to improve the B modeling, by accounting objectively for the anisotropy of the background error correlations thanks to spatial deformation, which is statistically estimated from an EDA. This statistical method (ST) is applied to a real dataset of ARPEGE, the global model at Météo-France. The ST is compared to an other spatial warping method, the geostrophic transform (GT), and their efficiency are quantified by an anisotropy index. Results show a better efficiency of the ST than the GT, with a more systematic accounting of the anisotropy of the spatial background correlations. The second part of this work is a documentation of the NG for the background errors of AROME, the convective scale model at Météo-France. Distributions are diagnosed from an EDA, and their Gaussianity is quantified with a statistical index only based on two shape parameters, skewness and kurtosis. The diagnosed NG is spatially and temporally dependent, with large similarities between meteorological and NG structures. Links with nonlinear processes, linked for example to cloud covering, are observed. Diagnostics also show that the analysis step is largely decreasing the observed NG of the background, and that the most non-Gaussian variables in control space are vorticity and divergence. Since, a possible reason of the NG is the displacement errors, the third part of this PhD work aims at getting insight in the documentation of this alternative error model. First, a quasi-linear, quasi-Gaussian and multi-scale method, inspired from optical flow estimation methods, is derived. It has been tested on ideal case and on real cases based on AROME forecast fields. Future works may be, first, a statistical estimation of the main parameters characterizing this kind of error, and second, the use of this algorithm to correct displacement error upstream of the additive error correction.

Page generated in 0.0314 seconds