• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 31
  • 3
  • 1
  • 1
  • Tagged with
  • 93
  • 34
  • 31
  • 30
  • 22
  • 20
  • 17
  • 16
  • 13
  • 12
  • 11
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Sur les codes de convolution

Bonneau, Dave 13 April 2018 (has links)
Les codes de convolution sont de puissants codes correcteurs d'erreurs utilisés, entre autres, par la NASA depuis 1967. Ce mémoire se veut une étude complète de ce type de codes à registres à décalage. On élabore les bases d'un système de communication permettant de représenter ces codes d'un point de vue algébrique, tout en utilisant éventuellement des graphiques pour illustrer ce qui se passe. Ces représentations permettent ainsi d'étudier la structure de l'encodage. On mentionne également quelques distances communes aux codes de convolution, lesquelles permettent d'optimiser les méthodes de décodage. De plus, on traite du décodage de Viterbi, pour lequel un programme MAPLE est donné, du décodage par liste et de deux méthodes de décodage séquentiel, à savoir les algorithmes de Fano et à pile.
12

Codes correcteurs d'erreurs LDPC structurés

Adjudeanu, Irina 16 April 2018 (has links)
Dans ce travail nous nous intéressons aux problèmes liés à l'amélioration des performances d'erreur des codes LDPC. Cette amélioration peut être faite pendant la construction des codes LDPC ou pendant leur processus de décodage. Nous concentrons notre attention vers l'amélioration du décodage. Nous proposons un algorithme de décodage itératif log-SPA modifié, qui minimise l'erreur du décodage pour les mots-codes qui ne peuvent pas être décodés par l'algorithme SPA connu. L'algorithme proposé est basé sur une dépendance entre le poids d'un syndrome et le poids de la séquence d'erreurs généré au cours des itérations du décodage. Nous analysons plus en détail cette dépendance et l'effet du décodage log-SPA moyenne sur les poids des vecteurs d'erreur et les poids du syndrome, et ce, sur les ensembles de piégeage. Concernant la construction des codes LDPC, on s'intéresse aux différents paramètres qui posent des problèmes dans la performance d'erreur : au plancher d'erreur, au périmètre du graphe de Tanner, à la distance minimale du code, aux ensembles de piégeage et aux ensembles d'arrêt. On présente différentes méthodes appliquées dans la construction des différents types de codes, pour éviter l'apparition des structures non-souhaitables dans le code. Nous faisons une comparaison entre la performance des codes pseudo-aléatoires et les codes structurés, basés sur les geometries finies euclidienne et géométrique. On présente aussi différentes méthodes de construction des codes LDPC quasi-cycliques, qui peuvent éviter la formation de certains types d'ensembles de piégeage. d'ensembles d'arrêt ainsi que les cycles courts dans le graphe de Tanner. Les méthodes proposées donnent de très bas planchers d'erreur et une faible complexité du codage.
13

Contribution à la construction d'un système robuste d'analyse du français

Genthial, Damien 10 January 1991 (has links) (PDF)
La première partie aborde la conception et la mise en œuvre d'un outil d'analyse syntaxique capable de manipuler des informations syntaxiques et sémantiques. La problématique de l'analyse d'une langue naturelle est d'abord présentée: nous essayons de montrer quels sont les invariants de quelques formalismes récents et comment ces invariants ont motive nos choix. Nous décrivons ensuite le constructeur de structures de dépendances que nous proposons et les apports d'une hiérarchie de catégories a la souplesse et a la tolérance de l'analyse. Les arbres de dépendances produits sont décores grâce a un formalisme de représentation de la connaissance base sur des structures de traits intégrant un mécanisme d'héritage. Nous terminons en présentant le prototype d'analyseur que nous avons réalisé. La deuxième partie définit une architecture pour un système de détection et de correction qui exploite de manière cohérente tous les outils dont nous disposons. Les outils de niveau lexical comprennent un analyseur et un générateur morphologiques et des modules de correction lexicale utilisant trois techniques: phonétique, morphologie et clé squelette. Après avoir décrit les objectifs fixes pour le niveau syntaxique, nous donnons un aperçu du vérificateur syntaxique dont nous disposons et nous soulignons les apports des concepts et outils de la première partie a la robustesse des traitements. Enfin, nous proposons l'architecture d'un système complet de détection et correction d'erreurs dans un texte écrit en insistant sur sa portabilité et son adaptabilité.
14

Décodeurs rapides pour codes topologiques quantiques

Duclos-Cianci, Guillaume January 2010 (has links)
L'encodage topologique de l'information quantique a attiré beaucoup d'attention, car c'est un modèle qui semble propice à résister aux erreurs locales. Tout d'abord, le modèle du calcul topologique est basé sur la statistique anyonique non-Abélienne universelle et sur son contrôle. Des anyons indésirables peuvent apparaître soudainement, en raison de fluctuations thermiques ou de processus virtuels. La présence de ces anyons peut corrompre l'information encodée, il est nécessaire de les éliminer: la correction consiste à fusionner les défauts tout en préservant la topologie du système. Ensuite, dans le cas des codes topologiques, on doit aussi protéger l'information encodée dans la topologie. En effet, dans ces systèmes, on n'a accès qu'à une fraction de l'information décrivant l'erreur. Elle est recueillie par des mesures et peut être interprétée en termes de particules. Ces défauts peuplent le code et doivent être annihilés adéquatement dans le but de préserver l'information encodée. Dans ce mémoire, nous proposons un algorithme efficace, appelé décodeur, pouvant être utilisé dans les deux contextes décrits ci-haut. Pour y parvenir, cet algorithme s'inspire de méthodes de renormalisation et de propagation de croyance. Il est exponentiellement plus rapide que les méthodes déjà existantes, étant de complexité [Caractères spéciaux omis] (l[indice supérieur 2] log l) en série et, si on parallélise, [Caractères spéciaux omis] (log l) en temps, contre [Caractères spéciaux omis] (l[indice supérieur]6) pour les autres décodeurs. Le temps étant le facteur limitant dans le problème du décodage, cette caractéristique est primordiale. De plus, il tolère une plus grande amplitude de bruit que les méthodes existantes; il possède un seuil de ~ 16.5% sur le canal dépolarisant surpassant le seuil déjà établi de ~ 15.5%. Finalement, il est plus versatile. En effet, en étant limité au code de Kitaev, on ne savait pas décoder les codes topologiques de manière générale (e.g. codes de couleur). Or, le décodeur proposé dans ce mémoire peut traiter la grande classe des codes topologiques stabiliseurs.
15

Diagnostique optimal d'erreurs pour architecture de qubits à mesure faible et continue

Denhez, Gabrielle January 2011 (has links)
L'un des principaux obstacles pour construire un ordinateur quantique est la décohérence, laquelle limite grandement le temps alloué pour un calcul ainsi que la taille du système. Pour combattre la décohérence dans un système quantique, des protocoles de correction d'erreurs ont été proposés et semblent apporter une bonne solution à ce problème. Ces protocoles consistent à confiner l'information que contiennent les qubits dans un sous-espace nommé espace code. Après un certain temps d'évolution, on pose un diagnostic sur l'erreur qui s'est produite sur le système en effectuant des mesures indiquant s'il est toujours dans l'espace code où s'il a évolué vers un autre sous-espace. Pour que de tels protocoles soient efficaces, les mesures effectuées doivent en principe être rapides et projectives. Cependant, pour plusieurs architectures de qubits existantes, les mesures sont faibles et se font de façon continue. De plus, elles peuvent introduire elles-mêmes des erreurs dans le système. Ces caractéristiques de mesure rendent difficile le diagnostic de l'erreur tel qu'il est effectué traditionnellement. Aussi comme les mesures peuvent introduire des erreurs, il n'est pas certain que les protocoles de diagnostic d'erreur traditionnels soient utiles. Dans ce travail, on étudie l'utilité d'une mesure faible et continue dans un processus de correction d'erreurs. Cette étude s'est réalisée en deux volets. D'abord, on présente un protocole de correction d'erreur adapté aux architectures de qubits dont la mesure est faible et se fait de façon continue. On montre que ce protocole permet d'évaluer sous quelles conditions une mesure présentant ces caractéristiques peut aider à corriger des erreurs. Ensuite, on teste ce protocole de correction dans le cas particulier des qubits supraconducteurs. On établit sous quelles conditions la mesure sur ces qubits peut aider à diagnostiquer les erreurs et on étudie l'effet de différents paramètres expérimentaux dans ce contexte.
16

Etude mathématique de la sensibilité POD (Proper orthogonal decomposition)

Akkari, Nissrine 20 December 2012 (has links) (PDF)
Dans cette thèse, nous nous sommes intéressés à l'étude mathématique de la sensibilité paramétrique de la méthode de réduction de modèles par projection connue sous le nom de POD pour Proper Orthogonal Decomposition. Dans beaucoup d'applications de la mécanique des fluides,la base de projection (base POD) calculée à un paramètre caractéristique fixe du problème de Navier-Stokes, est utilisée à la suite pour construire des modèles d'ordre réduit ROM-POD pour d'autres valeurs du paramètre caractéristique. Alors, la prédiction du comportement de ce ROM-POD vis-à-vis du problème initial est devenue cruciale. Pour cela, nous avons discuté cette problématique d'un point de vue mathématique. Nous avons établi des résultats mathématiques de sensibilité paramétrique des erreurs induites par application de la méthode ROM-POD. Plus précisément, notre approche est basée sur l'établissement d'estimations a priori de ces erreurs paramétriques, en utilisant les méthodes énergétiques classiques. Nos résultats sont démontrés pour les deux problèmes de type Burgers et Navier-Stokes. Des validations numériques de ces résultats mathématiques ont été faites uniquement pour le problème de type Burgers.
17

Décodage et localisation AIS par satellite / AIS decoding and localization by satellite

Prévost, Raoul 29 October 2012 (has links)
Le système d'identification automatique (ou système AIS pour automatic identification system) est un système qui permet aux navires et aux stations côtières de s'échanger certaines informations par radio VHF. Ces informations comprennent l'identifiant, le statut, la position, la direction et la vitesse de l'émetteur. L'objectif de cette thèse est de permettre la réception des messages AIS par un satellite en orbite basse sans modifier le matériel existant équipant les navires. Par l'intermédiaire du système AIS, il devient possible de connaitre la position de tous les navires à travers le monde. Plusieurs nouveaux services sont possibles, comme le contrôle maritime global ou, pour les armateurs, la connaissance constante de la position de leurs bateaux. La réception par satellite des signaux AIS est sujette à un niveau de bruit bien plus élevé que lors de la réception de ces signaux au niveau du sol. Ce niveau de bruit rend les méthodes classiques de réception de ces signaux difficilement utilisables. Une première contribution de cette thèse est le développement de nouveaux démodulateurs utilisant des méthodes de correction d'erreurs. Ceux-ci tirent parti de la présence d'un bloc de contrôle de redondance cyclique (CRC) dans les messages ainsi que de certaines informations connues sur la structure des messages et des données. Des adaptations du récepteur proposé ont également été étudiées afin d'intégrer la poursuite de la phase des signaux reçus et de prendre en compte les collisions des messages envoyés simultanément par plusieurs navires. La dernière partie de cette thèse est consacrée à l'étude des méthodes de localisation des navires ne diffusant pas leur position dans leurs messages AIS. Cette localisation tire parti des paramètres des messages reçus tels que le délai de propagation et le décalage en fréquence de la porteuse dû à l'effet Doppler, et d'un modèle de déplacement des navires. / The automatic identification system (AIS) is a system allowing ships and coast stations to exchange some information by VHF radio. This information includes the identifier, status, location, direction and speed of the emitter. The aim of this thesis is to allow the reception of AIS messages by low Earth orbit satellites without modifying the existing ship equipments. With this system, it becomes possible to know the position of all ships over the Earth. As a consequence, several new services become available, such as global traffic monitoring or determining boat location (for ship-owners). Satellite reception of AIS signals is subjected to a higher noise level when compared to ground level reception. This noise makes classical demodulation and decoding methods unusable. A first contribution of this thesis is to develop new demodulators using error correction methods. These demodulators take advantage of the presence of a cyclic redundancy check (CRC) block in the messages as well as known information about the structure of messages and data. Generalizations of the proposed receiver have also been studied in order to take into account the phase noise of the received signals and the possible collision of messages sent simultaneously by several vessels. The last part of this thesis is devoted to the study of localization methods for ships that do not transmit their location in AIS messages. This localization takes advantage of information contained in the received messages such as the propagation delay and the carrier frequency shift due to the Doppler effect, and a ship movement model.
18

Quantification des sources de méthane en Sibérie par inversion atmosphérque à la méso-échelle / Quantification of methane sources in Siberia using meso-scale atmospheric inversions

Berchet, Antoine 19 December 2014 (has links)
Les émissions anthropiques et naturelles de méthane en Sibérie contribuent de manièrenotable, mais mal quantifiée au budget mondial de méthane (3–11% des émissions mondiales).Au Sud de la région, les émissions anthropiques sont liées aux grands centres urbains.Au Nord, l’extraction de gaz et de pétrole en Sibérie occidentale induit d’importantessources anthropiques ponctuelles. Ces régions sont aussi couvertes de vastes zones humidesnaturelles émettant du méthane durant l’été (typiquement de mai à septembre). Nous utilisonsdes inversions atmosphériques régionales à la méso-échelle pour mieux comprendreles contributions de chaque processus dans le budget sibérien. Les inversions souffrent desincertitudes dans les observations, dans la simulation du transport et dans l’amplitude et ladistribution des émissions. Pour prendre en compte ces incertitudes, je développe une nouvelleméthode d’inversion basée sur une marginalisation des statistiques d’erreurs. Je testecette méthode et documente sa robustesse sur un cas test. Je l’applique ensuite à la Sibérie.À l’aide de mesures de concentrations atmosphériques de méthane collectées par des sitesd’observation de surface en Sibérie, j’estime le budget régional de méthane sibérien à 5–28 TgCH4.a−1 (1–5% des émissions mondiales), soit une réduction de 50% des incertitudespar rapport aux précédentes études dans la région. Grâce à cette méthode, je suis de plus enmesure de détecter des structures d’émissions par zones de quelques milliers de km2 et leurvariabilité à une résolution de 2–4 semaines. / Anthopogenic and natural methane emissions in Siberia significantly contribute to theglobal methane budget, but the magnitude of these emissions is uncertain (3–11% of globalemissions). To the South, anthropogenic emissions are related to big urban centres. To theNorth, oil and gas extraction in West Siberia is responsible for conspicuous point sources.These regions are also covered by large natural wetlands emitting methane during the snowfreeseason, roughly from May to September. Regional atmospheric inversions at a meso-scaleprovide a mean for improving our knowledge on all emission process. But inversions sufferfrom the uncertainties in the assimilated observations, in the atmospheric transport modeland in the emission magnitude and distribution. I developp a new inversion method based onerror statistic marginalization in order to account for these uncertainties. I test this methodon case study and explore its robustness. I then apply it to Siberia. Using measurements ofmethane atmospheric concentrations gathered at Siberian surface observation sites, I founda regional methane budget in Siberia of 5–28 TgCH4.a−1 (1–5% of global emissions). Thisimplies a reduction of 50% in the uncertainties on the regional budget. With the new method,I also can detect emission patterns at a resolution of a few thousands km2 and emissionvariability at a resolution of 2–4 weeks.
19

Distribution de contenu à grande échelle appliquée aux fichiers et vidéos

Neumann, Christoph 14 December 2005 (has links) (PDF)
Le multicast fiable est certainement la solution la plus efficace pour<br />la distribution de contenu a un très grand nombre (potentiellement des<br />millions) de récepteurs. Dans cette perspective les protocoles ALC et<br />FLUTE, standardisés à l'IETF (RMT WG), ont été adoptés dans 3GPP/MBMS<br />et dans le DVB-H IP-Datacast dans les contextes des réseaux<br />cellulaires 3G.<br /><br />Ce travail se concentre sur le multicast fiable et a comme requis<br />principal le passage à l'échelle massif en terme de nombre de client.<br />Ce travail se base sur les solutions proposées a l'IETF RMT WG. Ces<br />protocoles de multicast fiable sont construit autour de plusieurs<br />briques de base que nous avons étudié en détail:<br /><br />- La brique Forward Error Correction (FEC) :<br /><br /> Nous examinons la classe de codes grands blocs<br /> Low Density Parity Check (LDPC). Nous concevons des dérivées<br /> de ces codes, et les analysons en détail. Nous en concluons que les<br /> codes LDPC et leur implémentation ont des performances très<br /> prometteuses, surtout si ils sont utilisées avec des fichiers de taille<br /> importante.<br /><br />- La brique contrôle de congestion :<br /><br /> Nous examinons le comportement dans la phase de démarrage de<br /> trois protocoles de contrôle de congestion RLC, FLID-SL, WEBRC.<br /> Nous démontrons que la phase de démarrage a un grand impact sur<br /> les performances de téléchargement.<br /><br /><br />Cette thèse a aussi plusieurs contributions au niveau applicatif:<br /><br />- Extensions de FLUTE :<br /><br /> Nous proposons un mécanisme permettant d'agréger plusieurs<br /> fichiers dans le protocole FLUTE. Ceci améliore les performance de<br /> transmission.<br /><br />- Streaming vidéo :<br /><br /> Nous proposons SVSoA, une solution de streaming basé sur ALC.<br /> Cette approche bénéficie de tout les avantages de ALC en terme de<br /> passage à l'échelle, contrôle de congestion et corrections d'erreurs
20

Analyse de canaux de communication dans un contexte non coopératif.

Barbier, Johann 28 November 2007 (has links) (PDF)
Dans cette thèse, nous étudions les canaux de communication dans un contexte non coopératif sous l'angle des codes correcteurs d'erreurs, d'une part, et de la stéganographie, d'autre part. Nous prenons la place d'un observateur non légitime qui veut avoir accès à l'information échangée entre deux protagonistes. Nos travaux sur les algorithmes de reconstruction de codes correcteurs, nous ont amenés à proposer un formalisme commun pour l'étude des codes linéaires, des codes convolutifs et des turbo-codes. Nous analysons tout d'abord finement l'algorithme de Sicot-Houcke, puis l'employons ensuite comme brique de base pour concevoir une technique de reconstruction des codes convolutifs totalement automatique et de complexité meilleure que les techniques existantes. Enfin, nous utilisons ces résultats pour retrouver les paramètres des turbo-codeurs. Dans le cadre de l'analyse stéganographique, nous proposons tout d'abord deux nouveaux modèles de sécurité qui mettent en oeuvre des jeux avec des attaquants réels. Nous adaptons ensuite l'analyse RS en un schéma de détection pour l'algorithme Multi Bit Plane Image steganography pour le domaine spatial, proposé par Nguyen et al. à IWDW'06. Enfin, nous développons une approche nouvelle pour analyser les images JPEG. En étudiant les statistiques des coefficients DCT compressés, nous mettons en évidence des détecteurs possédant des performances élevées et indépendantes en pratique de la quantité d'information dissimulée. Nous illustrons ces résultats par un schéma de stéganalyse universelle d'une part, et un schéma de stéganalyse spécifique pour Outguess, F5 et JPHide and JPSeek, d'autre part.

Page generated in 0.0781 seconds