• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 56
  • 56
  • 29
  • 18
  • 18
  • 18
  • 14
  • 13
  • 12
  • 11
  • 9
  • 9
  • 8
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Performances des codes correcteurs d’erreur LDPC appliqués au lien Fronthaul optique haut-débit pour l’architecture C-RAN du réseau 5G : conception et implantation sur FPGA / Modeling and simulation of high speed optical transmission and forward error correction design and implementation using FPGA

Li, Ao 18 December 2017 (has links)
De nos jours, l’architecture du réseau mobile est en pleine évolution pour assurer la montée en débit entre les Centraux (CO) (réseaux coeurs) et différents terminaux comme les mobiles, ordinateurs, tablettes afin de satisfaire les utilisateurs. Pour faire face à ces défis du futur, le réseau C-RAN (Cloud ou Centralized-RAN) est connu comme une solution de la 5G. Dans le contexte C-RAN, toutes les BBUs (Base Band Units) sont centralisées dans le CO, seules les RRH (Remote Radio Head) restent situées à la tête de la station de base (BS). Un nouveau segment entre les BBUs et RRHs apparait nommé « fronthaul ». Il est basé sur des transmissions D-ROF (digital radio-overfiber) et transporte le signal radio numérique à un débit binaire élevé en utilisant le protocole CPRI (Common Public Radio Interface). En prenant en compte le CAPEX et l’OPEX, le projet ANR LAMPION a proposé la technologie RSOA (Reflective Semiconductor Optical Amplifier) auto alimenté afin de rendre la solution plus flexible et s’affranchir d’émetteurs/récepteurs colorés dans le cadre de transmission WDM-PON (Wavelength Division Multiplexing Passive Optical Network). Néanmoins, il est nécessaire d’ajouter un FEC (forward error corrector) dans la transmission pour assurer la qualité de service. Donc l’objectif de cette thèse est de trouver le FEC le plus adéquat à appliquer dans le contexte C-RAN. Nos travaux se sont focalisés sur l’utilisation de codes LDPC, choisis après comparaisons des performances avec les autres types de codes. Nous avons précisé les paramètres (rendement du code, taille de la matrice, cycle, etc.) nécessaires pour les codes LDPC afin d'obtenir les meilleures performances. Les algorithmes LDPC à décisions dures ont été choisis après considération du compromis entre complexités de circuit et performance. Parmi ces algorithmes à décision dures, le GDBF (gradient descent bit-flipping) était la meilleure solution. La prise en compte d’un CAN 2-Bit dans le canal nous a amené à proposer une variante : le BWGDBF (Balanced weighted GDBF). Des optimisations ont également été faites en regard de la convergence de l'algorithme et de la latence. Enfin, nous avons réussi à implémenter notre propre algorithme sur le FPGA Spartan 6 xc6slx16. Plusieurs méthodes ont été proposées pour atteindre une latence de 5 μs souhaitée dans le contexte C-RAN. Cette thèse a été soutenue par le projet ANR LAMPION (Lambada-based Access and Metropolitan Passive Optical networks). / Nowadays, the architecture of the mobile network is in full evolution to ensure the increase in terms of bit rate between the Central (CO) (core networks) and various terminals such as mobiles, computers, tablets in order to satisfy the users. To address these challenges of the future, the C-RAN (Cloud or Centralized-RAN) network is known as a 5G solution. In the C-RAN context, all BBUs (Base Band Units) are centralized in the CO, only the RRH (Remote Radio Head) remain at the head of the base station (BS). A new segment between BBUs and RRHs appears called "fronthaul". It is based on D-ROF (digital radio-overfiber) transmissions and carries the digital radio signal at a high bit rate using the Common Public Radio Interface (CPRI) protocol. Taking into account CAPEX and OPEX, the ANR LAMPION project has proposed the Self-seeded Reflective Semiconductor Optical Amplifier (RSOA) technology in order to make the solution more flexible and overcome the need for colored transmitters / receivers in the context of PON-WDM (Wavelength Division Multiplexing Passive Optical Network). Nevertheless, it is necessary to add a FEC (forward error corrector) in the transmission to ensure the quality of service. So the objective of this thesis is to find the most suitable FEC to apply in the C-RAN context. Our work has focused on the use of LDPC codes, chosen after performance comparisons with other types of codes. We have specified the parameters (code performance, matrix size, cycle, etc.) required for LDPC codes to obtain the best performance. Hard-decision LDPC algorithms were chosen after considering the tradeoff between circuit complexities and performance. Among these hard-decision algorithms, the GDBF (gradient descent bit-flipping) was the best solution. Taking into account a CAN 2-Bit in the channel led us to propose a variant: the BWGDBF (Balanced weighted GDBF). Optimizations have also been made with respect to the convergence of the algorithm and latency. Finally, we managed to implement our own algorithm on the Spartan FPGA 6 xc6slx16. Several methods have been proposed to achieve a latency of 5 μs desired in the C-RAN context. This thesis was supported by the project ANR LAMPION (Lambada-based Access and Metropolitan Passive Optical Networks).
32

Authentication and encryption protocols : design, attacks and algorithmic improvements / Protocoles d'authentification et de chiffrement : conception, attaques et améliorations algorithmiques

Maimuţ, Diana Ştefania 11 December 2015 (has links)
Cette thèse aborde différents aspects de la cryptologie, subsumant des champs aussi variés que la conception de protocoles, l’amélioration d’outils algorithmiques et les attaques. Les deux principales focales de cette étude sont : un protocole de co-signature prouvé irréfragable et un système de chiffrement authentifié à sécurité prouvée. Notre protocole de co-signature permet l’équité légale. L’équité légale est une nouvelle variante de la notion d’équité, ne reposant pas sur des tiers. Notre instanciation d’équité légale est construite à l’aide des signatures de Schnorr. Nous présenterons également un protocole d’authentification distribué de type Fiat-Shamir. La deuxième partie de cette thèse est consacrée aux améliorations algorithmiques. Nous introduisons une méthode permettant de doubler la vitesse de l’algorithme de Barrett en utilisant des modules composites spécifiques et un nouvel algorithme de multiplication à retour sur trace, particulièrement adapté aux microprocesseurs bon marché. Nous nous intéresserons ensuite à la sécurité des composants en étudiant la régulation du débit des correcteurs de von Neumann et les attaques en fautes sur des implémentations de cryptographie à courbes elliptiques. Enfin, un des actes novatoires incidents notre travail sera d’adapter aux codes correcteurs d’erreurs deux techniques empruntées à la cryptographie : un premier résultat améliore l’efficacité calculatoire des codes BCH grâce à une version de l’algorithme de Barrett étendue aux polynômes. Le second est un nouveau code correcteur d’erreurs basé sur la théorie des nombres. / This thesis addresses various topics in cryptology, namely protocol design, algorithmic improvements and attacks. In addition, we venture out of cryptography and propose two new applications of cryptographic techniques to error correcting codes. Our main results comprise a provably secure co-signature protocol and a provably secure authenticated encryption scheme. Our co-signature protocol achieves legal fairness, a novel fairness variant that does not rely on third parties. Legal fairness is implemented using Schnorr signatures. We also present a distributed Fiat-Shamir authentication protocol. The second part of the thesis is devoted to computational improvements, we discuss a method for doubling the speed of Barrett’s algorithm by using specific composite moduli, devise new BCH speed-up strategies using polynomial extensions of Barrett’s algorithm, describe a new backtracking-based multiplication algorithm suited for lightweight microprocessors and present a new number theoretic error-correcting code. Fault injection attacks are further overviewed and a new fault attack on ECC implementations is proposed.
33

High-speed VLSI design for turbo and LDPC codes used in broadband wireless networks

He, Zhiyong January 2007 (has links)
No description available.
34

Non-linéarité des fonctions booléennes : applications de la théorie des fonctions booléennes et des codes en cryptographie

Bringer, Julien 16 November 2007 (has links) (PDF)
Cette thèse s'articule principalement autour de la théorie des codes et des fonctions booléennes liés à la cryptographie. Deux axes sont suivis : la première partie est dédiée à la non-linéarité des fonctions booléennes, alors que la deuxième partie présente des applications en cryptographie d'objets provenant de ces théories. Motivé par la conjecture de Patterson et Wiedemann, nous proposons une généralisation de la construction par réunions d'orbites suivant l'action d'un groupe, où la minimisât!on de l'amplitude spectrale se ramène à deux sous-problèmes que nous étudions : l'estimation de sommes de Gauss et l'estimation de sommes d'exponentielles incomplètes. Plusieurs conditions et pistes de résolution de la conjecture sont alors détaillées. Ce travail nous permet de construire a sympto tique ment des fonctions de non-linéarité plus élevée que la moyenne et nous obtenons de plus, suivant ce principe, un exemple de recollement quadratique hautement non-linéaire proche de la borne de Patterson et Wiedemann en dimension 15. Dans la deuxième partie, nous portons tout d'abord notre attention sur des protocoles cryptographiques dits à faibles ressources. Des fonctions booléennes résistantes à la cryptanalyse différentielle sont utilisées afin de protéger le protocole HB+ d'une attaque par le milieu. À partir d'un deuxième protocole basé sur un principe de bruitage, nous effectuons un parallèle avec la théorie du canal à jarretière de Wyner, ce qui permet d'accroître la sécurité. D'autre part, dans le cadre de l'authentification de données variables dans le temps, une adaptation du cryptosystème de McEliece est détaillée afin de contrôler l'accès aux fonctions de vérification.
35

Identification aveugle de codes correcteurs d'erreurs basés sur des grands corps de Galois et recherche d'algorithmes de type décision souple pour les codes convolutifs / No

Zrelli, Yasamine 10 December 2013 (has links)
La première partie de ce mémoire porte sur l’identification aveugle des codes correcteurs d’erreurs non-binaires, travaillant dans le corps de Galois GF(2m). Une étude sur les propriétés des corps de Galois et des codes non-binaires a été conduite afin d’obtenir les éléments indispensables à la mise en oeuvre des méthodes d’identification aveugle. A partir de la seule connaissance des symboles reçus, nous avons développé des méthodes permettant d’identifier les paramètres des codes non-binaires lors d’une transmission non-bruitée et nous avons mis en évidence la pertinence de cette approche lorsque les paramètres de GF(2m) utilisés à l’émission sont connus à la réception. Nous avons aussi mené une étude théorique approfondie pour justifier l’utilisation du critère du rang par la plupart des méthodes d’identification existantes. Dans le cas d’une transmission bruitée, nous avons développé trois algorithmes dédiés à l’identification en aveugle de la taille des mots de code pour des codes binaires et non-binaires. Pour identifier une base du code dual, nous avons généralisé une technique existante pour les codes binaires, basée sur l’utilisation d’un démodulateur à décision ferme, au cas des codes non-binaires. Puis, nous avons amélioré les performances de détection de cette technique en introduisant un processus itératif basé sur l’utilisation conjointe d’un démodulateur à décision souple et d’un algorithme de décodage à décision souple. Dans la deuxième partie de ce mémoire, nous avons tout d’abord proposé un formalisme mathématique pour étudier l’impact des fonctions de mapping-demapping sur la manipulation des données d’un corps de Galois dans le cas des codes non-binaires. Ensuite, nous avons exploité ce formalisme pour détecter et corriger quelques défauts de transmission. Enfin, nous avons étudié l’impact de certaines fonctions de mapping-demapping sur l’identification aveugle des paramètres des codes non-binaires. / In the first part of this thesis, we have focused on the blind identification of non-binary error correcting codes over the Galois field GF(2m). A study of the properties of Galois fields and non-binarycodes has been presented so as to get the essential elements for a blind identification of non-binary codes parameters. From the knowledge of only the received symbols, methods have been developed to identify the code parameters in the case of a noiseless transmission. The relevance of this approach has been highlighted when the parameters of the used Galois field are known bythe receiver. A theoretical study of rank criterion behaviors has been also presented to justify its use by the most existing identification methods. Then, three blind identification methods of the codeword size for binary and non-binary linear codes have been developped in the framework of a noisy transmission. In order to identify a dual code basis, an existing method for binary codes based on the use of a hard decision demodulation has been generalized to non-binary codes. The detection performance of this technique has been improved when an iterative process based on the joint use of a soft-decision demodulator and a soft-decision iterative decoding is introduced. In the second part of this thesis manuscript, a mathematical formalism is proposed in order to investigate the impact of mapping-demapping functions on linear algebra computations and properties over Galois field in the case of non-binary error correcting codes. Finally, this formalism has been exploited to detect or/and correct some digital transmission problems such as a bad synchronization. Finally, we have studied the impact of some mapping-demapping functions on the blind identification ofnon-binary error correcting codes parameters.
36

Enhancing information security and privacy by combining biometrics with cryptography / La crypto-biométrie, une solution pour une meilleure sécurité tout en protégeant notre vie privée

Kanade, Sanjay Ganesh 20 October 2010 (has links)
La sécurité est un enjeu majeur de notre société numérique. En règle générale, les techniques cryptographiques sont utilisées pour sécuriser l'information avec des clés cryptographiques. Un inconvénient majeur de ces systèmes est le faible lien entre les clés et l’utilisateur. Avec la biométrie on a une preuve plus forte de la présence physique d’un individu, mais ces systèmes possèdent aussi leurs inconvénients, tels que la non-révocabilité ainsi que le potentiel de compromettre notre vie privée. Un axe de recherche multidisciplinaire se profile depuis 1998, la crypto-biométrie. Dans cette thèse des solutions innovantes sont proposées pour améliorer la sécurité tout en protégeant notre vie privée. Plusieurs systèmes crypto-biométriques sont proposés, tels que la biométrie révocable, des systèmes de régénérations de clés crypto-biométriques, ainsi qu’une proposition pratique d’un protocole d'authentification. Ces systèmes sont évaluées sur des bases de données publiques d'images de visage et d'iris / Securing information during its storage and transmission is an important and widely addressed issue. Generally, cryptographic techniques are used for information security. Cryptography requires long keys which need to be kept secret in order to protect the information. The drawback of cryptography is that these keys are not strongly linked to the user identity. In order to strengthen the link between the user's identity and his cryptographic keys, biometrics is combined with cryptography. In this thesis, we present various methods to combine biometrics with cryptography. With this combination, we also address the privacy issue of biometric systems: revocability, template diversity, and privacy protection are added to the biometric verification systems. Finally, we also present a protocol for generating and sharing biometrics based crypto-biometric session keys. These systems are evaluated on publicly available iris and face databases
37

Description multiple de l'information par transformation Mojette

Parrein, Benoît 22 November 2001 (has links) (PDF)
La représentation scalable de l'information s'impose aujourd'hui pour supporter l'hétérogénéité d'un réseau interconnecté tel que l'Internet. Le codage de source adopte, pour ce faire, une approche multi-résolution pouvant délivrer progressivement à un utilisateur le contenu de sa requête. Cependant, en supposant au cours de la transmission une gestion de bout en bout des priorités ainsi établies, ces schémas restent sommairement adaptés aux environnements de pertes de paquets et de qualité de service non garantie.<br />Les codages à description multiple offrent une alternative à la transmission hiérarchisée de l'information en brisant la scalabilité de la source aux abords du canal. Dans cette thèse, nous proposons une méthode originale de description multiple qui réalise une protection différenciée de chaque niveau hiérarchique de la source en fonction des propriétés dynamiques du canal de transmission.<br />La transformation Mojette (transformation de Radon discrète exacte) est une transformation unitaire qui permet de partager un volume de données en un ensemble plus ou moins redondant de projections équivalentes. L'évolution de ce type d'opérateur initialement utilisé dans un espace continu pour la reconstruction tomographique étend le concept de support d'image à celui de mémoire tampon géométrique pour données multimédias. Ce codage à description multiple, généralisé à N canaux, autorise la reconstruction de la mémoire initiale de manière déterministe par des sous-ensembles de projections dont le nombre caractérise le niveau de protection. Ce schéma est particulièrement adapté au mode de transport par paquets sans contrôle d'intégrité extensible du canal de transmission. La hiérarchie de la source est dans ce cas communiquée sous forme transparente pour le canal via des descriptions banalisées.<br />L'évaluation du codage est effectuée en comparant les débits engendrés avec ceux d'un code MDS (Maximum Distance Separable) qui fournissent une solution optimale dans le nombre de symboles nécessaires au décodage. La relaxation des propriétés MDS dans un code (1+ε)MDS avec la transformation Mojette demande une légère augmentation de débit au profit d'une complexité réduite.<br />L'application sur des schémas de compression d'images valide concrètement l'adaptation possible des sources actuelles à un canal de type best-effort. L'utilisation dans un environnement distribué (micro-paiement, stockage distribué de données multimédia) illustre en outre un partage sécurisé de l'information.<br />En perspectives de ce travail, nous avons abordé l'intégration de cette méthode dans un protocole de transmission scalable multimédia et étudié une version probabiliste du système.
38

Two Approaches for Achieving Efficient Code-Based Cryptosystems

Misoczki, Rafael 25 November 2013 (has links) (PDF)
La cryptographie basée sur les codes n'est pas largement déployée dans la pratique. Principalement à cause de son inconvénient majeur: des tailles de clés énormes. Dans cette thèse, nous proposons deux approches différentes pour résoudre ce problème. Le premier utilise des codes algébriques, présentant un moyen de construire des codes de Goppa qui admettent une représentation compacte. Ce sont les Codes de Goppa p-adiques. Nous montrons comment construire ces codes pour instancier des systèmes de chiffrement à clé publique, comment étendre cette approche pour instancier un schéma de signature et, enfin, comment généraliser cet approche pour définir des codes de caractéristique plus grande au égale à deux. En résumé, nous avons réussi à produire des clés très compact basé sur la renommée famille de codes de Goppa. Bien qu'efficace, codes de Goppa p-adiques ont une propriété non souhaitable: une forte structure algébrique. Cela nous amène à notre deuxième approche, en utilisant des codes LDPC avec densité augmentée, ou tout simplement des codes MDPC. Ce sont des codes basés sur des graphes, qui sont libres de structure algébrique. Il est très raisonnable de supposer que les codes MDPC sont distinguable seulement en trouvant des mots de code de poids faible dans son dual. Ceci constitue un avantage important non seulement par rapport à tous les autres variantes du système de McEliece à clés compactes, mais aussi en ce qui concerne la version classique basée sur les codes de Goppa binaires. Ici, les clés compactes sont obtenus en utilisant une structure quasi-cyclique.
39

Architectures pour des circuits fiables de hautes performances

Bonnoit, Thierry 18 October 2012 (has links) (PDF)
Les technologies nanométriques ont réduit la fiabilité des circuits électroniques, notamment en les rendant plus sensible aux phénomènes extérieurs. Cela peut provoquer une modification des composants de stockage, ou la perturbation de fonctions logiques. Ce problème est plus préoccupant pour les mémoires, plus sensibles aux perturbations extérieures. Les codes correcteurs d'erreurs constituent l'une des solutions les plus utilisées, mais les contraintes de fiabilité conduisent à utiliser des codes plus complexes, et qui ont une influence négative sur la bande passante du système. Nous proposons une méthode qui supprime la perte de temps due à ces codes lors de l'écriture des données en mémoire, et la limite aux seuls cas où une erreur est détectée lors de la lecture. Pour cela on procède à la décontamination du circuit après qu'une donnée erronée ait été propagée dans le circuit, ce qui nécessite de restaurer certains des états précédents de quelques composants de stockage par l'ajout de FIFO. Un algorithme identifiant leurs lieux d'implémentation a également été créé. Nous avons ensuite évalué l'impact de cette méthode dans le contexte plus large suivant : la restauration d'un état précédent de l'ensemble du circuit en vue de corriger une erreur transistoire susceptible de se produire n'importe où dans le circuit.
40

Codes correcteurs avec les polynômes tordus

Chaussade, Lionel 22 November 2010 (has links) (PDF)
Les anneaux de polynômes sont l'un des outils privilégiés pour construire et étudier des familles de codes correcteurs. Nous nous proposons, dans cette thèse, d'utiliser des anneaux de Öre, qui sont des anneaux de polynômes non-commutatifs, afin de créer des codes correcteurs. Cette approche nous permet d'obtenir des familles de codes correcteurs plus larges que si l'on se restreint au cas commutatif mais qui conservent de nombreuses propriétés communes. Nous obtenons notamment un algorithme qui permet de fabriquer des codes correcteurs dont la distance de Hamming ou la distance rang est prescrite. C'est ainsi que nous avons exhibé deux codes qui améliorent la meilleure distance minimale connue pour un code de même longueur et de même dimension. L'un est de paramètres $[42,14,21]$ sur le corps $\mathbb{F}_8$ et l'autre de paramètres $[40,23,10]$ sur $\mathbb{F}_4$. La généralisation de cette étude au cas d'anneaux polynomiaux multivariés est également présentée; l'outil principal est alors la théorie des bases de Gröbner qui s'adapte dans ce cadre non-commutatif et permet de manipuler des idéaux pour créer de nouvelles familles de codes correcteurs.

Page generated in 0.3338 seconds