• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 5
  • 1
  • Tagged with
  • 36
  • 14
  • 9
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Etude théorique de la distribution quantique de clés à variables continues

Leverrier, Anthony 20 November 2009 (has links) (PDF)
Cette thèse porte sur la distribution quantique de clés, qui est une primitive cryptographique permettant à deux correspondants éloignés, Alice et Bob, d'établir une clé secrète commune malgré la présence potentielle d'un espion. On s'intéresse notamment aux protocoles " à variables continues " où Alice et Bob encodent l'information dans l'espace des phases. L'intérêt majeur de ces protocoles est qu'ils sont faciles à mettre en œuvre car ils ne requièrent que des composants télécom standards. La sécurité de ces protocoles repose sur les lois de la physique quantique : acquérir de l'information sur les données échangées par Alice et Bob induit nécessairement un bruit qui révèle la présence de l'espion. Une étape particulièrement délicate pour les protocoles à variables continues est la " réconciliation " durant laquelle Alice et Bob utilisent leurs résultats de mesure classiques pour se mettre d'accord sur une chaîne de bits identiques. Nous proposons d'abord un algorithme de réconciliation optimal pour le protocole initial, puis introduisons un nouveau protocole qui résout automatiquement le problème de la réconciliation grâce à l'emploi d'une modulation discrète. Parce que les protocoles à variables continues sont formellement décrits dans un espace de Hilbert de dimension infinie, prouver leur sécurité pose des problèmes mathématiques originaux. Nous nous intéressons d'abord à des symétries spécifiques de ces protocoles dans l'espace des phases. Ces symétries permettent de simplifier considérablement l'analyse de sécurité. Enfin, nous étudions l'influence des effets de tailles finies, tels que l'estimation du canal quantique, sur les performances des protocoles.
32

Exploration architecturale pour le décodage de codes polaires / Hardware architecture exploration for the decoding of Polar Codes

Berhault, Guillaume 09 October 2015 (has links)
Les applications dans le domaine des communications numériques deviennent de plus en plus complexes et diversifiées. En témoigne la nécessité de corriger les erreurs des messages transmis. Pour répondre à cette problématique, des codes correcteurs d’erreurs sont utilisés. En particulier, les Codes Polaires qui font l’objet de cette thèse. Ils ont été découverts récemment (2008) par Arıkan. Ils sont considérés comme une découverte importante dans le domaine des codes correcteurs d’erreurs. Leur aspect pratique va de paire avec la capacité à proposer une implémentation matérielle de décodeur. Le sujet de cette thèse porte sur l’exploration architecturale de décodeurs de Codes Polaires implémentant des algorithmes de décodage particuliers. Ainsi, le sujet gravite autour de deux algorithmes de décodage : un premier algorithme de décodage à décisions dures et un autre algorithme de décodage à décisions souples.Le premier algorithme de décodage, à décisions dures, traité dans cette thèse repose sur l’algorithme par annulation successive (SC) comme proposé originellement. L’analyse des implémentations de décodeurs montre que l’unité de calcul des sommes partielles est complexe. De plus,la quantité mémoire ressort de cette analyse comme étant un point limitant de l’implémentation de décodeurs de taille importante. Les recherches menées afin de palier ces problèmes montrent qu’une architecture de mise à jour des sommes partielles à base de registres à décalages permet de réduire la complexité de cette unité. Nous avons également proposé une nouvelle méthodologie permettant de revoir la conception d’une architecture de décodeur déjà existante de manière relativement simple afin de réduire le besoin en mémoire. Des synthèses en technologie ASIC et sur cibles FPGA ont été effectués pour caractériser ces contributions. Le second algorithme de décodage, à décisions souples, traité dans ce mémoire, est l’algorithme SCAN. L’étude de l’état de l’art montre que le seul autre algorithme à décisions souples implémenté est l’algorithme BP. Cependant, il nécessite une cinquantaine d’itérations pour obtenir des performances de décodages au niveau de l’algorithme SC. De plus, son besoin mémoire le rend non implémentable pour des tailles de codes élevées. L’intérêt de l’algorithme SCAN réside dans ses performances qui sont meilleures que celles de l’algorithme BP avec seulement 2 itérations.De plus, sa plus faible empreinte mémoire le rend plus pratique et permet l’implémentation de décodeurs plus grands. Nous proposons dans cette thèse une première implémentation de cetalgorithme sur cibles FPGA. Des synthèses sur cibles FPGA ont été effectuées pour pouvoir comparer le décodeur SCAN avec les décodeurs BP de l’état de l’art.Les contributions proposées dans cette thèse ont permis d’apporter une réduction de la complexité matérielle du calcul des sommes partielles ainsi que du besoin général du décodeur en éléments de mémorisation. Le décodeur SCAN peut être utilisé dans la chaîne de communication avec d’autres blocs nécessitant des entrées souples. Cela permet alors d’ouvrir le champ d’applications des Codes Polaires à ces blocs. / Applications in the field of digital communications are becoming increasingly complex and diversified. Hence, the need to correct the transmitted message mistakes becomes an issue to be dealt with. To address this problem, error correcting codes are used. In particular, Polar Codes that are the subject of this thesis. They have recently been discovered (2008) by Arikan. They are considered an important discovery in the field of error correcting codes. Their practicality goes hand in hand with the ability to propose a hardware implementation of a decoder. The subject of this thesis focuses on the architectural exploration of Polar Code decoders implementing particular decoding algorithms. Thus, the subject revolves around two decoding algorithms: a first decoding algorithm, returning hard decisions, and another decoding algorithm, returning soft decisions.The first decoding algorithm, treated in this thesis, is based on the hard decision algorithm called "successive cancellation" (SC) as originally proposed. Analysis of implementations of SC decoders shows that the partial sum computation unit is complex. Moreover, the memory amount from this analysis limits the implementation of large decoders. Research conducted in order to solve these problems presents an original architecture, based on shift registers, to compute the partial sums. This architecture allows to reduce the complexity and increase the maximum working frequency of this unit. We also proposed a new methodology to redesign an existing decoder architecture, relatively simply, to reduce memory requirements. ASIC and FPGA syntheses were performed to characterize these contributions.The second decoding algorithm treated in this thesis is the soft decision algorithm called SCAN. The study of the state of the art shows that the only other implemented soft decision algorithm is the BP algorithm. However, it requires about fifty iterations to obtain the decoding performances of the SC algorithm. In addition, its memory requirements make it not implementable for huge code sizes. The interest of the SCAN algorithm lies in its performances which are better than those of the BP algorithm with only two iterations. In addition, its lower memory footprint makes it more convenient and allows the implementation of larger decoders. We propose in this thesis a first implementation of this algorithm on FPGA targets. FPGA syntheses were carried out in order to compare the SCAN decoder with BP decoders in the state of the art.The contributions proposed in this thesis allowed to bring a complexity reduction of the partial sum computation unit. Moreover, the amount of memory required by an SC decoder has been decreased. At last, a SCAN decoder has been proposed and can be used in the communication field with other blocks requiring soft inputs. This then broadens the application field of Polar Codes.
33

Conception et synthèse d’iminosucres di- à tétravalents comme sondes mécanistiques et agents thérapeutiques potentiels / Design and synthesis of di- or tetravalent iminosugars as mechanistic probes and potential therapeutic agents

Stauffert, Fabien 27 November 2015 (has links)
Dans un contexte où les iminosucres multivalents représentent, en tant qu’inhibiteurs puissants de glycosidases, des structures privilégiées pour le développement de nouveaux agents thérapeutiques, nous nous sommes intéressés à ce type de composés pour le traitement de deux maladies génétiques rares. Le premier axe de recherche a consisté à synthétiser des iminosucres di- à tétravalents en série 1-désoxymannojirimycine dans le but d’inhiber l’α1,2-mannosidase I du réticulum endoplasmique qui est impliquée dans la destruction de la protéine delF508-CFTR chez les malades atteints de la mucoviscidose. Un effet multivalent fort sur la correction de cette protéine mutée a alors été mis en évidence avec un composé trivalent basé sur le pentaérythritol. Efficace à des concentrations submicromolaires, ce dernier s’est montré 140 fois plus efficace que le modèle monovalent correspondant. Le second axe de recherche a consisté à identifier de nouveaux chaperons pharmacologiques de la β-glucocérébrosidase, l’enzyme lysosomale impliquée dans la maladie de Gaucher. Pour cela, nous avons préparé une série d’iminosucres hétérodivalents conçus pour cibler simultanément le site actif et un site secondaire de cette enzyme. Même si cet objectif n’a pas encore été atteint, nous avons malgré tout mis en évidence des chaperons monovalents capables de quasiment quadrupler l’activité de la β-glucocérébrosidase portant la mutation G202R. En marge de ces deux axes principaux, une sonde mécanistique basée sur un C-glycoside multivalent a également été développée dans le but de préciser les mécanismes à l’origine des effets multivalents puissants observés pour l’inhibition des glycosidases. / Because multivalent iminosugars represent, as potent glycosidase inhibitors, privileged structures for the design of novel drugs, we took a particular interest in this class of compounds for the treatment of two rare genetic diseases. The first research topic was dedicated to the synthesis of di- to tetravalent iminosugars in the 1-deoxymannojirimycin series in order to inhibit the endoplasmic reticulum α1,2-mannosidase I involved in the destruction of delF508-CFTR, the mutant protein responsible of cystic fibrosis. A strong multivalent effect for restoring its activity in cells was reported with a trivalent analogue based on pentaerythritol. This submicromolar corrector was found to be 140-fold more potent than the corresponding monovalent model. The second research topic focused on the identification of novel pharmacological chaperones of the β-glucocerebrosidase, the lysosomal enzyme involved in Gaucher’s disease. For this purpose, we developed a series of heterodivalent iminosugars designed to both bind to the active site and a secondary site of the enzyme. This goal could not be reached yet, nevertheless we identified monovalent chaperones which were able to fourfold increase β-glucocerebrosidase activity in G202R cell lines. Next to these main research topics, a mechanistic probe based on a multivalent C-glycoside was also developed to investigate the multivalent effect of iminosugar clusters in glycosidase inhibition.
34

Architectural exploration of network Interface for energy efficient 3D optical network-on-chip / Exploration architecturale d'un système 3D multi-coeurs communiquant par réseau optique embarqué sur puce

Pham, Van Dung 13 December 2018 (has links)
Depuis quelques années, les réseaux optiques sur puce (ONoC) sont devenus une solution intéressante pour surpasser les limitations des interconnexions électriques, compte tenu de leurs caractéristiques attractives concernant la consommation d’énergie, le délai de transfert et la bande passante. Cependant, les éléments optiques nécessaires pour définir un tel réseau souffrent d’imperfections qui introduisent des pertes durant les communications. De plus, l'utilisation de la technique de multiplexage en longueurs d'ondes (WDM) permet d'augmenter les performances, mais introduit de nouvelles pertes et de la diaphonie entre les longueurs d'ondes, ce qui a pour effet de réduire le rapport signal sur bruit et donc la qualité de la communication. Les contributions présentées dans ce manuscrit adressent cette problématique d’amélioration de performance des liens optiques dans un ONoC. Pour cela, nous proposons tout d’abord un modèle analytique des pertes et de la diaphonie dans un réseau optique sur puce WDM. Nous proposons ensuite une méthodologie pour améliorer les performances globales du système s'appuyant sur l'utilisation de codes correcteurs d'erreurs. Nous présentons deux types de codes, le premier(Hamming) est d'une complexité d'implémentation faible alors que le second(Reed-Solomon) est plus complexe, mais offre un meilleur taux de correction. Nous avons implémenté des blocs matériels supportant ces corrections d'erreurs avec une technologie 28nm FDSOI. Finalement, nous proposons la définition d'une interface complète entre le domaine électrique et le domaine optique permettant d'allouer les longueurs d'ondes, de coder l'information, de sérialiser le flux de données et de contrôler le driver du laser pour obtenir la modulation à la puissance optique souhaitée. / Electrical Network-on-Chip (ENoC) has long been considered as the de facto technology for interconnects in multiprocessor systems-on-chip (MPSoCs). However, with the increase of the number of cores integrated on a single chip, ENoCs are less and less suitable to adapt the bandwidth and latency requirements of nowadays complex and highly-parallel applications. In recent years, due to power consumption constraint, low latency, and high data bandwidth requirements, optical interconnects became an interesting solution to overcome these limitations. Indeed, Optical Networks on Chip (ONoC) are based on waveguides which drive optical signals  from source to destination with very low latency. Unfortunately, the optical devices used to built  ONoCs suffer from some imperfections which introduce losses during communications. These losses (crosstalk noises and optical losses)  are very important factors which impact the energy efficiency and the performance of the system. Furthermore, Wavelength Division Multiplexing (WDM) technology can help the designer to improve ONoC performance, especially the bandwidth and the latency. However, using the WDM technology leads to introduce new losses and crosstalk noises which negatively impact the Signal to Noise Ratio (SNR) and Bit Error Rate (BER). In detail, this results in higher BER and increases power consumption, which therefore reduces the energy efficiency of the optical interconnects. The contributions presented in this manuscript address these issues. For that, we first model and analyze the optical losses and crosstalk in WDM based ONoC. The model can provide an analytical evaluation of the worst case of loss and crosstalk with different parameters for optical ring network-on-chip. Based on this model, we propose a methodology to improve the performance and then to reduce the power consumption of optical interconnects relying on the use of forward error correction (FEC). We present two case studies of lightweight FEC with low implementation complexity and high error-correction performance under 28nm Fully-Depleted Silicon-On-Insulator (FDSOI) technology. The results demonstrate the advantages of using FEC on the optical interconnect in the context of the CHAMELEON ONoC. Secondly, we propose a complete design of Optical Network Interface (ONI) which is composed of data flow allocation, integrated FECs, data serialization/deserialization, and control of the laser driver. The details of these different elements are presented in this manuscript.  Relying on this network interface, an allocation management to improve energy efficiency can be supported at runtime depending on the application demands. This runtime management of energy vs. performance can be integrated into the ONI manager through configuration manager located in each ONI. Finally, the design of an ONoC configuration sequencer (OCS), located at the center of the optical layer, is presented. By using the ONI manager, the OCS can configure ONoC at runtime according to the application performance and energy requirements.
35

Analyse en stabilité et synthèse de lois de commande pour des systèmes polynomiaux saturants / Stability analysis and controller synthesis for saturating polynomial systems

Valmorbida, Giorgio 08 July 2010 (has links)
La classe des systèmes non-linéaires dont la dynamique est définie par un champ de vecteurs polynomial est étudié. Des modèles polynomiaux peuvent représenter différents systèmes réels ou bien définir des approximations plus riches que des modèles linéaires pour des systèmes non-linéaires différentiables. Des techniques de programmation semi-définie développées récemment ont rendu possible l'étude de cette classe de systèmes avec des outils numériques. Le problème d'analyse en stabilité locale est résolu via des conditions basées sur la positivité de polynomes. Dans le cadre de la synthèse de lois de commande nous proposons un changement de variables linéaire pour traiter la synthèse de lois de commande non-linéaire qui garantissent la stabilité locale. Les ensembles définissant des estimations de la région d'attraction, définis par des courbes de niveau de la fonction de Lyapunov pour le système, sont également donnés par des fonctions polynomiales / We study the class of nonlinear dynamical systems which vector field is defined by polynomial functions. A large set of systems can be modeled using such class of functions. Tests for stability are formulated as semidefinite programming problems by considering positive polinomials to belong to the class of Sum of Squares polynomials. Polynomial control law gains are computed based on a linear change of coordinates and guarantee the local stability of the closed-loop system. Lyapunov theory is then applied in order to obtain estimates of the region of attraction for stable equilibrium points. Such estimates are given by level sets of polynomial positive functions
36

Implémentation et réalisation d'un amplificateur de puissance quatre quadrants

Abida, Ahmed January 2021 (has links) (PDF)
No description available.

Page generated in 0.031 seconds