• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 134
  • 120
  • 119
  • 12
  • 10
  • 10
  • 6
  • 6
  • 6
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 504
  • 93
  • 87
  • 87
  • 85
  • 75
  • 75
  • 70
  • 69
  • 60
  • 52
  • 50
  • 50
  • 47
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

A Study of Microfluidic Reconfiguration Mechanisms Enabled by Functionalized Dispersions of Colloidal Material for Radio Frequency Applications

Goldberger, Sean A. 2009 May 1900 (has links)
Communication and reconnaissance systems are requiring increasing flexibility concerning functionality and efficiency for multiband and broadband frequency applications. Circuit-based reconfiguration mechanisms continue to promote radio frequency (RF) application flexibility; however, increasing limitations have resulted in hindering performance. Therefore, the implementation of a "wireless" reconfiguration mechanism provides the required agility and amicability for microwave circuits and antennas without local overhead. The wireless reconfiguration mechanism in this thesis integrates dynamic, fluidic-based material systems to achieve electromagnetic agility and reduce the need for "wired" reconfiguration technologies. The dynamic material system component has become known as electromagnetically functionalized colloidal dispersions (EFCDs). In a microfluidic reconfiguration system, they provide electromagnetic agility by altering the colloidal volume fraction of EFCDs - their name highlights the special considerations we give to material systems in applied electromagnetics towards lowering loss and reducing system complexity. Utilizing EFCDs at the RF device-level produced the first circuit-type integration of this reconfiguration system; this is identified as the coaxial stub microfluidic impedance transformer (COSMIX). The COSMIX is a small hollowed segment of transmission line with results showing a full reactive loop (capacitive to inductive tuning) around the Smith chart over a 1.2 GHz bandwidth. A second microfluidic application demonstrates a novel antenna reconfiguration mechanism for a 3 GHz microstrip patch antenna. Results showed a 300 MHz downward frequency shift by dielectric colloidal dispersions. Magnetic material produced a 40 MHz frequency shift. The final application demonstrates the dynamically altering microfluidic system for a 3 GHz 1x2 array of linearly polarized microstrip patch antennas. The parallel microfluidic capillaries were imbedded in polydimethylsiloxane (PDMS). Both E- and H-plane designs showed a 250 MHz frequency shift by dielectric colloidal dispersions. Results showed a strong correlation between decreasing electrical length of the elements and an increase of the volume fraction, causing frequency to decrease and mutual coupling to increase. Measured, modeled, and analytical results for impedance, voltage standing wave ratio (VSWR), and radiation behavior (where applicable) are provided.
232

Méthodologie de conception pour la virtualisation et le déploiement d'applications parallèles sur plateforme reconfigurable matériellement

Foucher, Clément 24 October 2012 (has links) (PDF)
Les applications auto-adaptatives, dont le comportement évolue en fonction de l'environnement, sont un élément clé des systèmes de demain. L'utilisation de matériel reconfigurable, combiné à la parallélisation des unités de calcul, permettent d'envisager de nouveaux niveaux de performances pour ces mêmes applications. L'objectif de cette thèse est de mettre en place un ensemble d'outils permettant la description et le déploiement d'applications parallèles auto-adaptatives. Nous proposons à la fois un modèle d'application parallèle et une architecture de plateforme reconfigurable destinée au déploiement des applications conçues en utilisant ce modèle. Notre modèle d'applications sépare le contrôle du calcul en isolant ce dernier en différents noyaux virtuels. Associée à une représentation du contrôle indépendante de la plateforme, la structure de l'application est donc totalement portable. Indépendamment de celle-ci, les noyaux de calcul peuvent être distribués selon plusieurs implémentations, selon la plateforme, mais également pour proposer différents niveaux de performances. Une couche de virtualisation permet de faire le lien entre la partie contrôle et les noyaux, en traduisant les ordres génériques en actions adaptées à l'implémentation. Concernant la plateforme, nous proposons une architecture permettant l'intégration de ressources de calcul logicielles et matérielles, pouvant être implémentées tant statiquement qu'en utilisant du matériel reconfigurable. Cette architecture parallèle, inspirée du modèle des supercalculateurs, doit permettre d'utiliser tout type d'unités d'exécution et de matériel reconfigurable comme base matérielle pour la plateforme.
233

Reconfiguration du dispositif de commande d’une éolienne en cas de creux de tension / Control reconfiguration of a doubly fed induction machine based wind generator to increase the low voltage ride through capability

Peng, Ling 17 June 2010 (has links)
Avec le développement de l’éolien, les prescriptions techniques de raccordement de cette technologie obligeront le maintient de sa connexion lors d’incidents sur la tension du réseau électrique. L’enjeu pour le gestionnaire du réseau est de pouvoir utiliser tous les générateurs pour garantir la stabilité du système électrique.A partir d’un modèle dynamique d’une éolienne à base de Machine Asynchrone à Double Alimentation (MADA), une commande vectorielle améliorée a été proposée en prenant en compte la dynamique du flux statorique engendrée par la chute de tension. Les performances supérieures en terme de maintient de la production ont été établies par comparaison avec la méthode de commande classique. Son domaine d’utilisation a été également déterminé.Pendant les creux de tension importants, une protection matérielle (crowbar) est implémentée avec un contrôle de la démagnétisation de la MADA. En outre, de la puissance réactive peut être produite à la fois par la MADA et par le convertisseur connecté au réseau électrique au cours de la défaillance du réseau.Un contrôle vectoriel à hystérésis des courants pour les deux convertisseurs électroniques multiniveaux est proposé et évalué pour améliorer la réponse dynamique de ces convertisseurs et pour réduire les effets des variations des paramètres sur les performances de la commande. Selon la durée du défaut, des objectifs différents de contrôle doivent être réalisés en priorité pour empêcher des surintensités rotoriques et pour fournir de la puissance réactive. Une reconfiguration complète du dispositif de commande de cette éolienne est détaillée pour renforcer le maintient de la production éolienne lors de défaillances / With the massive development of wind energy, the technical requirements for connecting this technology will require the improvement of the fault ride-through capability of grid-connected wind turbines. The task for the grid system operator is to use all generators to ensure the stability of the electrical system.From a dynamic model of a Doubly Fed Induction Generator (DFIG) based wind generator, an improved vector control has been proposed by taking into account the dynamics of the magnetic flux, which are generated by the voltage dip. The higher performances have been established by comparison with the conventional control method. The operation domain was also determined.During serious voltage dips, a hysteresis control scheme of the active Crowbar is proposed to protect the system within a demagnetization method of the DFIG. Moreover, additional reactive power can be produced both by the MADA and the grid-side converter in order to support the electric network during the grid fault.A space vector hysteresis current control strategy of both three-level converters is proposed to improve the dynamic response of the system and to reduce the parameter variation effects on the control performanceDepending on the grid fault duration, different control objectives have to be achieved with priority to restrain the rotor over-current or to supply reactive power. Then the reconfiguration scheme of the control strategies of high power DFIG wind turbine system is proposed to enhance the fault ride-through capability of the DFIG system. With this specific methodology, the DFIG can stay connected and can supply maximal reactive current during voltage dips to help voltage recovery
234

Optimisation des réseaux : réseau actif et flexible / Networks optimization : active and flexible network

Touré, Sellé 20 October 2014 (has links)
Le Système Électrique est soumis ces dernières années à plusieurs évolutions, depuis la dérégulationdu marché d'énergie à l'intégration de plus en plus importante de Générateurs Dispersés (GED). Ainsi,dans le cadre du concept de Smart Grid, les nouvelles technologies de l'information et de lacommunication (NTIC) offrent de nouvelles perspectives pour la gestion et l'exploitation des réseauxde distribution.Dans ce contexte, de nouveaux outils sont étudiés. Encore appelés Fonctions Avancéesd’Automatisation (FAA), le but principal de ces outils est d’utiliser tous les composants du réseau dedistribution de manière coordonnée en vue de les rendre plus actifs, flexibles et d’augmenter leurefficacité opérationnelle. Dans notre cas, nous avons étudié les fonctions associées à la reconfigurationen régime normal, du réglage de la tension et l’hybridation de ces deux derniers, tout en tenant comptede la présence des GED. En partant du comportement physique inhérent aux composants du réseau,plusieurs modèles ont été proposés. Certains sont tirés de la théorie des graphes et d’autres sur l’outilpuissant de la reformulation mathématique pour « convexifier » nos modèles. Cette modélisationadoptée répond à la fois à la nécessité de prendre en compte tous les moyens de réglages qui peuventêtre discrets (prises des transformateurs avec régleurs en charge ou des gradins de condensateurs),binaires (état de connectivité des composants) et continues (puissance réactive de la DG) et par lechoix des outils et des algorithmes d'optimisation mixte. En effet, la complexité de ces problèmes sonttelles que nous avons exploré à la fois des algorithmes méta-heuristiques (ACF : Algorithme desColonies de Fourmis) que déterministes (Décomposition de Benders Généralisée, Algorithme duBranch and Cut). / The Electric Power System is undergoing a lot of evolutions in recent years, including the energymarket deregulation and the increasing integration of Dispersed Generators (DG). Therefore, withinthe framework of Smart Grid concept, the New Information and Communication Technologies (NICT)provide new perspectives to manage and operate distribution networks.In this context, new tools, called Advanced Distribution Automation functions (ADA, are beingstudied). The main objective of these tools is to use all the distribution network components in acoordinated manner to make them more active and flexible, in addition to increasing their operationalefficiency. In our case, we studied the functions associated with the reconfiguration problem, thevoltage control problem and the hybridization of these two, while taking into account the presence ofthe DG. Based on the inherent components of network physical models, several models have beenproposed. Some are derived from the graph theory and others use powerful mathematicalreformulation to make our models convex. The adopted models answer to the necessity of taking intoaccount all regulation means, which can be discrete (On Load Tap-Changer and capacitor banks),binary (components connectivity such as lines or transformers) and continuous (DG reactive power ),and by the choice of tools and algorithms of mixed optimization. Indeed, the complexity of theseproblems is such that we have explored both algorithms: meta-heuristic (ACA, Ant Colony Algorithm)and deterministic (Generalized Benders Decomposition, Branch and Cut Algorithm).
235

Une approche par composants pour l'analyse visuelle interactive de résultats issus de simulations numériques / A component-based approach for interactive visual analysis of numerical simulation results

Ait Wakrime, Abderrahim 10 December 2015 (has links)
Les architectures par composants sont de plus en plus étudiées et utilisées pour le développement efficace des applications en génie logiciel. Elles offrent, d’un côté, une architecture claire aux développeurs, et de l’autre, une séparation des différentes parties fonctionnelles et en particulier dans les applications de visualisation scientifique interactives. La modélisation de ces applications doit permettre la description des comportements de chaque composant et les actions globales du système. De plus, les interactions entre composants s’expriment par des schémas de communication qui peuvent être très complexes avec, par exemple, la possibilité de perdre des messages pour gagner en performance. Cette thèse décrit le modèle ComSA (Component-based approach for Scientific Applications) qui est basé sur une approche par composants dédiée aux applications de visualisation scientifique interactive et dynamique formalisée par les réseaux FIFO colorés stricts (sCFN). Les principales contributions de cette thèse sont dans un premier temps, un ensemble d’outils pour modéliser les différents comportements des composants ainsi que les différentes politiques de communication au sein de l’application. Dans un second temps, la définition de propriétés garantissant un démarrage propre de l’application en analysant et détectant les blocages. Cela permet de garantir la vivacité tout au long de l’exécution de l’application. Finalement l’étude de la reconfiguration dynamique des applications d’analyse visuelle par ajout ou suppression à la volée d’un composant sans arrêter toute l’application. Cette reconfiguration permet de minimiser le nombre de services non disponibles. / Component-based approaches are increasingly studied and used for the effective development of the applications in software engineering. They offer, on the one hand, safe architecture to developers, and on the other one, a separation of the various functional parts and particularly in the interactive scientific visualization applications. Modeling such applications enables the behavior description of each component and the global system’s actions. Moreover, the interactions between components are expressed through a communication schemes sometimes very complex with, for example, the possibility to lose messages to enhance performance. This thesis describes ComSA model (Component-based approach for Scientific Applications) that relies on a component-based approach dedicated to interactive and dynamic scientific visualization applications and its formalization in strict Colored FIFO Nets (sCFN). The main contributions of this thesis are, first, the definition of a set of tools to model the component’s behaviors and the various application communication policies. Second, providing some properties on the application to guarantee it starts properly. It is done by analyzing and detecting deadlocks. This ensures the liveness throughout the application execution. Finally, we present dynamic reconfiguration of visual analytics applications by adding or removing on the fly of a component without stopping the whole application. This reconfiguration minimizes the number of unavailable services.
236

Modélisation et commande d'un système innovant pour la propulsion navale / Modeling, optimization by control strategies of an innovative system for naval propulsion

Debbou, Mustapha 03 June 2014 (has links)
Les travaux menés durant cette thèse s'intéressent principalement aux avantages que peut offrir la machine asynchrone à double alimentation (MADA) dans un système de propulsion navale. Ceci est obtenu à travers les degrés de libertés additionnels qu'elle apporte, d'une part, par l'exploitation de la redondance structurelle naturelle, et d'autre part , par les stratégies de contrôle qui lui sont appliquées. La première partie de ce mémoire, présente la modélisation du propulseur innovant. Ce dernier est conçu principalement autour de la MADA comme moteur de propulsion. Il est alimenté par deux onduleurs de tension à Modulation de Largeur d'Impulsion (MLI), et entrainant une hélice à trois pales fixes et symétriques. Plusieurs stratégies de commande ont été introduites pour piloter le système. En effet, des lois de contrôle de type linéaires et non linéaires, associées à des divers modulateurs MLI ont été validées et appliquées à cette structure de propulsion. L'innovation apportée dans le cadre de ces travaux consiste à associer à l'optimisation par conception (machine et convertisseurs d'alimentation), une optimisation par la commande et ce en évaluant l'influence de ces techniques pour deux critères de dimensionnement majeurs, à savoir, les pertes dans les convertisseurs de puissances, et les bruits acoustiques et vibratoires. La propulsion navale, comme tout système embarqué, possède des exigences en matière de qualité de service non seulement en termes de performances mais aussi de fiabilité et de disponibilité. En effet, les systèmes conçus pour ce type d'application doivent assurer et garantir une continuité de service en cas d'apparition de défauts au sein des constituants du système. L'utilisation de la MADA dans les systèmes de propulsion offre une redondance structurelle naturelle et analytique, introduite par la commande, qui permet d'assurer une continuité de service du système en présence d'une défaillance dans la structure. Deux défauts sont ainsi considérés dans cette étude, un défaut de semi-conducteur de puissance dans le convertisseur de puissance et un défaut de capteur vitesse/position. Les stratégies de contrôle proposées, les modèles de propulseur établis ainsi que les reconfigurations adoptées suite aux défauts ont été validées expérimentalement sur les bancs développés au LAPLACE dans le cadre de ces travaux. / This study focuses on the benefits that can be induced by the use of the Double Fed Induction Machine (DFIM) operating in motor mode for marine propulsion systems. It can be achieved by the additional degree of freedom it provides, firstly, by exploiting the natural structural redundancy, and secondly, by the alytical redundancy introduced by applied control strategies. The first part of this thesis presents the modeling of a propeller architected mainly around the DFIM and its load such as a propeller with three fixed and symmetrical blades. Several control strategies have been introduced to control the system, in fact, linear and nonlinear control laws type associated with various modulators have been validated and applied to the propulsion structure. The objective was to evaluate the influence of these techniques for two major design criteria, namely, losses in power converters, and noise and vibration noise. Naval propulsion as any embedded system has requirements for the quality of service not only in performance but also reliability and availability. Indeed, the systems designed for these types of applications must ensure and guarantee continuity of service in response to the failures in system components. The use of MADA in propulsion systems provides a natural structural and analytical redundancies which ensure system service continuity in the presence of a fault in this structure. Two faults are considered in this study, a power semiconductor fault in the power converter and a speed sensor / position failure. Control strategies proposed, the propeller modeling established and reconfigurations adopted following settings have been validated by simulation and experimentally on the real laboratory or industrial benches developed in the context of this study.
237

Towards highly flexible hardware architectures for high-speed data processing : a 100 Gbps network case study / Vers des architectures matérielles hautement flexibles pour le traitement des données à très haut débit : cas d'étude sur les réseaux à 100 Gbps

Lalevée, André 28 November 2017 (has links)
L’augmentation de la taille des réseaux actuels ainsi que de la diversité des applications qui les utilisent font que les architectures de calcul traditionnelles deviennent limitées. En effet, les architectures purement logicielles ne permettent pas de tenir les débits en jeu, tandis que celles purement matérielles n’offrent pas assez de flexibilité pour répondre à la diversité des applications. Ainsi, l’utilisation de solutions de type matériel programmable, en particulier les Field Programmable Gate Arrays (FPGAs), a été envisagée. En effet, ces architectures sont souvent considérées comme un bon compromis entre performances et flexibilité, notamment grâce à la technique de Reconfiguration Dynamique Partielle (RDP), qui permet de modifier le comportement d’une partie du circuit pendant l’exécution. Cependant, cette technique peut présenter des inconvénients lorsqu’elle est utilisée de manière intensive, en particulier au niveau du stockage des fichiers de configuration, appelés bitstreams. Pour palier ce problème, il est possible d’utiliser la relocation de bitstreams, permettant de réduire le nombre de fichiers de configuration. Cependant cette technique est fastidieuse et exige des connaissances pointues dans les FPGAs. Un flot de conception entièrement automatisé a donc été développé dans le but de simplifier son utilisation.Pour permettre une flexibilité sur l’enchaînement des traitements effectués, une architecture de communication flexible supportant des hauts débits est également nécessaire. Ainsi, l’étude de Network-on-Chips dédiés aux circuits reconfigurables et au traitements réseaux à haut débit.Enfin, un cas d’étude a été mené pour valider notre approche. / The increase in both size and diversity of applications regarding modern networks is making traditional computing architectures limited. Indeed, purely software architectures can not sustain typical throughputs, while purely hardware ones severely lack the flexibility needed to adapt to the diversity of applications. Thus, the investigation of programmable hardware, such as Field Programmable Gate Arrays (FPGAs), has been done. These architectures are indeed usually considered as a good tradeoff between performance and flexibility, mainly thanks to the Dynamic Partial Reconfiguration (DPR), which allows to reconfigure a part of the design during run-time.However, this technique can have several drawbacks, especially regarding the storing of the configuration files, called bitstreams. To solve this issue, bitstream relocation can be deployed, which allows to decrease the number of configuration files required. However, this technique is long, error-prone, and requires specific knowledge inFPGAs. A fully automated design flow has been developped to ease the use of this technique. In order to provide flexibility regarding the sequence of treatments to be done on our architecture, a flexible and high-throughput communication structure is required. Thus, a Network-on-Chips study and characterization has been done accordingly to network processing and bitstream relocation properties. Finally, a case study has been developed in order to validate our approach.
238

Déploiement auto-adaptatif d'intergiciel sur plate-forme élastique / Self-adaptive deployment for middleware on elastic platform

Faye, Maurice-Djibril 10 November 2015 (has links)
Nous avons étudié durant cette thèse les moyens de rendre le déploiement d'un intergiciel auto-adaptatif. Le type d'intergiciel que nous avons considéré ici est hiérarchique (structure de graphe) et distribué. Chaque sommet du graphe modélise un processus qui peut être déployé sur une machine physique ou virtuelle d'une infrastructure de type grille/cloud, les arêtes modélisent des liens de communications entre processus. Il offre aux clients des services de calcul haute performance. Les infrastructures de grilles/cloud étant élastiques (perte et ajout de nœuds), un déploiement statique n'est pas la solution idéale car en cas de panne on risque de tout reprendre à zéro, ce qui est coûteux. Nous avons donc proposé un algorithme auto-stabilisant pour que l'intergiciel puisse retrouver un état stable sans intervention extérieure, au bout d'un temps fini, lorsqu'il est confronté à certains types de pannes. Les types de pannes que nous avons considérés sont les pannes transitoires (simulé par la perte de nœuds, l'ajout de nouveaux nœuds, la perte de liens entre deux nœuds). Pour évaluer ces algorithmes, nous avons conçu un simulateur. Les résultats des simulations montrent qu'un déploiement, sujet à des pannes transitoires, s'auto-adapte. Avant d'en arriver à la phase de programmation du simulateur, nous avons d'abord proposé un modèle d'infrastructure distribuée (ce modèle permet de décrire des environnements de type grille/cloud), un modèle pour décrire certains types d'intergiciels hiérarchiques et enfin un modèle pouvant décrire un intergiciel en cours d'exécution (processus déployés sur les machines). / We have studied the means to make a middleware deployment self-adaptive. Our use case middleware is hierarchical and distributed and can be modeled by a graph. A vertex models a process and an edge models a communication link between two processes. The middleware provides high performance computing services to the users.Once the middleware is deployed on a computing infrastructure like a grid or cloud, how it adapt the changes in dynamic environment? If the deployment is static, it may be necessary to redo all the deployment process, which is a costly operation. A better solution would be to make the deployment self-adaptive. We have proposed a rules-based self-stabilizing algorithm to manage a faulty deployment. Thus, after the detection of an unstable deployment, caused by some transients faults (joining of new nodes or deletion of existing nodes which may modify the deployment topology), the system will eventually recover a stable state, without external help, but only by executing the algorithm.We have designed an ad hoc discrete events simulator to evaluate the proposed algorithm. The simulation results show that, a deployment, subjected to transients faults which make it unstable, adapts itself. Before the simulator design, we had proposed a model to describe a distributed infrastructure, a model to describe hierarchical middleware and a model to describe a deployment, that is the mapping between the middleware processes and the hardware on which they are running on.
239

Crypto-processor – architecture, programming and evaluation of the security / Crypto-processeur – architecture, programmation et évaluation de la sécurité

Gaspar, Lubos 16 November 2012 (has links)
Les architectures des processeurs et coprocesseurs cryptographiques se montrent fréquemment vulnérables aux différents types d’attaques ; en particulier, celles qui ciblent une révélation des clés chiffrées. Il est bien connu qu’une manipulation des clés confidentielles comme des données standards par un processeur peut être considérée comme une menace. Ceci a lieu par exemple lors d’un changement du code logiciel (malintentionné ou involontaire) qui peut provoquer que la clé confidentielle sorte en clair de la zone sécurisée. En conséquence, la sécurité de tout le système serait irréparablement menacée. L’objectif que nous nous sommes fixé dans le travail présenté, était la recherche d’architectures matérielles reconfigurables qui peuvent fournir une sécurité élevée des clés confidentielles pendant leur génération, leur enregistrement et leur échanges en implantant des modes cryptographiques de clés symétriques et des protocoles. La première partie de ce travail est destinée à introduire les connaissances de base de la cryptographie appliquée ainsi que de l’électronique pour assurer une bonne compréhension des chapitres suivants. Deuxièmement, nous présentons un état de l’art des menaces sur la confidentialité des clés secrètes dans le cas où ces dernières sont stockées et traitées dans un système embarqué. Pour lutter contre les menaces mentionnées, nous proposons alors de nouvelles règles au niveau du design de l’architecture qui peuvent augmenter la résistance des processeurs et coprocesseurs cryptographiques contre les attaques logicielles. Ces règles prévoient une séparation des registres dédiés à l’enregistrement de clés et ceux dédiés à l’enregistrement de données : nous proposons de diviser le système en zones : de données, du chiffreur et des clés et à isoler ces zones les unes des autres au niveau du protocole, du système, de l’architecture et au niveau physique. Ensuite, nous présentons un nouveau crypto-processeur intitulé HCrypt, qui intègre ces règles de séparation et qui assure ainsi une gestion sécurisée des clés. Mises à part les instructions relatives à la gestion sécurisée de clés, quelques instructions supplémentaires sont dédiées à une réalisation simple des modes de chiffrement et des protocoles cryptographiques. Dans les chapitres suivants, nous explicitons le fait que les règles de séparation suggérées, peuvent également être étendues à l’architecture d’un processeur généraliste et coprocesseur. Nous proposons ainsi un crypto-coprocesseur sécurisé qui est en mesure d’être utilisé en relation avec d’autres processeurs généralistes. Afin de démontrer sa flexibilité, le crypto-coprocesseur est interconnecté avec les processeurs soft-cores de NIOS II, de MicroBlaze et de Cortex M1. Par la suite, la résistance du crypto-processeur par rapport aux attaques DPA est testée. Sur la base de ces analyses, l’architecture du processeur HCrypt est modifiée afin de simplifier sa protection contre les attaques par canaux cachés (SCA) et les attaques par injection de fautes (FIA). Nous expliquons aussi le fait qu’une réorganisation des blocs au niveau macroarchitecture du processeur HCrypt, augmente la résistance du nouveau processeur HCrypt2 par rapport aux attaques de type DPA et FIA. Nous étudions ensuite les possibilités pour pouvoir reconfigurer dynamiquement les parties sélectionnées de l’architecture du processeur – crypto-coprocesseur. La reconfiguration dynamique peut être très utile lorsque l’algorithme de chiffrement ou ses implantations doivent être changés en raison de l’apparition d’une vulnérabilité Finalement, la dernière partie de ces travaux de thèse, est destinée à l’exécution des tests de fonctionnalité et des optimisations stricts des deux versions du cryptoprocesseur HCrypt / Architectures of cryptographic processors and coprocessors are often vulnerable to different kinds of attacks, especially those targeting the disclosure of encryption keys. It is well known that manipulating confidential keys by the processor as ordinary data can represent a threat: a change in the program code (malicious or unintentional) can cause the unencrypted confidential key to leave the security area. This way, the security of the whole system would be irrecoverably compromised. The aim of our work was to search for flexible and reconfigurable hardware architectures, which can provide high security of confidential keys during their generation, storage and exchange while implementing common symmetric key cryptographic modes and protocols. In the first part of the manuscript, we introduce the bases of applied cryptography and of reconfigurable computing that are necessary for better understanding of the work. Second, we present threats to security of confidential keys when stored and processed within an embedded system. To counteract these threats, novel design rules increasing robustness of cryptographic processors and coprocessors against software attacks are presented. The rules suggest separating registers dedicated to key storage from those dedicated to data storage: we propose to partition the system into the data, cipher and key zone and to isolate the zones from each other at protocol, system, architectural and physical levels. Next, we present a novel HCrypt crypto-processor complying with the separation rules and thus ensuring secure key management. Besides instructions dedicated to secure key management, some additional instructions are dedicated to easy realization of block cipher modes and cryptographic protocols in general. In the next part of the manuscript, we show that the proposed separation principles can be extended also to a processor-coprocessor architecture. We propose a secure crypto-coprocessor, which can be used in conjunction with any general-purpose processor. To demonstrate its flexibility, the crypto-coprocessor is interconnected with the NIOS II, MicroBlaze and Cortex M1 soft-core processors. In the following part of the work, we examine the resistance of the HCrypt cryptoprocessor to differential power analysis (DPA) attacks. Following this analysis, we modify the architecture of the HCrypt processor in order to simplify its protection against side channel attacks (SCA) and fault injection attacks (FIA). We show that by rearranging blocks of the HCrypt processor at macroarchitecture level, the new HCrypt2 processor becomes natively more robust to DPA and FIA. Next, we study possibilities of dynamically reconfiguring selected parts of the processor - crypto-coprocessor architecture. The dynamic reconfiguration feature can be very useful when the cipher algorithm or its implementation must be changed in response to appearance of some vulnerability. Finally, the last part of the manuscript is dedicated to thorough testing and optimizations of both versions of the HCrypt crypto-processor. Architectures of crypto-processors and crypto-coprocessors are often vulnerable to software attacks targeting the disclosure of encryption keys. The thesis introduces separation rules enabling crypto-processor/coprocessors to support secure key management. Separation rules are implemented on novel HCrypt crypto-processor resistant to software attacks targetting the disclosure of encryption keys
240

On the mapping of distributed applications onto multiple Clouds / Contributions au placement d'applications distribuées sur multi-clouds

De Souza Bento Da Silva, Pedro Paulo 11 December 2017 (has links)
Le Cloud est devenu une plate-forme très répandue pour le déploiement d'applications distribuées. Beaucoup d'entreprises peuvent sous-traiter leurs infrastructures d'hébergement et, ainsi, éviter des dépenses provenant d'investissements initiaux en infrastructure et de maintenance.Des petites et moyennes entreprises, en particulier, attirés par le modèle de coûts sur demande du Cloud, ont désormais accès à des fonctionnalités comme le passage à l'échelle, la disponibilité et la fiabilité, qui avant le Cloud étaient presque réservées à de grandes entreprises.Les services du Cloud peuvent être offerts aux utilisateurs de plusieurs façons. Dans cette thèse, nous nous concentrons sur le modèle d'Infrastructure sous Forme de Service. Ce modèle permet aux utilisateurs d’accéder à des ressources de calcul virtualisés sous forme de machine virtuelles (MVs).Pour installer une application distribuée, un client du Cloud doit d'abord définir l'association entre son application et l'infrastructure. Il est nécessaire de prendre en considération des contraintesde coût, de ressource et de communication pour pouvoir choisir un ensemble de MVs provenant d'opérateurs de Cloud publiques et privés le plus adaptés. Cependant, étant donné la quantité exponentiel de configurations, la définition manuelle de l'association entre application et infrastructure peut être un challenge dans des scénarios à large échelle ou ayant des contraintes importantes de temps. En effet, ce problème est une généralisation du problème de calcul de homomorphisme de graphes, qui est NP-complet.Dans cette thèse, nous adressons le problème de calculer des placements initiaux et de reconfiguration pour des applications distribuées sur potentiellement de multiples Clouds. L'objectif est de minimiser les coûts de location et de migration en satisfaisant des contraintes de ressources et communications. Pour cela, nous proposons des heuristiques performantes capables de calculer des placements de bonne qualité très rapidement pour des scénarios à petite et large échelles. Ces heuristiques, qui sont basées sur des algorithmes de partition de graphes et de vector packing, ont été évaluées en les comparant avec des approches de l'état de l'art comme des solveurs exactes et des méta-heuristiques. Nous montrons en utilisant des simulations que les heuristiques proposées arrivent à calculer des solutions de bonne qualité en quelques secondes tandis que des autres approches prennent des heures ou jours pour les calculer. / The Cloud has become a very popular platform for deploying distributed applications. Today, virtually any credit card holder can have access to Cloud services. There are many different ways of offering Cloud services to customers. In this thesis we especially focus on theInfrastructure as a Service (IaaS), a model that, usually, proposes virtualized computing resources to costumers in the form of virtual machines (VMs). Thanks to its attractive pay-as-you-use cost model, it is easier for customers, specially small and medium companies, to outsource hosting infrastructures and benefit of savings related to upfront investments and maintenance costs. Also, customers can have access to features such as scalability, availability, and reliability, which previously were almost exclusive for large companies. To deploy a distributed application, a Cloud customer must first consider the mapping between her application (or its parts) to the target infrastructure. She needs to take into consideration cost, resource, and communication constraints to select the most suitable set of VMs, from private and public Cloud providers. However, defining a mapping manually may be a challenge in large-scale or time constrained scenarios since the number of possible configuration explodes. Furthermore, when automating this process, scalability issues must be taken into account given that this mapping problem is a generalization of the graph homomorphism problem, which is NP-complete.In this thesis we address the problem of calculating initial and reconfiguration placements for distributed applications over possibly multiple Clouds. Our objective is to minimize renting and migration costs while satisfying applications' resource and communication constraints. We concentrate on the mapping between applications and Cloud infrastructure. Using an incremental approach, we split the problem into three different parts and propose efficient heuristics that can compute good quality placements very quickly for small and large scenarios. These heuristics are based on graph partition and vector packing heuristics and have been extensively evaluated against state of the art approaches such as MIP solvers and meta-heuristics. We show through simulations that the proposed heuristics manage to compute solutions in a few seconds that would take many hours or days for other approaches to compute.

Page generated in 0.0777 seconds