• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • Tagged with
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Protection des systèmes informatiques vis-à-vis des malveillances : un hyperviseur de sécurité assisté par le matériel / Protection of the computer systems face to face hostilities : a hypersight of sight (security) assisted by the material ( equipment)

Morgan, Benoît 06 December 2016 (has links)
L'utilisation des systèmes informatiques est aujourd'hui en pleine évolution. Le modèle classique qui consiste à associer à chaque utilisateur une machine physique qu'il possède et dont il va exploiter les ressources devient de plus en plus obsolète. Aujourd'hui, les ressources informatiques que l'on utilise peuvent être distribuées n'importe où dans l'Internet et les postes de travail du quotidien ne sont plus systématiquement des machines réelles. Cette constatation met en avant deux phénomènes importants qui sont à l'origine de l'évolution de notre utilisation de l'informatique : le Cloud computing et la virtualisation. Le Cloud computing (ou informatique en nuage en français) permet à un utilisateur d'exploiter des ressources informatiques, de granularités potentiellement très différentes, pendant une durée variable, qui sont à disposition dans un nuage de ressources. L'utilisation de ces ressources est ensuite facturée à l'utilisateur. Ce modèle peut être bien sûr avantageux pour une entreprise qui peut s'appuyer sur des ressources informatiques potentiellement illimitées, qu'elle n'a pas nécessairement à administrer et gérer elle-même. Elle peut ainsi en tirer un gain de productivité et un gain financier. Du point de vue du propriétaire des machines physiques, le gain financier lié à la location des puissances de calcul est accentué par une maximisation de l'exploitation de ces machines par différents clients.L'informatique en nuage doit donc pouvoir s'adapter à la demande et facilement se reconfigurer. Une manière d'atteindre ces objectifs nécessite notamment l'utilisation de machines virtuelles et des techniques de virtualisation associées. Même si la virtualisation de ressources informatiques n'est pas née avec le Cloud, l'avènement du Cloud a considérablement augmenté son utilisation. L'ensemble des fournisseurs d'informatique en nuage s'appuient aujourd'hui sur des machines virtuelles, qui sont beaucoup plus facilement déployables et migrables que des machines réelles.Ainsi, s'il est indéniable que l'utilisation de la virtualisation apporte un véritable intérêt pour l'informatique d'aujourd'hui, il est par ailleurs évident que sa mise en œuvre ajoute une complexité aux systèmes informatiques, complexité à la fois logicielle (gestionnaire de machines virtuelles) et matérielle (nouveaux mécanismes d'assistance à la virtualisation intégrés dans les processeurs). A partir de ce constat, il est légitime de se poser la question de la sécurité informatique dans ce contexte où l'architecture des processeurs devient de plus en plus complexe, avec des modes de plus en plus privilégiés. Etant donné la complexité des systèmes informatiques, l'exploitation de vulnérabilités présentes dans les couches privilégiées ne risque-t-elle pas d'être très sérieuse pour le système global ? Étant donné la présence de plusieurs machines virtuelles, qui ne se font pas mutuellement confiance, au sein d'une même machine physique, est-il possible que l'exploitation d'une vulnérabilité soit réalisée par une machine virtuelle compromise ? N'est-il pas nécessaire d'envisager de nouvelles architectures de sécurité prenant en compte ces risques ?C'est à ces questions que cette thèse propose de répondre. En particulier, nous présentons un panorama des différents problèmes de sécurité dans des environnements virtualisés et des architectures matérielles actuelles. A partir de ce panorama, nous proposons dans nos travaux une architecture originale permettant de s'assurer de l'intégrité d'un logiciel s'exécutant sur un système informatique, quel que soit son niveau de privilège. Cette architecture est basée sur une utilisation mixte de logiciel (un hyperviseur de sécurité développé par nos soins, s'exécutant sur le processeur) et de matériel (un périphérique de confiance, autonome, que nous avons également développé). / Computer system are nowadays evolving quickly. The classical model which consists in associating a physical machine to every users is becoming obsolete. Today, computer resources we are using can be distributed any place on the Internet and usual workstations are not systematically a physical machine anymore. This fact is enlightening two important phenomenons which are leading the evolution of the usage we make of computers: the Cloud computing and hardware virtualization. The cloud computing enable users to exploit computers resources, with a fine grained granularity, with a non-predefined amount of time, which are available into a cloud of resources. The resource usage is then financially charged to the user. This model can be obviously profitable for a company which wants to lean on a potentially unlimited amount of resources, without administrating and managing it. A company can thereby increase its productivity and furthermore save money. From the physical machine owner point of view, the financial gain related to the leasing of computing power is multiplied by the optimization of machine usage by different clients. The cloud computing must be able to adapt quickly to a fluctuating demand a being able to reconfigure itself quickly. One way to reach these goals is dependant of the usage of virtual machines and the associated virtualization techniques. Even if computer resource virtualization has not been introduced by the cloud, the arrival of the cloud it substantially increased its usage. Nowadays, each cloud provider is using virtual machines, which are much more deployable and movable than physical machines. Virtualization of computer resources was before essentially based on software techniques. But the increasing usage of virtual machines, in particular in the cloud computing, leads the microprocessor manufacturers to include virtualization hardware assistance mechanisms. Theses hardware extensions enable on the one hand to make virtualization process easier et on the other hand earn performances. Thus, some technologies have been created, such as Intel VT-x and VT-d or AMD-V by AMD and virtualization extensions by ARM. Besides, virtualization process needs the implementation of extra functionalities, to be able to manage the different virtual machine, schedule them, isolate and share hardware resources like memory and peripherals. These different functionalities are in general handled by a virtual machine manager, whose work can be more or less eased by the characteristics of the processor on which it is executing.In general, these technologies are introducing new execution modes on the processors, more and more privileged and complex.Thus, even if we can see that virtualization is a real interest for modern computer science, it is either clear that its implementation is adding complexity to computer systems, at the same time software and hardwarecomplexity. From this observation, it is legitimate do ask the question about computer security in this context where the architecture of processors is becoming more and more complex, with more and more privileged execution modes. Given the presence of multiple virtual machine, which do not trust each other, in the same physical machine, is it possible that the exploitation of one vulnerability be carried out by a compromised virtual machine ? Isn't it necessary to consider new security architectures taking these risks into account?This thesis is trying to answer to these questions. In particular, we are introducing state of the art security issues in virtualized environment of modern architectures. Starting from this work, we are proposing an originalarchitecture ensuring the integrity of a software being executed on a computer system, regardless its privilege level. This architecture is both using software, a security hypervisor, and hardware, a trusted peripheral, we have both designed and implemented.
2

Modélisation et simulation haut-niveau de micro-systèmes électromécaniques pour le prototypage virtuel multi-physique en SystemC-AMS / System-level modeling and simulation of microelectromechanical systems for multi-physics virtual prototyping in SystemC-AMS

Vernay, Benoît 16 June 2016 (has links)
L'évolution des systèmes embarqués se traduit aujourd'hui par des ensembles complexes, dits systèmes cyber-physiques, opérant principalement en réseau et interagissant fortement avec leur environnement.Intégrés à des circuits de contrôle et de traitement du signal, les micro-systèmes électromécaniques, ou MEMS, jouent un rôle primordial dans ces ensembles en tant que capteurs ou actionneurs.La conception de tels systèmes requiert des solutions globales et pluri-disciplinaires telles que le prototypage virtuel.Basée sur des modèles haut-niveau, cette technique permet d'anticiper le comportement du système dès les premières phases de conception et de le raffiner lors de phases plus avancées.Ces méthodes ont progressivement été appliquées à la conception de circuits intégrés, notamment avec l'utilisation de langages de description matérielle, tels que VHDL ou Verilog.En adoptant un niveau d'abstraction supérieur, SystemC a largement contribué au développement concourant des parties matérielles et logicielles.Parallèlement, les extensions proposées dans SystemC-AMS répondent au nombre croissant de composants analogiques dans les circuits intégrés et constituent une base prometteuse pour le prototypage virtuel de systèmes hétérogènes.Pour cette raison, cette thèse traite de la modélisation et de la simulation haut-niveau de dispositifs MEMS en SystemC-AMS.Dans un premier temps, nous évaluons les capacités actuelles du standard et des modèles de calcul proposés dans SystemC-AMS.Nous démontrons les limites et la difficulté d'élaborer des modèles équivalents de dispositifs MEMS dont la géométrie et les couplages internes nécessitent des descriptions plus détaillées.Nous proposons donc, dans un deuxième temps, d'intégrer directement dans SystemC-AMS des modèles réduits de dispositifs MEMS.La réduction d'ordre de modèle est une méthode mathématique permettant de créer des représentations compactes de systèmes initialement très larges en termes de degrés de liberté.Ainsi, nous utilisons les modèles générés depuis l'outil d'analyse en éléments finis \emph{MEMS+} et proposons une interface de programmation pour les insérer dans des modèles SystemC-AMS.Après avoir détaillé les principales fonctionnalités de l'interface, nous discutons les améliorations possibles du standard et de la solution présentée.Enfin, nous vérifions notre solution avec l'étude d'un accéléromètre et comparons les résultats avec l'état de l'art en termes de précision des modèles et de performances de simulation.Cette thèse propose ainsi une méthodologie complète pour intégrer des dispositifs MEMS dans un environnement de simulation haut-niveau. / Embedded systems have evolved to more complex assemblies, called Cyber-Physical Systems (CPS), mostly operating through networks and tightly interacting with the environment.As actuators or sensors, micro-electromechanical systems (MEMS) are essential elements in these systems where they are integrated along with control and signal processing units.Designing such solutions requires a multi-domain approach like virtual prototyping.Based on system-level models, this technique allows to anticipate the global behavior in early-design phases and to further refine it in more advanced steps.Integrated circuits were progressively designed with respect to this method, especially through Hardware Description Languages (HDLs) like VHDL or Verilog.By adopting a higher-abstraction degree, SystemC enabled the co-development of hardware/software specific applications.In parallel, the Analog and Mixed-Signal (AMS) extensions proposed in SystemC-AMS partly addressed the increasing amount of analog components and are considered as a promising alternative for the virtual prototyping of heterogeneous systems.To that end, this thesis addresses the system-level modeling and simulation of MEMS devices in SystemC-AMS.First, we evaluate the current capabilities of the standard and supported models of computation in SystemC-AMS.We demonstrate the limitations and the the difficulty to elaborate equivalent models of MEMS devices whose geometry and internal coupling require more detailed descriptions.Second, we propose to directly integrate MEMS reduced models in SystemC-AMS.Model-order reduction is a mathematical technique to decrease the number of degrees of freedom and generate compact models from large-scale systems.We thus integrate the reduced models exported from the finite-element analysis tool \emph{MEMS+} and propose an Application Programmable Interface (API) to insert these \textit{ad hoc} models in SystemC-AMS.After reviewing the main API features, we discuss some improvements of both the standard and the presented solution.Finally, we verify our solution through the use case of an accelerometer and compare the results with the state of the art in terms of modeling accuracy and simulation performance.This thesis introduces a framework to integrate MEMS devices with the surrounding electronics in a unified system-level simulation environment.
3

Techniques de multiplexage pour un système d'émulation et de prototypage rapide à base de FPGA / Multiplexing techniques for FPGA-based emulation and prototyping platform

Turki, Mariem 17 September 2014 (has links)
De nos jours, la complexité de la conception des circuits intégrés et du logiciel croit régulièrement, faisant croître le besoin de la vérification dans chaque étape du cycle de conception. Le prototypage matériel sur une plateforme multi-FPGA présente le meilleur compromis entre le temps de conception d'un circuit et le temps d'exécution d'une application par ce circuit. Pour l'implémenter sur cette plateforme, une opération de partitionnement est effectuée avant de créer des partitions capables de s'intégrer dans chaque FPGAPar conséquent, des signaux coupés à l'interface des partitions doivent passer d'un FPGA à un autre. Cependant, le nombre de traces physiques inter-FPGA est limité ce qui crée des problèmes de routabilité du circuit prototypé. Cette thèse touche surtout la partie post-partitionnement et s'intéresse au problème deroutage inter-FPGA. Ainsi, les principaux travaux de cette thèse sont les suivants :Dans un premier temps, nous nous intéressons au développement d'un générateur debenchmarks qui permet, à l'aide d'une description architecturale simple du benchmark, de générer un circuit modélisé avec le langage de description matérielle VHDL. Le générateur utilise un ensemble de composants ce qui donne aux benchmarks un aspect réel semblable à celui des circuits industriels. Ces circuits de tests nous serviront pour évalue rles performances des techniques développées dans cette thèse. Dans un deuxième temps, nous proposons de développer un outil spécifique qui intervient après le partitionnement pour prendre en compte la contrainte liée à la limitation du nombre d'interconnexion entre les FPGAs. Cet outil est basé sur une approcheitérative visant à réduire le taux de multiplexage (nombre de signaux qui partagent un seul _l physique). Le routage en lui même est assuré par l'algorithme de routage Pathfinder adapté. Cet algorithme servira comme point de départ pour les techniques de routage développées durant cette thèse. Des adaptations adéquates seront faites pour cibler un ré-seau de routage inter-FPGA. Dans une deuxième partie, nous essayons de déterminer la meilleure forme du signal à router (bi-points ou multi-points) ainsi que le graphe de routage utilisé. Pour cela, nous proposons des scénarios de test a_n de sélectionner les critères qui donnent la fréquence de fonctionnement la plus performante. Par la suite, nous présentons une description détaillée des IPs de multiplexage utilisés.Ces IPs sont insérés dans les parties émettrices et réceptrices d'un canal de communication. Ces IPs incluent des composants spécifiques appelés SERDES pour assurer la sérialisation/déserialisation des données à transmettre. L'insertion de ces composants peut créer des problèmes de routabilité intra-FPGA. Ainsi, dans une deuxième partie, nous proposons un algorithme de placement basé sur l'estimation de la congestion afin d'améliorer la routabilité du circuit. / This thesis mainly deals with the post-partitioning task and addresses the problem of inter-FPGA routing. Thus, the main contributions of this thesis are: Firstly, we focus on the development of a benchmark generator which, using a simple architectural description of the benchmark, generates a circuit modelled with the hardware description language VHDL. The generator uses a set of industrial components providing benchmarks with real behaviour similar to that of industrial circuits. These benchmarks are used to evaluate the performance of the techniques developed in this thesis. In a second step , we propose a speci_c tool which acts after the partitioning to handle the constraints related to the limited number of interconnection between FPGAs. This tool is based on an iterative approach and aims to reduce the multiplexing ratio (the number of signals that share the same physical wire). The routing task itself is operated by the Pathfinder routing algorithm which is widely used by academic and industrial researchers . This algorithm is used as a starting point for routing techniques developed in this thesis . In a second part , we try to identify the best shape of the routed signals and the appropriate routing graph. For this reason, we propose scenarios to select criteria that give the best system frequency. Finally, we present a detailed description of the architecture of the multiplexing IPs. These IPs are inserted in the transmitting and receiving FPGAs of a communication channel. These IPs include speci_c components called SERDES for serialization/deserialization of the data. The insertion of these IPs can create problems of intra-FPGA routability. Thus, in a second part, we propose a placement algorithm based on congestion estimation to improve the routability of the circuit.

Page generated in 0.0239 seconds