• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 32
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 88
  • 38
  • 25
  • 18
  • 16
  • 15
  • 12
  • 11
  • 11
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Konstrukce historické reality v díle kronikáře Jeana Froissarta / The Construction of a Historical Reality in Jean Froissart's Chronicles

Soukupová, Věra January 2017 (has links)
The Construction of Historical Reality in Jean Froissart's Chronicles Jean Froissart, one of the most famous chroniclers of the Middle Ages, is generally recognized for the literary qualities of his work, less so for the credibility of his account. In my research I have endeavoured to follow those scholars whose aim has been to rehabilitate the author by studying him not on the basis of principles which govern our contemporary understanding of history as an academic discipline, but rather on the basis of conceptual movements which conditioned historical writing in the 14th century, taking into account the traditions upon which medieval conception of history was built. Put differently, this work seeks to examine closely the "historical forge" of Jean Froissart. Clearly, Froissart's historical project falls within a specific discourse on historical genres, on relationships between form and truth which an account of deeds is expected to convey, on the manner in which the authority of a story being told is constructed. It is on the very intersection of this context, on the one hand, and the individuality of the author, on the other, that I based my search for the chronicler's perspectives on the writing of history. Froissart was from the outset concerned with the issues of impartiality and credibility...
72

Sécurisation de l'Internet des objets / Securing the Internet of things

Hammi, Mohamed Tahar 17 September 2018 (has links)
L'Internet des Objets ou en anglais the Internet of Things (IoT) représente aujourd'hui une partie majeure de notre vie quotidienne. Des milliards d'objets intelligents et autonomes, à travers le monde sont connectés et communiquent entre eux. Ce paradigme révolutionnaire crée une nouvelle dimension qui enlèveles frontières entre le monde réel et le monde virtuel. Son succès est dû à l’évolution des équipements matériels et des technologies de communication notamment sans fil. L’IoT est le fruit du développement et de la combinaison de différentes technologies. Il englobe presque tous les domaines de la technologie d’information (Information Technology (IT)) actuels.Les réseaux de capteurs sans fil représentent une pièce maîtresse du succès de l'IoT. Car en utilisant des petits objets qui sont généralement limités en terme de capacité de calcul, de mémorisation et en énergie, des environnements industriels, médicaux, agricoles, et autres peuvent être couverts et gérés automatiquement.La grande puissance de l’IoT repose sur le fait que ses objets communiquent, analysent, traitent et gèrent des données d’une manière autonome et sans aucune intervention humaine. Cependant, les problèmes liés à la sécurité freinent considérablement l’évolution et le déploiement rapide de cette haute echnologie. L'usurpation d’identité, le vols d’information et la modification des données représentent un vrai danger pour ce système des systèmes.Le sujet de ma thèse consiste en la création d'un système de sécurité permettant d’assurer les services d’authentification des objets connectés, d’intégrité des données échangées entres ces derniers et de confidentialité des informations. Cette approche doit prendre en considération les contraintes des objets et des technologies de communication utilisées. / Internet of Things becomes a part of our everyday lives. Billions of smart and autonomous things around the world are connected and communicate with each other. This revolutionary paradigm creates a new dimension that removes boundaries between the real and the virtual worlds. Its success is due to the evolution of hardware and communication technologies, especially wireless ones. IoT is the result of the development and combination of different technologies. Today, it covers almost all areas of information technology (IT).Wireless sensor networks are a cornerstone of IoT's success. Using constrained things, industrial, medical, agricultural, and other environments can be automatically covered and managed.Things can communicate, analyze, process and manage data without any human intervention. However, security issues prevent the rapid evolution and deployment of this high technology. Identity usurpation, information theft, and data modification represent a real danger for this system of systems.The subject of my thesis is the creation of a security system that provides services for the authentication of connected things, the integrity of their exchanged data and the confidentiality of information. This approach must take into account the things and communication technologies constraints.
73

Advanced password-authenticated key exchanges / Les échanges de clefs complexes sécurisés par mot de passe

Dupont, Pierre-Alain 29 August 2018 (has links)
L’échange de clef authentifié est probablement la primitive asymétrique la plus utilisée, notamment du fait de son inclusion dans le protocole TLS. Pour autant, son cousin, l’échange de clef authentifié par mot de passe, où l’authentification s’effectue par comparaison de mot de passe, l’est bien moins, bien qu’ayant déjà fait l’objet d’études considérables. C’est pourtant une primitive finalement bien plus proche d’une authentification réelle, dès lors qu’une des parties est humaine. Dans cette thèse, nous considérons des primitives avancées fondées sur l’échange de clef authentifié par mot de passe, en gardant à l’œil ses applications pratiques. Spécifiquement, nous introduisons une nouvelle primitive, l’échange de clef authentifié par mot de passe approximatif, où la condition de succès de l’authentification est désormais d’avoir une distance suffisamment faible entre les deux mots de passe, et plus nécessairement l’égalité parfaite. Nous fournissons un modèle de sécurité dans le cadre du modèle de composabilité universelle (UC) ainsi qu’une construction reposant sur un partage de secret robuste et des échanges de clefs authentifiés par mot de passe exact. Dans une seconde partie, nous considérons le problème pratique de la perte du mot de passe dès lors qu’une session est conduite sur un terminal compromis. Étant donné qu’il s’agit d’un problème intrinsèque à l’authentification par mot de passe, nous étendons le modèle BPR habituel pour prendre en compte, en lieu et place du mot de passe, des questions-réponses, toujours de faible entropie. Nous fournissons plusieurs protocoles dans ce modèle, dont certains reposent sur des familles de fonctions compatibles avec les humains, dans lesquelles les opérations requises pour dériver la réponse depuis la question sont suffisamment simples pour être faites de tête, permettant donc à l’humain de s’identifier directement. / Authenticated key exchange is probably the most widely deployed asymmetric cryptographic primitive, notably because of its inclusion in the TLS protocol. Its cousin, password-authenticated key exchange — where the authentication is done using a low-entropy password — while having been studied extensively as well has been much less used in practice. It is, however, a primitive much closer to actual authentication when at least one party is human. In this thesis, we consider advanced primitives based on password-authenticated key exchange, with an eye toward practical applications. Specifically, we introduce fuzzy password-authenticated key exchange, where the authentication succeeds as long as the two passwords are close enough, and not necessarily equal. We provide a security model in the UC framework, as well as a construction based on regular password-authenticated key exchanges and robust secret-sharing schemes. Secondly, we consider the practical problem of password leakage when taking into account sessions conducted on a corrupted device. As there is intrinsically no hope with regular password authentication, we extend the BPR security model to consider low-entropy challenge responses instead. We then provide several instantiations, some based on human-compatible function families, where the operation required to answer the challenge are simple enough to be conducted in one’s head, allowing the actual authentication to be directly performed by the human being.
74

Authentification biométrique par dynamique de frappe pour évaluation à distance utilisant SVM à une classe

Chang, Chuan 24 April 2018 (has links)
La machine à vecteurs de support à une classe est un algorithme non-supervisé qui est capable d’apprendre une fonction de décision à partir de données d’une seule classe pour la détection d’anomalie. Avec les données d’entraînement d’une seule classe, elle peut identifier si une nouvelle donnée est similaire à l’ensemble d’entraînement. Dans ce mémoire, nous nous intéressons à la reconnaissance de forme de dynamique de frappe par la machine à vecteurs de support à une classe, pour l’authentification d’étudiants dans un système d’évaluation sommative à distance à l’Université Laval. Comme chaque étudiant à l’Université Laval possède un identifiant court, unique qu’il utilise pour tout accès sécurisé aux ressources informatiques, nous avons choisi cette chaîne de caractères comme support à la saisie de dynamique de frappe d’utilisateur pour construire notre propre base de données. Après avoir entraîné un modèle pour chaque étudiant avec ses données de dynamique de frappe, on veut pouvoir l’identifier et éventuellement détecter des imposteurs. Trois méthodes pour la classification ont été testées et discutées. Ainsi, nous avons pu constater les faiblesses de chaque méthode dans ce système. L’évaluation des taux de reconnaissance a permis de mettre en évidence leur dépendance au nombre de signatures ainsi qu’au nombre de caractères utilisés pour construire les signatures. Enfin, nous avons montré qu’il existe des corrélations entre le taux de reconnaissance et la dispersion dans les distributions des caractéristiques des signatures de dynamique de frappe. / One-Class Support Vector Machine is an unsupervised algorithm that learns a decision function from only one class for novelty detection. By training the data with only one class, this method is able to classify new data as similar (inlier) or different (outlier) from the training set. In this thesis, we have applied the One-Class Support Vector Machine to Keystroke Dynamics pattern recognition for user authentication in a remote evaluation system at Laval University. Since all of their students have a short and unique identifier at Laval University, this particular static text is used as the Keystroke Dynamics input for a user to build our own dataset. After training a model for each student with his or her keystroke data, we then use this model to detect imposters in the later phase. Three methods were tried and discussed for the classification. Then, we were able to identify weaknesses of each method in such a system by evaluating the recognition accuracy depending on the number of signatures and as a function of their number of characters. Finally, we were able to show some correlations between the dispersion and mode of distributions of features characterizing the keystroke signatures and the recognition rate.
75

On the security of authentication protocols on the web / La sécurité des protocoles d’authentification sur leWeb

Delignat-Lavaud, Antoine 14 March 2016 (has links)
Est-il possible de démontrer un théorème prouvant que l’accès aux données confidentielles d’un utilisateur d’un service Web (tel que GMail) nécessite la connaissance de son mot de passe, en supposant certaines hypothèses sur ce qu’un attaquant est incapable de faire (par exemple, casser des primitives cryptographiques ou accéder directement aux bases de données de Google), sans toutefois le restreindre au point d’exclure des attaques possibles en pratique?Il existe plusieurs facteurs spécifiques aux protocoles du Web qui rendent impossible une application directe des méthodes et outils existants issus du domaine de l’analyse des protocoles cryptographiques.Tout d’abord, les capacités d’un attaquant sur le Web vont largement au-delà de la simple manipulation des messages échangés entre le client et le serveur sur le réseau. Par exemple, il est tout à fait possible (et même fréquent en pratique) que l’utilisateur ait dans son navigateur un onglet contenant un site contrôlé par l’adversaire pendant qu’il se connecte à sa messagerie (par exemple, via une bannière publicitaire) ; cet onglet est, comme n’importe quel autre site, capable de provoquer l’envoi de requêtes arbitraires vers le serveur de GMail, bien que la politique d’isolation des pages du navigateur empêche la lecture directe de la réponse à ces requêtes. De plus, la procédure pour se connecter à GMail implique un empilement complexe de protocoles : tout d’abord, un canal chiffré, et dont le serveur est authentifié, est établi avec le protocole TLS ; puis, une session HTTP est créée en utilisant un cookie ; enfin, le navigateur exécute le code JavaScript retourné par le client, qui se charge de demander son mot de passe à l’utilisateur.Enfin, même en imaginant que la conception de ce système soit sûre, il suffit d’une erreur minime de programmation (par exemple, une simple instruction goto mal placée) pour que la sécurité de l’ensemble de l’édifice s’effondre.Le but de cette thèse est de bâtir un ensemble d’outils et de librairies permettant de programmer et d’analyser formellement de manière compositionelle la sécurité d’applicationsWeb confrontées à un modère plausible des capacités actuelles d’un attaquant sur le Web. Dans cette optique, nous étudions la conception des divers protocoles utilisés à chaque niveau de l’infrastructure du Web (TLS, X.509, HTTP, HTML, JavaScript) et évaluons leurs compositions respectives. Nous nous intéressons aussi aux implémentations existantes et en créons de nouvelles que nous prouvons correctes afin de servir de référence lors de comparaisons. Nos travaux mettent au jour un grand nombre de vulnérabilités aussi bien dans les protocoles que dans leurs implémentations, ainsi que dans les navigateurs, serveurs, et sites internet ; plusieurs de ces failles ont été reconnues d’importance critiques. Enfin, ces découvertes ont eu une influence sur les versions actuelles et futures du protocole TLS. / As ever more private user data gets stored on the Web, ensuring proper protection of this data (in particular when it transits through untrusted networks, or when it is accessed by the user from her browser) becomes increasingly critical. However, in order to formally prove that, for instance, email from GMail can only be accessed by knowing the user’s password, assuming some reasonable set of assumptions about what an attacker cannot do (e.g. he cannot break AES encryption), one must precisely understand the security properties of many complex protocols and standards (including DNS, TLS, X.509, HTTP, HTML,JavaScript), and more importantly, the composite security goals of the complete Web stack.In addition to this compositional security challenge, onemust account for the powerful additional attacker capabilities that are specific to the Web, besides the usual tampering of network messages. For instance, a user may browse a malicious pages while keeping an active GMail session in a tab; this page is allowed to trigger arbitrary, implicitly authenticated requests to GMail using JavaScript (even though the isolation policy of the browser may prevent it from reading the response). An attacker may also inject himself into honest page (for instance, as a malicious advertising script, or exploiting a data sanitization flaw), get the user to click bad links, or try to impersonate other pages.Besides the attacker, the protocols and applications are themselves a lot more complex than typical examples from the protocol analysis literature. Logging into GMail already requires multiple TLS sessions and HTTP requests between (at least) three principals, representing dozens of atomic messages. Hence, ad hoc models and hand written proofs do not scale to the complexity of Web protocols, mandating the use of advanced verification automation and modeling tools.Lastly, even assuming that the design of GMail is indeed secure against such an attacker, any single programming bug may completely undermine the security of the whole system. Therefore, in addition to modeling protocols based on their specification, it is necessary to evaluate implementations in order to achieve practical security.The goal of this thesis is to develop new tools and methods that can serve as the foundation towards an extensive compositional Web security analysis framework that could be used to implement and formally verify applications against a reasonably extensive model of attacker capabilities on the Web. To this end, we investigate the design of Web protocols at various levels (TLS, HTTP, HTML, JavaScript) and evaluate their composition using a broad range of formal methods, including symbolic protocol models, type systems, model extraction, and type-based program verification. We also analyze current implementations and develop some new verified versions to run tests against. We uncover a broad range of vulnerabilities in protocols and their implementations, and propose countermeasures that we formally verify, some of which have been implemented in browsers and by various websites. For instance, the Triple Handshake attack we discovered required a protocol fix (RFC 7627), and influenced the design of the new version 1.3 of the TLS protocol.
76

Authentification de l'alimentation des ruminants par analyse des composés volatils de leur tissus adipeux

Sivadier, Guilhem 02 December 2008 (has links) (PDF)
Il existe une forte demande sociétale de moyens analytiques robustes permettant d'authentifier de manière objective les modes d'élaboration des produits alimentaires, notamment lorsqu'ils sont d'origine animale. L'objectif de cette thèse était de développer une méthode d'authentification de l'alimentation à l'herbe des agneaux, basée sur l'analyse de la fraction volatile de leurs tissus adipeux. Les animaux étudiés ont été élevés dans le cadre de dispositifs expérimentaux, où leur alimentation était étroitement contrôlée. Le tissus périnéal, sous-cutané caudal, et péricardiaque ont été analysés au moyen d'un système d'Espace de Tête Dynamique-Chromatographie en Phase Gazeuse- Spectrométrie de Masse (ETD-CPG-SM), dont le signal a été corrigé et stabilisé par différentes procédures chimiométriques. La première étape de ce travail de recherche visait à identifier les traceurs distinctifs de tissus adipeux d'agneaux nourris soit à l'herbe soit aux concentrés. Une fois les conditions d'analyse des composés volatils optimisés,126 traceurs de l'alimentation au pâturage ont été identifiés. Cette expérimentation a également permis de montrer l'intérêt de l'analyse parallèle de tissus de natures différentes pour la discrimination des deux alimentations. La deuxième étape avait pour objectif de montrer l'intérêt de l'analyse de la fraction volatile de tissus adipeux d'agneau pour l'authentification des régimes alternés. Ces régimes, couramment utilisés pour l'élevage des ruminants consistent à alterner une période d'alimentation au pâturage avec une finition aux concentrés, ou inversement. Les variations des abondances des traceurs volatils d'une alimentation au pâturage ont été suivies dans les tissus adipeux d'animaux nourris avec ces régimes alternés. Les résultats montrent que les composés volatils permettent de discriminer des tissus adipeux d'animaux nourris d'une part à l'herbe et finis aux concentrés pour un engraissement final de 0, 4, 8, ou 12 kg ; et d'autre part aux concentrés et finis au pâturage durant 0,17, 51, ou 85 jours. Couplés aux données de la littérature, l'ensemble des dispositifs d'élevage mis en oeuvre au cours de cette thèse ont permis de mettre en évidence 19 composés volatils traceurs de l'alimentation à l'herbe particulièrement robustes et génériques. Ces travaux démontrent aussi la faisabilité de l'authentification de l'alimentation d'animaux nourris au moyen de régimes contrastés ou alternés. Enfin, ils confirment aussi l'intérêt des procédures de traitement du signal, comme la correction des dérives instrumentales ou l'utilisation de ratios de variables, pour amplifier le pouvoir discriminant des modèles d'authentification.
77

Architectures de réseaux pour la délivrance de services à domicile / Network architectures for home service delivery

Werapun, Warodom 27 September 2012 (has links)
Avec l’omniprésence au quotidien du numérique et de l’informatique, de plus en plus d’utilisateurs souhaitent avoir accès à Internet et à leurs applications via n’importe quel périphérique, de n’importe où et n’importe quand. Les appareils domestiques intelligents se développant, les besoins d’échanger des données au domicile même se font de plus en plus sentir. C’est dans ce contexte, celui des services à domicile avec besoin d’interconnexion que se situe notre étude. Ce type de service est qualifié de Home Service (HS) alors que le réseau à domicile est nommé Home Network (HN). La problématique pour les opérateurs est alors de concevoir des architectures appropriées à l’interconnexion des HN de manière sécurisée tout en permettant un déploiement facile et à grande échelle. Dans la première étape, nous considérons la livraison de services sécurisés à travers un réseau de nouvelle génération (NGN) : IMS (IP Multimedia Subsystem). IMS étant l’architecture de référence pour son caractère réseau NGN des opérateurs, diverses architectures peuvent être développées comme support aux HS. Nous avons choisi d'analyser et de mettre en place une architecture P2P centralisée et de le comparer à l’architecture de référence. Plusieurs mécanismes d'authentification sont mis en place autour du P2P centralisé afin de sécuriser la prestation de services. La modélisation et l’évaluation de notre proposition ont permis d’identifier sa relation à l’IMS mais aussi des problèmes inhérents aux solutions centralisées : la protection des données personnelles, l’impact de la taille sur réseau sur les performances, l’existence d’un point de faiblesse unique face aux attaques et la congestion au niveau du serveur centralisé. Par conséquent, nous nous sommes tournés vers les solutions distribuées pour résoudre ces problèmes. Dans la deuxième étape, nous considérons l’architecture P2P non-structurée, qualifiée de pur P2P. La cryptographie basée sur l'identité (IBC) est ajoutée au P2P pur afin d’authentifier les utilisateurs et de protéger leurs communications. Pour chacune des solutions une analyse du coût de signalisation est effectuée révélant une faiblesse en ce qui concerne l’étape de recherche. Dans un déploiement à grande échelle, le coût de cette phase est trop élevé. Aussi, nous examinons le P2P structuré basé sur les Dynamic Hash Tables, une autre solution distribuée. Cette architecture est étudiée par l'IETF en tant qu’une des dernières générations de P2P: REsource LOcation And Discovery (RELOAD) Base Protocol. Nous proposons son utilisation dans le cadre des HSs. Comme preuve du concept, cette solution a été implantée et déployée sur un petit réseau en utilisant TLS/SSL comme mécanisme de sécurité. Cette plateforme nous a permis d’étudier les délais et les coûts de cette solution. Pour terminer, un bilan est établi sur toutes les solutions proposées En outre, nous introduisons d’autres types de HS et leurs possibilités de déploiement futur. / With digital life enhancement, more users would like to get seamless Internet and information with any devices, at any time and from anywhere. More and more home devices need to exchange data or to control other devices. The type of services is labelled Home Service (HS) and it is deployed though a Home Network (HN). Some users need to use their HS outside their HN, some others need to interconnect other HN. Operators have to provide suitable network architectures to ensure this interconnection and to provide at the same time, scalability, remote access, easy deployment and security. Here is the topic of our work. In the fist step, we consider a practical illustration around the Next-Generation Network (NGN) and the secured services. It is the IMS (IP Multimedia Subsystem) approach for the management of services that is generally supported by the NGN network operators. However, various network operator architectures can be developed to support these services. An alternative way is the P2P architectures. We choose to analyze and implement a centralized P2P and we compare it with the IMS solution. Several authentication mechanisms are introduced to secure the centralized P2P. An evaluation of these architectures is conducted. Since the previous solutions present some issues due to their centralized feature, we consider distributed solutions in a second step. The non-structured P2P, called pure P2P, can also support HS. Identity Based Crytography (IBC) is added to these architectures in order to offer authentication and protection to user communications. The different solutions are compared through their signaling and transmission cost. The study shows that searching step in this architecture is really costly, facing a scalability problem. Thus, we propose to use a structured P2P (called Dynamic Hash Table) for delivering HS between HN. This type of architecture is studied by IETF with the REsource Location And Discovery (RELOAD) Base Protocol. This solution is implanted and deployed here to be a proof of the concept. This test-bed enables the study of delay and security overhead in a real system. Eventually, the presented solutions are recaptured in order to see their advantages/ disadvantages. In addition, we introduce other perspectives in terms of HSs and network interconnection.
78

Combinaison des techniques de biologie moléculaire et de la spectrométrie dans le proche infrarouge pour l'authentification des denrées destinées à l'alimentation humaine et animale

Fumière, Olivier 11 May 2010 (has links)
Résumé: Lauthentification est un concept large dans lequel il sagit de pouvoir contrôler ladéquation entre le produit et les informations indiquées sur létiquette. Les techniques utilisant la spectrométrie dans le proche infrarouge dune part, et celles basées sur la PCR dautre part, permettent daborder lauthentification des produits alimentaires sous des angles totalement différents. Loriginalité de ce travail était de les associer pour résoudre deux problèmes précis : 1. lauthentification des poulets de chair à croissance lente utilisés dans des productions de qualité différenciée soumises à des cahiers des charges contraignants ; 2. la détection des farines animales dans lalimentation pour le bétail. Nos travaux sur les poulets de chair nous ont permis de développer des modèles de discrimination reposant sur les spectres dans le proche infrarouge de la viande de poulet. Ils distinguent, pour plus de 80 % des individus, les poulets issus de souches à croissance lente de ceux issus de souches à croissance rapide. Les résultats dune expérimentation animale ont également démontré que la spectrométrie dans le proche infrarouge était capable de mettre évidence des fraudes au niveau de lalimentation des animaux. Deux marqueurs moléculaires spécifiques du type de souche de poulets ont été mis en évidence et caractérisés. Pour le marqueur moléculaire caractéristique des poulets à croissance rapide, un test rapide utilisable en routine a été développé. Dans le cas de la détection des farines animales dans lalimentation du bétail, une méthode de PCR en temps réel sensible et spécifique a été mise au point participant avec succès à des études inter-laboratoires internationales. Associée dans une stratégie originale à la MPIR (microscopie dans le proche infrarouge), elle permet la détection spécifique de particules de farines de viande et dos. Summary: Authentication is a large concept focussing on the control of the correspondance between the product and the information provided on the label. Techniques based on near infrared spectroscopy on the one hand, and those based on PCR on the other hand, allow to tackle the authentication of food and feed products by different sides. The originality of this work was to associate both techniques to solve two specific problems : 1. authentication of slow growing chickens bred in high quality productions according to restricting specifications ; 2. the detection of meat and bone meals in feedingstuffs. The work on the chicken allowed us to develop discriminant models using the near infrared spectra of chicken meat. These models discriminate the chicken from slow- vs. fast-growing chicken for more than 80 % of the animals. The results of an animal experimentation also showed that near infrared spectroscopy was able to detect feeding frauds. Two molecular markers specific of the type of chicken strains were found and characterised. For the one related to the fast-growing chicken strains, a rapid assay applicable in routine testing was conceived. In the case of the meat and bone meal detection in feedingstuffs, a specific and sensitive real time PCR method was developed. It participated succesfully to international inter-laboratory studies. Its combination with NIRM (near infrared microscopy) through an original strategy allows the specific detection of meat and bone meal particles.
79

Mécanismes Matériels pour des Transferts<br />Processeur Mémoire Sécurisés dans les<br />Systèmes Embarqués

Elbaz, Reouven 06 December 2006 (has links) (PDF)
Les systèmes embarqués actuels (téléphone portable, assistant personnel...) ne sont pas considérés<br />comme des hôtes de confiance car toute personne y ayant accès, sont des attaquants potentiels. Les données<br />contenues dans ces systèmes peuvent être sensibles (données privées du propriétaire, mot de passe, code d'un<br />logiciel...) et sont généralement échangées en clair entre le Système sur Puces (SoC – System on Chip) et la<br />mémoire dans laquelle elles sont stockées. Le bus qui relie ces deux entités constitue donc un point faible : un<br />attaquant peut observer ce bus et récupérer le contenu de la mémoire, ou bien a la possibilité d'insérer du code<br />afin d'altérer le fonctionnement d'une application s'exécutant sur le système. Afin de prévenir ce type d'attaque,<br />des mécanismes matériels doivent être mis en place afin d'assurer la confidentialité et l'intégrité des données.<br />L'approche conventionnelle pour atteindre cet objectif est de concevoir un mécanisme matériel pour chaque<br />service de sécurité (confidentialité et intégrité). Cette approche peut être implantée de manière sécurisée mais<br />empêche toute parallélisation des calculs sous-jacents.<br />Les travaux menés au cours de cette thèse ont dans un premier temps, consisté à faire une étude des<br />techniques existantes permettant d'assurer la confidentialité et l'intégrité des données. Dans un deuxième temps,<br />nous avons proposé deux mécanismes matériels destinés à la sécurisation des transactions entre un processeur et<br />sa mémoire. Un moteur de chiffrement et de contrôle d'intégrité parallélisé, PE-ICE (Parallelized Encryption and<br />Integrity Checking Engine) a été conçu. PE-ICE permet une parallélisation totale des opérations relatives à la<br />sécurité aussi bien en écriture qu'en lecture de données en mémoire. Par ailleurs, une technique basée sur une<br />structure d'arbre (PRV-Tree – PE-ICE protected Reference Values) comportant la même propriété de<br />parallélisation totale, a été spécifiée afin de réduire le surcoût en mémoire interne impliqué par les mécanismes de sécurité
80

Data ownership and interoperability for a decentralized social semantic web

SAMBRA, Andrei Vlad 19 November 2013 (has links) (PDF)
Ensuring personal data ownership and interoperability for decentralized social Web applications is currently a debated topic, especially when taking into consideration the aspects of privacy and access control. Since the user's data are such an important asset of the current business models for most social Websites, companies have no incentive to share data among each other or to offer users real ownership of their own data in terms of control and transparency of data usage. We have concluded therefore that it is important to improve the social Web in such a way that it allows for viable business models while still being able to provide increased data ownership and data interoperability compared to the current situation. To this regard, we have focused our research on three different topics: identity, authentication and access control. First, we tackle the subject of decentralized identity by proposing a new Web standard called "Web Identity and Discovery" (WebID), which offers a simple and universal identification mechanism that is distributed and openly extensible. Next, we move to the topic of authentication where we propose WebID-TLS, a decentralized authentication protocol that enables secure, efficient and user friendly authentication on the Web by allowing people to login using client certificates and without relying on Certification Authorities. We also extend the WebID-TLS protocol, offering delegated authentication and access delegation. Finally we present our last contribution, the Social Access Control Service, which serves to protect the privacy of Linked Data resources generated by users (e.g. pro le data, wall posts, conversations, etc.) by applying two social metrics: the "social proximity distance" and "social contexts"

Page generated in 0.0964 seconds