• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 190
  • 85
  • 15
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 301
  • 114
  • 67
  • 66
  • 52
  • 52
  • 43
  • 37
  • 37
  • 33
  • 33
  • 33
  • 31
  • 30
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

L'architecture Path Computation Element (PCE) pour les réseaux MPLS et son application à l'internet des objets / The Path Computation Element (PCE) for MPLS networks and its application to the Internet of Things (IoT)

Vasseur, Jean-Philippe 18 January 2013 (has links)
Les réseaux Telecom sont désormais en charge du transport d’une large variété de trafic de types donnés, voix, vidéo et autres protocoles industriels réclamant des garantie de qualité de service strictes. L’ingénierie de trafic permet non seulement d’optimiser les ressources réseaux mais aussi de parvenir à garantir ces qualités de service exprimées en termes de délais dans le réseau, de gigue mais aussi de taux de disponibilité en présence de pannes de liens ou de nœuds. La technologie MPLS TE, basée sur la commutation de labels le long de chemins contraints a permis d’atteindre ces objectifs et fut déployée dans de nombreux réseaux. L’objectif de cette thèse est de proposer un nouveau modèle architectural nommé PCE, ainsi que des protocoles et algorithmes novateurs afin de résoudre plusieurs problèmes d’envergure liés à l’ingénierie de trafic et disponibilité du réseau. L’architecture PCE est tout d’abord décrite ainsi que le protocole de signalisation PCEP utilisé entre clients et serveurs, puis les protocoles de découvertes de PCE et algorithmes de partage de charge. Ensuite un nouvel algorithme récursif est spécifié permettant grâce à un calcul collaboratif et récursif distribué impliquant une suite de PCEs de calculer le chemin optimal pour des tunnels inter-domaines. Un nouveau paradigme pour le calcul des chemin de secours est spécifié qui permet à chaque nœud d’agir en tant que PCE pour le calcul des tunnels de secours de chacun de ses voisins dans l’hypothèse que sa propre panne, permettant une utilisation partagée des ressources réseau dédiées au secours pour des tunnels protégeant des ressources indépendantes... / Modern data networks carry a wide variety of traffic such as voice, video, data and other industrial protocols that require guaranteed quality of service. Traffic Engineering (TE) allows for network resource optimization while meeting service level agreement for these sensitive traffics in terms of delays, jitter but also network reliability in case of network element failure. To that end a technology making use of constrained paths using label switching (called MPLS TE) has been developed and widely used in a number of networks. The objective of this thesis is to propose a new architecture model referred to as the Path Computation Element (PCE) along with a number of protocols and algorithms in order to tackle a number of technical challenges. First the PCE architecture is described in terms of functional blocks with its protocols: the signalization protocol called PCEP used between client and servers in charge of computing label switched path in the network, the process of PCE discovery and load balancing. Then a new backward recursive algorithm is specified allowing for the computation of optimal inter-domain tunnels, which involves a series of stateless PCEs. We then introduce a paradigm shift consisting distributing the computation of backup tunnels in the network used by the well-known technology called Fast Reroute. Thanks to this new paradigm, each node independently acts as a PCE computing the back tunnels of all of its neighbors, thus maximizing the degree of sharing of the backup capacity among tunnels that protect independent resources. We conclude this thesis by showing how the PCE architecture can be applied (with adaptations specified in the last two chapt...
22

Formal verification of the Pastry protocol / Vérification formelle du protocole Pastry

Lu, Tianxiang 27 November 2013 (has links)
Le protocole Pastry réalise une table de hachage distribué sur un réseau pair à pair organisé en un anneau virtuel de noeuds. Alors qu'il existe plusieurs implémentations de Pastry, il n'y a pas encore eu de travaux pour décrire formellement l'algorithme ou vérifier son bon fonctionnement. Intégrant des structures de données complexes et de la communication asynchrone entre des noeuds qui peuvent rejoindre ou quitter le réseau, ce protocole représente un intérêt certain pour la vérification formelle. La thèse se focalise sur le protocole Join de Pastry qui permet à un noeud de rejoindre le réseau. Les noeuds ayant intégré le réseau doivent avoir une vue du voisinage cohérente entre eux. La propriété principale de correction, appelée CorrectDelivery, assure qu'à tout moment il y a au plus un noeud capable de répondre à une requête pour une clé, et que ce noeud est le noeud le plus proche numériquement à ladite clé. Il n'est pas trivial de maintenir cette propriété en présence de churn. Ce travail nous a permis de découvrir des violations inattendues de la propriété dans les versions publiées de l'algorithme. Sur la base de cette analyse, le protocole IdealPastry est conçu et vérifié en utilisant l'assistant interactif à la preuve TLAPS pour TLA+. Le protocole LuPastry est obtenu en assouplissant certaines hypothèses de IdealPastry. Il est montré formellement que LuPastry vérifie CorrectDelivery sous l'hypothèse qu'aucun noeud ne quitte le réseau. Cette hypothèse ne peut être relâchée à cause du risque de perte de connexion du réseau dans le cas où plusieurs noeuds quittent le réseau en même temps / Pastry is a structured P2P algorithm realizing a Distributed Hash Table over an underlying virtual ring of nodes. Several implementations of Pastry are available, but no attempt has so far been made to formally describe the algorithm or to verify its properties. Since Pastry combines complex data structures, asynchronous communication, and concurrency in the presence of spontaneous join and departure of nodes, it makes an interesting target for verification. This thesis focuses on the Join protocol of Pastry that integrates new nodes into the ring. All member nodes must have a consistent key mapping among each other. The main correctness property, named CorrectDelivery, states that there is always at most one node that can deliver an answer to a lookup request for a key and this node is the numerically closest member node to that key. This property is non-trivial to preserve in the presence of churn. In this thesis, unexpected violations of CorrectDelivery in the published versions of Pastry are discovered and analyzed using the TLA+ model checker TLC. Based on the analysis, the protocol IdealPastry is designed and verified using the interactive theorem prover TLAPS for TLA+. By relaxing certain hypotheses, IdealPastry is further improved to LuPastry, which is again formally proved correct under the assumption that no nodes leave the network. This hypothesis cannot be relaxed in general due to possible network separation when particular nodes simultaneously leave the network
23

Ubiquitous networks for Smart Grids / Réseau ubiquitaire pour les Smart Grids

Nassar, Jad 12 October 2018 (has links)
Les Smart Grids visent à transformer le réseau électrique actuel en un réseau "plus intelligent" où la production énergétique est décentralisée et automatisée, facilitant l'intégration des sources d'énergie renouvelables. Cette évolution est rendue possible grâce à l'utilisation d'un réseau de communication pour les multiples échanges de données hétérogènes des Smart Grids. L'objectif de cette thèse est de proposer un paradigme de communication efficace en termes de qualité de service pour les Smart Grids basé sur les réseaux de capteurs.Dans un premier temps, on s’intéresse au protocole standard RPL. Nous proposons une évolution de celui-ci à travers une nouvelle fonction objectif. Celle-ci tire parti de l’hétérogénéité matérielle des nœuds et des liens pour introduire la qualité de service. Cela permet à RPL de satisfaire les multiples et différentes exigences en termes de fiabilité, de latence et de priorité dans l'acheminement des données. Nos résultats montrent que notre approche permet bien la différentiation du trafic tout en réduisant la latence du routage et en économisant l'énergie.Nous proposons également d'améliorer l'utilisation du réseau de capteurs en y introduisant l’auto-organisation et la réduction des données. Le but est alors de prédire la valeur des données mesurées plutôt que de les transmettre.Une autre approche explorée est d'agréger les différents messages transitant sur le réseau tout en considérant leurs différentes exigences de qualité de service. Ces deux approches permettent ainsi de réduire la consommation d'énergie tout en respectant les exigences des différentes applications des Smart Grids. / Smart Grids aim to transform the current electric grid into a "smarter" network where energy production is decentralized and automated, which facilitates the integration of renewable energy resources. This evolution is made possible thanks to the use of a communication network for the multiple heterogeneous data exchanges of the Smart Grids. Hence, the aim of this thesis is to propose an efficient communication paradigm in terms of quality of service for Smart Grids based on wireless sensor networks.First, we study data routing in Smart Grids with the RPL standard. Nevertheless, RPL is not suitable for Smart Grid applications in terms of quality of service. Therefore, we propose an objective function for RPL that takes different features of both nodes and links into consideration. Results show that our approach improves network performance compared to existing solutions in terms of packet delivery ratio, network lifetime, latency and traffic differentiation.Then, we also propose a more efficient data collection by introducing self-organization and data reduction for these wireless sensors. The goal is to predict the value of the measured data rather than transmitting them. Another explored approach is to aggregate the different messages sent across the network while considering their different requirements in terms of quality of service.These two approaches reduce the energy consumption while respecting the requirements of the different applications of the Smart Grids.
24

Routage inter-domaine / Inter-domain routing

Sarakbi, Bakr 10 February 2011 (has links)
Internet est le réseau le plus gigantesque que l'humanité ne se soit pourvu. Il fournit un nombre important de services à plus de deux milliards d'utilisateurs. Cette topologie grandissante et complexe pêche en stabilité, ce qui peut notamment être constaté quand un appel voix est interrompu, quand une page web à besoin d'être rafraîchie, etc. L'initiateur de cette instabilité est l'ensemble des événements constatés dans l'Internet. Ceci nous motive à une Étude profonde de la stabilité d'Internet afin de suggère des solutions à cette problématique. Internet est divisé en deux niveaux de base: le niveau AS (Autonomous System) et le niveau de routage. Cette distinction se répercute dans les protocoles de routage qui contrôlent le trafic Internet à travers deux types de protocoles: extérieur (inter-AS) et intérieur (intra-AS). L'unique protocole de routage extérieur utilité est le mode externe de BGP (External Border Gateway Protocol) tandis qu'il en existe plusieurs de type intérieur. De fait, la stabilisation de l'Internet est corrélée à la stabilité des protocoles de routage. Cela pousse les efforts de traitement de l'instabilité de l'Internet à Étudier le comportement du protocole de routage (BGP). Analyser les résultats des comportements de BGP dans son mode externe (eBGP) souffre d'un temps de convergence important menant notamment à des réponses lentes des évènements de topologie et, à terme, à la perte du trafic. Les études établissent également que le mode interne de BGP (iBGP) souffre de plusieurs types d'anomalies de routage causant la divergence. Afin d'illustrer la stabilité de BGP, nous avons besoin d'un modèle de routage qui formule la procédure de décision et le flot de signalisation. De plus, les améliorations de BGP ne peuvent pas être aisément validées dans l'Internet, rendant ainsi les modèles de BGP indispensables à une validation formelle. De fait, la première étape dans l'étude du routage inter-domaine est de définir un modèle approprié permettant la formulation de ses opérations et de prouver sa correction. Nous avons proposé deux modèles complémentaires: topologique et fonctionnel, avec lesquels nous avons formulé le processus de convergence du routage et démontré la sécurité et la robustesse de nos solutions d'inter/intra-AS. Notre proposition d'inter-AS élimine les déconnections transitoires causées par une faible convergence d'eBGP en suggérant une stratégie de backup lors d'une panne. Notre proposition d'intra-AS (skeleton) donne une alternative aux configurations internes existantes, pour laquelle nous avons montré l'absence d'anomalies. / Internet is the hugest network the humanity has ever known. It provides a large number of various services to more than two billion users. This complex and growing topology lacks stability, which we can notice when a voice call is dropped, when a web page needs to be refreshed, etc. The initiator of this instability is the frequent events around the Internet. This motivates us to unleash a profound study to tackle Internet stability and suggest solutions to overcome this concern. Internet is divided into two obvious levels: AS (Autonomous System) level and router level. This distinction is reflected on the routing protocols that control the Internet traffic through two protocol types: exterior (inter-AS) and interior (intra-AS). The unique used exterior routing protocol is the external mode of BGP (External Border Gateway Protocol), while there are several used internal routing protocols. Therefore, stabilizing the Internet is correlated to the routing protocol stability, which directs such efforts to the investigation of routing protocol (BGP) behavior. Studying BGP behaviors results in that its external mode (eBGP) suffers from long convergence time which is behind the slow response to topology events and, in turn, the traffic loss. Those studies state also that BGP internal mode (iBGP) suffers from several types of routing anomalies that causes its divergence.Therefore, we propose enhancements for both BGP modes: eBGP and iBGP and try to meet the following objectives: Scalability, safety, robustness, correctness, and backward compatibility with current version of BGP. Our eBGP proposal eliminates the transient disconnectivity caused by slow convergence by suggesting a backup strategy to be used upon the occurrence of a failure. IBGP proposal (skeleton) gives an alternative to the existing internal configurations, that we prove its freeness of anomalies. Validation methods are essential to prove that the suggested enhancements satisfy the attended objectives. Since we are tackling an interdomain subject, then it is not possible to do validation in the real Internet. We suggested several validation methods to show that our enhancements meet the above objectives. We used simulation environment to implement eBGP backup solution and observe the convergence time and the continuous connectivity. We relied on two tools: brite and rocketfuel to provide us with inter and intra AS topologies respectively. And to prove the safety of our approaches we employed an algebraic framework and made use of its results.
25

Protocole d'appel de multiprocédure à distance dans le système Gothic : définition et mise en oeuvre.

Morin, Christine 18 December 1990 (has links) (PDF)
Ces travaux de thèse se sont déroulés dans le cadre du projet Gothic, qui avait pour objectif de concevoir et réaliser un système distribué intégré tolérant aux fautes pour un réseau local de machines multiprocesseurs dotées de Mémoires Stables Rapides (MSR). Le langage de programmation du système Gothic, appelé Polygoth, introduit le concept de multiprocédure pour la construction d'applications distribuées. La multiprocédure est une généralisation de la procédure permettant l'exécution en parallèle de plusieurs calculs. Ces travaux de thèse ont porté sur la conception de protocoles de communication fiable pour la mise en oeuvre d'un protocole d'appel de multiprocédure à distance (RMPC). Nous avons défini un système de communication fiable dont les composants essentiels sont un protocole de communication fiable par messages et un protocole de diffusion fiable ordonnée. L'originalité de ces protocoles repose sur l'utilisation de la MSR associée à chaque processeur pour y ranger les informations cruciales du système de communication et des points de reprise des processus communicants. Le système de communication fiable de Gothic dépasse le cadre du protocole RMPC. Nous avons en particulier défini un protocole de rendez-vous atomique mis en oeuvre dans le système Gothic au-dessus du protocole de communication fiable par messages.
26

Optimisations de Compilateur Optimistes pour les Systemes Réseaux

Bhatia, Sapan 09 June 2006 (has links) (PDF)
Cette these presente un ensemble de techniques qui permettent l'optimisation des performances des systèmes reseaux modernes. Ces techniques reposent sur l'analyse et la transformation des programmes impliquées dans la mise en oeuvre des protocoles reseaux. La première de ces techniques fait appel à la spécialisation de programmes pour optimiser des piles de protocoles réseaux. La deuxième, que nous avons nommée spécialisation distante, permet à des systèmes embarqués limités en ressources de bénéficier de la spécialisation de programmes en déportant à travers le réseau les opérations de spécialisation à une machine distante moins limitée. La troisième propose un nouvel allocateur de mémoire qui optimise l'utilisation des caches matériels faite par un serveur réseau. Enfin, la quatrième technique utilise l'analyse de programmes statiques pour intégrer l'allocateur proposé dans un serveur réseau existant. On appelle ces techniques optimisations compilateur parce qu'elles opèrent sur le flot des données et du contrôle dans des programmes en les transformant pour qu'ils fonctionnent plus efficacement. Les programmes réseaux possèdent une propriété fondamentale qui les rend faciles à manipuler de cette manière : ils sont basés sur une conception qui les organise en différentes couches, chacune englobant une fonctionalité bien définie. Cette propriété introduit dans le code des bloques fonctionnelles bien définis qui sont ´equivalents aux procédures et aux fonctions d'un langage généraliste. Dans la première partie de cette thèse, la spécialisation de programmes est utilisée pour créer différentes configurations de ces bloques qui correspondent à différents contextes d'utilisation. Au départ, chacun de ces bloques fonctionnels, tels que ceux utilisés dans le protocole TCP et dans le routage des trames, est conçu et développé pour fonctionner dans des conditions variées. Cependant, dans certaines situations spécifiques (comme dans le cas d'un réseaux haut-performance sans aucune congestion), certaines caractéristiques (comme les algorithmes du control de congestion de TCP) n'ont pas d'utilité. La spécialisation peut donc instancier ces bloques de code en éliminant les parties non-necessaires et en appliquant des transformations du flot des données et du contrôle pour rendre plus efficace leur fonctionnement. Une fois que ces bloques individuels sont rendus spécialisables, on bénéficie de l'encapsulation propre d'une pile de protocole en couches. Chacune de ces couches peut être spécialisée pour obtenir une pile de protocole spécialisée. Car cette façon d'utiliser la spécialisation de programmes est nouvelle et nécessite un style de programmation bien différent par rapport à ce qu'il existe : il faut de l'assistance pour les développeurs d'applications sous forme de bibliothèques et d'interfaces de programmation. De plus, la spécialisation a un inconvénient : il est très gourmand comme processus et donc ne peut pas être invoqué arbitrairement. Ces besoins sont traités dans la deuxième contribution de cette thèse, La spécialisation distante. La spécialisation distante est un ensemble de méchanismes et d'interfaces développées comme des extensions du noyau d'un système d'exploitation. Ces extensions permettent de déporter le processus de la spécialisation `à travers le réseau sur un système distant. La spécialisation distante fournit les avantages de la spécialisation dynamique de programmes à des systèmes qui en bénéficie potentiellement le plus, c'est `à dire, les systèmes embarqués. Traditionnellement, ces systèmes ont utilisé du code optimisé à la main. Cependant, produire ce code implique une procédure lente et produit des erreurs dans le code résultant. De plus, cette procédure n'arrive pas à exploiter des opportunités d'optimisation sophistiquées qui peuvent être identifiiés facilement par les outils automatisés. La spécialisation distante permet d'obtenir un tel code optimisé automatiquement à l'exécution, une fois que le système est préparé et rendu spécialisable. Une application peut dans ce cas demander des versions spécialisées des composant OS correspondant à des contextes particuliers à travers le réseau. En suite, on considère les serveurs réseaux. La spécialisation optimise effectivement du code qui est limité en performance par l'exécution des instructions sur le processeur, en éliminant des instructions non nécessaires et en rendant plus efficaces les instructions restantes. Mais pour les applications qui ont des inefficacités plus importantes, la spécialisation est inefficace, car malgré des améliorations importantes au niveau des instructions, la partie améliorée étant petite, les gains globaux sont insignifiants. Le facteur traditionnel qui limite les systèmes réseaux en performance est celui des opérations I/O. Par contre, les systèmes réseaux modernes sont maintenant équipés de suffisamment de mémoire. Donc, les op´erations I/O ne constituent plus le goulot d'´étranglement. A l'inverse, l'accès à la mémoire occupe maintenant cette position. Aujourd'hui, les accès à la mémoire cûutent jusqu'à 100 fois plus que d'autres opérations notamment la manipulation des registres. Cette thèse propose un nouvel allocateur de mémoire qui s'appelle Stingy Allocator pour minimiser le nombre de défauts cache dans un serveur orienté événement. La notion de bloques facilite, à nouveau, l'application de notre stratégie d'optimisation. Les bloques d'exécution dans un serveur orienté événement s'appelle des étapes et peuvent être identifiées et analysées par un outil automatisé une fois déclaré par un programmeur sous forme d'annotation pour le code. L'allocateur Stingy dépend du fait que ces étapes peuvent s'exécuter dans des ordres différents sans avoir un effet important sur la sémantique globale de l'application. Combiné à une nouvelle approche d'ordonnancement qui arrange différentes étapes pour limiter l'utilisation de la mémoire, Stingy Allocator assure que toute la mémoire allouée par le serveur soit bornée et qu'il reste dans les caches du système. Un ensemble d'outils a été développé pour intégrer Stingy Allocator dans des programmes existants. Ces outils ont été utilisés pour optimiser des applications existantes. Avec l'aide de ces outils, un programmeur peut modifier un serveur réseau pour qu'il se serve de Stingy Allocator sans comprendre intimement le fonctionnement de celui-ci. Chacune des parties d´ecrites au-dessus a été évaluée dans le contexte des programmes existants. La spécialisation des piles de protocole a été évaluée rigoureusement sur la pile TCP/IP du noyau de Linux. Celle-ci a aussi été ´etudiée dans le contexte de la pile TCP/IP de FreeBSD. La spécialisation distante a été utilisée pour spécialiser dynamiquement la pile TCP/IP de Linux ainsi que le serveur web TUX. Nos expériences ont démontré des réductions importantes dans la taille du code résultant (amélioré d'un facteur de 2 à 20) et des améliorations appréciables en terme de performance, les gains ´etant entre un facteur de 1.12 et 1.4.
27

QoS coopérative pour l'adaptabilité des protocoles de Transport dans le contexte des activités de groupe

Armando, François 17 February 2010 (has links) (PDF)
Les travaux présentés dans cette thèse s'inscrivent dans le thème général de l'adaptabilité des systèmes de communication pour la QoS. La contribution proposée porte sur l'adaptation dynamique de protocoles de Transport, pour répondre aux besoins en QoS d'applications multimédia distribuées dans un contexte d'activités coopératives de groupe de type opérations d'intervention d'urgence. La première partie a été réalisée dans le cadre du projet européen projet IST NETQoS et porte sur une proposition d'architecture conceptuelle pour la mise en oeuvre de l'adaptation au niveau Transport. Suivant une approche basée politique, les contributions exposées portent sur l'élaboration de l'architecture du composant central du système, chargé de concevoir, d'adapter et de faire appliquer des politiques opérationnelles aux entités en charge de la gestion directe de la QoS. La deuxième partie porte sur le problème de la décision et propose une approche originale de gestion collaborative des protocoles de Transport pour la QoS dans les activités coopératives de groupe. L'approche explorée vise à privilégier les connexions de Transport les plus prioritaires au détriment des connexions les moins prioritaires. Nous nous intéressons au problème de la répartition de la bande passante entre ces connexions. Après avoir défini le problème et les données nécessaires à sa résolution, nous le formulons sous la forme d'un problème de programmation linéaire résolu grâce à la méthode du simplexe. Deux critères de minimisation sont envisagés et discutés. Enfin, des mesures de performance réalisées en simulation permettent de mettre en évidence le bien fondé et les limites des solutions proposées.
28

Vers de nouvelles modalités d'exercice de la souveraineté : les organisations non gouvernementales et les accords internationaux sur les changements climatiques

Demers, Valérie January 2008 (has links) (PDF)
Les changements climatiques nous rappellent aujourd'hui que certains problèmes environnementaux ne connaissent pas de frontières et que les États doivent lutter ensemble pour les solutionner. Ce problème des plus préoccupants a même fait en sorte de rallier plusieurs États autour de la conclusion de la Convention-cadre des Nations unies sur les changements climatiques et du Protocole de Kyoto. Dans le contexte de ces accords, il est manifeste que les États, interdépendants, ne peuvent plus décider simplement par eux-mêmes ou pour eux-mêmes, mais doivent plutôt se joindre au concert de toutes les nations. Ceci touche inévitablement à la conception de leur souveraineté, dans laquelle l'indépendance est prépondérante. Il apparaît toutefois de plus en plus clair que le paradigme stato-centré ne convient plus à une analyse complète de l'exercice de la souveraineté des États. Le dépassement du cadre étatique est nécessaire à la fois en ce qui a trait à l'échelon auquel doivent être négociées les solutions, mais aussi, relativement aux acteurs qui doivent être intégrés dans les discussions. Nous avons d'une part constaté que les États recourent à la création d'institutions internationales pour tenter de régler le problème des changements climatiques, institutions dans lesquelles ils demeurent des entités souveraines. D'autre part, nous avons remarqué que l'intégration de nouveaux acteurs non étatiques dans les négociations, comme les organisations non gouvernementales (ONG), qui souhaitent infléchir les politiques publiques et le développement des accords internationaux dans le domaine des changements climatiques, se présentent de plus en plus comme un paramètre à considérer. La combinaison de ces deux composantes mène à un exercice de la souveraineté selon des modalités coopératives et participatives. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Souveraineté, Convention-cadre des Nations unies sur les changements climatiques, Protocole de Kyoto, Changements climatiques, Organisations non gouvernementales, Canada.
29

Integrating a usable security protocol for user authentication into the requirements and design process

Braz, Christina 09 1900 (has links) (PDF)
L'utilisabilité et la sécurité sont des éléments cruciaux dans le processus d'authentification des utilisateurs. L'un des défis majeurs auquel font face les organisations aujourd'hui est d'offrir des systèmes d'accès aux ressources logiques (par exemple, une application informatique) et physiques (par exemple, un bâtiment) qui soient à la fois sécurisées et utilisables. Afin d'atteindre ces objectifs, il faut d'abord mettre en œuvre les trois composantes indispensables que sont l'identification (c.-à-d., définir l'identité d'un utilisateur), l'authentification (c.-à-d., vérifier l'identité d'un utilisateur) et l'autorisation (c.-à-d., accorder des droits d'accès à un utilisateur). Plus particulièrement, la recherche en authentification de l'utilisateur est essentielle. Sans authentification, par exemple, des systèmes informatiques ne sont pas capables de vérifier si un utilisateur demandant l'accès à une ressource possède les droits de le faire. Bien que plusieurs travaux de recherche aient porté sur divers mécanismes de sécurité, très peu de recherches jusqu'à présent ont porté sur l'utilisabilité et la sécurité des méthodes d'authentification des utilisateurs. Pour cette raison, il nous paraît nécessaire de développer un protocole d'utilisabilité et de sécurité pour concevoir les méthodes d'authentification des utilisateurs. La thèse centrale de ce travail de recherche soutient qu'il y a un conflit intrinsèque entre la création de systèmes qui soient sécurisés et celle de systèmes qui soient facile d'utilisation. Cependant, l'utilisabilité et la sécurité peuvent être construites de manière synergique en utilisant des outils d'analyse et de conception qui incluent des principes d'utilisabilité et de sécurité dès l'étape d'Analyse et de Conception de la méthode d'authentification. Dans certaines situations il est possible d'améliorer simultanément l'utilisabilité et la sécurité en revisitant les décisions de conception prises dans le passé. Dans d'autres cas, il est plus avantageux d'aligner l'utilisabilité et la sécurité en changeant l'environnement régulateur dans lequel les ordinateurs opèrent. Pour cette raison, cette thèse a comme objectif principal non pas d'adresser l'utilisabilité et la sécurité postérieurement à la fabrication du produit final, mais de faire de la sécurité un résultat naturel de l'étape d'Analyse et de Conception du cycle de vie de la méthode d'authentification. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : authentification de l'utilisateur, utilisabilité, sécurité informatique, contrôle d'accès.
30

Toward a versatile transport protocol

Jourjon, Guillaume Diaz, Michel Sénac, Patrick. Moors, Tim. Lochin, Emmanuel. January 2008 (has links)
Reproduction de : Thèse de doctorat : Réseaux et télécommunications : Toulouse, INPT : 2008. Reproduction de : Thèse de doctorat : Réseaux et télécommunications : University of South Wales, Sydney : 2008. Reproduction de : Thèse de doctorat : Réseaux et télécommunications : National ICT, Australie : 2008. / Thèse soutenue en co-tutelle. Résumé étendu en français. Titre provenant de l'écran-titre. Bibliogr. 107 réf.

Page generated in 0.0751 seconds