• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 9
  • 1
  • Tagged with
  • 44
  • 44
  • 29
  • 28
  • 17
  • 17
  • 17
  • 14
  • 13
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Méthodes dissuasives contres les utilisateurs malhonnêtes dans les systèmes répartis

Huguenin, Kévin 10 December 2010 (has links) (PDF)
Techniquement parlant, Internet est un système réparti constitué d'ordinateurs et par conséquent les modèles de fautes couramment utilisés prennent principalement en compte les problèmes matériels~: pannes, pertes de messages, etc. À l'autre extrême, le modèle de fautes byzantines inclut tous les comportements possibles. Dans le cas de nombreux services répartis déployés sur Internet, des systèmes de partage de fichiers aux réseaux sociaux, une entité du système est un utilisateur et non un ordinateur. Par conséquent, la définition d'un nouveau modèle de fautes centré sur l'utilisateur s'impose~: celui du tricheur rationnel, c'est-à-dire celui d'un utilisateur prêt à dévier du protocole, mais de manière sensée, pour servir un intérêt précis. Le travail présenté dans ce manuscrit s'appuie sur le modèle de tricheurs rationnels et propose une méthode coercitive utilisant des vérifications réparties extensibles pour détecter les fautes et ainsi lutter contre les tricheurs, et ce, sans recourir à la cryptographie. Dans un premier temps, on aborde le cas des systèmes collaboratifs de dissémination épidémique de contenu et on montre que les profiteurs, c'est-à-dire des utilisateurs tentant de maximiser leur bénéfice tout en minimisant leur contribution, peuvent être détectés efficacement par un mécanisme de surveillance mutuelle en exploitant l'aspect aléatoire du système. Dans un second temps, on s'intéresse au contexte des réseaux sociaux où le lien explicite entre un utilisateur et une personne réelle permet d'utiliser la réputation de cette dernière comme moyen de dissuasion. On définit de cette manière un modèle de fautes pour un utilisateur d'un réseau social et on formule le problème de calcul extensible et sécurisé, c'est-à-dire précis et confidentiel, que l'on résout à l'aide d'un protocole également présenté dans ce manuscrit.
2

Calculabilité et conditions de progression des objets partagés en présence de défaillances

Imbs, Damien 12 April 2012 (has links) (PDF)
Dans un système distribué, différents processus communiquent et se synchronisent pour résoudre un calcul global. La difficulté vient du fait qu'un processus ne connait pas les entrées des autres. Nous considérons ici un système asynchrone: on ne fait aucune hypothèses sur les vitesses d'exécution relatives des différents processus. De plus, pour modéliser les pannes, nous considérons que les processus peuvent crasher: ils peuvent arrêter leur exécution à n'importe quel endroit de leur programme. Dans l'étude théorique des systèmes distribués, les problèmes doivent être considérés selon deux aspects: la sûreté et la progression. La sûreté définit quand une valeur de sortie est correcte. La progression définit dans quelles conditions un processus doit terminer une opération, indépendamment de la valeur qu'il choisit comme sortie. Cette thèse se concentre sur les liens entre calculabilité et conditions de progression des objets distribués. Dans un premier temps, nous introduisons et étudions la notion de conditions de progression asymétriques: des conditions de progression qui peuvent être différentes pour différents processus du système. Nous étudions ensuite la possibilité de fournir des abstractions dans un système donné. La question de l'équivalence de modèles de systèmes est ensuite abordée, en particulier dans le cas où les processus ont accès à des objets puissants. Pour finir, la thèse traite le sujet des tâches colorées en fournissant un algorithme de renommage adapté au cas où la concurrence est réduite. Une nouvelle classe de tâches colorées est enfin introduite qui englobe, sous un formalisme unique, plusieurs problèmes considérés jusqu'ici comme indépendants.
3

Modélisation, conception et réalisation de systèmes répartis

Duda, Andrzej 09 December 1994 (has links) (PDF)
Ce document présente une synthèse des activités autour d'un thème central : informatique répartie. Dans la première partie sont présentés les travaux dans le domaine de l'évaluation de performances et les mesures de systèmes répartis. Dans un premier temps, nous étudions des primitives de synchronisation de type fork-join. Par la suite, nous analysons les performances des programmes parallèles et nous comparons des stratégies de duplication d'objets. Enfin, nous présentons une méthode d'estimation du temps global pour la mesure de performances des systèmes répartis. La deuxième partie concerne la conception et la réalisation de systèmes répartis. Nous commençons par spécifier les primitives de communication du projet Epsilon et nous poursuivons en présentant le travail effectué dans le cadre du projet Guide : la gestion de l'exécution répartie, les mécanismes d'invocation d'objets à distance, les protocoles de communication, la gestion des groupes d'objets et l'administration de sites. La troisième partie est consacrée aux aspects inhérents aux autoroutes de l'information du futur : la recherche de l'information sur grands réseaux et la représentation des données multimedia. En conclusion, nous présentons un projet de recherche s'inscrivant dans le domaine du multimedia réparti qui concerne le développement de l'infrastructure de l'information pour les réseaux futurs. Ce projet a pour objectif la conception et le développement des services communs et des outils pour faciliter la mise en oeuvre des applications multimedia distribuées.
4

Accès à l'information répartie : adressage et protection

Hagimont, Daniel 21 April 1998 (has links) (PDF)
L'accès et le contrôle d'accès à l'information réparties constituent un domaine fondamental de l'informatique répartie. En effet, la désignation des objets qui encapsulent l'information, la localisation de ces objets, leur partage entre les usagers autorisés, leurs accès et les contrôles de ces accès déterminent les structures de base de toute architecture de système réparti. Cette Habilitation à Diriger les Recherches résume un ensemble de travaux que j'ai essentiellement réalisés dans le cadre de deux projets de recherche : le projet GUIDE mené à l'Unité Mixte Bull-IMAG de 1990 à 1994, et le projet SIRAC qui a débuté en 1995 et qui se poursuit actuellement. A travers ces projets, j'ai été amené à étudier les problèmes d'accès et de contrôle d'accès dans des environnements très différents, à savoir un système à objets répartis (Guide), une mémoire virtuelle répartie (Arias) et plus récemment un environnement Java réparti sur l'Internet. A partir d'un bilan des travaux effectués et des résultats obtenus, je dresse les perspectives de recherches pour les années à venir.
5

Architecture de sécurité pour les grands systèmes ouverts, répartis et hétérogènes

Naqvi, Syed Salar Hussain January 2005 (has links) (PDF)
Nous avons proposé une architecture de sécurité apte à répondre aux besoins généraux de sécurité de des systèmes hétérogènes distribués ouverts à grande échelle. Nous avons procédé à d'importants travaux de terrain pour déterminer les limitations et les failles des solutions de sécurité actuellement proposées pour ces systèmes et pour établir quels sont les véritables besoins que doit satisfaire l'architecture de sécurité, de manière à réduire les pertes de performances et à assurer une sécurité robuste. Nous avons notamment identifié l'analyse des besoins, l'analyse du risque, la modélisation des menaces et la faisabilité de mise en œuvre. Le concept de virtualisation des services de sécurité est introduit pour les services en question. Il est nécessaire de disposer d'une totale liberté de choix des mécanismes de sécurité sous-jacents. Du point de vue de la sécurité, la virtualisation de la définition d'un service tient compte des besoins de sécurité qui permettent d'accéder à ce service. Il permet à chaque terminaison participante d'exprimer la politique qu'elle souhaite voir appliquer lorsqu'elle s'engage dans un échange sécurisé avec une autre terminaison. Un mécanisme configurable d'appel des services de sécurité est proposé pour répondre aux besoins de sécurité des différentes catégories d'utilisateurs. Cette approche permet de faire évoluer l'infrastructure de sécurité avec des effets moindres sur les fonctionnalités de gestion des ressources, qui sont encore en pleine phase d'évolution. En outre, elle permet aux utilisateurs et aux fournisseurs de ressources de configurer l'architecture de sécurité en fonction de leurs besoins et de leur niveau de satisfaction.
6

Déploiement de systèmes répartis multi-échelles : processus, langage et outils intergiciels / Deployment of distributed multiscale software : process, langage and middleware

Boujbel, Raja 30 January 2015 (has links)
Avec la multiplication des objets connectés, les systèmes multi-échelles sont de plus en plus répandus. Ces systèmes sont fortement répartis, hétérogènes, dynamiques et ouverts. Ils peuvent être composés de centaines de composants logiciels déployés sur des milliers d'appareils.Le déploiement est un processus complexe qui a pour objectif la mise à disposition puis le maintien en condition opérationnelle d'un système logiciel. Pour les systèmes multi-échelles, l'expression du plan de déploiement ainsi que la réalisation et la gestion du déploiement sont des tâches humainement impossibles du fait de l'hétérogénéité, de la dynamique, du nombre, mais aussi parce que le domaine de déploiement n'est pas forcément connu à l'avance. L'objectif de cette thèse est d'étudier et de proposer des solutions pour le déploiement de systèmes répartis multi-échelles. Nous proposons tout d'abord une mise à jour du vocabulaire relatif au déploiement, ainsi qu'un état de l'art sur le déploiement automatique des systèmes logiciels répartis. Le reste de la contribution réside dans la proposition : d'un processus complet pour le déploiement autonomique de systèmes multi-échelles ; d'un langage dédié (DSL), MuScADeL, qui simplifie la tâche du concepteur du déploiement et permet d'exprimer les propriétés de déploiement ainsi que des informations concernant la perception de l'état du domaine de déploiement ; d'un middleware, MuScADeM, qui assure la génération automatique d'un plan de déploiement en fonction de l'état du domaine, sa réalisation puis le maintien en condition opérationnelle du système. / Due to increased connected objects, multiscale systems are more and more widespread. Those systems are highly distributed, heterogeneous, dynamic and open. They can be composed of hundreds of software components deployed into thousands of devices. Deployment of software systems is a complex post-production process that consists in making software available for use and then keeping it operational. For multiscale systems, deployment plan expression just as deployment realization and management are tasks impossible for a human stakeholder because of heterogeneity, dynamics, number, and also because the deployment domain is not necessarily known in advance. The purpose of this thesis is to study and propose solutions for the deployment of distributed multiscale software systems. Firstly, we provide an up-to-date terminology and definitions related to software deployment, plus a state of the art on automatic deployment of distributed software systems. The rest of the contribution lies in the proposition of: a complete process for autonomic deployment of multiscale systems ; a domain specific language, MuScADeL, which simplifies the deployment conceptor task and allows the expression of deployment properties such as informations for the domain state probing ; and a middleware, MuScADeM, which insures the automatic generation of a deployment plan according the domain state, its realization and finally the maintenance in an operational condition of the system.
7

Scalable data-management systems for Big Data / Sur le passage à l'échelle des systèmes de gestion des grandes masses de données

Tran, Viet-Trung 21 January 2013 (has links)
La problématique "Big Data" peut être caractérisée par trois "V": - "Big Volume" se rapporte à l'augmentation sans précédent du volume des données. - "Big Velocity" se réfère à la croissance de la vitesse à laquelle ces données sont déplacées entre les systèmes qui les gèrent. - "Big Variety" correspond à la diversification des formats de ces données. Ces caractéristiques imposent des changements fondamentaux dans l'architecture des systèmes de gestion de données. Les systèmes de stockage doivent être adaptés à la croissance des données, et se doivent de passer à l'échelle tout en maintenant un accès à hautes performances. Cette thèse se concentre sur la construction des systèmes de gestion de grandes masses de données passant à l'échelle. Les deux premières contributions ont pour objectif de fournir un support efficace des "Big Volumes" pour les applications data-intensives dans les environnements de calcul à hautes performances (HPC). Nous abordons en particulier les limitations des approches existantes dans leur gestion des opérations d'entrées/sorties (E/S) non-contiguës atomiques à large échelle. Un mécanisme basé sur les versions est alors proposé, et qui peut être utilisé pour l'isolation des E/S non-contiguës sans le fardeau de synchronisations coûteuses. Dans le contexte du traitement parallèle de tableaux multi-dimensionels en HPC, nous présentons Pyramid, un système de stockage large-échelle optimisé pour ce type de données. Pyramid revoit l'organisation physique des données dans les systèmes de stockage distribués en vue d'un passage à l'échelle des performances. Pyramid favorise un partitionnement multi-dimensionel de données correspondant le plus possible aux accès générés par les applications. Il se base également sur une gestion distribuée des métadonnées et un mécanisme de versioning pour la résolution des accès concurrents, ce afin d'éliminer tout besoin de synchronisation. Notre troisième contribution aborde le problème "Big Volume" à l'échelle d'un environnement géographiquement distribué. Nous considérons BlobSeer, un service distribué de gestion de données orienté "versioning", et nous proposons BlobSeer-WAN, une extension de BlobSeer optimisée pour un tel environnement. BlobSeer-WAN prend en compte la hiérarchie de latence et favorise les accès aux méta-données locales. BlobSeer-WAN inclut la réplication asynchrone des méta-données et une résolution des collisions basée sur des "vector-clock". Afin de traîter le caractère "Big Velocity" de la problématique "Big Data", notre dernière contribution consiste en DStore, un système de stockage en mémoire orienté "documents" qui passe à l'échelle verticalement en exploitant les capacités mémoires des machines multi-coeurs. Nous montrons l'efficacité de DStore dans le cadre du traitement de requêtes d'écritures atomiques complexes tout en maintenant un haut débit d'accès en lecture. DStore suit un modèle d'exécution mono-thread qui met à jour les transactions séquentiellement, tout en se basant sur une gestion de la concurrence basée sur le versioning afin de permettre un grand nombre d'accès simultanés en lecture. / Big Data can be characterized by 3 V’s. • Big Volume refers to the unprecedented growth in the amount of data. • Big Velocity refers to the growth in the speed of moving data in and out management systems. • Big Variety refers to the growth in the number of different data formats. Managing Big Data requires fundamental changes in the architecture of data management systems. Data storage should continue being innovated in order to adapt to the growth of data. They need to be scalable while maintaining high performance regarding data accesses. This thesis focuses on building scalable data management systems for Big Data. Our first and second contributions address the challenge of providing efficient support for Big Volume of data in data-intensive high performance computing (HPC) environments. Particularly, we address the shortcoming of existing approaches to handle atomic, non-contiguous I/O operations in a scalable fashion. We propose and implement a versioning-based mechanism that can be leveraged to offer isolation for non-contiguous I/O without the need to perform expensive synchronizations. In the context of parallel array processing in HPC, we introduce Pyramid, a large-scale, array-oriented storage system. It revisits the physical organization of data in distributed storage systems for scalable performance. Pyramid favors multidimensional-aware data chunking, that closely matches the access patterns generated by applications. Pyramid also favors a distributed metadata management and a versioning concurrency control to eliminate synchronizations in concurrency. Our third contribution addresses Big Volume at the scale of the geographically distributed environments. We consider BlobSeer, a distributed versioning-oriented data management service, and we propose BlobSeer-WAN, an extension of BlobSeer optimized for such geographically distributed environments. BlobSeer-WAN takes into account the latency hierarchy by favoring locally metadata accesses. BlobSeer-WAN features asynchronous metadata replication and a vector-clock implementation for collision resolution. To cope with the Big Velocity characteristic of Big Data, our last contribution feautures DStore, an in-memory document-oriented store that scale vertically by leveraging large memory capability in multicore machines. DStore demonstrates fast and atomic complex transaction processing in data writing, while maintaining high throughput read access. DStore follows a single-threaded execution model to execute update transactions sequentially, while relying on a versioning concurrency control to enable a large number of simultaneous readers.
8

Etude de la dégradation progressive dans les systèmes repartis

Bellon, Catherine 14 September 1977 (has links) (PDF)
Sureté de fonctionnement d'un système. Etude du partitionnement et de la dégradation progressive de puissance. Détection continue en cours de fonctionnement. contamination entre processus. Détection discontinue. Application au central téléphonique E10.
9

Programmation des systèmes parallèles distribués : tolérance aux pannes, résilience et adaptabilité

Jafar, Samir 30 June 2006 (has links) (PDF)
Les grilles et les grappes sont des architectures de plus en plus utilisées dans le domaine du calcul scientifique distribué. Le nombre important de constituants hétérogènes (processeurs, mémoire, interconnexion) dans ces architectures dynamiques font que le risque de défaillance est très important. Compte tenu de la durée considérable de l'exécution d'une application parallèle distribuée, ce risque de défaillance doit être contrôlé par l'utilisation de technique de tolérance aux pannes. <br />Dans ce travail, la représentation de l'état de l'exécution d'un programme parallèle est un graphe, dynamique, de flot de données construit à l'exécution. Cette description du parallélisme est indépendante du nombre de ressources et donc exploitée pour résoudre les problèmes liés à la dynamicité des plateformes considérées. La définition de formats portables pour la représentation des noeuds du graphe résout les problèmes d'hétérogénéité. La sauvegarde du graphe de flot de données d'une application durant son exécution sur une plateforme, constitue des points de reprise pour cette application. Par la suite, une reprise est possible sur un autre type ou nombre de processus. Deux méthodes de sauvegarde / reprise, avec une analyse formelle de leurs complexités, sont présentées : SEL (Systematic Event Logging) et TIC (Theft-Induced Checkpointing). Des mesures expérimentales d'un prototype sur des applications caractéristiques montrent que le surcoût à l'exécution peut être amorti, permettant d'envisager des exécutions tolérantes aux pannes qui passent à l'échelle.
10

Conception et réalisation d'un intergiciel schizophrène pour la mise en oeuvre de systèmes répartis interopérables

Quinot, Thomas 24 March 2003 (has links) (PDF)
Les intergiciels rendent les applications réparties indépendantes d'un environnement particulier, mais introduisent paradoxalement une nouvelle dépendance vis-à-vis d'un modèle de répartition.<br /><br />L'interopérabilité entre applications doit être intégrée à l'architecture de l'intergiciel, car l'utilisation de passerelles statiques présente un coût et une explosion combinatoire prohibitifs.<br /><br />Les architectures d'intergiciels génériques permettent le partage de code par plusieurs personnalités réalisant des modèles de répartition différents. Nous les étendons en proposant l'architecture schizophrène, qui découple les aspects exposes d'une part aux objets applicatifs, d'autre part aux autres intergiciels, au moyen d'une couche neutre réalisant les fonctions récurrentes des intergiciels indépendamment des personnalités. Cette architecture générique et configurable contribue à l'interopérabilité en permettant la cohabitation efficace de plusieurs personnalités.<br /><br />Nous présentons PolyORB, notre prototype d'intergiciel schizophrène. Nous montrons ainsi que l'architecture proposée est opérationnelle et efficace.

Page generated in 0.0776 seconds