• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 126
  • 120
  • 13
  • Tagged with
  • 261
  • 174
  • 128
  • 89
  • 85
  • 84
  • 49
  • 39
  • 36
  • 35
  • 33
  • 32
  • 31
  • 29
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Outils et algorithmes pour gérer l'incertitude lors de l'ordonnancement d'application sur plateformes distribuées / Tools and Algorithms for Coping with Uncertainty in Application Scheduling on Distributed Platforms

Canon, Louis-claude 18 October 2010 (has links)
Cette thèse traite de l'ordonnancement dans les systèmes distribués. L'objectif est d'étudier l'impact de l'incertitude sur les ordonnancements et de proposer des techniques pour en réduire les effets sur les critères à optimiser. Nous distinguons plusieurs aspects de l'incertitude en considérant celle liée aux limites des méthodes employées (e.g., modèle imparfait) et celle concernant la variabilité aléatoire qui est inhérente aux phénomènes physiques (e.g., panne matérielle). Nous considérons aussi les incertitudes qui se rapportent à l'ignorance portée sur les mécanismes en jeu dans un système donné (e.g., soumission de tâches en ligne dans une machine parallèle). En toute généralité, l'ordonnancement est l'étape qui réalise une association ordonnée entre des requêtes (dans notre cas, des tâches) et des ressources (dans notre cas, des processeurs). L'objectif est de réaliser cette association de manière à optimiser des critères d'efficacité (e.g., temps total consacré à l'exécution d'un application) tout en respectant les contraintes définies. Examiner l'effet de l'incertitude sur les ordonnancements nous amène à considérer les aspects probabilistes et multicritères qui sont traités dans la première partie. La seconde partie repose sur l'analyse de problèmes représentatifs de différentes modalités en terme d'ordonnancement et d'incertitude (comme l'étude de la robustesse ou de la fiabilité des ordonnancements) / This thesis consists in revisiting traditional scheduling problematics in computational environments, and considering the adjunction of uncertainty in the models. We adopt here a wide definition of uncertainty that encompasses the intrinsic stochastic nature of some phenomena (e.g., processor failures that follow a Poissonian distribution) and the imperfection of model characteristics (e.g., inaccuracy of the costs in a model due to a bias in measurements). We also consider uncertainties that stem from indeterminations such as the user behaviors that are uncontrolled although being deterministic. Scheduling, in its general form, is the operation that assigns requests to resources in some specific way. In distributed environments, we are concerned by a workload (i.e., a set of tasks) that needs to be executed onto a computational platform (i.e., a set of processors). Therefore, our objective is to specify how tasks are mapped onto processors. Produced schedules can be evaluated through many different metrics (e.g., processing time of the workload, resource usage, etc) and finding an optimal schedule relatively to some metric constitutes a challenging issue. Probabilistic tools and multi-objectives optimization techniques are first proposed for tackling new metrics that arise from the uncertainty. In a second part, we study several uncertainty-related criteria such as the robustness (stability in presence of input variations) or the reliability (probability of success) of a schedule
2

Building a Testbed Emulating Cellular Networks. Design, Implementation, Cross-Validation and Exploitation of a Real-Time Framework to Evaluate QoS and QoE in the UTRAN

VAN PETEGHEM, Hugues 17 March 2008 (has links)
La convergence des communications mobiles et d'Internet a conduit à l'émergence de la troisième génération de réseaux cellulaires (3G), connue sous la dénomination de Universal Mobile Telecommunications System (UMTS). Avec le lancement de cette nouvelle génération de communications mobiles, les utilisateurs sont maintenant véritablement capables d'accéder à Internet depuis leur terminal mobile, ce qui leur permet de profiter d'une large gamme de services à valeur ajoutée. Dans ce contexte, la modélisation de l'UMTS Terrestrial Radio Access Network (UTRAN) et la caractérisation du trafic sont des maillons essentiels de la recherche. Le but de ce projet a été de concevoir, d'implémenter et de valider une maquette basée sur Linux qui émule un segment UTRAN traversé par des sessions de trafic IPv6 caractérisées stochastiquement. Le fruit de ce projet est un outil capable d'émuler le comportement d'un UTRAN avec plus de réalisme qu'un simulateur et un coût moins élevé que celui demandé par un vrai déploiement. Le principal objectif de cette thèse a été de démontrer, via des comparaisons de résultats issus de la littérature, qu'une maquette constituée d'une douzaine d'ordinateurs et fonctionnant avec des logiciels libres est capable d'émuler de manière réaliste un UTRAN. En se basant sur l'infrastructure de cette maquette, le second objectif de ce projet a été d'améliorer les algorithmes de Radio Resource Management (RRM), de Call Admission Control (CAC) et/ou de séquencement afin de respecter à la fois les exigences des futurs services et applications, exprimées en termes de Quality of Service (QoS), et celles des utilisateurs, exprimées en termes de Quality of Experience (QoE).
3

Parallélisation automatique de programmes scientifiques pour systèmes distribués

Ouellet, Félix-Antoine January 2016 (has links)
Avec l’avènement des processeurs multi-coeurs comme architecture standard pour ordinateurs de tout acabit, de nouveaux défis s’offrent aux programmeurs voulant mettre à profit toute cette nouvelle puissance de calcul qui leur est offerte. Malheureusement, la programmation parallèle, autant sur systèmes à mémoire partagée que sur systèmes à mémoire distribuée, demeure un défi de taille pour les développeurs de logiciels. Une solution intéressante à ce problème serait de rendre disponible un outil permettant d’automatiser le processus de parallélisation de programmes. C’est dans cette optique que s’inscrit le présent mémoire. Après deux essais infructueux, mais ayant permis d’explorer le domaine de la parallélisation automatique dirigée par le compilateur, l’outil Clang-MPI a été conçu pour répondre au besoin énoncé. Ainsi, cet outil prend en charge la parallélisation de programmes originellement séquentiels dans le but de produire des programmes visant les systèmes distribués. Son bon fonctionnement a été évalué en faisant appel aux bancs d’essai offerts par la suite Polybench et ses limites ont été explorées par une tentative de parallélisation automatique du processus d’entraînement d’un réseau de neurones.
4

Une archietecture orientée services pour la fourniture de documents multimédia composés adaptables

Kazi Aoul, Zakia Aoul January 2008 (has links) (PDF)
L'échange de documents multimédia composés de plusieurs médias élémentaires tels que des vidéos, des images ou du texte, est l'une des applications les plus populaires d'Internet. Idéalement, tout usager d'Internet devrait pouvoir accéder à ces contenus et les recevoir dans un format adapté au contexte dans lequel il travaille. Un contexte utilisateur peut être défini par les caractéristiques personnelles de l'utilisateur (ex : sa langue parlée, son handicap et ses centres d'intérêt), ses préférences de présentation des contenus multimédia (ex : son lecteur multimédia préféré ou la taille d'image souhaitée), les capacités de son terminal (ex : la taille de l'écran du terminal ou les lecteurs multimédia présents) et les caractéristiques de son réseau d'accès (ex : la bande passante). Compte tenu de la combinatoire des éléments de contexte, il n'est pas envisageable de fournir autant de versions des documents multimédia que de contextes possibles : l'adaptation des contenus est donc nécessaire. L'accroissement des utilisateurs des terminaux à capacités réduites tels que les assistants personnels (par ex. PDA) exclut une adaptation côté client (ou utilisateur final). L'adaptation, côté source du document multimédia, nécessite l'implémentation de modules supplémentaires qui n'est pas toujours possible et qui peut créer une charge supplémentaire indésirable. L'adaptation par un ou plusieurs intermédiaires répond le mieux aux besoins de passage à l'échelle et d'extensibilité. Une machine intermédiaire est un nœud inséré entre le client et le serveur et dédié, par exemple, à la découverte ou à l'adaptation de services (ex : réduction de la taille d'une image ou traduction et insertion de sous-titres au sein d'une vidéo). L'intermédiation ainsi réalisée apporte une valeur ajoutée en évitant de charger l'utilisateur final et la source du document de tâches spécifiques consommatrices de ressources sans rapport direct avec le service final offert. Cette approche est celle qui est prise dans la plupart des solutions existantes. Celles-ci utilisent des intermédiaires dédiés. Il en résulte une configuration d'adaptation figée ne garantissant pas la gestion de nouvelles techniques d'adaptation (ex : les adaptations relatives à l'handicap) et ne passant pas à l'échelle. Certaines solutions, basées sur ce même modèle, intègrent l'adaptation distribuée en répartissant la charge entre les intermédiaires qui réalisent l'adaptation. Elles ne traitent cependant pas la gestion dynamique des adaptateurs qui consiste à aller chercher des adaptateurs dans le réseau, les composer et les recomposer dynamiquement en cas de disparition. Elles ne traitent pas non plus l'adaptation des documents multimédia composés qui demande un effort supplémentaire d'analyse du document et de synchronisation des médias élémentaires le composant. La première contribution de cette thèse est la conception d'une architecture appelée PAAM (pour Architecture for the Provision of AdAptable Multimedia composed documents) qui a pour but d'adapter des documents multimédia composés au contexte des usagers. L'une des originalités de cette architecture est de mettre en place une adaptation distribuée sur différents nœuds du réseau en évitant de confier l'adaptation à un serveur ou à un intermédiaire dédié. La plate-forme d'adaptation de PAAM intègre aussi bien des fournisseurs de services d'adaptation que des particuliers qui se porteraient volontaires pour exécuter des fonctions d'adaptation en donnant un peu de leurs ressources matérielles et logicielles. Les principaux éléments fonctionnels de PAAM sont : le gestionnaire du contexte utilisateur, le gestionnaire des documents multimédia composés, le planificateur et le gestionnaire d'adaptation. Le gestionnaire du contexte utilisateur et le gestionnaire des documents multimédia composés récupèrent, analysent et agrégent respectivement les informations contextuelles de l'utilisateur et les informations descriptives des documents multimédia. Le planificateur implémente un algorithme de prise de décision reposant sur des politiques d'adaptation. Ce planificateur produit un graphe d'adaptation, c'est-à-dire un ensemble d'adaptateurs organisés en parallèle ou en séquence. Ce graphe est utilisé en entrée du gestionnaire d'adaptation qui recherche ces adaptateurs là où ils se trouvent, les instancie, les compose, si nécessaire, et les recompose si un ou plusieurs adaptateurs disparaissent. Nous avons choisi d'utiliser les services Web pour implémenter PAAM afin qu'elle soit distribué, extensible, modulable, tolérante aux fautes et passant à l'échelle, répondant ainsi aux limitations des autres architectures d'adaptation. Cette solution technologique permet à PAAM de décrire des ressources d'adaptation, de les publier, de les rechercher et les instancier. Dans le cadre de la composition et de l'orchestration des services Web, nous présentons BPEL (Business Process Execution Language) et son éventuelle intégration au sein d'un gestionnaire d'adaptation pour gérer l'exécution d'un graphe d'adaptation. La seconde contribution de cette thèse est la gestion des adaptateurs (description, recherche et instanciation). Nous proposons, pour cela, une nomenclature incluant un grand nombre d'adaptateurs. Nous proposons aussi une description d'adaptateurs qui étend WSDL, et qui facilite la recherche, l'instanciation et la composition de ces ressources d'adaptation. Nous exposons par la suite le protocole de négociation et d'acceptation établi entre un gestionnaire d'adaptation et un adaptateur permettant de déterminer si cet adaptateur peut réaliser l'adaptation ou non. PAAM gérant l'adaptation distribuée sur différents nœuds du réseau, susceptibles de se déconnecter à chaque instant, nous proposons des solutions pour gérer les déconnexions dans PAAM afin de lui procurer un aspect dynamique. Afin de démontrer la faisabilité de notre architecture, nous implémentons une chaîne d'adaptation complète incluant les principales fonctionnalités de PAAM : le gestionnaire du contexte utilisateur, le gestionnaire des documents multimédia composés, le planificateur et le gestionnaire d'adaptation. Nous présentons, par la suite, une étude des coûts induits par notre implémentation de PAAM et des tests de performances qui montrent que l'utilisation des services Web n'introduit pas de surcoûts significatifs par rapport au gain obtenu en distribuant l'adaptation sur différents nœuds. Pour conclure, parce qu'elle permet de gérer une grande variété d'adaptateurs de manière distribuée, l'architecture PAAM répond bien aux limitations des architectures d'adaptation basées sur une configuration client/serveur. L'intérêt de cette approche est la possibilité d'étendre et d'enrichir le système d'adaptation et de le déployer à large échelle tout en garantissant sa robustesse.
5

Ingénierie des exigences pour la conception d'architectures de sécurité de systèmes embarqués distribués / A requirement engineering driven approach to security architecture design for distributed embedded systems

Idrees, Muhammad Sabir 21 September 2012 (has links)
Au cours des dix dernières années, l’impact des questions de sécurité sur le développement et la mise en oeuvre des systèmes embarqués distribués n’a jamais cessé de croître. Ceci est principalement lié à l’interconnexion toujours plus importante de ces systèmes qui les rend vulnérables aux attaques, ainsi qu’à l’intérêt économique d’attaquer ces systèmes qui s’est simultanément accru. Dans un tel contexte, méthodologies et outils d’ingénierie des exigences de sécurité sont devenus indispensables pour prendre des décisions appropriées quant a` la sécurité, et ce le plus tôt possible. L’ingénierie des exigences devrait donc fournir une aide substantielle à l’explicitation et à la spécification des problèmes et solutions de sécurité des logiciels bien avant que concepteurs et développeurs ne soient engagés dans une implantation en particulier. Toutefois, et c’est particulièrement vrai dans les systèmes embarqués, les exigences de sécurité ne doivent pas être considérées seulement comme l’expression abstraite d’un ensemble de propriétés indépendamment de l’architecture système ou des menaces et des attaques qui pourraient y survenir. Nous estimons que cette considération est d’une importance capitale pour faire de l’ingénierie des exigences un guide et un moteur de la conception et de la mise en œuvre d’un système sécurisé. Notre approche s’appuie en particulier sur une approche centrée sur les connaissances de l’ingénierie des exigences de sécurité, applicable dès les premières phases de conception du système jusqu’à la mise en application des exigences de sécurité dans l’implantation. / During the last ten years, the impact of security concerns on the development and exploration of distributed embedded systems never ceased to grow. This is mainly related to the fact that these systems are increasingly interconnected and thus vulnerable to attacks, and that the economic interest in attacking them has simultane- ously increased. In such a context, requirement engineering methodologies and tools have become necessary to take appropriate decisions regarding security early on. Security requirements engineering should thus strongly support the elicitation and specifica- tion of software security issues and solutions well before designers and developers are committed to a particular implementation. However, and that is especially true in embedded systems, security requirements should not be considered only as the abstract expression of a set of properties independently from the system architecture or from the threats and attacks that may occur. We believe this consideration is of utmost importance for security requirements engineering to be the driving force behind the design and implementation of a secure system. We thus describe in this thesis a security engineering requirement methodology depending upon a constant dialog between the design of system functions, the requirements that are attached to them, the design and development of the system architecture, and the assessment of the threats to system assets. Our approach in particular relies on a knowledge-centric approach to security requirement engineering, applicable from the early phases of system conceptualization to the enforcement of security requirements.
6

INJECTION DE FAUTES DANS LES SYSTEMES DISTRIBUES

Hoarau, William 21 March 2008 (has links) (PDF)
Dans un réseau constitué de plusieurs milliers d'ordinateurs, l'apparition de fautes est inévitable. Etre capable de tester le comportement d'un programme distribué dans un environnement où l'on peut contrôler les fautes (comme le crash d'un processus) est une fonctionnalité importante pour le déploiement de programmes fiables.....
7

Formal verification of the Pastry protocol / Vérification formelle du protocole Pastry

Lu, Tianxiang 27 November 2013 (has links)
Le protocole Pastry réalise une table de hachage distribué sur un réseau pair à pair organisé en un anneau virtuel de noeuds. Alors qu'il existe plusieurs implémentations de Pastry, il n'y a pas encore eu de travaux pour décrire formellement l'algorithme ou vérifier son bon fonctionnement. Intégrant des structures de données complexes et de la communication asynchrone entre des noeuds qui peuvent rejoindre ou quitter le réseau, ce protocole représente un intérêt certain pour la vérification formelle. La thèse se focalise sur le protocole Join de Pastry qui permet à un noeud de rejoindre le réseau. Les noeuds ayant intégré le réseau doivent avoir une vue du voisinage cohérente entre eux. La propriété principale de correction, appelée CorrectDelivery, assure qu'à tout moment il y a au plus un noeud capable de répondre à une requête pour une clé, et que ce noeud est le noeud le plus proche numériquement à ladite clé. Il n'est pas trivial de maintenir cette propriété en présence de churn. Ce travail nous a permis de découvrir des violations inattendues de la propriété dans les versions publiées de l'algorithme. Sur la base de cette analyse, le protocole IdealPastry est conçu et vérifié en utilisant l'assistant interactif à la preuve TLAPS pour TLA+. Le protocole LuPastry est obtenu en assouplissant certaines hypothèses de IdealPastry. Il est montré formellement que LuPastry vérifie CorrectDelivery sous l'hypothèse qu'aucun noeud ne quitte le réseau. Cette hypothèse ne peut être relâchée à cause du risque de perte de connexion du réseau dans le cas où plusieurs noeuds quittent le réseau en même temps / Pastry is a structured P2P algorithm realizing a Distributed Hash Table over an underlying virtual ring of nodes. Several implementations of Pastry are available, but no attempt has so far been made to formally describe the algorithm or to verify its properties. Since Pastry combines complex data structures, asynchronous communication, and concurrency in the presence of spontaneous join and departure of nodes, it makes an interesting target for verification. This thesis focuses on the Join protocol of Pastry that integrates new nodes into the ring. All member nodes must have a consistent key mapping among each other. The main correctness property, named CorrectDelivery, states that there is always at most one node that can deliver an answer to a lookup request for a key and this node is the numerically closest member node to that key. This property is non-trivial to preserve in the presence of churn. In this thesis, unexpected violations of CorrectDelivery in the published versions of Pastry are discovered and analyzed using the TLA+ model checker TLC. Based on the analysis, the protocol IdealPastry is designed and verified using the interactive theorem prover TLAPS for TLA+. By relaxing certain hypotheses, IdealPastry is further improved to LuPastry, which is again formally proved correct under the assumption that no nodes leave the network. This hypothesis cannot be relaxed in general due to possible network separation when particular nodes simultaneously leave the network
8

The GNU Taler system : practical and provably secure electronic payments / Le système GNU Taler : Paiements électroniques pratiques et sécurisés

Dold, Florian 25 February 2019 (has links)
Les nouveaux protocoles de réseautage et cryptographiques peuvent considérablement améliorer les systèmes de paiement électroniques en ligne. Le présent mémoire porte sur la conception, la mise en œuvre et l’analyse sécuritaire du GNU Taler, un système de paiement respectueux de la vie privée conçu pour être pratique pour l’utilisation en ligne comme méthode de (micro-)paiement, et en même temps socialement et moralement responsable. La base technique du GNU Taler peut être dû à l’e-cash de David Chaum. Notre travail va au-delà de l’e-cash de Chaum avec un changement efficace, et la nouvelle notion de transparence des revenus garantissant que les marchands ne peuvent recevoir de manière fiable un paiement d’un payeur non fiable que lorsque leurs revenus du paiement est visible aux autorités fiscales. La transparence des revenus est obtenue grâce à l’introduction d’un protocole d’actualisation donnant lieu à un changement anonyme pour un jeton partiellement dépensé sans avoir besoin de l’introduction d’une évasion fiscale échappatoire. De plus, nous démontrons la sécurité prouvable de la transparence anonyme de nos revenus e-cash, qui concerne en plus l’anonymat habituel et les propriétés infalsifiables de l’e-cash, ainsi que la conservation formelle des fonds et la transparence des revenus. Notre mise en œuvre du GNU Taler est utilisable par des utilisateurs non-experts et s’intègre à l’architecture du web moderne. Notre plateforme de paiement aborde une série de questions pratiques telles que la prodigue des conseils aux clients, le mode de remboursement, l’intégration avec les banques et les chèques “know-your-customer (KYC)”, ainsi que les exigences de sécurité et de fiabilité de la plateforme web. Sur une seule machine, nous réalisons des taux d’opérations qui rivalisent avec ceux des processeurs de cartes de crédit commerciaux globaux. Pendant que les crypto-monnaies basées sur la preuve de travail à l’instar de Bitcoin doivent encore être mises à l’échelle pour servir de substituant aux systèmes de paiement établis, d’autres systèmes plus efficaces basés sur les Blockchains avec des algorithmes de consensus plus classiques pourraient avoir des applications prometteurs dans le secteur financier. Nous faisons dans la conception, la mise en œuvre et l’analyse de la Byzantine Set Union Consensus, un protocole de Byzantine consensus qui s’accorde sur un (Super-)ensemble d’éléments à la fois, au lieu d’accepter en séquence les éléments individuels sur un ensemble. Byzantine Set consensus peut être utilisé comme composante de base pour des chaînes de blocs de permissions, où (à l’instar du style Nakamoto consensus) des blocs entiers d’opérations sont convenus à la fois d’augmenter le taux d’opération. / We describe the design and implementation of GNU Taler, an electronic payment system based on an extension of Chaumian online e-cash with efficient change. In addition to anonymity for customers, it provides the novel notion of income transparency, which guarantees that merchants can reliably receive a payment from an untrusted payer only when their income from the payment is visible to tax authorities. Income transparency is achieved by the introduction of a refresh protocol, which gives anonymous change for a partially spent coin without introducing a tax evasion loophole. In addition to income transparency, the refresh protocol can be used to implement Camenisch-style atomic swaps, and to preserve anonymity in the presence of protocol aborts and crash faults with data loss by participants. Furthermore, we show the provable security of our income-transparent anonymous e-cash, which, in addition to the usual anonymity and unforgeability proper- ties of e-cash, also formally models conservation of funds and income transparency. Our implementation of GNU Taler is usable by non-expert users and integrates with the modern Web architecture. Our payment platform addresses a range of practical issues, such as tipping customers, providing refunds, integrating with banks and know-your-customer (KYC) checks, as well as Web platform security and reliability requirements. On a single machine, we achieve transaction rates that rival those of global, commercial credit card processors. We increase the robustness of the exchange—the component that keeps bank money in escrow in exchange for e-cash—by adding an auditor component, which verifies the correct operation of the system and allows to detect a compromise or misbehavior of the exchange early. Just like bank accounts have reason to exist besides bank notes, e-cash only serves as part of a whole payment system stack. Distributed ledgers have recently gained immense popularity as potential replacement for parts of the traditional financial industry. While cryptocurrencies based on proof-of-work such as Bitcoin have yet to scale to be useful as a replacement for established payment systems, other more efficient systems based on Blockchains with more classical consensus algorithms might still have promising applications in the financial industry. We design, implement and analyze the performance of Byzantine Set Union Consensus (BSC), a Byzantine consensus protocol that agrees on a (super-)set of elements at once, instead of sequentially agreeing on the individual elements of a set. While BSC is interesting in itself, it can also be used as a building block for permissioned Blockchains, where—just like in Nakamoto-style consensus—whole blocks of transactions are agreed upon at once, increasing the transaction rate.
9

Optimized diagnosability of distributed discrete event systems through abstraction

Ye, Lina 07 July 2011 (has links) (PDF)
Depuis plusieurs années, de nombreuses recherches ont été menées autour du diagnostic. Cependant, il est impératif de se préoccuper dès la phase de conception d'un système des objectifs de diagnostic à atteindre. Aussi, de nombreux travaux se sont intéressés à analyser et à caractériser les propriétés de la diagnosticabilité d'un système. La diagnosticabilité est la propriété d'un système garantissant qu'il génère des observations permettant de détecter et discriminer les fautes en temps fini après leur occurrence.Le sujet de cette thèse porte sur les méthodes permettant d'établir les propriétés de la diagnosticabilité des systèmes à événements discrets dans le cadre distribué, sans construction du modèle global du système. Ce cadre est de première importance pour les applications réelles : systèmes naturellement distribués, systèmes trop complexes pour traiter leur modèle global, confidentialité des modèles locaux les uns par rapport aux autres. L'analyse de la diagnosticabilité de tels systèmes distribués se fonde sur des opérations de synchronisation des modèles locaux, par les observations et les communications. D'abord, nous étudions comment optimiser cette analyse de la diagnosticabilité en faisant abstraction de l'information nécessaire et suffisante à partir des objets locaux pour décider la diagnosticabilité globale. L'efficacité de l'algorithme peut être grandement améliorée par la synchronisation des objets locaux et abstraits en comparaison avec celle des objets locaux et non abstraits.Ensuite, nous proposons, dans le cadre distribué, l'algorithme de la diagnosticabilité de motifs d'événements particuliers a priori inobservables dans les systèmes. Ces motifs peuvent être simplement l'occurrence, brutale ou graduelle, d'une faute permanente ou transitoire, plusieurs occurrences d'une faute, plusieurs fautes en cascade, etc. Dans le cadre distribué, la reconnaissance du motif d'événements s'effectue d'abord progressivement dans un sous-système et ensuite la diagnosticabilité de ce motif peut être déterminée par la méthode abstraite et distribuée. Nous prouvons la correction et l'efficacité de notre algorithme à la fois en théorie et en pratique par la mise en œuvre de l'implémentation sur des exemples.Finalement, nous étudions le problème de la diagnosticabilité dans les systèmes distribués avec composants autonomes, où l'information observable est distribuée au lieu d'être centralisée comme jusqu'alors. En d'autres termes, chaque composant ne peut appréhender que ses propres événements observables. Nous donnons la définition de la diagnosticabilité conjointe. Et puis nous discutons de l'indécidabilité de diagnosticabilité conjointe dans le cas général, c'est à dire, les événements de communication ne sont pas observables, avant de proposer un algorithme pour tester sa condition suffisante. De plus, nous obtenons également un résultat de décidabilité et de l'algorithme lorsque les communications sont observables.
10

Résumé de flux de données ditribués

Chiky, Raja 23 January 2009 (has links) (PDF)
Ces dernières années, sont apparues de nombreuses applications, utilisant des données en nombre potentiellement illimité, provenant de façon continue de capteurs distribués afin d'alimenter un serveur central. Les données sont utilisées à des fins de surveillance, de supervision, de déclenchement d'alarmes en temps réel, ou plus généralement à la production de synthèses d'aide à la décision à partir de plusieurs flux. Le volume des données collectées est généralement trop grand pour être entièrement stocké. Les systèmes de gestion de flux de données (SGFD) permettent de gérer facilement, et de façon générique les flux de données : les données sont traitées au fil de l'eau sans les archiver. Toutefois, dans certaines applications, on ne souhaite pas perdre complètement l'ensemble des flux de données afin de pouvoir analyser les données du passé et du présent. Il faut donc prévoir un stockage de l'historique du flux. Nous considérons dans cette thèse, un environnement distribué décrit par une collection de plusieurs capteurs distants qui envoient des flux de données numériques et unidimensionnelles à un serveur central unique. Ce dernier a un espace de stockage limité mais doit calculer des agrégats, comme des sommes ou des moyennes, à partir des données de tout sous-ensemble de capteurs et sur un large horizon temporel. Deux approches sont étudiées pour construire l'historique des flux de données :(1) Echantillonnage spatial en ne considérant qu'un échantillon aléatoire des sources qu'on observe dans le temps ; (2) Echantillonnage temporel en considérant toutes les sources mais en échantillonnant les instants observés de chaque capteur. Nous proposons une méthode générique et optimisée de construction de résumés à partir de flux de données distribués : A partir des flux de données observés à une période de temps t -1, nous déterminons un modèle de collecte de données à appliquer aux capteurs de la période t. Le calcul des agrégats se base sur l'inférence tatistique dans le cas de l'échantillonnage spatial et sur l'interpolation dans le cas de l'échantillonnage temporel. A notre connaissance, il n'existe pas de méthodes d'interpolation qui estiment les erreurs à tout instant et qui prennent en compte le flux de données ou courbe à interpoler et son intégrale. Nous proposons donc deux approches : la première se base sur le passé des courbes pour l'interpolation (approche naive) ; et la seconde utilise à un processus stochastique pour modéliser l'évolution des courbes (approche stochastique).

Page generated in 0.0352 seconds