• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 15
  • 2
  • Tagged with
  • 83
  • 9
  • 7
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Performances and quality of service of PLC networks for MV and LV distribution systems / Performances et qualité de service dans les réseaux courants porteurs pour des systèmes de distribution moyenne tension et basse tension

Lu, Liping 22 November 2006 (has links)
In this thesis, we are interested in a wide-area PLC (Power Line Communication) network to provide a communication infrastructure for monitoring and control of energy distribution and consumption. This work has been carried out as a part of REMPLI (Real-time Energy Management via Power Line and Internet) European project and resulted in the definition of REMPLI PLC. For achieving high network performance and real-time data transfer using medium voltage and low voltage electricity grids, major problems such as dynamic packet routing, quality of service management and real-time event reporting are addressed. We designed an efficient routing protocol to cope with dynamic electricity grid topology changes and to relay packets to reach the destination. REMPLI PLC performance is evaluated using simulations and complemented by analytic studies. It is proved that most of the application requirements can be satisfied by REMPLI PLC. We proposed and implemented a new traffic dispatcher providing differentiated quality of service for applications. Based on ALOHA protocol, some variants have been designed and evaluated for enabling efficient real-time event notification / Dans cette thèse, nous nous intéressons à la problématique liée à la communication numérique sur courant porteur dans l’objectif de fournir une infrastructure de communication qui permet la surveillance et le contrôle de la distribution et de la consommation de l’énergie. Ce travail a été effectué dans le cadre du projet européen REMPLI (Real-time Energy Management via Power Line and Internet) et a produit la spécification REMPLI PLC (Power Line Communication). Pour fournir une meilleure performance de la communication et effectuer le transfert de données en temps réel, en utilisant les réseaux électriques de moyenne tension et de basse tension, les problèmes principaux qui sont le routage dynamique de paquets de données, la gestion de la qualité de service et la notification des événement en temps réel, ont été traités. Nous avons développé un protocole de routage efficace pour s’adapter au changement dynamique de topologie du réseau électrique. Les performances de REMPLI PLC sont évaluées en utilisant des approches de simulation couplée avec des approches analytiques. Il est prouvé que la majorité des besoins applicatifs peuvent être satisfaite par REMPLI PLC. Nous avons proposé et implanté un nouvel “ordonnançeur de traffic” fournissant différents niveaux de qualité de service pour les applications. Des variantes de protocole ALOHA ont été proposées et évaluées afin de vérifier que les propriétés temps réel requises sur les notifications d’événements sont respectées
72

Systèmes multi-agents, auto-organisation et contrôle par apprentissage constructiviste pour la modélisation et la régulation dans les systèmes coopératifs de trafic / Multi-agent systems, self-organization and constructivist learning for Cooperative Intelligent Transportation Systems modeling and control

Guériau, Maxime 12 December 2016 (has links)
Dans un proche futur, les véhicules connectés et autonomes remplaceront nos véhicules actuels, et il sera nécessaire de repenser intégralement la mobilité. Le conducteur, avec ses lacunes, sera de plus en plus assisté, et un jour détrôné par un système embarqué, capable d'agir plus rapidement, tout en ayant une représentation plus précise et fiable de son environnement de navigation. Pourtant, il reste encore du chemin à parcourir avant d'arriver à un tel stade de maturité : l'environnement du véhicule est complexe, imprévisible et conflictuel, car partagé avec d'autres acteurs de la mobilité. Ce travail de thèse vise à anticiper l'arrivée de ces nouveaux véhicules afin de proposer des comportements coopératifs au niveau des véhicules et de l'infrastructure tout en permettant un contrôle décentralisé de ce type de système complexe. Dans le cadre d'une approche multi-agents et d'une architecture distribuée, nous proposons d'abord une modélisation par couplage des dynamiques physique et communicationnelle, auxquelles s'ajoute une intégration de la fiabilité de l'information (confiance). L'étape suivante a été de développer un cadre de simulation propice à l'implémentation de nos modèles dans le cas des véhicules connectés. Nous introduisons un nouveau simulateur de trafic, construit comme une extension d'une plateforme existante, au sein duquel les flux d'informations entre les véhicules et avec l'infrastructure prennent la forme d'échanges de messages. Toutes les informations du système proviennent de capteurs, et toutes les entités, modélisées comme des agents, sont autonomes dans leur prise de décision. De nouvelles formes de contrôle sont désormais envisageables en utilisant des consignes transmises par l'infrastructure communicante. Le couplage des dynamiques assure la cohérence et l'inter-dépendance des différents modèles dans le simulateur. Nous montrons en simulation que, grâce à l'intégration d'informations supplémentaires via la communication, les véhicules, modélisés par un modèle microscopique multi-anticipatif bilatéral, sont capables de réduire l'effet de perturbations propagées au sein d'un flux. En termes de stratégies de contrôle, une des problématiques principales est de garantir une forme de contrôle qui s'adaptera aux différentes phases de déploiement des systèmes coopératifs. L'analogie avec des problèmes de l'IA (problème de cognition) nous a mené à traiter le problème de manière plus abstraite : comment permettre à un système autonome de contrôler son environnement. Les approches constructivistes, que nous avons retenues, modélisent le processus de cognition comme un phénomène de construction itératif. Pour le trafic coopératif, l'avantage est de disposer d'un système capable de générer ses propres stratégies, en utilisant ou non des connaissances expertes, et de les faire évoluer au cours du temps pour s'adapter aux véhicules composant le flux. Les résultats de notre approche sont présentés dans deux cadres de simulation. Le premier est un prototype visant à illustrer les comportements de bas niveau dans un environnement simplifié. Nous montrons que le modèle est capable dans ce cadre de combiner différentes représentations individuelles pour construire une représentation et de s'adapter à différents contextes en les recombinant dynamiquement. Puis, dans le cadre de simulation du trafic coopératif, les résultats laissent entrevoir le potentiel de notre approche dans des applications réelles / In a near future, connected and automated vehicles will progressively replace current vehicles, leading to deep changes in transportation. The driver will be soon assisted and then replaced by an embedded system, able to act quicker, relying on a more robust and precise representation of its surrounding environment. However, some steps are still needed before coming up with such a level of automation since the vehicle environment is complex and unpredictable. This work intends to anticipate the introduction of these new kinds of vehicles by providing cooperative behaviors at both infrastructure and vehicle levels, at the same time allowing a decentralized control of these systems. We propose a distributed modeling framework, using multi-agent systems, relying on the coupling of the system dynamics: information, communication and reliability (modeled through the concept of trust). The next step was to develop a simulation framework enabling the implementation of our models for connected vehicles applications. We present a new microscopic traffic simulator, built as an extension of an existing platform, and able to model information exchanges using messages between vehicles and with the infrastructure. All data are provided by sensors and all entities, modeled as agents, are autonomous regarding their decision process. Thanks to the simulator, it is possible to imagine new control strategies relying on recommendations disseminated by the connected infrastructure. Consistency and interdependence of the simulator components are ensured by the dynamic coupling. As for the vehicles’ dynamics, we propose a bilateral multi-anticipative model that integrates additional information from communications in the vehicle decision process. Results in simulation confirm that the model is able to reduce the propagation of perturbation through the flow, leading to a more homogeneous and stable traffic. One of the major issues regarding traffic control strategies will be to dynamically adapt the action policy to the several deployment stages of cooperative transportation systems. The similarities with Artificial Intelligence problems like cognition motivate a more abstract study: how to model an autonomous system able to control its environment. We choose the constructivist approaches, that propose to model the cognition process as an iterative building process. For cooperative traffic, the benefits lie in the ability of the system to generate its own strategies, relying or not on domain specific knowledge, and then make them evolve to be adapted to vehicles in the flow. The results from our approach are presented in two distinct simulation frameworks. The first one is an experimentation prototype aiming at highlighting the low-level behaviors in a simplified environment. In this context, we show that the model is able to combine efficiently several individual concurrent representations in order to build a high-level representation that can be adapted to several contexts. The second framework is the traffic simulator where the results lead to some insights about the potential of our approach for such realistic applications
73

Extraction d'informations synthétiques à partir de données séquentielles : application à l'évaluation de la qualité des rivières / Extraction of synthetic information from sequential data : application to river quality assessment

Fabregue, Mickael 26 November 2014 (has links)
L'exploration des bases de données temporelles à l'aide de méthodes de fouille de données adaptées a fait l'objet de nombreux travaux de recherche. Cependant le volume d'informations extraites est souvent important et la tâche d'analyse reste alors difficile. Dans cette thèse, nous présentons des méthodes pour synthétiser et filtrer l'information extraite. L'objectif est de restituer des résultats qui soient interprétables. Pour cela, nous avons exploité la notion de séquence partiellement ordonnée et nous proposons (1) un algorithme qui extrait l'ensemble des motifs partiellement ordonnés clos; (2) un post-traitement pour filtrer un ensemble de motifs d'intérêt et(3) une approche qui extrait un consensus comme alternative à l'extraction de motifs. Les méthodes proposées ont été testées sur des données hydrobiologiques issues du projet ANR Fresqueau et elles ont été implantées dans un logiciel de visualisation destiné aux hydrobiologistes pour l'analyse de la qualité des cours d'eau. / Exploring temporal databases with suitable data mining methods have been the subject of several studies. However, it often leads to an excessive volume of extracted information and the analysis is difficult for the user. We addressed this issue and we specically focused on methods that synthesize and filter extracted information. The objective is to provide interpretable results for humans. Thus, we relied on the notion of partially ordered sequence and we proposed (1) an algorithm that extracts the set of closed partially ordered patterns ; (2) a post-processing to filter some interesting patterns for the user and (3) an approach that extracts a partially ordered consensus as an alternative to pattern extraction. The proposed methods were applied for validation on hydrobiological data from the Fresqueau ANR project. In addition, they have been implemented in a visualization tool designed for hydrobiologists for water course quality analysis.
74

Προσωποποιημένη προβολή περιεχομένου του Διαδικτύου με τεχνικές προ-επεξεργασίας, αυτόματης κατηγοριοποίησης και αυτόματης εξαγωγής περίληψης

Πουλόπουλος, Βασίλειος 22 November 2007 (has links)
Σκοπός της Μεταπτυχιακής Εργασίας είναι η επέκταση και αναβάθμιση του μηχανισμού που είχε δημιουργηθεί στα πλαίσια της Διπλωματικής Εργασίας που εκπόνησα με τίτλο «Δημιουργία Πύλης Προσωποποιημένης Πρόσβασης σε Περιεχόμενο του WWW». Η παραπάνω Διπλωματική εργασία περιλάμβανε τη δημιουργία ενός μηχανισμού που ξεκινούσε με ανάκτηση πληροφορίας από το Διαδίκτυο (HTML σελίδες από news portals), εξαγωγή χρήσιμου κειμένου και προεπεξεργασία της πληροφορίας, αυτόματη κατηγοριοποίηση της πληροφορίας και τέλος παρουσίαση στον τελικό χρήστη με προσωποποίηση με στοιχεία που εντοπίζονταν στις επιλογές του χρήστη. Στην παραπάνω εργασία εξετάστηκαν διεξοδικά θέματα που είχαν να κάνουν με τον τρόπο προεπεξεργασίας της πληροφορίας καθώς και με τον τρόπο αυτόματης κατηγοριοποίησης ενώ υλοποιήθηκαν αλγόριθμοι προεπεξεργασίας πληροφορίας τεσσάρων σταδίων και αλγόριθμος αυτόματης κατηγοριοποίησης βασισμένος σε πρότυπες κατηγορίες. Τέλος υλοποιήθηκε portal το οποίο εκμεταλλευόμενο την επεξεργασία που έχει πραγματοποιηθεί στην πληροφορία παρουσιάζει το περιεχόμενο στους χρήστες προσωποποιημένο βάσει των επιλογών που αυτοί πραγματοποιούν. Σκοπός της μεταπτυχιακής εργασίας είναι η εξέταση περισσοτέρων αλγορίθμων για την πραγματοποίηση της παραπάνω διαδικασίας αλλά και η υλοποίησή τους προκειμένου να γίνει σύγκριση αλγορίθμων και παραγωγή ποιοτικότερου αποτελέσματος. Πιο συγκεκριμένα αναβαθμίζονται όλα τα στάδια λειτουργίας του μηχανισμού. Έτσι, το στάδιο λήψης πληροφορίας βασίζεται σε έναν απλό crawler λήψης HTML σελίδων από αγγλόφωνα news portals. Η διαδικασία βασίζεται στο γεγονός πως για κάθε σελίδα υπάρχουν RSS feeds. Διαβάζοντας τα τελευταία νέα που προκύπτουν από τις εγγραφές στα RSS feeds μπορούμε να εντοπίσουμε όλα τα URL που περιέχουν HTML σελίδες με τα άρθρα. Οι HTML σελίδες φιλτράρονται προκειμένου από αυτές να γίνει εξαγωγή μόνο του κειμένου και πιο αναλυτικά του χρήσιμου κειμένου ούτως ώστε το κείμενο που εξάγεται να αφορά αποκλειστικά άρθρα. Η τεχνική εξαγωγής χρήσιμου κειμένου βασίζεται στην τεχνική web clipping. Ένας parser, ελέγχει την HTML δομή προκειμένου να εντοπίσει τους κόμβους που περιέχουν μεγάλη ποσότητα κειμένου και βρίσκονται κοντά σε άλλους κόμβους που επίσης περιέχουν μεγάλες ποσότητες κειμένου. Στα εξαγόμενα άρθρα πραγματοποιείται προεπεξεργασία πέντε σταδίων με σκοπό να προκύψουν οι λέξεις κλειδιά που είναι αντιπροσωπευτικές του άρθρου. Πιο αναλυτικά, αφαιρούνται όλα τα σημεία στίξης, όλοι οι αριθμοί, μετατρέπονται όλα τα γράμματα σε πεζά, αφαιρούνται όλες οι λέξεις που έχουν λιγότερους από 4 χαρακτήρες, αφαιρούνται όλες οι κοινότυπες λέξεις και τέλος εφαρμόζονται αλγόριθμοι εύρεσης της ρίζας μίας λέξεις. Οι λέξεις κλειδιά που απομένουν είναι stemmed το οποίο σημαίνει πως από τις λέξεις διατηρείται μόνο η ρίζα. Από τις λέξεις κλειδιά ο μηχανισμός οδηγείται σε δύο διαφορετικά στάδια ανάλυσης. Στο πρώτο στάδιο υπάρχει μηχανισμός ο οποίος αναλαμβάνει να δημιουργήσει μία αντιπροσωπευτική περίληψη του κειμένου ενώ στο δεύτερο στάδιο πραγματοποιείται αυτόματη κατηγοριοποίηση του κειμένου βασισμένη σε πρότυπες κατηγορίες που έχουν δημιουργηθεί από επιλεγμένα άρθρα που συλλέγονται καθ’ όλη τη διάρκεια υλοποίησης του μηχανισμού. Η εξαγωγή περίληψης βασίζεται σε ευρεστικούς αλγορίθμους. Πιο συγκεκριμένα προσπαθούμε χρησιμοποιώντας λεξικολογική ανάλυση του κειμένου αλλά και γεγονότα για τις λέξεις του κειμένου αν δημιουργήσουμε βάρη για τις προτάσεις του κειμένου. Οι προτάσεις με τα μεγαλύτερη βάρη μετά το πέρας της διαδικασίας είναι αυτές που επιλέγονται για να διαμορφώσουν την περίληψη. Όπως θα δούμε και στη συνέχεια για κάθε άρθρο υπάρχει μία γενική περίληψη αλλά το σύστημα είναι σε θέση να δημιουργήσει προσωποποιημένες περιλήψεις για κάθε χρήστη. Η διαδικασία κατηγοριοποίησης βασίζεται στη συσχέτιση συνημίτονου συγκριτικά με τις πρότυπες κατηγορίες. Η κατηγοριοποίηση δεν τοποθετεί μία ταμπέλα σε κάθε άρθρο αλλά μας δίνει τα αποτελέσματα συσχέτισης του άρθρου με κάθε κατηγορία. Ο συνδυασμός των δύο παραπάνω σταδίων δίνει την πληροφορία που εμφανίζεται σε πρώτη φάση στο χρήστη που επισκέπτεται το προσωποποιημένο portal. Η προσωποποίηση στο portal βασίζεται στις επιλογές που κάνουν οι χρήστες, στο χρόνο που παραμένουν σε μία σελίδα αλλά και στις επιλογές που δεν πραγματοποιούν προκειμένου να δημιουργηθεί προφίλ χρήστη και να είναι εφικτό με την πάροδο του χρόνου να παρουσιάζεται στους χρήστες μόνο πληροφορία που μπορεί να τους ενδιαφέρει. / The scope of this MsC thesis is the extension and upgrade of the mechanism that was constructed during my undergraduate studies under my undergraduate thesis entitled “Construction of a Web Portal with Personalized Access to WWW content”. The aforementioned thesis included the construction of a mechanism that would begin with information retrieval from the WWW and would conclude to representation of information through a portal after applying useful text extraction, text pre-processing and text categorization techniques. The scope of the MsC thesis is to locate the problematic parts of the system and correct them with better algorithms and also include more modules on the complete mechanism. More precisely, all the modules are upgraded while more of them are constructed in every aspect of the mechanism. The information retrieval module is based on a simple crawler. The procedure is based on the fact that all the major news portals include RSS feeds. By locating the latest articles that are added to the RSS feeds we are able to locate all the URLs of the HTML pages that include articles. The crawler then visits every simple URL and downloads the HTML page. These pages are filtered by the useful text extraction mechanism in order to extract only the body of the article from the HTML page. This procedure is based on the web-clipping technique. An HTML parser analyzes the DOM model of HTML and locates the nodes (leafs) that include large amounts of text and are close to nodes with large amounts of text. These nodes are considered to include the useful text. In the extracted useful text we apply a 5 level preprocessing technique in order to extract the keywords of the article. More analytically, we remove the punctuation, the numbers, the words that are smaller than 4 letters, the stopwords and finally we apply a stemming algorithm in order to produce the root of the word. The keywords are utilized into two different interconnected levels. The first is the categorization subsystem and the second is the summarization subsystem. During the summarization stage the system constructs a summary of the article while the second stage tries to label the article. The labeling is not unique but the categorization applies multi-labeling techniques in order to detect the relation with each of the standard categories of the system. The summarization technique is based on heuristics. More specifically, we try, by utilizing language processing and facts that concern the keywords, to create a score for each of the sentences of the article. The more the score of a sentence, the more the probability of it to be included to the summary which consists of sentences of the text. The combination of the categorization and summarization provides the information that is shown to our web portal called perssonal. The personalization issue of the portal is based on the selections of the user, on the non-selections of the user, on the time that the user remains on an article, on the time that spends reading similar or identical articles. After a short period of time, the system is able to adopt on the user’s needs and is able to present articles that match the preferences of the user only.
75

Improving medium access for dynamic wireless sensor networks / Améliorations de l'accès au medium dans les réseaux dynamiques de capteurs sans fils

Papadopoulos, Georgios 28 September 2015 (has links)
L’Internet des objets amène des contraintes uniques et une immense variété d’applications. Ceci oblige à être capable d’établir des communications efficaces en énergie (et néanmoins à faible délai) au sein de réseaux fortement dynamiques. Nous nous sommes concentrés sur l'amélioration du contrôle d'accès au medium (MAC), afin d’optimiser la gestion des communications sans fils,principale source de consommation d'énergie dans ces réseaux. Cette thèse discute de l’auto adaptation de solutions MAC asynchrones et montre qu’une coopération localisée entre objets communicants permet de maintenir un partage efficace de la ressource de communication face à une forte dynamique (trafic, mobilité, pannes). Outre une réflexion menée sur les outils de simulation et d'expérimentation, nous avons conduit des campagnes d'évaluations complètes de nos contributions qui traitent tant des changements de trafic que de la mobilité dans les réseaux très denses. / The Internet of Things brings unique constraints and a huge variety of applications. This forces to be able to establish energy efficient communications (and never the less low-delay) within highly dynamic networks. We focused on improving the medium access control (MAC) to optimize the management of wireless communications, the main source of energy consumption in these networks. This thesis discusses the self-adaptation of asynchronous MAC solutions and shows that a localized cooperation between communicating objects can maintain an efficient sharing of the communication resource in highly dynamic networks (traffic, mobility, failures). In addition to a reasoning on the tools of simulation and experimentation, we conducted comprehensive evaluation campaigns of our contributions that address traffic changes and mobility in dense networks.
76

A chemistry-inspired middleware for flexible execution of service based applications / Un middleware inspiré par la chimie pour l'exécution et l'adaptation flexible d'applications basées sur des services

Wang, Chen 28 May 2013 (has links)
Les Architectures Orientées Services (SOA) sont adoptées aujourd'hui par de nombreuses entreprises car elles représentent une solution flexible pour la construction d'applications distribuées. Une Application Basée sur des Services (SBA) peut se définir comme un workflow qui coordonne de manière dynamique l'exécution distribuée d'un ensemble de services. Les services peuvent être sélectionnés et intégrés en temps réel en fonction de leur Qualité de Service (QoS), et la composition de services peut être dynamiquement modifiée pour réagir à des défaillances imprévues pendant l'exécution. Les besoins des architectures orientées services présentent des similarités avec la nature: dynamicité, évolutivité, auto-adaptabilité, etc. Ainsi, il n'est pas surprenant que les métaphores inspirées par la nature soient considérées comme des approches appropriées pour la modélisation de tels systèmes. Nous allons plus loin en utilisant le paradigme de programmation chimique comme base de construction d'un middleware. Dans cette thèse, nous présentons un middleware "chimique'' pour l'exécution dynamique et adaptative de SBA. La sélection, l'intégration, la coordination et l'adaptation de services sont modélisées comme une série de réactions chimiques. Tout d'abord, l'instantiation de workflow est exprimée par une série de réactions qui peuvent être effectuées de manière parallèle, distribuée et autonome. Ensuite, nous avons mis en oeuvre trois modèles de coordination pour exécuter une composition de service. Nous montrons que les trois modèles peuvent réagir aux défaillances de type panne franche. Enfin, nous avons évalué et comparé ces modèles au niveau d'efficacité et complexité sur deux workflows. Nous montrons ainsi dans cette thèse que le paradigme chimique possède les qualités nécessaires à l'introduction de la dynamicité et de l'adaptabilité dans la programmation basée sur les services. / With the advent of cloud computing and Software-as-a-Service, Service-Based Application (SBA) represents a new paradigm to build rapid, low-cost, interoperable and evolvable distributed applications. A new application is created by defining a workflow that coordinates a set of third-party Web services accessible over the Internet. In such distributed and loose coupling environment, the execution of SBA requires a high degree of flexibility. For example, suitable constituent services can be selected and integrated at runtime based on their Quality of Service (QoS); furthermore, the composition of service is required to be dynamically modified in response to unexpected runtime failures. In this context, the main objective of this dissertation is to design, to develop and to evaluate a service middleware for flexible execution of SBA by using chemical programming model. Using chemical metaphor, the service-based systems are modeled as distributed, selforganized and self-adaptive biochemical systems. Service discovery, selection, coordination and adaptation are expressed as a series of pervasive chemical reactions in the middleware, which are performed in a distributed, concurrent and autonomous way. Additionally, on the way to build flexible service based systems, we do not restrict our research only in investigating chemical-based solutions. In this context, the second objective of this thesis is to find out generic solutions, such as models and algorithms, to respond to some of the most challenging problems in flexible execution of SBAs. I have proposed a two-phase online prediction approach that is able to accurately make decisions to proactively execute adaptation plan before the failures actually occur.
77

Fault tolerance for stream programs on parallel platforms

Sanz-Marco, Vicent January 2015 (has links)
A distributed system is defined as a collection of autonomous computers connected by a network, and with the appropriate distributed software for the system to be seen by users as a single entity capable of providing computing facilities. Distributed systems with centralised control have a distinguished control node, called leader node. The main role of a leader node is to distribute and manage shared resources in a resource-efficient manner. A distributed system with centralised control can use stream processing networks for communication. In a stream processing system, applications typically act as continuous queries, ingesting data continuously, analyzing and correlating the data, and generating a stream of results. Fault tolerance is the ability of a system to process the information, even if it happens any failure or anomaly in the system. Fault tolerance has become an important requirement for distributed systems, due to the possibility of failure has currently risen to the increase in number of nodes and the runtime of applications in distributed system. Therefore, to resolve this problem, it is important to add fault tolerance mechanisms order to provide the internal capacity to preserve the execution of the tasks despite the occurrence of faults. If the leader on a centralised control system fails, it is necessary to elect a new leader. While leader election has received a lot of attention in message-passing systems, very few solutions have been proposed for shared memory systems, as we propose. In addition, rollback-recovery strategies are important fault tolerance mechanisms for distributed systems, since that it is based on storing information into a stable storage in failure-free state and when a failure affects a node, the system uses the information stored to recover the state of the node before the failure appears. In this thesis, we are focused on creating two fault tolerance mechanisms for distributed systems with centralised control that uses stream processing for communication. These two mechanism created are leader election and log-based rollback-recovery, implemented using LPEL. The leader election method proposed is based on an atomic Compare-And-Swap (CAS) instruction, which is directly available on many processors. Our leader election method works with idle nodes, meaning that only the non-busy nodes compete to become the new leader while the busy nodes can continue with their tasks and later update their leader reference. Furthermore, this leader election method has short completion time and low space complexity. The log-based rollback-recovery method proposed for distributed systems with stream processing networks is a novel approach that is free from domino effect and does not generate orphan messages accomplishing the always-no-orphans consistency condition. Additionally, this approach has lower overhead impact into the system compared to other approaches, and it is a mechanism that provides scalability, because it is insensitive to the number of nodes in the system.
78

An approach for Self-healing Transactional Composite Services / Une approche auto-corrective pour des services composites transactionnels

Angarita Arocha, Rafael Enrique 11 December 2015 (has links)
Dans ce mémoire de thèse, nous présentons une approche d’exécution auto-corrective (self-healing) de services composites, basée sur des agents capables de prendre, de manière autonome, des décisions pendant l’exécution des services, à partir de leurs connaissances. Dans un premier temps, nous définissons, de manière formelle, en utilisant des réseaux de Petri colorés, les services composites, leur processus d’exécution, et leurs mécanismes de tolérance aux pannes. Notre approche offre plusieurs mécanismes de reprise sur panne alternatifs : la récupération en arrière avec compensation ; la récupération en avant avec ré-exécution et/ou remplacement de service ; et le point de contrôle (checkpointing), à partir duquel il est possible de reprendre l’exécution du service ultérieurement. Dans notre approche, les services sont contrôlés par des agents, i.e. des composants dont le rôle est de s’assurer que l’exécution des services soit tolérante aux pannes. Notre approche est également étendue afin de permettre un auto-recouvrement. Dans cette extension, les agents disposent d’une base de connaissances contenant à la fois des informations sur eux-mêmes et sur le contexte d’exécution. Pour prendre des décisions concernant la sélection des stratégies de récupération, les agents font des déductions en fonction des informations qu’ils ont sur l’ensemble du service composite, sur eux-mêmes, tout en prenant en compte également ce qui est attendu et ce qui se passe réellement lors de l’exécution. Finalement, nous illustrons notre approche par une évaluation expérimentale en utilisant un cas d’étude. / In this thesis, we present a self-healing approach for composite services supported by knowledge-based agents capable of making decisions at runtime. First, we introduce our formal definition of composite services, their execution processes, and their fault tolerance mechanisms using Colored Petri nets. We implement the following recovery mechanisms: backward recovery through compensation; forward recovery through service retry and service replacement; and checkpointing as an alternative strategy. We introduce the concept of Service Agents, which are software components in charge of component services and their fault tolerance execution control. We then extend our approach with self-healing capabilities. In this self-healing extension, Service Agents are knowledge-based agents; that is, they are self- and context-aware. To make decisions about the selection of recovery and proactive fault tolerance strategies, Service Agents make deductions based on the information they have about the whole composite service, about themselves, and about what is expected and what it is really happening at runtime. Finally, we illustrate our approach and evaluate it experimentally using a case study.
79

Chaînes de Markov Incomplètement spécifiées : analyse par comparaison stochastique et application à l'évaluation de performance des réseaux / Markov chains Incompletely Specified : Stochastic comparison analysis and application to networks performance evaluation

Ait Salaht, Farah 03 October 2014 (has links)
Dans cette thèse, nous étudions les problèmes d'incertitudes dans les modèles probabilistes et tentons de déterminer leur impact sur l'analyse de performances et le dimensionnement des systèmes. Nous considérons deux aspects du problème d'imprécision. Le premier, consiste à étudier des chaînes en temps discret dont les probabilités ou taux de transition ne sont pas parfaitement connus. Nous construisons de nouveaux algorithmes de calcul de bornes par éléments sur les vecteurs de distribution stationnaires de chaînes partiellement spécifiées. Ces algorithmes permettent de déterminer des bornes par élément à chaque étape de calcul. Le second aspect étudié concerne le problème de mesures de traces de trafic réelles dans les réseaux. Souvent très volumineuses, la modélisation des traces de trafic est généralement impossible à effectuer de façon suffisamment précise et l'adéquation avec une loi de probabilité connue n'est pas assez réaliste. Utilisant une description par histogramme du trafic, nous proposons d'appliquer une nouvelle méthode d’évaluation de performance des réseaux. Fondée sur la comparaison stochastique pour construire des bornes optimales de supports réduits des histogrammes de trafics et sur la notion de monotonie stochastique des éléments de réseau, cette méthode permet de définir, de manière très pertinente, des garanties sur les mesures de performance. Nous obtenons en effet des bornes stochastiques supérieures et inférieures sur la longueur du tampon, les pertes, etc. L'intérêt et l'impact de notre méthode sont présentés sur diverses applications : éléments de réseau, AQM, réseaux de files d'attente, file avec processus d'arrivée non-stationnaire, etc / This thesis is devoted to the uncertainty in probabilistic models, how it impacts their analysis and how to apply these methods to performance analysis and network dimensioning. We consider two aspects of the uncertainty. The first consists to study a partially specified Markov chains. The missing of some transitions in the exact system because of its complexity can be solved by constructing bounding systems where worst-case transitions are defined to obtain an upper or a lower bound on the performance measures. We propose to develop new algorithms which give element-wise bounds of the steady-state distribution for the partially specified Markov chain. These algorithms are faster than the existing ones and allow us to compute element-wise bounds at each iteration.The second aspect studied concerns the problem of the measurements of real traffic trace in networks. Exact analysis of queueing networks under real traffic becomes quickly intractable due to the state explosion. Assuming the stationarity of flows, we propose to apply the stochastic comparison method to derive performance measure bounds under histogram-based traffics. We apply an algorithm based on dynamic programming to derive optimal bounding traffic histograms on reduced state spaces. Using the stochastic bound histograms and the monotonicity of the networking elements, we show how we can obtain, in a very efficient manner, guarantees on performance measures. We indeed obtain stochastic upper and lower bounds on buffer occupancy, losses, etc. The interest and the impact of our method are shown on various applications: elements of networks, AQM, queueing networks and queue with non-stationary arrival process
80

Influence in combinatorial and collective decision-making : by the example of UN security council voting / Phénomènes d'influence dans des situations de prise de décision collective : l'exemple des votes au conseil de sécurité del'ONU

Luo, Hang 05 June 2015 (has links)
L'objet de cette thèse (bi-disciplinaire, en informatique et sciences politiques) est l'étude de phénomènes d'influence dans des situations de prise de décision collective, impliquant plusieurs sujets interdépendants, ce qui amène à considérer des domaines dits combinatoires. L'importance de ces phénomènes d'influence est observée depuis de nombreuses années dans différents domaines (dont les sciences politiques), mais leur modélisation reste peu développée jusqu'à présent. En se basant sur un modèle existant intégrant la prise en compte de l'influence à un langage de représentation des préférences ordinal, le premier travail de cette thèse a été d'identifier des schémas d'influences pouvant survenir, entre sujets et/ou agents différents. Une deuxième contribution de cette thèse est la prise en compte de domaines partiels (permettant de représenter contraintes exogènes et abstentions, par exemple), une nécessité dans les situations envisagées. De même, différents modèles visant à capturer l'influence simultanée de plusieurs agents sont présentés et discutés. Dans un deuxième temps, l'exemple des votes au conseil de sécurité del'ONU est utilisé: l'occurence de ces schémas est envisagée à l'aide d'une analyse qualitative de différentes séquences de votes (sciences politiques), et de la recherche d'indices de schémas similaires dans les données de vote accessibles. Enfin, le modèle est mobilisé dans le cadre d'une simulation multi-agents (réalisée en Netlogo), et visant à tester différentes réformes envisagées du conseil de sécurité. / Influence study in combinatorial and collective decision-making, is an interdisciplinary research area combining computer science and social science, especially artificial intelligence and collective decision-making. Influence has long been studied, for instance in political science, but in the context of combinatorial and collective decision-making, this calls for a study of how influences works among multi-agents and multi-issues, how influences and decision-making are interleaved, and how the structures of influence among agents and issues produce an effect. In the thesis, we mainly performed three aspects of work:Firstly, build complex models of influence based on preference representation languages and social influence models, proposed a series of new patterns of influence to better describe the complex influences in real-world situation, and discussed a series of theoretical problems of influencing and influenced structure, influence from more than one origins, and influence with abstentions and constraints. We then test the models of influence from an exemplary perspective for interdisciplinary study, from both social science and computer science paradigms, by both qualitative case studies approach and quantitative matching algorithms approach, to provide an evaluation for the models of influence.Finally, we use the models of influence to perform agent-based simulations, by the example UN Security Council voting. We design those experiments from both social and computer science perspectives, implement it in Netlogo, and discuss the interleaved effects between new cases of influence and different SC reform schemes.

Page generated in 0.0306 seconds