• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 180
  • 77
  • 22
  • Tagged with
  • 274
  • 121
  • 85
  • 85
  • 53
  • 48
  • 42
  • 42
  • 40
  • 39
  • 36
  • 35
  • 34
  • 34
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Lattice QCD Optimization and Polytopic Representations of Distributed Memory / Optimisation de LatticeQCD et représentations polytopiques de la mémoire distribuée

Kruse, Michael 26 September 2014 (has links)
La physique actuelle cherche, à côté des expériences, à vérifier et déduire les lois de la nature en simulant les modèles physiques sur d'énormes ordinateurs. Cette thèse explore comment accélérer ces simulations en améliorant les programmes qui les font tourner. L'application de référence est la chromodynamique quantique sur réseaux (LQCD pour "Lattice Quantum Chromodynamics"), une branche de la théorie quantique des champs, tournant sur le plus récent des supercalculateurs d'IBM, le Blue Gene/Q.Dans un premier temps, on améliore le code source de tmLQCD, un programme de LQCD, dont l'opération clef pour la performance est un stencil à 8 points en dimension 4. On étudie deux stratégies d'optimisation différentes: la première se donne comme priorité d'améliorer la localité spatiale et temporelle; la seconde utilise le préchargement matériel de flux de données. Sur le Blue Gene/Q, la première stratégie permet d'atteindre 20% de la performance crête théorique. La seconde, avec jusqu'à 54% de la performance crête est bien meilleure mais utilise 4 fois plus de mémoire car elle stocke les résultats dans l'ordre où les utilise le stencil suivant, ce qui requiert de dupliquer des données. Les autres techniques exploitées sont la programmation directe du système de communication (appelé MUSPI chez IBM), un mécanisme allégé de gestion des threads, le préchargement explicite de certaines données (à l'aide de l'instruction dcbt) et la vectorisation manuelle (en utilisant les instructions SIMD de largeur 4; appelé QPX par IBM). Le préchargement de liste et la mémoire transactionnelle - deux nouveaux mécanismes du Blue Gene/Q - n'améliorent pas les performances.Dans un second temps, on présente la réalisation d'une extension appelé Molly au compilateur LLVM, pour optimiser automatiquement le programme, et plus précisément la distribution des données et des calculs entre les nœuds d'un cluster tel que le Blue Gene/Q. Molly représente les tableaux par des polyèdres entiers et utilise l'extension existante Polly qui représente les boucles et les instructions par des polyèdres. Partant de la spécification de la distribution des données et de l'emplacement des calculs, Molly ajoute le code qui gère les flots de données entre les nœuds de calcul. Molly peut aussi permuter l'ordre des données en mémoire. La tâche principale de Molly est d'agréger les données dans des ensembles qui sont envoyés dans le même tampon au même destinataire, pour éviter l'overhead des transferts trop petits. Nous présentons un algorithme qui minimise le nombre de transferts pour des boucles non-paramétrées, basé sur les antichaînes du flot des données. De plus, nous implémentons une heuristique qui tient compte de la manière dont le programmeur a écrit son code. Les primitives de communication asynchrone sont insérées juste après que les données soient disponibles - respectivement juste avant qu'elles soient utilisées. Une bibliothèque runtime implémente ces primitives en utilisant MPI. Molly gère la distribution pour tout code représentable dans le modèle polyédrique, mais fonctionne mieux pour du code à stencil tel LQCD. Compilé avec Molly, le code LQCD atteint 2,5% de la performance crête. L'écart de performance est surtout dû au fait que les autres optimisations ne sont pas faites, par exemple la vectorisation. Les versions futures de Molly pourraient aussi gérer efficacement les codes non à stencil et exploiter les autres optimisations qui ont rendu le code LQCD optimisé à la main si rapide. / Motivated by modern day physics which in addition to experiments also tries to verify and deduce laws of nature by simulating the state-of-the-art physical models using oversized computers, this thesis explores means of accelerating such simulations by improving the simulation programs they run. The primary focus is Lattice Quantum Chromodynamics (QCD), a branch of quantum field theory, running on IBM newest supercomputer, the Blue Gene/Q.In a first approach, the source code of tmLQCD, a Lattice QCD program, is improved to run faster on the Blue Gene machine. Its most performance-relevant operation is a 8-point stencil in 4 dimensional space. Two different optimization strategies are perused: One with the priority of improving spatial and temporal locality, and a second making use of the hardware's data stream prefetcher. On Blue Gene/Q the first strategy reaches up to 20% of the peak theoretical floating point operation performance of that machine. The second strategy with up to 54% of peak is much faster at the cost of using 4 times more memory by storing the data in the order they will be used in the next stencil operation, duplicating data where necessary.Other techniques exploited are direct programming of the messaging hardware (called MUSPI by IBM), a low-overhead work distribution mechanism for threads, explicit data prefetching of data (using dcbt instruction) and manual vectorization (using QPX; width-4 SIMD instructions). Hardware-based list prefetching and transactional memory - both distinct and novel features of the Blue Gene/Q system -- did not improve the program's performance.The second approach is the newly-written LLVM compiler extension called Molly which optimizes the program itself, specifically the distribution of data and work between the nodes of a cluster machine such as Blue Gene/Q. Molly represents arrays using integer polyhedra and uses another already existing compiler extension Polly which represents statements and loops using polyhedra. When Molly knows how data is distributed among the nodes and where statements are executed, it adds code that manages the data flow between the nodes. Molly can also permute the order of data in memory. Molly's main task is to cluster data into sets that are sent to the same target into the same buffer because single transfers involve a massive overhead. We present an algorithm that minimizes the number of transfers for unparametrized loops using anti-chains of data flows. In addition, we implement a heuristic that takes into account how the programmer wrote the code. Asynchronous communication primitives are inserted right after the data is available respectively just before it is used. A runtime library implements these primitives using MPI.Molly manages to distribute any code that is representable by the polyhedral model, but does so best for stencils codes such as Lattice QCD. Compiled using Molly, the Lattice QCD stencil reaches 2.5% of the theoretical peak performance. The performance gap is mostly because all the other optimizations are missing, such as vectorization. Future versions of Molly may also effectively handle non-stencil codes and use make use of all the optimizations that make the manually optimized Lattice QCD stencil so fast.
132

Fusion distribuée de données échangées dans un réseau de véhicules / Distributed data fusion in VANETS

El Zoghby, Nicole 19 February 2014 (has links)
Cette thèse porte sur l'étude des techniques de fusion de données réparties et incertaines au sein d’un réseau de véhicules pour gérer la confiance dans les autres véhicules ou dans les données reçues. L'algorithme de fusion distribuée proposé est basé sur les fonctions de croyance et est appliqué par chaque nœud à la réception des messages. In se base sur la gestion d'une connaissance directe, locale à chaque nœud et d'une connaissance distribuée diffusée dans le réseau. Cette dernière résulte de la fusion des messages par un opérateur adapté prenant en compte les cycles éventuels et limitant l'effet de "data incest". Chaque nœud peut être autonome pour estimer la confiance mais la coopération entre les véhicules permet d'améliorer et de rendre plus robuste cette estimation. L'algorithme peut être adapté au cas d'étude en considérant un ou plusieurs éléments d'observation et en prenant en compte l'obsolescence des données. Lorsqu'il y a plusieurs éléments d'observation, se pose le problème de l'association de données nécessaire avant l'étape de combinaison. Un nouvel algorithme d'association a été formalisé dans le cadre des fonctions de croyance. Il a été démontré que ce problème est équivalent à un problème d'affectation linéaire, qui peut être résolu en temps polynomial. Cette solution est à la fois optimale et beaucoup plus efficace que d'autres approches développées dans ce formalisme. La gestion de la confiance dans les nœuds et dans les données échangées ont été illustrées par la mise en œuvre de deux applications : la détection de faux nœuds dans une attaque Sybil et la gestion de la confiance dans les cartes dynamiques pour la perception augmentée. / This thesis focuses on the study of fusion techniques for distributed and uncertain data in a vehicle network in order to manage the confidence in other vehicles or in received data. The proposed distributed fusion algorithm is based on belief functions and is applied by each node when it receives messages. It is based on the management of direct knowledge, local for each node, and the management of a distributed knowledge broadcasted over the network. The distributed knowledge is the result of the fusion of messages by a suitable operator taking into account the possible cycles and limiting the effect of "data incest". Each node can be autonomous to estimate confidence but cooperation between vehicles can improve and make more robust this estimation. The algorithm can be adapted to the case of study by considering one or more elements of observation and taking into account the data obsolescence. When there are multiple elements of observation, the data association is necessary before the combination step. A new association algorithm was formalized in the framework of belief functions.It has been shown that this problem is equivalent to a linear assignment problem which can be solved in polynomial time. This solution is both optimal and more effective than other approaches developed in this formalism. The confidence management in the nodes and in the received data were illustrated by the implementation of two applications : the detection of false nodes in a Sybil attack and the distributed dynamic maps for enhanced perception
133

Structure d’information, stratégies de communication et application aux réseaux distribués / Information structure, communication strategies and application to distributed networks

Larrousse, Benjamin 11 December 2014 (has links)
Cette thèse étudie des problèmes d’optimisation distribuée avec différentes structures d’observationset leurs applications aux réseaux sans fil et aux problèmes de Smart Grids. Spécifiquement,une structure d’observation asymétrique entre deux agents est considérée, où un premieragent a connaissance complète à propos de la réalisation d’un état aléatoire, et l’autre agent neconnaît rien à propos de cet état. Dans ce contexte, la question est de savoir comment transmettrede l’information depuis le premier agent vers le second agent dans le but d’utiliser de manièreoptimale les ressources de communication. Plusieurs modèles sont étudiés dans cette thèse. Pourtous, un élément commun est le fait que la source d’information doit être encodée de manièreappropriée pour optimiser l’utilisation de la configuration du système. Un premier modèle estétudié où aucun canal de communication n’est disponible entre les agents et ils ont une fonctiond’utilité commune. Cependant, le seul moyen de communiquer est via les actions choisiespar les agents. Comme les actions ont une influence sur le paiement, l’agent informé encode saconnaissance à propos de l’état dans ses actions, qui seront observées de manière imparfaite parle second agent. Ce dernier décodera l’information et choisira ses actions dans le but de maximiserla fonction objectif commune. Nous utilisons des outils de théorie de l’information pourcaractériser ce compromis optimal par une contrainte d’information, et appliquons ce scénario àun problème de contrôle de puissance pour un canal à interférence. Notre nouvelle stratégie (lecontrôle de puissance codé) donne des gains très prometteurs comparés aux approches classiques.Dans une seconde partie, nous considérons qu’il existe un canal dédié de communication, c’està-dire que les actions de l’agent informé n’ont pas d’influence sur le paiement et sont seulementutiles pour la transmission d’information. De plus, les agents sont supposés avoir des intérêtsdivergents, si bien que l’agent informé n’a pas nécessairement d’incitation à envoyer tout sonsavoir à l’agent non informé. La théorie des jeux et les jeux de « Cheap talk » en particulier sontle bon cadre pour analyser ce genre de problème. Nous caractérisons le schéma de signal sur lequelles agents se seront mis d’accord. Ce schéma amènera à un équilibre de Nash, est donc optimiserala façon dont la communication est faite. Ce modèle est d’un intérêt particulier pour les réseauxde véhicules électriques où un véhicule électrique doit envoyer son besoin en terme de puissancede charge à un aggrégateur qui choisira un niveau de charge effectif pour le véhicule électrique.Ce dernier ne se souciera que de son besoin, alors que l’aggrégateur se soucie également de l’étatdu réseau. Ce modèle aide à optimiser la façon dont le réseau est utilisé.Enfin, nous considérons un modèle avec plus de deux agents, où le but principal est pourtous les agents de retrouver l’observation parfaite des actions passées de tous les agents. Ceci estd’un intérêt très particulier d’un point de vue de la théorie des jeux pour caractériser les utilitésespérées de long terme des agents. Dans ce modèle, nous ajoutons un encodeur qui observeparfaitement toutes les actions passées et aidera les agents à obtenir l’observation parfaite. Enfait, ceci sera possible si la bonne contrainte d’information est satisfaite. Nous caractérisonsdonc cette dernière, en utilisant un schéma de codage hybride combinant des outils classiques dethéorie de l’information ainsi que des outils de la théorie des graphes / This thesis studies distributed optimization problems with different observation structuresand application to wireless network and Smart Grids problems. Specifically, an asymmetricobservation structure between two agents is considered, where a first agent has full knowledgeabout the realization of a random state, and the other agent does not know anything about thisstate. In this context, the question is how to transmit information from the first agent to thesecond agent in order to use in an optimal way the communication resources. Several modelsare studied in this thesis. For all of them, a common element is that the information source hasto be encoded in an appropriate manner to optimize the use of the system’s configuration. Afirst model is studied where no dedicated channel for communication is available between agentsand they have the same objective function. Therefore, the only way communication is possible isthrough the actions chosen by agents. As actions are payoff relevant, the first agent has to findthe optimal tradeoff between transmission of information and payoff maximization. The informedagent encodes his knowledge about the state into his actions, which will be imperfectly observedby the second agent. The latter will decode the information and choose his actions in order tomaximize the common objective function. We use tools from information theory to characterizethis optimal tradeoff by an information constraint, and apply this scenario to a power controlproblem in an interference channel setting. Our new strategy (the coded power control ) givessome promising gains compare to classical approaches.In a second part, we consider that there exists a dedicated channel for communication, that isto say the actions of the informed agent are not payoff relevant and are only useful for transmissionof information. Furthermore, agents are supposed to have diverging interests, so that the informedagent does not necessarily have an incentive to send all his knowledge to the uninformed agent.Game theory and Cheap talk game in particular appears to be the right framework to analyzethis problem. We characterize the signal scheme that agents will agree on. This scheme willlead to a Nash Equilibrium, thus will optimize the way communication is done. This model is ofparticular interest for electrical vehicles networks where an electrical vehicle has to send his needin term of power to an aggregator which will choose an effective charging level for the electricalvehicle. The latter only cares about his need in term of power whereas the aggregator also takesinto account the network status. The considered model help to optimize the way the network isused.We finally consider a model with more than two agents, where the main goal is for all agentsto retrieve perfect observations of all past actions of all agents. This is of particular interest ina game theory point of view to characterize the long term expected utilities of the agents. Inthis model, we add an encoder who perfectly oberves all past actions and will help agents tohave perfect monitoring. In fact, this is possible if the right information constraint is satisfied.We thus characterized the latter, using a hybrid coding scheme combining classical informationtheoretic scheme and tools from graph theory.
134

Hierarchical distributed predictive control. Application to the control of slab reheating furnace in the steel industry / Commande prédictive hiérarchisée. Application à la commande de fours de réchauffage sidérurgiques

Nguyen, Xuan Manh 18 May 2015 (has links)
Dans l'industrie sidérurgique, les fours de réchauffage sont les plus grands consommateurs d'énergie après les hauts fourneaux. Réduire leur consommation énergétique est donc la préoccupation majeure de la commande des fours. Dans un four de réchauffage, des brames d'acier sont chauffées en traversant successivement plusieurs zones, de la température ambiante à un profil de température homogène de 1250 °C en sortie du four, avant d’être laminées dans les laminoirs à chaud. La température de brames est contrôlée par une structure de commande hiérarchisée à deux niveaux (niveau 1 et 2).L'objectif de ces travaux est d'améliorer la performance du chauffage et donc de réduire la consommation énergétique du four via une stratégie de commande prédictive distribuée hiérarchisée sur les deux niveaux de commande. Une approche de commande prédictive distribuée est tout d’abord développée pour le niveau 1 afin de suivre les consignes de température de zone, prenant en compte les couplages entre les zones et induisant une moindre complexité d’implantation par rapport à une approche centralisée. L’implantation industrielle a permis une amélioration significative de la précision du suivi de température et une réduction de la consommation d'énergie de 3%. Une deuxième étape propose l’élaboration de la commande prédictive hiérarchisée du niveau 2 afin, à partir de la consigne de température de brame, de déterminer les consignes de température optimales des zones en se fondant sur un modèle de transfert thermique du four. Les résultats de simulation, comparés aux données industrielles, montrent une réduction de la consommation énergétique de 5% et une meilleure qualité de chauffage des brames. L’approche précédente est enfin étendue pour prendre en compte et optimiser le cadencement des brames afin d’augmenter la productivité du four. La simulation montre une augmentation potentielle de productivité du four de 15 tonnes par heure tout en améliorant la qualité de chauffage des brames. / In steel industry, reheating furnaces are the biggest energy consumers after blast furnaces. As a result, reduction of energy consumption is the major concern of furnace control. In a walking-beam slab reheating furnace, steel slabs are heated by moving through successive zones from ambient temperature to a homogenous temperature profile of 1250°C at the furnace exit, to be rolled subsequently in the hot rolling mills. Temperature of slabs is controlled mainly by a two-level hierarchical structure, so called level 1 and level 2.The aim of this thesis is to improve the heating performance and consequently to reduce the energy consumption of the furnace by using hierarchical distributed model predictive control (MPC) strategy for both levels. In a first step, distributed model predictive controllers are developed for the level 1 in order to track zone temperature set-points. The distributed feature of the control law enables to consider coupling effects between zones while reducing the computation complexity compared to a complete centralized approach. The industrial results showed significant improvement on temperature tracking accuracy and an energy consumption reduction of 3%. In a second step, the hierarchical MPC is constructed for the level 2 in order to determine the optimal zones temperature setpoint from the slab temperature setpoint, based on a numerical heat transfer model of the furnace. The simulation results obtained with this strategy compared against industrial data show an energy consumption reduction of 5% and a better heating quality. The previous structure is finally extended to take into account and optimize the scheduling of the slabs within the MPC level 2 in order to increase productivity of the considered furnace. The simulation shows a potential increase of productivity of the furnace of 15 tons per hour while improving the slab heating quality.
135

Évaluation de performance d’architecture de contrôle-commande en réseau dans un contexte incertain d’avant-vente / Performance assessment of Networked Control System (NCS) during uncertain pre-sales context

Ndiaye, Moulaye A.A. 16 March 2017 (has links)
Ce mémoire, réalisé dans le cadre d’une thèse sous convention CIFRE avec la société Schneider-Electric et l’Université de Lorraine à travers le laboratoire du CRAN, porte sur l’évaluation des performances temporelles des architectures de contrôle-commande distribuées sur un réseau de communication. Le besoin industriel s’exprime sous la forme d’un outil d’aide au dimensionnement des architectures en phase d’avant-vente caractérisée par une connaissance partielle de ces dernières. Le problème scientifique sous-jacent est relatif à la génération automatique des modèles servant de support à l’évaluation. En effet, l’évaluation des performances doit être réalisée pour un ensemble important d’architectures, dans un temps court, difficilement compatible avec une construction manuelle des modèles. Notre contribution porte sur la définition formelle, à l’aide de réseaux de Petri colorés et temporisés, d’un modèle « constructeur » d’architectures embarquant des mécanismes de configuration, d’instanciation et de paramétrage. Plusieurs algorithmes sont proposés pour, d’une part, construire automatiquement le modèle d’une architecture donnée, à partir d’une description formelle de sa topologie et d’une librairie de modèles d’équipements de contrôle-commande, et, d’autre part, pour générer les observateurs requis à partir d’une description formelle des performances à évaluer. Ces différents algorithmes ont été implantés dans un outil interfacé, d’une part avec l’outil Schneider de description des architectures, et, d’autre part avec le simulateur de l’outil CPN Tools qui fournit une estimation des performances via des simulations de Monte-Carlo. L’intérêt de cette approche a été illustrée sur la base de quelques architectures types fournies par la société Schneider-Electric / This PhD dissertation, supported by CIFRE convention between the company Schneider-Electric and the University of Lorraine through the CRAN laboratory, deals with the assessment of temporal performances for a networked distributed control system. The industrial need was the development of a quotation and sizing tool of industrial control architecture during pre-sales stage. This stage is characterized by limited information about the process and the customers’ needs. The underlying scientific problematic was the ability to generate automatically models serving as support for the evaluation. In fact, performance assessment is realized for a wide range of architecture during a small amount of time, which is not compliant with a manual definition of the models. Our contribution is mainly based on a formal definition of a “builder” model with Colored and Timed Petri Nets which embeds mechanisms for configuration, instantiation and parameters setting of the architecture models. Several algorithms have been proposed for firstly build automatically the architecture Petri Nets model from a formal description of the topology and from a component model library and, secondly, for generating performance observers. Theses algorithms have been implemented on a tool gathering a user interface developed by Schneider –Electric and the Petri Nets simulator called CPN Tools which provides the performance assessment through Monte-Carlo simulation. The added value of this approach has been illustrated through case studies provided by Schneider-Electric
136

A Machine-Checked Proof of Correctness of Pastry / Une preuve certifiée par la machine de la correction du protocole Pastry

Azmy, Noran 24 November 2016 (has links)
Les réseaux pair-à-pair (P2P) constituent un modèle de plus en plus populaire pour la programmation d’applications Internet car ils favorisent la décentralisation, le passage à l’échelle, la tolérance aux pannes et l’auto-organisation. à la différence du modèle traditionnel client-serveur, un réseau P2P est un système réparti décentralisé dans lequel tous les nœuds interagissent directement entre eux et jouent à la fois les rôles de fournisseur et d’utilisateur de services et de ressources. Une table de hachage distribuée (DHT) est réalisée par un réseauP2P et offre les mêmes services qu’une table de hachage classique, hormis le fait que les différents couples (clef, valeur) sont stockés dans différents nœuds du réseau. La fonction principale d’une DHT est la recherche d’une valeur associée à une clef donnée. Parmi les protocoles réalisant une DHT on peut nommer Chord, Pastry, Kademlia et Tapestry. Ces protocoles promettent de garantir certaines propriétés de correction et de performance ; or, les tentatives de démontrer formellement de telles propriétés se heurtent invariablement à des cas limites dans lesquels certaines propriétés sont violées. Tian-xiang Lu a ainsi décrit des problèmes de correction dans des versions publiées de Pastry. Il a conçu un modèle, appelé LuPastry, pour lequel il a fourni une preuve partielle, mécanisée dans l’assistant à la preuve TLA+ Proof System, démontrant que les messages de recherche de clef sont acheminés au bon nœud du réseau dans le cas sans départ de nœuds. En analysant la preuve de Lu j’ai découvert qu’elle contenait beaucoup d’hypothèses pour lesquelles aucune preuve n’avait été fournie, et j’ai pu trouver des contre-exemples à plusieurs de ces hypothèses. La présente thèse apporte trois contributions. Premièrement, je présente LuPastry+, une spécification TLA+ revue de LuPastry. Au-delà des corrections nécessaires d’erreurs, LuPastry+ améliore LuPastry en introduisant de nouveaux opérateurs et définitions, conduisant à une spécification plus modulaire et isolant la complexité de raisonnement à des parties circonscrites de la preuve, contribuant ainsi à automatiser davantage la preuve. Deuxièmement, je présente une preuve TLA+ complète de l’acheminement correct dans LuPastry+. Enfin, je démontre que l’étape finale du processus d’intégration de nœuds dans LuPastry (et LuPastry+) n’est pas nécessaire pour garantir la cohérence du protocole. Concrètement, j’exhibe une nouvelle spécification avec un processus simplifié d’intégration de nœuds, que j’appelle Simplified LuPastry+, et je démontre qu’elle garantit le bon acheminement de messages de recherche de clefs. La preuve de correction pour Simplified LuPastry+ est obtenue en réutilisant la preuve pour LuPastry+, et ceci représente un bon succès pour la réutilisation de preuves, en particulier considérant la taille de ces preuves. Chacune des deux preuves requiert plus de 30000 étapes interactives ; à ma connaissance, ces preuves constituent les preuves les plus longues écrites dans le langage TLA+ à ce jour, et les seuls exemples d’application de preuves mécanisées de théorèmes pour la vérification de protocoles DHT / A distributed hash table (DHT) is a peer-to-peer network that offers the function of a classic hash table, but where different key-value pairs are stored at different nodes on the network. Like a classic hash table, the main function provided by a DHT is key lookup, which retrieves the value stored at a given key. Examples of DHT protocols include Chord, Pastry, Kademlia and Tapestry. Such DHT protocols certain correctness and performance guarantees, but formal verification typically discovers border cases that violate those guarantees. In his PhD thesis, Tianxiang Lu reported correctness problems in published versions of Pastry and developed a model called {\LP}, for which he provided a partial proof of correct delivery of lookup messages assuming no node failure, mechanized in the {\TLA} Proof System. In analyzing Lu's proof, I discovered that it contained unproven assumptions, and found counterexamples to several of these assumptions. The contribution of this thesis is threefold. First, I present {\LPP}, a revised {\TLA} specification of {\LP}. Aside from needed bug fixes, {\LPP} contains new definitions that make the specification more modular and significantly improve proof automation. Second, I present a complete {\TLA} proof of correct delivery for {\LPP}. Third, I prove that the final step of the node join process of {\LP}/{\LPP} is not necessary to achieve consistency. In particular, I develop a new specification with a simpler node join process, which I denote by {\SLP}, and prove correct delivery of lookup messages for this new specification. The proof of correctness of {\SLP} is written by reusing the proof for {\LPP}, which represents a success story in proof reuse, especially for proofs of this size. Each of the two proofs amounts to over 32,000 proof steps; to my knowledge, they are currently the largest proofs written in the {\TLA} language, and---together with Lu's proof---the only examples of applying full theorem proving for the verification of DHT protocols
137

Méthodes d’optimisation distribuée pour l’exploitation sécurisée des réseaux électriques interconnectés / Distributed optimization methods for the management of the security of interconnected power systems

Velay, Maxime 25 September 2018 (has links)
Notre société étant plus dépendante que jamais au vecteur électrique, la moindre perturbation du transport ou de l’acheminement de l’électricité a un impact social et économique important. La fiabilité et la sécurité des réseaux électriques sont donc cruciales pour les gestionnaires de réseaux, en plus des aspects économiques. De plus, les réseaux de transport sont interconnectés pour réduire les coûts des opérations et pour améliorer la sécurité. Un des plus grand défis des gestionnaires des réseaux de transport est ainsi de se coordonner avec les réseaux voisins, ce qui soulève des problèmes liés à la taille du problème, à l’interopérabilité et à la confidentialité des données.Cette thèse se focalise principalement sur la sécurité des opérations sur les réseaux électriques, c’est pourquoi l’évolution des principales caractéristiques des blackouts, qui sont des échecs de la sécurité des réseaux, sont étudiés sur la période 2005-2016. L’approche de cette étude consiste à déterminer quelles sont les principales caractéristiques des incidents de ces 10 dernières années, afin d’identifier ce qui devrait être intégré pour réduire le risque que ces incidents se reproduisent. L’évolution a été étudiée et comparé avec les caractéristiques des blackouts qui se sont produit avant 2005. L’étude se focalise sur les préconditions qui ont mené à ces blackouts et sur les cascades, et particulièrement sur le rôle de la vitesse des cascades. Les caractéristiques importante sont extraites et intégrées dans la suite de notre travail.Un algorithme résolvant un problème préventif d’Optimal Power Flow avec contraintes de sécurité (SCOPF) de manière distribuée est ainsi développé. Ce problème consiste en l’ajout de contraintes qui assure qu’après la perte de n’importe quel appareil d’importance, le nouveau point d’équilibre, atteint suite au réglage primaire en fréquence, respecte les contraintes du système. L’algorithme développé utilise une décomposition fine du problème et est implémenté sous le paradigme multi-agent, basé sur deux catégories d’agents : les appareils et les bus. Les agents sont coordonnés grâce à l’ « Alternating Direction Method of Multipliers (ADMM)» et grâce à un problème de consensus. Cette décomposition procure l’autonomie et la confidentialité nécessaire aux différents acteurs du système, mais aussi, un bon passage à l’échelle par rapport à la taille du problème. Cet algorithme a aussi pour avantage d’être robuste à n’importe quelle perturbation, incluant la séparation du système en plusieurs régions.Puis, pour prendre en compte l’incertitude sur la production créée par les erreurs de prédiction des fermes éoliennes, une approche distribuée à deux étapes est développée pour résoudre un problème d’Optimal Power Flow avec contraintes probabilistes (CCOPF), d’une manière complétement distribuée. Les erreurs de prédiction des fermes éoliennes sont modélisées par des lois normales indépendantes et les écarts par rapport aux plannings de production sont considérés compensés par le réglage primaire en fréquence. La première étape de l’algorithme a pour but de déterminer des paramètres de sensibilités nécessaires pour formuler le problème. Les résultats de cette étape sont ensuite des paramètres d’entrée de la seconde étape qui, elle, résout le problème de CCOPF. Une extension de cette formulation permet d’ajouter de la flexibilité au problème en permettant la réduction de la production éolienne. Cet algorithme est basé sur la même décomposition fine que précédemment où les agents sont également coordonnés par l’ADMM et grâce à un problème de consensus. En conclusion, cet algorithme en deux étapes garantit la confidentialité et l’autonomie des différents acteurs, et est parallèle et adaptée aux plateformes hautes performances. / Our societies are more dependent on electricity than ever, thus any disturbance in the power transmission and delivery has major economic and social impact. The reliability and security of power systems are then crucial to keep, for power system operators, in addition to minimizing the system operating cost. Moreover, transmission systems are interconnected to decrease the cost of operation and improve the system security. One of the main challenges for transmission system operators is therefore to coordinate with interconnected power systems, which raises scalability, interoperability and privacy issues. Hence, this thesis is concerned with how TSOs can operate their networks in a decentralized way but coordinating their operation with other neighboring TSOs to find a cost-effective scheduling that is globally secure.The main focus of this thesis is the security of power systems, this is why the evolution of the main characteristics of the blackouts that are failures in power system security, of the period 2005-2016 is studied. The approach consists in determining what the major characteristics of the incidents of the past 10 years are, to identify what should be taken into account to mitigate the risk of incidents. The evolution have been studied and compared with the characteristics of the blackouts before 2005. The study focuses on the pre-conditions that led to those blackouts and on the cascades, and especially the role of the cascade speed. Some important features are extracted and later integrated in our work.An algorithm that solve the preventive Security Constrained Optimal Power Flow (SCOPF) problem in a fully distributed manner, is thus developed. The preventive SCOPF problem consists in adding constraints that ensure that, after the loss of any major device of the system, the new steady-state reached, as a result of the primary frequency control, does not violate any constraint. The developed algorithm uses a fine-grained decomposition and is implemented under the multi-agent system paradigm based on two categories of agents: devices and buses. The agents are coordinated with the Alternating Direction method of multipliers in conjunction with a consensus problem. This decomposition provides the autonomy and privacy to the different actors of the system and the fine-grained decomposition allows to take the most of the decomposition and provides a good scalability regarding the size of the problem. This algorithm also have the advantage of being robust to any disturbance of the system, including the separation of the system into regions.Then, to account for the uncertainty of production brought by wind farms forecast error, a two-step distributed approach is developed to solve the Chance-Constrained Optimal Power Flow problem, in a fully distributed manner. The wind farms forecast errors are modeled by independent Gaussian distributions and the mismatches with the initials are assumed to be compensated by the primary frequency response of generators. The first step of this algorithm aims at determining the sensitivity factors of the system, needed to formulate the problem. The results of this first step are inputs of the second step that is the CCOPF. An extension of this formulation provides more flexibility to the problem and consists in including the possibility to curtail the wind farms. This algorithm relies on the same fine-grained decomposition where the agents are again coordinated by the ADMM and a consensus problem. In conclusion, this two-step algorithm ensures the privacy and autonomy of the different system actors and it is de facto parallel and adapted to high performance platforms.
138

Méthodes pour le guidage coopératif. / Methods for cooperative guidance

Rochefort, Yohan 09 September 2013 (has links)
L'objectif de cette thèse est de définir puis d'étudier les performances de méthodes de guidage coopératif de véhicules aériens autonomes. L'intérêt du guidage coopératif est de confier une mission complexe à une flotte, plutôt qu'à un véhicule unique, afin de distribuer la charge de travail et d'améliorer les performances et la fiabilité. Les lois de guidage étudiées sont distribuées sur l'ensemble des véhicules afin d'une part, de répartir la charge de calcul et d'autre part, d'augmenter la fiabilité en éliminant la possibilité de perte de l'organe central de calcul de la commande.La première partie de la thèse porte sur les possibilités offertes par la règle des plus proches voisins. La loi de guidage développée consiste à ce que la commande de chaque véhicule soit élaborée en combinant les états des véhicules voisins. Afin de transmettre des consignes au groupe de véhicules, des objets dénommés agents virtuels sont introduits. Ceux-ci permettent de représenter des obstacles, d'indiquer une direction ou une cible au groupe de véhicules en utilisant des mécanismes déjà présent dans la loi de guidage.La seconde partie de la thèse porte sur les possibilités offertes par la commande prédictive. Ce type de commande consiste à employer un modèle du comportement du système afin de prédire les effets de la commande, et ainsi de déterminer celle qui minimise un critère de coût en respectant les contraintes du système. La loi de guidage développée emploi un critère de coût tenant compte et arbitrant entre les différents aspects de la mission (sécurité, progression de la mission, modération de la commande), et une procédure de recherche de la commande utilisant jeu prédéfinis de commandes candidates afin d'explorer l'espace de commande de manière efficace. Cette procédure, distincte des algorithmes d'optimisation habituels, génère une charge de calcul faible et constante, ne nécessite pas d'étape d'initialisation et est très peu sensible aux minima locaux. / The thesis objective is to define and study the performances of cooperative guidance methods of autonomous aerial vehicles. The interest of cooperative guidance is to entrust a complex mission to a fleet, instead of an isolated vehicle, to distribute the workload and improve performances and reliability. Studied guidance laws are distributed among all vehicles, on one hand to distribute the computation load, and on the other hand to remove the possibility to lose the centralized organ of command computation.The first part deals with the possibilities offered by the nearest neighbour rule. The developed guidance law consists in elaborating the command of each vehicle by combining the states of neighbour vehicles. To transmit instructions to the fleet of vehicles, objects denominated virtual agents are introduced. These allow figuring obstacles, indicating direction or target using existing mechanisms of the guidance law.The second part deals with the possibilities offered by model predictive control. This type of command consists in employing a behavioural model of the system to predict the control effects, and thus finding the one that minimises a cost criterion while respecting system's constraints. The developed guidance law uses a cost criterion that take into account and arbitrate between the several aspects of the mission (safety, mission evolution, control moderation), and a control search procedure based on a predefined set of candidate controls to explore the control space efficiently. This procedure, different from usual optimisation algorithms, generate a low and constant computation load, needs no initialisation step and is little sensitive to local minima.
139

Hierarchical distributed predictive control. Application to the control of slab reheating furnace in the steel industry / Commande prédictive hiérarchisée. Application à la commande de fours de réchauffage sidérurgiques

Nguyen, Xuan Manh 18 May 2015 (has links)
Dans l'industrie sidérurgique, les fours de réchauffage sont les plus grands consommateurs d'énergie après les hauts fourneaux. Réduire leur consommation énergétique est donc la préoccupation majeure de la commande des fours. Dans un four de réchauffage, des brames d'acier sont chauffées en traversant successivement plusieurs zones, de la température ambiante à un profil de température homogène de 1250 °C en sortie du four, avant d’être laminées dans les laminoirs à chaud. La température de brames est contrôlée par une structure de commande hiérarchisée à deux niveaux (niveau 1 et 2).L'objectif de ces travaux est d'améliorer la performance du chauffage et donc de réduire la consommation énergétique du four via une stratégie de commande prédictive distribuée hiérarchisée sur les deux niveaux de commande. Une approche de commande prédictive distribuée est tout d’abord développée pour le niveau 1 afin de suivre les consignes de température de zone, prenant en compte les couplages entre les zones et induisant une moindre complexité d’implantation par rapport à une approche centralisée. L’implantation industrielle a permis une amélioration significative de la précision du suivi de température et une réduction de la consommation d'énergie de 3%. Une deuxième étape propose l’élaboration de la commande prédictive hiérarchisée du niveau 2 afin, à partir de la consigne de température de brame, de déterminer les consignes de température optimales des zones en se fondant sur un modèle de transfert thermique du four. Les résultats de simulation, comparés aux données industrielles, montrent une réduction de la consommation énergétique de 5% et une meilleure qualité de chauffage des brames. L’approche précédente est enfin étendue pour prendre en compte et optimiser le cadencement des brames afin d’augmenter la productivité du four. La simulation montre une augmentation potentielle de productivité du four de 15 tonnes par heure tout en améliorant la qualité de chauffage des brames. / In steel industry, reheating furnaces are the biggest energy consumers after blast furnaces. As a result, reduction of energy consumption is the major concern of furnace control. In a walking-beam slab reheating furnace, steel slabs are heated by moving through successive zones from ambient temperature to a homogenous temperature profile of 1250°C at the furnace exit, to be rolled subsequently in the hot rolling mills. Temperature of slabs is controlled mainly by a two-level hierarchical structure, so called level 1 and level 2.The aim of this thesis is to improve the heating performance and consequently to reduce the energy consumption of the furnace by using hierarchical distributed model predictive control (MPC) strategy for both levels. In a first step, distributed model predictive controllers are developed for the level 1 in order to track zone temperature set-points. The distributed feature of the control law enables to consider coupling effects between zones while reducing the computation complexity compared to a complete centralized approach. The industrial results showed significant improvement on temperature tracking accuracy and an energy consumption reduction of 3%. In a second step, the hierarchical MPC is constructed for the level 2 in order to determine the optimal zones temperature setpoint from the slab temperature setpoint, based on a numerical heat transfer model of the furnace. The simulation results obtained with this strategy compared against industrial data show an energy consumption reduction of 5% and a better heating quality. The previous structure is finally extended to take into account and optimize the scheduling of the slabs within the MPC level 2 in order to increase productivity of the considered furnace. The simulation shows a potential increase of productivity of the furnace of 15 tons per hour while improving the slab heating quality.
140

Mise en place de stratégies d'évaluation des pratiques et des programmes de santé à travers une informatique distribuée. / Establishing strategies for evaluating health practices and programs through distributed computing.

Lelong, Audrey 19 October 2015 (has links)
Cette thèse est l'un des volets d'un projet nommé GINSENG. Ce projet s'inscrit dans le cadre d'un développement expérimental d'une infrastructure de grille légère pour l'e-santé. Il a pour but de fédérer des bases de données médicales existantes, et de mettre à disposition ces informations auprès des structures d'analyses épidémiologiques, régionales et nationales. Il réunit les thématiques de recherches suivantes : l'information médicale et l'épidémiologie. Grâce à l'architecture distribuée de la grille informatique, le réseau obtenu deviendra interopérable avec toute structure nécessitant des données médicales. L'infrastructure déployée permet d'obtenir des données en temps réel pour des études épidémiologiques avec une réactivité du système bien plus intense que s'il s'agissait d'un système centralisé.Grâce à l'utilisation de GINSENG, cette thèse propose d'apporter des stratégies d'amélioration de la qualité et de son évaluation. Un premier travail de thèse porte sur la qualité d'un plan de sondage destiné à estimer les indicateurs de qualité de tenue du dossier patient. Il permet d'envisager d'exploiter les fonctionnalités de GINSENG sur la base de dossiers informatisés afin d'étendre la taille de l'échantillon nécessaire pour une bonne estimation. Un deuxième travail concerne l'évaluation de l'impact de la précarité (mesurée par le score EPICES) vis-à-vis de l'accès au système de soins pour les femmes enceintes et vivant en milieu rural ainsi que déterminer le lien entre la vulnérabilité socio-économique et les mauvaises issues de la grossesse. La perspective d'une mise en routine du score EPICES dans les établissements de santé est discutée. Un dernier travail traite de la comparaison du dépistage organisé versus le dépistage individuel en termes de caractéristiques démographiques, cliniques et pronostiques en rapprochant les données anatomo-cytopathologiques (SIPATH) et des données de centres de dépistage des cancers (l'ARDOC (association régionale des dépistages organisés des cancers) et l'ABIDEC (association bourbonnaise interdépartementale de dépistage des cancers)). Ces applications orientent soit vers la plus-value qu'apporterait l'informatique distribuée grâce à GINSENG, soit les bénéfices des apports de GINSENG par l'amplification des données et l'extension à d'autres bases de données dans d'autres domaines. / This thesis is part of a project named GINSENG. This project is part of an experimental development for a light grid infrastructure dedicated to e-health and epidemiology. This network aims to collect distributed medical data in order to perform original data analysis thanks to the innovative technologies of grid computing. This project includes the following research areas: medical informatics, epidemiology joined with a socio-economic modeling. This network aims to federate distributed and existing medical databases, particularly cytopathologic data, to make them available to regional and national epidemiologic structures. Thanks to the distributed architecture of the grid, the network should become interoperable with any medical center which would need those medical data.Thanks to GINSENG, this thesis brings quality improvement strategies and its evaluation. A first work concerns the quality of survey design to estimate the indicators of patient record keeping. It plans to exploit some functionalities of GINSENG to increase required sample size to obtain a better estimate. A second work concerns the impact of social deprivation (measured by EPICES score) on access to healthcare for pregnant women and living in rural area. We want to characterize the link between social deprivation and adverse perinatal outcomes. We discuss the possibility to integrate the EPICES score in health care institution. The last work deals with the comparison between organized screening and individual screening. Socio demographic, clinical and prognostic characteristics are analyzed from SIPATH (laboratory), ARDOC and ABIDEC (screening sites) databases. These applications illustrate benefits of using GINSENG.

Page generated in 0.3295 seconds