Spelling suggestions: "subject:"tolérance dde panneaux"" "subject:"tolérance dee panneaux""
21 |
Etude et développement du nouvel algorithme distribué de consensus FLC permfettant de maintenir la cohérence des données partagées et tolérant aux fautess / Study and developpement of a new distributed consensus algorithmHanna, Fouad 11 February 2016 (has links)
De nos jours, le travail collaboratif a pris une place très importante dans plusieurs domaines, et notamment dans le domaine du télédiagnostic médical. Et la cohérence des données partagées est un enjeu primordial dans ce type d'application. De plus, pour garantir la cohérence des données, l'utilisation d'un algorithme de consensus est un élément indispensable dans les plateformes collaboratives. Nous présentons ici un nouvel algorithme de consensus, nommé FLC, permettant de garantir la cohérence des données partagées dans les systèmes distribués collaboratifs complètement asynchrones. Notre algorithme est tolérant aux pannes et a pour objectif d'améliorer la performance de consensus et notamment lorsque les processus participants tombent en panne. Ce nouvel algorithme utilise l'oracle leader Omega pour contourner le résultat d'impossibilité du théorème FLP. L'algorithme est décentralisé et adopte le modèle de pannes crash-stop. L'algorithme FLC s'appuie sur deux idées principales. La première propose de réaliser, au début de chaque cycle d'exécution, une phase simple d'élection de processus leader garantissant l'existence d'un seul leader par cycle. La deuxième bénéficie de la stabilité du système et plus particulièrement du fait que le processus leader ne tombe pas en panne d'un consensus à l'autre. Les performances de notre algorithme ont été analysées et comparées à celles des algorithmes les plus connus dans le domaine. Les résultats obtenus par simulation en utilisant la plateforme Neko ont montré que notre algorithme donne les meilleures performances lorsque le réseau utilisé est un réseau multicast et qu'aucun processus ne tombent en panne ainsi que pour les situations dans lesquelles l'algorithme de consensus subit une ou plusieurs pannes de processus coordinateurs/leaders. / Nowadays, collaborative work took a very important place in many fields and particularly in the medicaltelediagnosis field. The consistency of shared data is a key issue in this type of applications. Moreover, itis essential to use a consensus algorithm to ensure data consistency in collaborative platforms. We presenthere our new consensus algorithm FLC that helps to ensure data consistency in asynchronous collaborativedistributed systems. Our algorithm is fault tolerant and aims to improve the performance of consensus ingeneral and particularly in the case of process crashes. The new algorithm uses the leader oracle tocircumvent the impossibility result of the FLP theorem. It is decentralized and considers the crash-stop failuremodel. The FLC algorithm is based on two main ideas. The first is to perform, at the beginning of eachround, a simple election phase guaranteeing the existence of only one leader per round. The second is totake advantage of system stability and more particularly of the fact that the leader does not crash betweentwo consecutive consensus runs. The performance of our algorithm was analyzed and compared to the mostknown algorithms in the domain. The results obtained by simulation, using the Neko platform, demonstratedthat our algorithm gave the best performance when using a multicast network in the best case scenario and insituations where the algorithm undergoes one or more crashes of coordinators/leaders processes.
|
22 |
Tolérance aux pannes dans des environnements de calcul parallèle et distribué : optimisation des stratégies de sauvegarde/reprise et ordonnancement / Fault tolerance in the parallel and distributed environments : optimizing the checkpoint restart strategy and schedulingBouguerra, Mohamed Slim 02 April 2012 (has links)
Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs. / The parallel computing platforms available today are increasingly larger. Typically the emerging parallel platforms will be composed of several millions of CPU cores running up to a billion of threads. This intensive growth of the number of parallel threads will make the application subject to more and more failures. Consequently it is necessary to develop efficient strategies providing safe and reliable completion for HPC parallel applications. Checkpointing is one of the most popular and efficient technique for developing fault-tolerant applications on such a context. However, checkpoint operations are costly in terms of time, computation and network communications. This will certainly affect the global performance of the application. In the first part of this thesis, we propose a performance model that expresses formally the checkpoint scheduling problem. Two variants of the problem have been considered. In the first variant, the objective is the minimization of the expected completion time. Under this model we prove that when the failure rate and the checkpoint cost are constant the optimal checkpoint strategy is necessarily periodic. For the general problem when the failure rate and the checkpoint cost are arbitrary we provide a numerical solution for the problem. In the second variant if the problem, we exhibit the tradeoff between the impact of the checkpoints operations and the lost computation due to failures. In particular, we prove that the checkpoint scheduling problem is NP-hard even in the simple case of uniform failure distribution. We also present a dynamic programming scheme for determining the optimal checkpointing times in all the variants of the problem. In the second part of this thesis, we design several fault tolerant scheduling algorithms that minimize the application makespan and in the same time maximize the application reliability. Mainly, in this part we point out that the growth rate of the failure distribution determines the relationship between both objectives. More precisely we show that when the failure rate is decreasing the two objectives are antagonist. In the second hand when the failure rate is increasing both objective are congruent. Finally, we provide approximation algorithms for both failure rate cases.
|
23 |
Algorithmes distribués efficaces adaptés à un contexte incertain / Efficient distributed algorithms suited for uncertain contextDurand, Anaïs 01 September 2017 (has links)
Les systèmes distribués sont de plus en plus grands et complexes, alors que leur utilisation s'étend à de nombreux domaines (par exemple, les communications, la domotique, la surveillance, le ``cloud''). Par conséquent, les contextes d'exécution des systèmes distribués sont très divers. Dans cette thèse, nous nous focalisons sur des contextes incertains, autrement dit, le contexte n'est pas complètement connu au départ ou il est changeant. Plus précisément, nous nous focalisons sur deux principaux types d'incertitudes : une identification incomplète des processus et la présence de fautes. L'absence d'identification est fréquente dans de grands réseaux composés d'appareils produits et déployés en masse. De plus, l'anonymat est souvent une demande pour la sécurité et la confidentialité. De la même façon, les grands réseaux sont exposés aux pannes comme la panne définitive d'un processus ou une perte de connexion sans fil. Néanmoins, le service fourni doit rester disponible.Cette thèse est composée de quatre contributions principales. Premièrement, nous étudions le problème de l'élection de leader dans les anneaux unidirectionnels de processus homonymes (les processus sont identifiés mais leur ID n'est pas forcément unique). Par la suite, nous proposons un algorithme d'élection de leader silencieux et autostabilisant pour tout réseau connecté. Il s'agit du premier algorithme fonctionnant sous de telles conditions qui stabilise en un nombre polynomial de pas de calcul. La troisième contribution est une nouvelle propriété de stabilisation conçue pour les réseaux dynamiques qui garantit des convergences rapides et progressives après des changements topologiques. Nous illustrons cette propriété avec un algorithme de synchronisation d'horloges. Finalement, nous considérons la question de la concurrence dans les problèmes d'allocation de ressources. En particulier, nous étudions le niveau de concurrence qui peut être atteint dans une grande classe de problèmes d'allocation de ressources, l'allocation de ressources locales. / Distributed systems become increasingly wide and complex, while their usage extends to various domains (e.g., communication, home automation, monitoring, cloud computing). Thus, distributed systems are executed in diverse contexts. In this thesis, we focus on uncertain contexts, i.e., the context is not completely known a priori or is unsettled. More precisely, we consider two main kinds of uncertainty: processes that are not completely identified and the presence of faults. The absence of identification is frequent in large networks composed of massively produced and deployed devices. In addition, anonymity is often required for security and privacy. Similarly, large networks are exposed to faults (e.g, process crashes, wireless connection drop), but the service must remain available.This thesis is composed of four main contributions. First, we study the leader election problem in unidirectional rings of homonym processes, i.e., processes are identified but their ID is not necessarily unique. Then, we propose a silent self-stabilizing leader election algorithm for arbitrary connected network. This is the first algorithm under such conditions that stabilizes in a polynomial number of steps. The third contribution is a new stabilizing property designed for dynamic networks that ensures fast and gradual convergences after topological changes. We illustrate this property with a clock synchronizing algorithm. Finally, we consider the issue of concurrency in resource allocation problems. In particular, we study the level of concurrency that can be achieved in a wide class of resource allocation problem, i.e., the local resource allocation.
|
24 |
Conception et implémentation d'un système de sauvegarde distribué / Design and implementation of a distributed back-up systemMager, Thomas 30 June 2014 (has links)
En tant qu'utilisateurs d'ordinateurs, nous générons des données en quantité de plus en plus abondante. Leur importance dans notre vie quotidienne est telle qu'une méthode de sauvegarde s'avère nécessaire. La création de sauvegardes locales est une approche commune, mais insuffisante en cas de vol ou de destruction. Dans cette thèse, nous concevons un système de sauvegarde distribué qui permet de restaurer l'état d'un système de fichiers de manière simple, grâce à la constitution d'instantanés. Nous stockons ces instantanés sur les passerelles résidentielles et utilisons un tracker centralisé pour les coordonner. Nous présentons le concept de fichiers d'indexes qui permet la correspondance entre l'état complet d'un système de fichiers et une structure de donnée. Nous divisons notre système en swarms, rendant l'accès aux données, et son suivi, simple. Les fichiers à sauvegarder sont traités différemment suivant leurs tailles, afin d'améliorer la performance globale du système, et de réduire les ressources nécessaires. Tous les fichiers, ainsi que leurs méta-données, sont chiffrés avant d'être téléchargés afin de garantir leur confidentialité. De plus, nous utilisons les techniques de l'état de l'art afin de rendre le tracker résistant aux pannes, et de pouvoir le remplacer s'il quitte le système. La charge sur le tracker ne dépend que du nombre de participants, et donc pas de la quantité de données stockée. Nous évaluons le système sur base de traces provenant de passerelles résidentielles réelles, avec lesquelles nous démontrons un faible impact global sur les ressources. En leur adjoignant des simulations, nous prouvons la faisabilité de notre service. / As computer users, we create increasing amounts of data, such as digital documents, pictures, and videos. Because these data have high value in our daily life the need for back-ups arises. The creation of local back-ups, e.g. on external hard drives, is a common approach, but is insufficient in the event of natural disasters or theft. In this thesis, we provide a proof of concept for a distributed back-up system that induces only low overhead, and respects user needs to easily recover a state of a file system in a snapshot-based manner. We store distributed back-ups on residential gateways and use a central tracker as coordinator. We introduce index files in order to map the full state of a file system to a single data structure. We divide the system into swarms of flexible size so that accessing data and monitoring is easy. Files are handled differently depending of their size in order to increase the system performance and reduce resource requirements. All files and their metadata are encrypted before being uploaded, so that data confidentiality is ensured. We use state-of-the-art technologies in order to design a tracker that is scalable, fault-tolerant, and is replaceable in case it entirely leaves the system. The load of the tracker only depends on the number of participants, not on the amount of data stored in the network. The system allows configuring a time span within which a user needs to recover his data in case of local data loss. We analyze this approach by using real world connectivity traces of residential gateways and show that it results in low resource demands. Together with simulations on these traces, we underline the feasibility of our service.
|
25 |
Une architecture parallèle distribuée et tolérante aux pannes pour le protocole interdomaine BGP au cœur de l’InternetHamzeh, Wissam 12 1900 (has links)
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués. / The increasing number of end users has led to an exponential growth in the Internet routing table. The routing table is expected to reach a size of one million prefixes within the coming few years. Besides, current core routers may easily attain hundreds of connected BGP peers simultaneously. In classical monolithic architecture, the BGP protocol runs as a single entity inside the router. This architecture suffers from two drawbacks: scalability and reliability. BGP scalability can be measured in terms of the number of connected peers that can be handled and the size of the routing table. On the other hand, the reliability is a critical issue in core routers. If the BGP instance inside the router fails, all peers’ connections will shutdown and the new reachability state will be propagated across the Internet in a non trivial convergence delay. Although, in current core routers, the resiliency is increased considerably, it’s mainly implemented via a primary-backup redundancy scheme which limits the BGP scalability. In this thesis we address the two mentioned BGP drawbacks by proposing a novel distributed approach to increase both scalability and reliability of BGP without changing the semantic of the protocol. The BGP distributed architecture in the first paper is built to satisfy both requirements: scalability and reliability by adequately exploiting parallelism and module separation. In our model, BGP functionalities are split in a master-slave manner and the RIB (Routing Information Base) is replicated to multiple controller cards, to form a cluster of parallel computing entities. In the second paper, we address the fault tolerance of BGP within the distributed architecture presented in the first paper. We prove analytically that, by adopting the distributed architecture of BGP the availability of BGP will be increased considerably versus a monolithic architecture. In the third paper we propose a distributed parallel scheme called DRTP to partition the BGP routing table on multiple controller cards. DRTP aims at increasing the BGP scalability and the parallelization of the Best Match Prefix algorithm.
|
26 |
Sûreté de fonctionnement des convertisseurs - Nouvelles structures de redondances pour onduleurs sécurisés à tolérance de pannes / Dependability of the converters : New structures for inverters redundancy secure fault-tolerantDou, Zhifeng 04 November 2011 (has links)
Au sein d'un convertisseur la défaillance d'un composant de puissance est un événement critique tant par le risque d'explosion du boitier et sa propagation au sein du système (forte énergie stockée dans l'alimentation) que par l'interruption de service qui en découle (systèmes embarqués, systèmes de production en flux tendu). Ce mémoire de thèse propose un ensemble de solutions nouvelles portant sur la problématique de l'isolement ultime de défauts "derniers secours" d'une part, et sur la connexion "automatique" et à faible "coût" d'un circuit en secours. L'objectif de cette approche globale est de concilier "sécurité électrique absolue" et "continuité de service" pour les systèmes de conversion sensibles devant être intégrés au coeur des applications critiques. Le premier chapitre et son annexe permettent de rappeler les causes et les conséquences des défauts internes au sein d'une structure de base d'onduleur à deux niveaux de tension, laquelle fait l'objet de nombreuses simulations de modes dégradés en configuration variateur de vitesse sur machine synchrone. De cette analyse il ressort qu'une structure d'isolement symétrique à deux voies couplées, placées sur les pôles du bus DC, à déclenchement spontané (fusible) et/ou commande (rupteur), est à même de sécuriser toutes les mailles du circuit, de façon modulaire et non intrusive. / In all these traditional industries, or in more sensitive sectors and high technology, it appears that the safe operation of power systems becomes a critical and strategic area essential. In the area of application that focuses, design dependability and now rests primarily on an approach to reliability of components used, the use of close protection, monitoring alarms and management stop / reset / recovery. In our view, this approach is incomplete quickly when electrical safety and absolute continuity of a permanent mission should be carried out simultaneously in the presence of an internal failure of sensitive functions for low and medium power (eg, orders and bodies actuation of vehicles) or highly critical (nuclear). In this area, topologies and failure modes are at the heart of the problem. In this paper, we will focus primarily on the inverters and choppers structures at two levels of voltage (single-cell arm, <1kV), with simple configuration and multiphase parallel, although the concepts are presented, as examples, partially extrapolated to the structures of three voltage levels (arms multicellular) and rectifier (low-frequency phase control and high-frequency switching PWM). We will highlight the need to limit the intensity of these failures and to electrically isolate the defective cell and symmetrically of this inverter by multipole devices, passive or spontaneous breaking mixed cut ordered in the form of fuses integrated and distributed of multi-channel passive isolators, to imagine and develop. We will show that this process of isolation of the last backup is needed to connect, form series or parallel to the defective cell, a cell rescue in passive redundancy. The cell structure backup connection pooled by spontaneous (automatic) is especially promising as detailed in our eyes because of its simplicity and its integrability. Next, we present the isolation technologies fuse (not included, miniatures, CMS and multilayer chip fuse), their characteristics, their current limitations and operating in a switching cell test. A methodology and design of symmetrical two-way fuse (dual-fuse) on FR4 PCB - Copper will be presented in Comsol ™ and evaluated initially in static thermal IR. A passive two-way switch, relatively original material for integrating energy embedded in FR4 substrate, will be presented and fully dimensioned plans on electrical, thermal and mechanical also using finite element simulations in Comsol ™. Another aspect of exploratory analysis, mainly experimental, or to characterize the failure modes of bullets and casings ultimate power compared between the technologies of encapsulation by epoxy resin (standard discrete case) and a silicone gel (module) is provided under conditions of stress controlled and reproducible. This step is necessary to characterize the resistive mode of a chip based on faulty stresses and stability over time of the residual strength according to the nature of the encapsulant, ie the very sustainability of this failure mode. A mixed-encapsulant resin - gel will be presented and characterized, providing an excellent compromise for medium power applications. Positive results and little known today, will allow us to exploit in the next chapter, this property of stable ohmic mode of the chip failed in a structure to aid automated connection series interesting. In the end, we will detail the demonstrator prototype and introduced to the context with which we will validate the isolation structures and prototypes fuses the property of stable ohmic mode highlighted in the aspect of technological analysis of selected devices. These results allow us to refine the solutions adopted for specifications and guide future management strategy of defects whether internal or external to the topology. Supervisor digital device - sensor for the detection and reconfiguration of internal control orders will be assessed.
|
27 |
Cryptographie sur les courbes elliptiques et tolérance aux pannes dans les réseaux de capteurs / Elliptic curve cryptography and fault tolerance in sensor networksShou, Yanbo 10 September 2014 (has links)
L’émergence des systèmes embarqués a permis le développement des réseaux de capteurs sans fil dans de nombreux domaines différents. Cependant, la sécurité reste un problème ouvert. La vulnérabilité des nœuds est principalement liée au manque de ressources. En effet, l’unité de traitement ne dispose pas d’assez de puissance et de mémoire pour gérer des mécanismes de sécurité très complexes.La cryptographie est une solution qui est largement utilisée pour sécuriser les réseaux. Par rapport à la cryptographie symétrique, la cryptographie asymétrique nécessite des calculs plus compliqués,mais elle offre une distribution de clés plus sophistiquée et la signature numérique. Dans cette thèse, nous essayons d’optimiser la performance d’ECC (Elliptic Curve Cryptography), un cryptosystème asymétrique qui est connu pour sa robustesse et son utilisation de clé plus courte par rapport à RSA. Nous proposons d’utiliser le parallélisme pour accélérer le calcul de la multiplication scalaire, qui est reconnue comme l’opération la plus coûteuse sur les courbes elliptiques. Les résultats de tests ont montré que notre solution offre un gain intéressant malgré une augmentation de la consommation d’énergie.La deuxième partie de la contribution concerne l’application de la tolérance aux pannes dans notre architecture de parallélisation. Nous utilisons les nœuds redondants pour la détection des pannes et la restauration du calcul. Ainsi, en utilisant l’ECC et la tolérance aux pannes, nous proposons une solution de sécurité efficace et sûre pour les systèmes embarqués. / The emergence of embedded systems has enabled the development of wireless sensor networks indifferent domains. However, the security remains an open problem. The vulnerability of sensor nodesis mainly due to the lack of resources. In fact, the processing unit doesn’t have enough power ormemory to handle complex security mechanisms.Cryptography is a widely used solution to secure networks. Compared with symmetric cryptography,the asymmetric cryptography requires more complicated computations, but it offers moresophisticated key distribution schemes and digital signature.In this thesis, we try to optimize the performance of ECC. An asymmetric cryptosystem which isknown for its robustness and the use of shorter keys than RSA. We propose to use parallelismtechniques to accelerate the computation of scalar multiplications, which is recognized as the mostcomputationally expensive operation on elliptic curves. The test results have shown that our solutionprovides a significant gain despite an increase in energy consumption.The 2nd part of our contribution is the application of fault tolerance in our parallelism architecture.We use redundant nodes for fault detection and computation recovery. Thus, by using ECC and faulttolerance, we propose an efficient and reliable security solution for embedded systems.
|
28 |
Tolérance aux pannes dans un réseau de capteurs sans fil multi-canal / Fault tolerance in a mulichannel wireless sensor networkChouikhi, Samira 02 June 2016 (has links)
Le développement dans les micros systèmes électromécaniques (MEMS) combiné avec l'émergence des nouvelles technologies de l'information et de la communication a permis l'intégration des fonctionnalités de collecte, de traitement et de transmission des données dans un seul dispositif minuscule qui est le capteur sans fil. En voie de conséquence, les réseaux composés de ces capteurs offrent aujourd'hui une pléiade d'avantages par rapport aux réseaux traditionnels notamment en termes de simplicité et de coût de déploiement. Ceci a conduit au développement d'une gamme très variée d'applications des réseaux de capteurs sans fil dans les domaines de la santé, de l'environnement, de l'industrie, des infrastructures, des activités spatiales, ou encore des activités militaires et dans plusieurs autres domaines. Cependant, de nouveaux défis surgissent des caractéristiques particulières de ces réseaux. En réalité, de nombreuses applications de ces réseaux sont critiques et exigent qu'un fonctionnement correct du réseau soit maintenu le plus longtemps possible. Par contre, les environnements dans lesquels ces réseaux sont déployés rendent la mission de maintien en condition correcte de ces réseaux très compliquée et même parfois impossible ; d'où la nécessité d'intégrer des mécanismes d'auto-correction qui visent à surmonter les problèmes qui puissent surgir dans le réseau sans intervention humaine. Dans ce contexte, nous avons, dans cette thèse, concentré notre étude sur les techniques et les mécanismes mis en œuvre pour améliorer la propriété de tolérance aux pannes dans les réseaux de capteurs sans fil. Tout d'abord, nous avons proposé des approches centralisées et distribuées pour l'auto-rétablissement de la connectivité et la réallocation des canaux dans un contexte de réseaux de capteurs sans fil reposant sur des communications multi-canal après la panne d'un nœud critique. Après la formulation du problème sous la forme d'un problème d'optimisation multi-objectif, nous avons proposé des algorithmes basés sur des heuristiques de coloration de graphes et d'arbre de Steiner, très connus dans la théorie de graphes pour la résolution de ce type de problèmes. Dans une deuxième partie de cette thèse, nous avons étudié un cas d'application particulier, l'agriculture de précision, et avons proposé une solution distribuée pour le rétablissement du fonctionnement du réseau de capteurs sans fil / The development in Micro Electro-Mechanic Systems (MEMS) combined with the emergence of new information and communication technologies allowed the integration of the data sensing, processing and transmission in a single tiny device which is the wireless sensor. Consequently, the networks formed by these sensors offer a lot advantages compared with the traditional networks, in particular in terms of the deployment simplicity and cost. This led to the development of a wide range of Wireless Sensor Networks' applications in the domains of health, environment, industry, infrastructures, spatial activities, or even military activities and in many other domains. However, new challenges appear from the particular characteristics of these networks. In fact, many applications of this type of networks are critical and require that the correct functioning of the network is maintained as long as possible. However, the environments in which these networks are deployed return the mission of network maintenance very complicated or even impossible; hence, the necessity of integrating mechanisms of self-correction which aim to overcome the appeared problems without a human intervention. In this context, we focused our study on the techniques and mechanisms implemented to improve the property of fault tolerance in the wireless sensor networks. First, we proposed centralized and distributed approaches for the connectivity restoration and the channel reallocation in a multi-channel communication context after the failure of a critical node. After the formulation of the problem as a multi-objective optimization problem, we proposed some algorithms based on the heuristics of graphs coloring and Steiner tree, very known in the graph theory to solve this type of problems. In a second part in this thesis, we studied a particular application case, precision agriculture, and we proposed a distributed solution for the failure recovery in wireless sensor networks
|
29 |
Contribution à la continuité de service des convertisseurs statiques multiniveaux / Contribution to the continuity of service of multilevel convertersBecker, Florent 04 December 2017 (has links)
Ce mémoire s’inscrit dans le contexte général de la continuité de service des convertisseurs multiniveaux, lors de la défaillance d’un de leurs composants de puissance. Les structures concernées sont les topologies suivantes, largement utilisées dans les applications industrielles : Neutral Point Clamped (NPC) et Neutral Point Piloted (NPP) ou T-Type. Dans un premier temps, afin de limiter le taux de pannes du convertisseur, une commande contribuant à l’accroissement de la durée de vie des composants de puissance est tout d’abord proposée. Pour se faire, nous minimiserons sur chaque période le nombre de commutations des composants commandables à l’ouverture et à la fermeture. Cette idée a pour origine le fait qu’un convertisseur multiniveaux permet de générer le même niveau de tension de sortie à partir de plusieurs séquences de commutations différentes. Le principe de la commande proposée sera développé de manière générale, puis appliqué aux cas de structures type « Pont en H » à 5 niveaux, de type NPP (ou T-Type) et NPC. Ensuite, nous étudierons la continuité de service en mode nominal d’un convertisseur « Pont en H » à 5 niveaux, de type NPP (ou T-Type), suite à la défaillance en circuit ouvert d’un composant de puissance. Nous proposerons tout d’abord un diagnostic du défaut, constitué d’une première étape de détection, suivie d’une localisation précise du composant défaillant. Une topologie originale de convertisseur à tolérance de pannes permettra de garantir la continuité de service du système, en modifiant sa commande en adéquation avec le composant défaillant localisé. Des architectures électroniques numériques reconfigurables basées sur des composants FPGA (Field Programmable Gate Array) seront dédiées au diagnostic et à la reconfiguration de la commande ; elles permettront d’atteindre des performances temporelles élevées. L’ensemble des résultats présentés dans ce mémoire sera validé par modélisation/simulation, puis expérimentalement sur un banc de test / This thesis deals with continuity of service of multilevel power converters, during the failure of one of their power components. The studied converter topologies are the following, widely used in industrial applications: Neutral Point Clamped (NPC) and Neutral Point Piloted (NPP) or T-Type. First, to reduce the failure rate of the converter, an advanced control is proposed ; it increases the lifetime of the power components by minimizing the number of switchings over a period. This idea is based on the fact that a multilevel converter makes possible to generate the same output voltage level from several different switching sequences. The principle of the proposed control will be developed in a general way. Then, it is applied to the cases of 5-level "H-bridge" topologies, NPP (or T-Type) and NPC. Then, the continuity of service in nominal mode is studied for a 5 level "H-brige" NPP (or T-Type) converter, when an open circuit failure occurs on a power component. We first propose a fault diagnosis, consisting in a fault detection step, followed by the location of the faulty component. Then, an original fault-tolerant converter topology will ensure the continuity of service of the system, by modifying the control according to the localized faulty component. Reconfigurable digital electronic architectures based on Field Programmable Gate Array (FPGA) components will be dedicated to the diagnosis and the reconfiguration of the control; they will perform high temporal performances. All the results presented in this paper are validated by modeling and simulation. Then, they are experimentally validated on a test bench
|
30 |
Coopeer : une architecture d'égal à égal pour la conception collaborative – Méthode optimiste de résolution automatique des conflits pour la cohérence de données répliquéesEsposito, Nicolas 12 September 2002 (has links) (PDF)
Cette thèse présente les résultats du projet de recherche Coopeer sur le thème de la conception collaborative. Ce travail a permis de mettre en place une architecture d'égal à égal pour la conception assistée par ordinateur (CAO) associée à une méthode optimiste de résolution automatique des conflits pour assurer la cohérence des données répliquées. Cette méthode s'appuie sur une estampille à double identification et sur une gestion de la simultanéité basée sur des priorités. La gestion du groupe de travail et la tolérance aux pannes y sont également adressées. La méthode est applicable à la CAO, mais aussi à tout type d'application collaborative complexe.
|
Page generated in 0.0645 seconds