• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 13
  • 1
  • Tagged with
  • 44
  • 44
  • 44
  • 21
  • 21
  • 21
  • 20
  • 17
  • 11
  • 11
  • 11
  • 11
  • 11
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Une architecture parallèle distribuée et tolérante aux pannes pour le protocole interdomaine BGP au cœur de l’Internet

Hamzeh, Wissam 12 1900 (has links)
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués. / The increasing number of end users has led to an exponential growth in the Internet routing table. The routing table is expected to reach a size of one million prefixes within the coming few years. Besides, current core routers may easily attain hundreds of connected BGP peers simultaneously. In classical monolithic architecture, the BGP protocol runs as a single entity inside the router. This architecture suffers from two drawbacks: scalability and reliability. BGP scalability can be measured in terms of the number of connected peers that can be handled and the size of the routing table. On the other hand, the reliability is a critical issue in core routers. If the BGP instance inside the router fails, all peers’ connections will shutdown and the new reachability state will be propagated across the Internet in a non trivial convergence delay. Although, in current core routers, the resiliency is increased considerably, it’s mainly implemented via a primary-backup redundancy scheme which limits the BGP scalability. In this thesis we address the two mentioned BGP drawbacks by proposing a novel distributed approach to increase both scalability and reliability of BGP without changing the semantic of the protocol. The BGP distributed architecture in the first paper is built to satisfy both requirements: scalability and reliability by adequately exploiting parallelism and module separation. In our model, BGP functionalities are split in a master-slave manner and the RIB (Routing Information Base) is replicated to multiple controller cards, to form a cluster of parallel computing entities. In the second paper, we address the fault tolerance of BGP within the distributed architecture presented in the first paper. We prove analytically that, by adopting the distributed architecture of BGP the availability of BGP will be increased considerably versus a monolithic architecture. In the third paper we propose a distributed parallel scheme called DRTP to partition the BGP routing table on multiple controller cards. DRTP aims at increasing the BGP scalability and the parallelization of the Best Match Prefix algorithm.
32

Efficacité énergétique dans le calcul très haute performance : application à la tolérance aux pannes et à la diffusion de données / Energy efficiency in very high-performance computing : application to fault tolerance and data broadcasting

Diouri, Mohammed El Mehdi 27 September 2013 (has links)
Les infrastructures de calcul très haute performance ont connu une croissance rapide en particulier ces dernières années. Cette croissance a toujours été motivée par les besoins accrus en puissance de calcul qu'expriment les scientifiques dans divers domaines. Cependant, ces systèmes devenus de plus en plus larges constituent de gros consommateurs d'électricité et consomment déjà plusieurs mégawatts. Afin de consommer ''moins'' et ''mieux'', nous avons proposé un environnement logiciel qui d'une part, permet de choisir avant de pré-exécuter l'application, les versions de services applicatifs consommant le moins d'énergie, et qui d'autre part, repose sur une grille électrique intelligente pour planifier les réservations des ressources de calcul de ces infrastructures. Cet environnement, appelé SESAMES, a été adapté à deux services applicatifs indispensables au calcul très haute performance : la tolérance aux pannes et la diffusion de données. Des validations expérimentales ont montré que l'on peut réduire la consommation énergétique de chacun des deux services étudiés en s'appuyant sur les estimations énergétiques précises fournies par SESAMES pour n'importe quel contexte d'exécution et pour n'importe quelle plate-forme dotée de wattmètres. Notre méthodologie d'estimation repose sur une description du contexte d'exécution et sur une calibration de la plate-forme d'exécution basée sur la collecte de mesures énergétiques. Des simulations ont démontré que l'ordonnanceur multi-critères des réservations de ressources proposé dans SESAMES, permet de réduire à la fois la consommation énergétique, le coût financier et l'impact environnemental de ces réservations, tout en respectant les contraintes imposées par l'utilisateur et le fournisseur d'énergie. / High performance computing (HPC) infrastructures have experienced a rapid growth, particularly these last years. This growth has been driven by the increased need in terms of computational power expressed by scientists in various fields. However, their increasing size makes them important electricity consumers since they already consume several megawatts. In order to consume "less" and better", we proposed a framework which permits to choose the less consuming versions of the services before pre-executing the application. In addition, our framework relies on a smart grid in order to schedule resource reservations on these computing infrastructures. This framework, called SESAMES, is adapted to two services required in high performance computing: fault tolerance and data broadcasting. Experimental validations have shown that we can reduce the energy consumption of both services by relying on accurate energy estimations provided by SESAMES for any execution context and for any platform equipped with wattmeters. Our estimation methodology is based on a description of the execution context and on a platform calibration that consists of gathering energy measurements. Simulations have shown that the multi-criteria reservation scheduler proposed in SESAMES, simultaneously reduces the energy consumption, the financial cost and the environmental impact of these reservations, while respecting the constraints imposed by the user and the energy supplier.
33

Vers une structuration auto-stabilisante des réseaux ad hoc : cas des réseaux de capteurs sans fil / Towards a self-stabilizing structuring of ad hoc networks : the case of wireless sensor networks

Ba, Mandicou 21 May 2014 (has links)
Nous proposons un algorithme original de structuration des réseaux ad hoc nommé SDEAC dans le but d'optimiser les communications et de tolérer les pannes transitoires. SDEAC est auto-stabilisant, distribué et déterministe. Il utilise un modèle asynchrone à passage de messages et se fonde sur un voisinage à distance 1 pour construire des clusters non-recouvrants à k sauts. Nous montrons que partant d'une configuration quelconque et sans occurrence de pannes transitoires, SDEAC structure le réseau dans le pire des cas en n+2 transitions. En outre, son exécution nécessite une occupation mémoire de (Δu+1)*log(2n+k+3) bits pour chaque noeud u, avec Δu étant le degré de u, k le rayon maximal des clusters et n la taille du réseau. Par simulation sous OMNeT++, nous observons pour un réseau quelconque un temps de stabilisation très inférieur à celui du pire des cas d'une part. D'autre part, suite à l'occurrence de pannes transitoires après la stabilisation, nous constatons un temps de stabilisation inférieur à celui du clustering. Dans le contexte des RCSF, nous étudions la consommation énergétique de SDEAC suivant trois critères d'élection des cluster-heads (identité, degré et énergie résiduelle des noeuds) puis nous la comparons avec celle de la solution de Mitton et al. opérant dans le même modèle. Les résultats montrent que SDEAC permet le passage à l'échelle et réduit la consommation énergétique de 42% à 49%. Enfin, pour l'utilisation de SDEAC dans l'acheminement de l'information, nous proposons deux approches efficaces : (i) un routage sans agrégation qui minimise les délais de bout en bout et (ii) un routage avec agrégation partielle qui réduit la consommation énergétique totale offrant ainsi une meilleure durée de vie du réseau. / We propose SDEAC, a self-Stabilizing Distributed Energy-Aware and fault-tolerant Clustering algorithm. SDEAC uses an asynchronous message-passing model and is based on 1-hop neighboring to build non-overlapping k-hops clusters. We prove that, starting from an arbitrary configuration, SDEAC structures the network after at most n + 2 transitions and requires (Δu+1)log(2n+k+3) memory space for each node u, where n is the number of network nodes, Δu is the degree of u and k represents the maximum hops number. Through simulations under OMNeT++, we observe that over arbitrary network, the stabilization time is far below the worst case scenario. Furthermore, we remark that after faults, the re-clustering cost is significantly lower than the clustering cost. In the context of Wireless Sensor Networks (WSNs), we evaluate the energy consumption of SDEAC according to multiple criteria in the election of cluster-heads, such as nodes' identity, residual energy or degree and we compare it with the well-known message-passing based self-stabilizing clustering algorithm proposed by Mitton et al. Results show that SDEAC is scalable and reduces energy consumption between 42% and 49%.Afterwards, we propose efficient scenarios in order to transfer information: (i) the non-aggregation scenario that provides a better end-to-end delay and (ii) the partially-decentralized aggregation scenario that reduces the total energy consumption and prolongs the network lifetime.
34

Services auto-adaptatifs pour les grilles pair-à-pair / Self-adaptive services for P2P Grid

Gueye, Bassirou 26 May 2016 (has links)
La gestion de ressources distribuées à l'échelle planétaire dans plusieurs organisations virtuelles implique de nombreux défis. Dans cette thèse, nous proposons un modèle pour la gestion dynamique de services dans un environnement de grille pair-à-pair à large échelle.Ce modèle, nommé P2P4GS, présente l'originalité de ne pas lier l'infrastructure pair-à-pair à la plate-forme d'exécution de services.De plus, il est générique, c'est-à-dire applicable sur toute architecture pair-à-pair. Pour garantir cette propriété, vu que les systèmes distribués à large échelle ont tendance à évoluer en termes de ressources, d'entités et d'utilisateurs, nous avons proposé de structurer le système de grille pair-à-pair en communautés virtuelles (clusters).L'approche de structuration est complètement distribuée et se base uniquement sur le voisinage des noeuds pour l'élection des responsables de clusters appelés PSI (Proxy Système d'Information). D'autre part, afin de bien orchestrer les communications au sein des différentes communautés virtuelles et aussi permettre une recherche efficace et exhaustive de service, lors de la phase de structuration, un arbre couvrant constitué uniquement des PSI est maintenu. Les requêtes de recherche vont ainsi être acheminées le long de cet arbre.Outre la découverte de services, nous avons proposé des mécanismes de déploiement, de publication et d'invocation de services. Enfin, nous avons implémenté et analysé les performances de P2P4GS. Afin d'illustrer sa généricité, nous l'avons implémenté sur Gia, Pastry et Kademlia des protocoles pair-à-pair opérant de manières totalement différentes.Les tests de performances ont montré que le P2P4GS fournit une bonne résistance aux pannes et garantit un passage à l'échelle en termes de dimensionnement du réseau et également de coût de communications. / Resource management management worldwide distributed in several virtual organizations is a key issue.In this thesis, we propose a model for dynamic services management in large-scale peer-to-peer Grid environments.This model named P2P4GS, presents originality not to link peer-to-peer infrastructure to the execution services platform.In addition, the middleware is generic i.e. it able to be applied on any peer-to-peer architecture.Meanwhile, the increasing size of resources and users in large-scale distributed systems has lead to a scalability problem.To ensure scalability, we propose to organize the peer-to-peer Grid nodes in virtual communities so called clusters.The structuring approach is completely distributed, and only requires local knowledge about nodes neighborhood for election of cluster managers called ISP (Information System Proxy).On the other hand, in order orchestrate communications in the various virtual communities and also enable an efficient service discovery,during structuring process, a spanning tree only constituted of ISP is maintained. Therefore, search queries will be routed along the spanning tree.Besides the service discovery, we proposed service deployment, publication and invocation mechanisms.Finally, we implemented and analyzed the performance of P2P4GS.To illustrate that P2P4GS is generic, we implemented protocols that operating in fully different way. These protocols are Gia, Pastry and Kademlia.Performance tests show that, on the one hand, our approach provides good fault tolerance and ensures the scalability in terms of the clusters distribution and communication cost.
35

An approach for Self-healing Transactional Composite Services / Une approche auto-corrective pour des services composites transactionnels

Angarita Arocha, Rafael Enrique 11 December 2015 (has links)
Dans ce mémoire de thèse, nous présentons une approche d’exécution auto-corrective (self-healing) de services composites, basée sur des agents capables de prendre, de manière autonome, des décisions pendant l’exécution des services, à partir de leurs connaissances. Dans un premier temps, nous définissons, de manière formelle, en utilisant des réseaux de Petri colorés, les services composites, leur processus d’exécution, et leurs mécanismes de tolérance aux pannes. Notre approche offre plusieurs mécanismes de reprise sur panne alternatifs : la récupération en arrière avec compensation ; la récupération en avant avec ré-exécution et/ou remplacement de service ; et le point de contrôle (checkpointing), à partir duquel il est possible de reprendre l’exécution du service ultérieurement. Dans notre approche, les services sont contrôlés par des agents, i.e. des composants dont le rôle est de s’assurer que l’exécution des services soit tolérante aux pannes. Notre approche est également étendue afin de permettre un auto-recouvrement. Dans cette extension, les agents disposent d’une base de connaissances contenant à la fois des informations sur eux-mêmes et sur le contexte d’exécution. Pour prendre des décisions concernant la sélection des stratégies de récupération, les agents font des déductions en fonction des informations qu’ils ont sur l’ensemble du service composite, sur eux-mêmes, tout en prenant en compte également ce qui est attendu et ce qui se passe réellement lors de l’exécution. Finalement, nous illustrons notre approche par une évaluation expérimentale en utilisant un cas d’étude. / In this thesis, we present a self-healing approach for composite services supported by knowledge-based agents capable of making decisions at runtime. First, we introduce our formal definition of composite services, their execution processes, and their fault tolerance mechanisms using Colored Petri nets. We implement the following recovery mechanisms: backward recovery through compensation; forward recovery through service retry and service replacement; and checkpointing as an alternative strategy. We introduce the concept of Service Agents, which are software components in charge of component services and their fault tolerance execution control. We then extend our approach with self-healing capabilities. In this self-healing extension, Service Agents are knowledge-based agents; that is, they are self- and context-aware. To make decisions about the selection of recovery and proactive fault tolerance strategies, Service Agents make deductions based on the information they have about the whole composite service, about themselves, and about what is expected and what it is really happening at runtime. Finally, we illustrate our approach and evaluate it experimentally using a case study.
36

Optimal Coordination of Chassis Systems for Vehicle Motion Control / Coordination Optimale des Systèmes Châssis pour le Contrôle du Mouvement des Voitures

Kissai, Moad 17 June 2019 (has links)
Le contrôle global du châssis a fait récemment l'objet d'une attention particulière. Cela serait motivé surtout par l’approche des véhicules entièrement autonomes. Ces véhicules, en particulier le niveau 5 d’automatisation SAE (J3016), devraient remplacer le conducteur humain dans presque toutes les situations. Le véhicule automatisé devrait être capable de gérer en harmonie des situations couplées où sont intégrés le contrôle longitudinal, latéral et éventuellement vertical. Pour ce faire, le véhicule dispose de plusieurs systèmes intégrés par axe de contrôle. En effet, les équipementiers automobiles et les nouveaux acteurs de l'industrie automobile proposent continuellement de nouvelles solutions pour satisfaire des performances bien spécifiques. Le constructeur automobile doit quant à lui coordonner différents sous-systèmes provenant de différentes parties prenantes afin de garantir une expérience de conduite fiable et confortable. Jusqu'à présent, les constructeurs automobiles privilégiaient des solutions simples consistant à ajouter une couche de coordination en aval des sous-systèmes concurrents afin de limiter les potentiels conflits. La plupart des stratégies adoptées consistent à prioriser un système par rapport à un autre en fonction de certains scénarios conflictuels prévisibles. Les véhicules autonomes ont besoin de sous-systèmes supplémentaires pour fonctionner en toute sécurité. Ainsi, les interactions entre les sous-systèmes s'amplifieront au point de devenir imprévisibles. Cette thèse met l'accent sur l'approche de coordination qui devrait être adoptée par les véhicules du futur. En particulier, la couche de coordination est déplacée en amont des sous-systèmes autonomes pour assurer une distribution de commande optimale. Cette couche agit comme un superviseur basé sur des algorithmes d'allocation optimale du contrôle. La synthèse des correcteurs repose sur les théories du contrôle robuste permettant de faire face aux changements environnementaux et aux incertitudes paramétriques et dynamiques du véhicule. Les résultats ont d’abord montré que même en ce qui concerne les véhicules actuels, l’approche en amont peut offrir des avantages supplémentaires pour ce qui est de la résolution de problèmes à objectifs multiples. En outre, l’approche en amont permet de coordonner les sous-systèmes des véhicules présentant une sur-actionnement plus élevé. La tolérance aux pannes peut être assurée entre des systèmes de châssis complètement différents, et des objectifs qualitatifs, s'ils sont rigoureusement formalisés, peuvent être satisfaits. Plus les sous-systèmes seront nombreux à l'avenir, plus l'approche en amont deviendrait pertinente pour le contrôle du mouvement des véhicules. Nous espérons que les avantages conséquents présentés dans cette thèse grâce à une approche de coordination en amont optimale encourageraient les constructeurs automobiles et leurs équipementiers à opter pour des solutions plus ouvertes, à proposer ensemble les normalisations nécessaires et accélérer ainsi le développement des véhicules autonomes. / A large interest has been given recently to global chassis control. One of the main reasons for this would be the approach of fully autonomous vehicles. These vehicles, especially the SAE (J3016) level 5 of automation, are expected to replace the human driver in all situations. The automated vehicle should be able to manage coupled situations in harmony where longitudinal control, lateral control, and eventually vertical control are involved. To do so, the vehicle has more than one embedded system per control axis. Equipment suppliers and new entering automotive actors are continually proposing new solutions to satisfy a specific performance required from future passenger cars. Consequently, the car manufacturer has to coordinate different subsystems coming from different stakeholders to ensure a safe and comfortable driving experience. Until these days, car manufactures favoured simple solutions consisting on adding a coordination layer downstream the competing subsystems in order to mitigate eventual conflicts. Most of strategies adopted consist on prioritizing one system over another depending on predictable conflicting scenarios. Autonomous vehicles need additional subsystems to operate safely. Interactions between these subsystems will increase to the point of becoming unpredictable. This thesis focus on the coordination approach that should be adopted by future vehicles. Particularly, the coordination layer is moved upstream the standalone subsystems to ensure an optimal control distribution. This layer acts as a supervisor depending on optimization-based control allocation algorithms. The control synthesis is based on robust control theories to face environmental changes and the vehicle’s parameters and dynamics uncertainties. Results showed first that even regarding today’s vehicles, the upstream approach can offer additional advantages when it comes to multiple objectives problems solving. In addition, the upstream approach is able to coordinate subsystems of vehicles with a higher over-actuation. Fault-tolerance can be ensured between completely different chassis systems, and qualitative objectives, if rigorously formalized, can be satisfied. The more numerous subsystems will get in the future, the more relevant the upstream approach would become to vehicle motion control. We expect that the important benefits shown in this thesis thanks to an optimal upstream coordination approach would encourage car manufacturers and equipment to switch towards more open solutions, propose together the necessary standardizations, and accelerate the autonomous vehicles development.
37

Self-stabilizing algorithms for graph parameters / Algorithmes auto-stabilisants pour des paramètres de graphes

Neggazi, Brahim 15 April 2015 (has links)
Le concept d'auto-stabilisation a été introduit par Dijkstra en 1973. Un système distribué est auto-stabilisant s'il peut démarrer de n'importe quelle configuration initiale et retrouver une configuration légitime en un temps fini par lui-même et sans aucune intervention extérieure. La convergence est également garantie lorsque le système est affecté par des fautes transitoires, ce qui en fait une approche élégante, non masquante, pour la tolérance aux pannes. L'auto-stabilisation a été étudiée dans divers domaines des systèmes distribués tels que les problèmes de synchronisation de l'horloge, de la communication et les protocoles de routage. Vu l'importance des paramètres de graphes notamment pour l'organisation et l'optimisation des communications dans les réseaux et les systèmes distribués, plusieurs algorithmes auto-stabilisants pour des paramètres de graphe ont été proposés dans la littérature, tels que les algorithmes autostabilisants permettant de trouver les ensembles dominants minimaux, coloration des graphes, couplage maximal et arbres de recouvrement. Dans cette perspective, nous proposons, dans cette thèse, des algorithmes distribués et autostabilisants pour certains problèmes de graphes bien connus, en particulier pour les décompositions de graphes et les ensembles dominants qui n'ont pas encore été abordés avec le concept de l'autostabilisation. Les quatre problèmes majeurs considérés dans cette thèse sont: partitionnement en triangles, décomposition en p-étoiles, Monitoring des arêtes, fort ensemble dominant et indépendant. Ainsi, le point commun entre ces problèmes, est qu'ils sont tous considérés comme des variantes des problèmes de domination et de couplage dans les graphes et leur traitement se fait d'une manière auto-stabilisante / The concept of self-stabilization was first introduced by Dijkstra in 1973. A distributed system is self-stabilizing if it can start from any possible configuration and converges to a desired configuration in finite time by itself without using any external intervention. Convergence is also guaranteed when the system is affected by transient faults. This makes self-stabilization an effective approach for non-masking fault-tolerance. The self-stabilization was studied in various fields in distributed systems such as the problems of clock synchronization, communication and routing protocols. Given the importance of graph parameters, especially for organization and communication of networks and distributed systems, several self-stabilizing algorithms for classic graph parameters have been developed in this direction, such as self-stabilizing algorithms for finding minimal dominating sets, coloring, maximal matching, spanning tree and so on. Thence, we propose in this thesis, distributed and self-stabilizing algorithms to some wellknown graphs problems, particularly for graph decompositions and dominating sets problems that have not yet been addressed in a view of self-stabilization. The four major problems considered in this thesis are: the partitioning into triangles, p-star decomposition, edge monitoring set and independent strong dominating set problems. The common point between these four problems is that they are considered as variants of dominating set and matching problems and all propositions deal with the self-stabilization paradigm
38

Conception de Réseaux Dynamiques Tolérants aux Pannes

Huc, Florian 14 November 2008 (has links) (PDF)
Cette thèse aborde différents aspects de la conception d'un réseau de télécommunications. Un tel réseau utilise des technologies hétérogènes : liens antennes-satellites, radio, fibres optiques ou bien encore réseaux embarqués dans un satellite. Les problématiques varient en fonction de la partie du réseau considérée, du type de requêtes et de l'objectif. Le cas des requêtes de type paquets est abordé dans le cadre des réseaux en forme de grille, mais le thème principal est le routage de requêtes de type connections (unicast et multicast). Les objectifs considérés sont : la conception d'un réseau embarqué dans un satellite de télécommunication, de taille minimum et tolérant des pannes de composants; le dimensionnement des liens d'un réseau afin qu'il supporte des pannes corrélées ou qu'il offre une bonne qualité de service, ou s'il autorise des connections {\em multicast}; le dimensionnement de la taille des buffers d'un réseau d'accés radio; et l'optimisation de l'utilisation des ressources d'un réseau dynamique orienté connections. Dans tous ces cas la problématique du routage de connections est centrale. Mon approche consiste à utiliser la complémentarité de techniques algorithmique et d'optimisation combinatoire ainsi que d'outils issus de la théorie des graphes tels la pathwidth et des notions reliées -process number, jeux de captures et treewidth-, différents types de coloration -impropre et pondérée, proportionnelle, directed star colouring-, les graphes d'expansion et des techniques de partitions telle la quasi partition.
39

Partitionnement dans les réseaux mobiles Ad-hoc : conception et évaluation de protocoles auto-stabilisants et robustes / Clustering in mobile ad-hoc networks : design and evaluation of robust self-stabilizing protocols

Mekhaldi, Fouzi 12 December 2011 (has links)
Cette thèse se positionne dans le cadre de l'algorithmique distribuée tolérante aux pannes adaptée aux réseaux mobiles à grande échelle.L'auto-stabilisation est une approche de tolérance aux pannes satisfaisante dans les systèmes ayant des perturbations transitoires, mais pas dans les réseaux très dynamiques à grande échelle. La faute est due à l'éventuelle absence totale de service lorsque les perturbations sont fréquentes.Pour remédier à cet inconvénient, nous avons introduit l'approche auto-stabilisation robuste apportant une garantie de service pendant la phase de stabilisation.La garantie de service offerte par l'auto-stabilisation robuste est assurée via : (1) le délai de reprise d'un service minimum, et(2) la préservation du service minimum pendant la convergence vers un service optimum en dépit de l'occurrence de certaines perturbations hautement tolérées.L'intérêt d'avoir la propriété auto-stabilisation robuste est d'assurer une haute disponibilité du système en dépit de l'occurrence des perturbations et changements topologiques.Dans cette thèse, nous proposons, prouvons et évaluons une suite protocolaire auto-stabilisante robuste.Dans un premier temps, nous proposons deux protocoles auto-stabilisants robustes pour les problèmes de partitionnement, et l'établissement et le maintien de la connaissance des clusters voisins.Les deux protocoles sont écrits dans le modèle à états et fonctionnent sous l'hypothèse d'un démon distribué faiblement équitable.Le protocole de partitionnement, baptisé R-BSC, permet de partitionner le réseau en clusters à 1-saut. Les noeuds choisis pour être leaders sont les plus aptes à ce rôle, et les clusters construits sont de taille bornée dans le but d'équilibrer la charge entre leaders.Le protocole R-BSC fournit rapidement, en 4 rounds seulement, un service minimum où le réseau est complètement partitionné en clusters de taille bornée.Pendant la convergence vers un service optimum, où les leaders seront bien les noeuds les plus aptes et leur nombre sera réduit localement, le service minimum restera préservé. Le protocole de connaissance des clusters voisins, baptisé R-CNK, permet à chaque leader de connaître l'identité des leaders des clusters voisins, les chemins menant vers eux, ainsi que la composition (liste des noeuds ordinaires) des clusters voisins.Le service minimum de notre protocole R-CNK, atteint après 4 rounds seulement, garantit que tout leader connaît toujours des chemins vers tous les leaders des clusters voisins. Ce service minimum est maintenu en dépit des changements de la structure hiérarchique : création / destruction des clusters, changement de composition des clusters suite au départ / arrivé des noeuds ordinaires.Un deuxième aspect de nos travaux concerne l'évaluation des protocoles conçus (R-BSC et R-CNK) dans le contexte des réseaux mobiles.Nous avons mené une étude expérimentale sous le simulateur NS2 pour évaluer les performances de nos protocoles, ainsi que ceux des protocoles auto-stabilisants correspondants.Cette étude a montré que nos protocoles R-BSC et R-CNK offrent de meilleurs performances en terme de garantie de service, d'où l'efficacité de l'approche auto-stabilisation robuste par rapport à l'auto-stabilisation classique. / This dissertation is focused on fault-tolerant distributed algorithms adapted to large scale mobile networks.Self-stabilization is a fault-tolerance approach suited for systems with transient disruptions, but not for large scale dynamic networks.The fault is due to the eventual total lack of service when faults occur frequently.To address this drawback, we have introduced the robust self-stabilization approach that improves the service guarantee during the stabilization phase.The service guarantee provided by the robust self-stabilization is achieved via:(1) fast recovery to a minimum service and(2) preservation of minimum service during the convergence to an optimum service despite the occurrence of highly tolerated disruptions.Having the robust self-stabilization property ensures a high availability of the system despite the occurrence disruptions and topological changes in the network.In this thesis, we propose, evaluate and prove a series of robust self-stabilizing protocols.At first, we propose two robust self-stabilizing protocols for both problems : clustering and the maintain of knowledge about neighbor clusters.The two protocols are written in the local shared memory model and operate under the assumption of a weakly fair distributed daemon.The clustering protocol, called R-BSC, gathers the network nodes into 1-hop clusters.It allows a best choice of leaders, and it builds clusters with limited size in order to balance the load between leaders.The protocol R-BSC quickly provides, after at most 4 rounds, a minimum service where the network is completely partitioned into bounded-size clusters.During the convergence towards an optimum service, in which leaders will be the most appropriate nodes and their number will be reduced locally, the minimum service is preserved.The protocol for knowledge of neighbor clusters, called R-CNK, allows each leader to know the identity of leaders of neighbor clusters, paths leading to them, and the composition (list of ordinary nodes) of its neighbor clusters.The minimum service provided by of R-CNK protocol, reached after 4 rounds, ensures that every leader always knows paths towards all the leaders of neighbor clusters.We conducted an experimental study using the simulator NS2 to evaluate and to compare the performance of our protocols (R-BSC and R-CNK) with those of their self-stabilizing version in the context of mobile networks.This study confirmed that our protocols R-BSC and R-CNK offer a better service guarantee.
40

Wireless sensor networks for Industrial health assessment based on a random forest approach / Réseaux de capteurs sans fil pour l'évaluation de l'état de santé de systèmes industriels

Elghazel, Wiem 09 December 2015 (has links)
Une maintenance prédictive efficace se base essentiellement sur la fiabilité des données de surveillance.Dans certains cas, la surveillance des systèmes industriels ne peut pas être assurée à l’aide de capteurs individuels ou filaires. Les Réseaux de Capteurs Sans Fil (RCSF) sont alors une alternative. Vu la nature de communication dans ces réseaux, la perte de données est très probable. Nous proposons un algorithme distribué pour la survie des données dans le réseau. Cet algorithme réduit le risque d’une perte totale des paquets de données et assure la continuité du fonctionnement du réseau. Nous avons aussi simulé de différentes topologies du réseau pour évaluer leur impact sur la complétude des données au niveau du nœud puits. Par la suite, nous avons proposé une démarche d’évaluation de l’état de santé de systèmes physiques basée sur l’algorithme des forêts aléatoires. Cette démarche repose sur deux phases : une phase hors ligne et une phase en ligne. Dans la phase hors ligne, l’algorithme des forêts aléatoires sélectionne les paramètres qui contiennent le plus d’information sur l’état du système. Ces paramètres sont utilisés pour construire les arbres décisionnels qui constituent la forêt. Dans la phase en ligne, l’algorithme évalue l’état actuel du système en utilisant les données capteurs pour parcourir les arbres construits. Chaque arbre dans la forêt fournit une décision, et la classe finale est le résultat d’un vote majoritaire sur l’ensemble de la forêt. Quand les capteurs commencent à tomber en panne, les données décrivant un indicateur de santé deviennent incomplètes ou perdues. En injectant de l’aléatoire dans la base d’apprentissage, l’algorithme aura des points de départ différents, et par la suite les arbres aussi. Ainsi, l’absence des mesures d’un indicateur de santé ne conduit pas nécessairement à l’interruption du processus de prédiction de l’état de santé. / An efficient predictive maintenance is based on the reliability of the monitoring data. In some cases, themonitoring activity cannot be ensured with individual or wired sensors. Wireless sensor networks (WSN) arethen an alternative. Considering the wireless communication, data loss becomes highly probable. Therefore,we study certain aspects of WSN reliability. We propose a distributed algorithm for network resiliency and datasurvival while optimizing energy consumption. This fault tolerant algorithm reduces the risks of data loss andensures the continuity of data transfer. We also simulated different network topologies in order to evaluate theirimpact on data completeness at the sink level. Thereafter, we propose an approach to evaluate the system’sstate of health using the random forests algorithm. In an offline phase, the random forest algorithm selects theparameters holding more information about the system’s health state. These parameters are used to constructthe decision trees that make the forest. By injecting the random aspect in the training set, the algorithm (thetrees) will have different starting points. In an online phase, the algorithm evaluates the current health stateusing the sensor data. Each tree will provide a decision, and the final class is the result of the majority voteof all trees. When sensors start to break down, the data describing a health indicator becomes incompleteor unavailable. Considering that the trees have different starting points, the absence of some data will notnecessarily result in the interruption of the prediction process.

Page generated in 0.0624 seconds