• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 12
  • 1
  • Tagged with
  • 48
  • 48
  • 43
  • 25
  • 21
  • 21
  • 20
  • 18
  • 11
  • 11
  • 11
  • 11
  • 11
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Conception et réalisation d'un [sic] architecture multi-microprocesseur flexible : application au contrôle de processus industriel

Habannakeh-Midani, Hussein 28 May 1979 (has links) (PDF)
.
32

Etude d'un module accélérateur supraconducteur et de ses systèmes de régulation pour le projet MYRRHA

Bouly, Frédéric 03 November 2011 (has links) (PDF)
Afin d'étudier la faisabilité de la technologie ADS (" Accelerator Driven System ") pour la transmutation des déchets hautement radiotoxiques le projet MYRRHA (" Multi-purpose hYbrid Research Reactor for High-tech Applications ") a pour objectif la construction d'un démonstrateur de réacteur hybride (50 à 100 MWth). Pour cela le réacteur sous-critique nécessite un accélérateur de forte puissance délivrant un faisceau continu de protons (600 MeV, 4mA), avec une exigence de fiabilité très élevée. La solution de référence retenue pour cette machine est un accélérateur linéaire supraconducteur. Ce mémoire de thèse décrit le travail de recherche - entrepris depuis octobre 2008 à l'IPN d'Orsay - portant sur la conception et la mise au point d'un module supraconducteur et des systèmes de régulation associés à sa cavité accélératrice, pour la partie haute énergie de l'accélérateur. Dans un premier temps, le design et l'optimisation de cavités accélératrices 5-cellules (β=0,65), fonctionnant à la fréquence de 704,4 MHz, sont présentés. Ensuite, la partie expérimentale se concentre sur l'étude de fiabilité du " cryomodule " prototype accueillant une cavité elliptique 5-cellules (β=0,47). Au cours de cette étude on s'est notamment attaché à mesurer et à caractériser le comportement dynamique du système d'accord. Les problématiques de maintient du " plat de champ " dans les cavités multi-cellules " bas béta " ont aussi été mises en évidence. Enfin, une analyse sur la tolérance aux pannes de l'accélérateur linéaire a été menée. Dans ce but, une modélisation de la cavité, de sa boucle de régulation RF (radiofréquence) et de la boucle de contrôle de son système d'accord, a été développée afin d'étudier les comportements transitoires de cet ensemble. Cette étude a permis de chiffrer les besoins en puissance RF et les performances requises du système d'accord et de démontrer la faisabilité d'un réglage rapides des cavités supraconductrices afin de minimiser le nombre d'arrêts faisceau dans le linac de MYRRHA.
33

Algorithmique et optimisation dans les réseaux de télécommunications

Coudert, David 05 March 2010 (has links) (PDF)
Le contexte général de mes travaux se situe dans les réseaux orientés connexions, que ce soit des réseaux optiques à multiplexage en longueur d'onde (WDM), des réseaux MPLS (multi-protocol label switching), ou encore des réseaux à faisceaux hertziens (wireless backhaul networks). Dans ces réseaux, je m'intéresse à router les flux d'information, à agréger des flux d'information bas débits dans des flux de plus hauts débits, à faire évoluer le routage en cas de variations dans la quantité de trafic à transporter ou dans la topologie du réseau, et à assurer la continuité du trafic en cas de panne simple ou multiple. Pour aborder ces questions, j'utilise des outils variés de l'algorithmique, de la théorie des graphes et de l'optimisation combinatoire.<br /> L'ensemble des résultats présentés dans ce document est le fruit de travaux collaboratifs avec les membres de l'équipe-projet MASCOTTE, des collègues d'autres universités, française ou étrangères, et des collègues de France Télécom, Alcatel-Lucent et 3Roam. L'introduction de ce manuscrit résume nos travaux sur le routage, le groupage de trafic, la tolérance aux pannes et la reconfiguration, ainsi que des travaux plus récents sur la minimisation du nombre d'étiquettes dans les réseaux MPLS, le dimensionnement de réseaux de collecte IP sans fil, et sur le routage disjoints d'ensembles particuliers de requêtes. Ensuite, je détaille nos travaux sur le groupage de trafic au travers d'un état de l'art dans le chapitre 3, nos contributions sur la notion de groupes de ressources partageant un risque dans le chapitre 4, et sur la reconfiguration de routages dans le chapitre 5. Le chapitre 6 conclut ce manuscrit en présentant avec quelques directions de recherches.
34

Une architecture parallèle distribuée et tolérante aux pannes pour le protocole interdomaine BGP au cœur de l’Internet

Hamzeh, Wissam 12 1900 (has links)
L’augmentation du nombre d’usagers de l’Internet a entraîné une croissance exponentielle dans les tables de routage. Cette taille prévoit l’atteinte d’un million de préfixes dans les prochaines années. De même, les routeurs au cœur de l’Internet peuvent facilement atteindre plusieurs centaines de connexions BGP simultanées avec des routeurs voisins. Dans une architecture classique des routeurs, le protocole BGP s’exécute comme une entité unique au sein du routeur. Cette architecture comporte deux inconvénients majeurs : l’extensibilité (scalabilité) et la fiabilité. D’un côté, la scalabilité de BGP est mesurable en termes de nombre de connexions et aussi par la taille maximale de la table de routage que l’interface de contrôle puisse supporter. De l’autre côté, la fiabilité est un sujet critique dans les routeurs au cœur de l’Internet. Si l’instance BGP s’arrête, toutes les connexions seront perdues et le nouvel état de la table de routage sera propagé tout au long de l’Internet dans un délai de convergence non trivial. Malgré la haute fiabilité des routeurs au cœur de l’Internet, leur résilience aux pannes est augmentée considérablement et celle-ci est implantée dans la majorité des cas via une redondance passive qui peut limiter la scalabilité du routeur. Dans cette thèse, on traite les deux inconvénients en proposant une nouvelle approche distribuée de BGP pour augmenter sa scalabilité ainsi que sa fiabilité sans changer la sémantique du protocole. L’architecture distribuée de BGP proposée dans la première contribution est faite pour satisfaire les deux contraintes : scalabilité et fiabilité. Ceci est accompli en exploitant adéquatement le parallélisme et la distribution des modules de BGP sur plusieurs cartes de contrôle. Dans cette contribution, les fonctionnalités de BGP sont divisées selon le paradigme « maître-esclave » et le RIB (Routing Information Base) est dupliqué sur plusieurs cartes de contrôle. Dans la deuxième contribution, on traite la tolérance aux pannes dans l’architecture élaborée dans la première contribution en proposant un mécanisme qui augmente la fiabilité. De plus, nous prouvons analytiquement dans cette contribution qu’en adoptant une telle architecture distribuée, la disponibilité de BGP sera augmentée considérablement versus une architecture monolithique. Dans la troisième contribution, on propose une méthode de partitionnement de la table de routage que nous avons appelé DRTP pour diviser la table de BGP sur plusieurs cartes de contrôle. Cette contribution vise à augmenter la scalabilité de la table de routage et la parallélisation de l’algorithme de recherche (Best Match Prefix) en partitionnant la table de routage sur plusieurs nœuds physiquement distribués. / The increasing number of end users has led to an exponential growth in the Internet routing table. The routing table is expected to reach a size of one million prefixes within the coming few years. Besides, current core routers may easily attain hundreds of connected BGP peers simultaneously. In classical monolithic architecture, the BGP protocol runs as a single entity inside the router. This architecture suffers from two drawbacks: scalability and reliability. BGP scalability can be measured in terms of the number of connected peers that can be handled and the size of the routing table. On the other hand, the reliability is a critical issue in core routers. If the BGP instance inside the router fails, all peers’ connections will shutdown and the new reachability state will be propagated across the Internet in a non trivial convergence delay. Although, in current core routers, the resiliency is increased considerably, it’s mainly implemented via a primary-backup redundancy scheme which limits the BGP scalability. In this thesis we address the two mentioned BGP drawbacks by proposing a novel distributed approach to increase both scalability and reliability of BGP without changing the semantic of the protocol. The BGP distributed architecture in the first paper is built to satisfy both requirements: scalability and reliability by adequately exploiting parallelism and module separation. In our model, BGP functionalities are split in a master-slave manner and the RIB (Routing Information Base) is replicated to multiple controller cards, to form a cluster of parallel computing entities. In the second paper, we address the fault tolerance of BGP within the distributed architecture presented in the first paper. We prove analytically that, by adopting the distributed architecture of BGP the availability of BGP will be increased considerably versus a monolithic architecture. In the third paper we propose a distributed parallel scheme called DRTP to partition the BGP routing table on multiple controller cards. DRTP aims at increasing the BGP scalability and the parallelization of the Best Match Prefix algorithm.
35

Efficacité énergétique dans le calcul très haute performance : application à la tolérance aux pannes et à la diffusion de données / Energy efficiency in very high-performance computing : application to fault tolerance and data broadcasting

Diouri, Mohammed El Mehdi 27 September 2013 (has links)
Les infrastructures de calcul très haute performance ont connu une croissance rapide en particulier ces dernières années. Cette croissance a toujours été motivée par les besoins accrus en puissance de calcul qu'expriment les scientifiques dans divers domaines. Cependant, ces systèmes devenus de plus en plus larges constituent de gros consommateurs d'électricité et consomment déjà plusieurs mégawatts. Afin de consommer ''moins'' et ''mieux'', nous avons proposé un environnement logiciel qui d'une part, permet de choisir avant de pré-exécuter l'application, les versions de services applicatifs consommant le moins d'énergie, et qui d'autre part, repose sur une grille électrique intelligente pour planifier les réservations des ressources de calcul de ces infrastructures. Cet environnement, appelé SESAMES, a été adapté à deux services applicatifs indispensables au calcul très haute performance : la tolérance aux pannes et la diffusion de données. Des validations expérimentales ont montré que l'on peut réduire la consommation énergétique de chacun des deux services étudiés en s'appuyant sur les estimations énergétiques précises fournies par SESAMES pour n'importe quel contexte d'exécution et pour n'importe quelle plate-forme dotée de wattmètres. Notre méthodologie d'estimation repose sur une description du contexte d'exécution et sur une calibration de la plate-forme d'exécution basée sur la collecte de mesures énergétiques. Des simulations ont démontré que l'ordonnanceur multi-critères des réservations de ressources proposé dans SESAMES, permet de réduire à la fois la consommation énergétique, le coût financier et l'impact environnemental de ces réservations, tout en respectant les contraintes imposées par l'utilisateur et le fournisseur d'énergie. / High performance computing (HPC) infrastructures have experienced a rapid growth, particularly these last years. This growth has been driven by the increased need in terms of computational power expressed by scientists in various fields. However, their increasing size makes them important electricity consumers since they already consume several megawatts. In order to consume "less" and better", we proposed a framework which permits to choose the less consuming versions of the services before pre-executing the application. In addition, our framework relies on a smart grid in order to schedule resource reservations on these computing infrastructures. This framework, called SESAMES, is adapted to two services required in high performance computing: fault tolerance and data broadcasting. Experimental validations have shown that we can reduce the energy consumption of both services by relying on accurate energy estimations provided by SESAMES for any execution context and for any platform equipped with wattmeters. Our estimation methodology is based on a description of the execution context and on a platform calibration that consists of gathering energy measurements. Simulations have shown that the multi-criteria reservation scheduler proposed in SESAMES, simultaneously reduces the energy consumption, the financial cost and the environmental impact of these reservations, while respecting the constraints imposed by the user and the energy supplier.
36

Vers une structuration auto-stabilisante des réseaux ad hoc : cas des réseaux de capteurs sans fil / Towards a self-stabilizing structuring of ad hoc networks : the case of wireless sensor networks

Ba, Mandicou 21 May 2014 (has links)
Nous proposons un algorithme original de structuration des réseaux ad hoc nommé SDEAC dans le but d'optimiser les communications et de tolérer les pannes transitoires. SDEAC est auto-stabilisant, distribué et déterministe. Il utilise un modèle asynchrone à passage de messages et se fonde sur un voisinage à distance 1 pour construire des clusters non-recouvrants à k sauts. Nous montrons que partant d'une configuration quelconque et sans occurrence de pannes transitoires, SDEAC structure le réseau dans le pire des cas en n+2 transitions. En outre, son exécution nécessite une occupation mémoire de (Δu+1)*log(2n+k+3) bits pour chaque noeud u, avec Δu étant le degré de u, k le rayon maximal des clusters et n la taille du réseau. Par simulation sous OMNeT++, nous observons pour un réseau quelconque un temps de stabilisation très inférieur à celui du pire des cas d'une part. D'autre part, suite à l'occurrence de pannes transitoires après la stabilisation, nous constatons un temps de stabilisation inférieur à celui du clustering. Dans le contexte des RCSF, nous étudions la consommation énergétique de SDEAC suivant trois critères d'élection des cluster-heads (identité, degré et énergie résiduelle des noeuds) puis nous la comparons avec celle de la solution de Mitton et al. opérant dans le même modèle. Les résultats montrent que SDEAC permet le passage à l'échelle et réduit la consommation énergétique de 42% à 49%. Enfin, pour l'utilisation de SDEAC dans l'acheminement de l'information, nous proposons deux approches efficaces : (i) un routage sans agrégation qui minimise les délais de bout en bout et (ii) un routage avec agrégation partielle qui réduit la consommation énergétique totale offrant ainsi une meilleure durée de vie du réseau. / We propose SDEAC, a self-Stabilizing Distributed Energy-Aware and fault-tolerant Clustering algorithm. SDEAC uses an asynchronous message-passing model and is based on 1-hop neighboring to build non-overlapping k-hops clusters. We prove that, starting from an arbitrary configuration, SDEAC structures the network after at most n + 2 transitions and requires (Δu+1)log(2n+k+3) memory space for each node u, where n is the number of network nodes, Δu is the degree of u and k represents the maximum hops number. Through simulations under OMNeT++, we observe that over arbitrary network, the stabilization time is far below the worst case scenario. Furthermore, we remark that after faults, the re-clustering cost is significantly lower than the clustering cost. In the context of Wireless Sensor Networks (WSNs), we evaluate the energy consumption of SDEAC according to multiple criteria in the election of cluster-heads, such as nodes' identity, residual energy or degree and we compare it with the well-known message-passing based self-stabilizing clustering algorithm proposed by Mitton et al. Results show that SDEAC is scalable and reduces energy consumption between 42% and 49%.Afterwards, we propose efficient scenarios in order to transfer information: (i) the non-aggregation scenario that provides a better end-to-end delay and (ii) the partially-decentralized aggregation scenario that reduces the total energy consumption and prolongs the network lifetime.
37

Services auto-adaptatifs pour les grilles pair-à-pair / Self-adaptive services for P2P Grid

Gueye, Bassirou 26 May 2016 (has links)
La gestion de ressources distribuées à l'échelle planétaire dans plusieurs organisations virtuelles implique de nombreux défis. Dans cette thèse, nous proposons un modèle pour la gestion dynamique de services dans un environnement de grille pair-à-pair à large échelle.Ce modèle, nommé P2P4GS, présente l'originalité de ne pas lier l'infrastructure pair-à-pair à la plate-forme d'exécution de services.De plus, il est générique, c'est-à-dire applicable sur toute architecture pair-à-pair. Pour garantir cette propriété, vu que les systèmes distribués à large échelle ont tendance à évoluer en termes de ressources, d'entités et d'utilisateurs, nous avons proposé de structurer le système de grille pair-à-pair en communautés virtuelles (clusters).L'approche de structuration est complètement distribuée et se base uniquement sur le voisinage des noeuds pour l'élection des responsables de clusters appelés PSI (Proxy Système d'Information). D'autre part, afin de bien orchestrer les communications au sein des différentes communautés virtuelles et aussi permettre une recherche efficace et exhaustive de service, lors de la phase de structuration, un arbre couvrant constitué uniquement des PSI est maintenu. Les requêtes de recherche vont ainsi être acheminées le long de cet arbre.Outre la découverte de services, nous avons proposé des mécanismes de déploiement, de publication et d'invocation de services. Enfin, nous avons implémenté et analysé les performances de P2P4GS. Afin d'illustrer sa généricité, nous l'avons implémenté sur Gia, Pastry et Kademlia des protocoles pair-à-pair opérant de manières totalement différentes.Les tests de performances ont montré que le P2P4GS fournit une bonne résistance aux pannes et garantit un passage à l'échelle en termes de dimensionnement du réseau et également de coût de communications. / Resource management management worldwide distributed in several virtual organizations is a key issue.In this thesis, we propose a model for dynamic services management in large-scale peer-to-peer Grid environments.This model named P2P4GS, presents originality not to link peer-to-peer infrastructure to the execution services platform.In addition, the middleware is generic i.e. it able to be applied on any peer-to-peer architecture.Meanwhile, the increasing size of resources and users in large-scale distributed systems has lead to a scalability problem.To ensure scalability, we propose to organize the peer-to-peer Grid nodes in virtual communities so called clusters.The structuring approach is completely distributed, and only requires local knowledge about nodes neighborhood for election of cluster managers called ISP (Information System Proxy).On the other hand, in order orchestrate communications in the various virtual communities and also enable an efficient service discovery,during structuring process, a spanning tree only constituted of ISP is maintained. Therefore, search queries will be routed along the spanning tree.Besides the service discovery, we proposed service deployment, publication and invocation mechanisms.Finally, we implemented and analyzed the performance of P2P4GS.To illustrate that P2P4GS is generic, we implemented protocols that operating in fully different way. These protocols are Gia, Pastry and Kademlia.Performance tests show that, on the one hand, our approach provides good fault tolerance and ensures the scalability in terms of the clusters distribution and communication cost.
38

An approach for Self-healing Transactional Composite Services / Une approche auto-corrective pour des services composites transactionnels

Angarita Arocha, Rafael Enrique 11 December 2015 (has links)
Dans ce mémoire de thèse, nous présentons une approche d’exécution auto-corrective (self-healing) de services composites, basée sur des agents capables de prendre, de manière autonome, des décisions pendant l’exécution des services, à partir de leurs connaissances. Dans un premier temps, nous définissons, de manière formelle, en utilisant des réseaux de Petri colorés, les services composites, leur processus d’exécution, et leurs mécanismes de tolérance aux pannes. Notre approche offre plusieurs mécanismes de reprise sur panne alternatifs : la récupération en arrière avec compensation ; la récupération en avant avec ré-exécution et/ou remplacement de service ; et le point de contrôle (checkpointing), à partir duquel il est possible de reprendre l’exécution du service ultérieurement. Dans notre approche, les services sont contrôlés par des agents, i.e. des composants dont le rôle est de s’assurer que l’exécution des services soit tolérante aux pannes. Notre approche est également étendue afin de permettre un auto-recouvrement. Dans cette extension, les agents disposent d’une base de connaissances contenant à la fois des informations sur eux-mêmes et sur le contexte d’exécution. Pour prendre des décisions concernant la sélection des stratégies de récupération, les agents font des déductions en fonction des informations qu’ils ont sur l’ensemble du service composite, sur eux-mêmes, tout en prenant en compte également ce qui est attendu et ce qui se passe réellement lors de l’exécution. Finalement, nous illustrons notre approche par une évaluation expérimentale en utilisant un cas d’étude. / In this thesis, we present a self-healing approach for composite services supported by knowledge-based agents capable of making decisions at runtime. First, we introduce our formal definition of composite services, their execution processes, and their fault tolerance mechanisms using Colored Petri nets. We implement the following recovery mechanisms: backward recovery through compensation; forward recovery through service retry and service replacement; and checkpointing as an alternative strategy. We introduce the concept of Service Agents, which are software components in charge of component services and their fault tolerance execution control. We then extend our approach with self-healing capabilities. In this self-healing extension, Service Agents are knowledge-based agents; that is, they are self- and context-aware. To make decisions about the selection of recovery and proactive fault tolerance strategies, Service Agents make deductions based on the information they have about the whole composite service, about themselves, and about what is expected and what it is really happening at runtime. Finally, we illustrate our approach and evaluate it experimentally using a case study.
39

Optimal Coordination of Chassis Systems for Vehicle Motion Control / Coordination Optimale des Systèmes Châssis pour le Contrôle du Mouvement des Voitures

Kissai, Moad 17 June 2019 (has links)
Le contrôle global du châssis a fait récemment l'objet d'une attention particulière. Cela serait motivé surtout par l’approche des véhicules entièrement autonomes. Ces véhicules, en particulier le niveau 5 d’automatisation SAE (J3016), devraient remplacer le conducteur humain dans presque toutes les situations. Le véhicule automatisé devrait être capable de gérer en harmonie des situations couplées où sont intégrés le contrôle longitudinal, latéral et éventuellement vertical. Pour ce faire, le véhicule dispose de plusieurs systèmes intégrés par axe de contrôle. En effet, les équipementiers automobiles et les nouveaux acteurs de l'industrie automobile proposent continuellement de nouvelles solutions pour satisfaire des performances bien spécifiques. Le constructeur automobile doit quant à lui coordonner différents sous-systèmes provenant de différentes parties prenantes afin de garantir une expérience de conduite fiable et confortable. Jusqu'à présent, les constructeurs automobiles privilégiaient des solutions simples consistant à ajouter une couche de coordination en aval des sous-systèmes concurrents afin de limiter les potentiels conflits. La plupart des stratégies adoptées consistent à prioriser un système par rapport à un autre en fonction de certains scénarios conflictuels prévisibles. Les véhicules autonomes ont besoin de sous-systèmes supplémentaires pour fonctionner en toute sécurité. Ainsi, les interactions entre les sous-systèmes s'amplifieront au point de devenir imprévisibles. Cette thèse met l'accent sur l'approche de coordination qui devrait être adoptée par les véhicules du futur. En particulier, la couche de coordination est déplacée en amont des sous-systèmes autonomes pour assurer une distribution de commande optimale. Cette couche agit comme un superviseur basé sur des algorithmes d'allocation optimale du contrôle. La synthèse des correcteurs repose sur les théories du contrôle robuste permettant de faire face aux changements environnementaux et aux incertitudes paramétriques et dynamiques du véhicule. Les résultats ont d’abord montré que même en ce qui concerne les véhicules actuels, l’approche en amont peut offrir des avantages supplémentaires pour ce qui est de la résolution de problèmes à objectifs multiples. En outre, l’approche en amont permet de coordonner les sous-systèmes des véhicules présentant une sur-actionnement plus élevé. La tolérance aux pannes peut être assurée entre des systèmes de châssis complètement différents, et des objectifs qualitatifs, s'ils sont rigoureusement formalisés, peuvent être satisfaits. Plus les sous-systèmes seront nombreux à l'avenir, plus l'approche en amont deviendrait pertinente pour le contrôle du mouvement des véhicules. Nous espérons que les avantages conséquents présentés dans cette thèse grâce à une approche de coordination en amont optimale encourageraient les constructeurs automobiles et leurs équipementiers à opter pour des solutions plus ouvertes, à proposer ensemble les normalisations nécessaires et accélérer ainsi le développement des véhicules autonomes. / A large interest has been given recently to global chassis control. One of the main reasons for this would be the approach of fully autonomous vehicles. These vehicles, especially the SAE (J3016) level 5 of automation, are expected to replace the human driver in all situations. The automated vehicle should be able to manage coupled situations in harmony where longitudinal control, lateral control, and eventually vertical control are involved. To do so, the vehicle has more than one embedded system per control axis. Equipment suppliers and new entering automotive actors are continually proposing new solutions to satisfy a specific performance required from future passenger cars. Consequently, the car manufacturer has to coordinate different subsystems coming from different stakeholders to ensure a safe and comfortable driving experience. Until these days, car manufactures favoured simple solutions consisting on adding a coordination layer downstream the competing subsystems in order to mitigate eventual conflicts. Most of strategies adopted consist on prioritizing one system over another depending on predictable conflicting scenarios. Autonomous vehicles need additional subsystems to operate safely. Interactions between these subsystems will increase to the point of becoming unpredictable. This thesis focus on the coordination approach that should be adopted by future vehicles. Particularly, the coordination layer is moved upstream the standalone subsystems to ensure an optimal control distribution. This layer acts as a supervisor depending on optimization-based control allocation algorithms. The control synthesis is based on robust control theories to face environmental changes and the vehicle’s parameters and dynamics uncertainties. Results showed first that even regarding today’s vehicles, the upstream approach can offer additional advantages when it comes to multiple objectives problems solving. In addition, the upstream approach is able to coordinate subsystems of vehicles with a higher over-actuation. Fault-tolerance can be ensured between completely different chassis systems, and qualitative objectives, if rigorously formalized, can be satisfied. The more numerous subsystems will get in the future, the more relevant the upstream approach would become to vehicle motion control. We expect that the important benefits shown in this thesis thanks to an optimal upstream coordination approach would encourage car manufacturers and equipment to switch towards more open solutions, propose together the necessary standardizations, and accelerate the autonomous vehicles development.
40

Self-stabilizing algorithms for graph parameters / Algorithmes auto-stabilisants pour des paramètres de graphes

Neggazi, Brahim 15 April 2015 (has links)
Le concept d'auto-stabilisation a été introduit par Dijkstra en 1973. Un système distribué est auto-stabilisant s'il peut démarrer de n'importe quelle configuration initiale et retrouver une configuration légitime en un temps fini par lui-même et sans aucune intervention extérieure. La convergence est également garantie lorsque le système est affecté par des fautes transitoires, ce qui en fait une approche élégante, non masquante, pour la tolérance aux pannes. L'auto-stabilisation a été étudiée dans divers domaines des systèmes distribués tels que les problèmes de synchronisation de l'horloge, de la communication et les protocoles de routage. Vu l'importance des paramètres de graphes notamment pour l'organisation et l'optimisation des communications dans les réseaux et les systèmes distribués, plusieurs algorithmes auto-stabilisants pour des paramètres de graphe ont été proposés dans la littérature, tels que les algorithmes autostabilisants permettant de trouver les ensembles dominants minimaux, coloration des graphes, couplage maximal et arbres de recouvrement. Dans cette perspective, nous proposons, dans cette thèse, des algorithmes distribués et autostabilisants pour certains problèmes de graphes bien connus, en particulier pour les décompositions de graphes et les ensembles dominants qui n'ont pas encore été abordés avec le concept de l'autostabilisation. Les quatre problèmes majeurs considérés dans cette thèse sont: partitionnement en triangles, décomposition en p-étoiles, Monitoring des arêtes, fort ensemble dominant et indépendant. Ainsi, le point commun entre ces problèmes, est qu'ils sont tous considérés comme des variantes des problèmes de domination et de couplage dans les graphes et leur traitement se fait d'une manière auto-stabilisante / The concept of self-stabilization was first introduced by Dijkstra in 1973. A distributed system is self-stabilizing if it can start from any possible configuration and converges to a desired configuration in finite time by itself without using any external intervention. Convergence is also guaranteed when the system is affected by transient faults. This makes self-stabilization an effective approach for non-masking fault-tolerance. The self-stabilization was studied in various fields in distributed systems such as the problems of clock synchronization, communication and routing protocols. Given the importance of graph parameters, especially for organization and communication of networks and distributed systems, several self-stabilizing algorithms for classic graph parameters have been developed in this direction, such as self-stabilizing algorithms for finding minimal dominating sets, coloring, maximal matching, spanning tree and so on. Thence, we propose in this thesis, distributed and self-stabilizing algorithms to some wellknown graphs problems, particularly for graph decompositions and dominating sets problems that have not yet been addressed in a view of self-stabilization. The four major problems considered in this thesis are: the partitioning into triangles, p-star decomposition, edge monitoring set and independent strong dominating set problems. The common point between these four problems is that they are considered as variants of dominating set and matching problems and all propositions deal with the self-stabilization paradigm

Page generated in 0.0594 seconds