• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 9
  • 7
  • 2
  • Tagged with
  • 71
  • 71
  • 71
  • 22
  • 20
  • 18
  • 11
  • 11
  • 10
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Design, optimization and validation of start-up sequences of energy production systems. / Conception, optimisation et validation des séquences de démarrage des systèmes de production d'énergie

Tica, Adrian 01 June 2012 (has links)
Cette thèse porte sur l’application des approches de commande prédictive pour l’optimisation des démarrages des centrales à cycles combinés. Il s’agit d’une problématique à fort enjeu qui pose des défis importants. L’élaboration des approches est progressive. Dans une première partie un modèle de centrale est construit et adapté à l’optimisation, en utilisant une méthodologie qui transforme des modèles physiques Modelica conçus pour la simulation en des modèles pour l’optimisation. Cette méthodologie a permis de construire une bibliothèque adaptée à l’optimisation. La suite des travaux porte sur l’utilisation du modèle afin d’optimiser phase par phase les performances du démarrage. La solution proposée optimise, en temps continu, le profil de charge des turbines en recherchant dans des ensembles de fonctions particulières. Le profil optimal est déterminé en considérant que celui-ci peut être décrit par une fonction paramétrée dont les paramètres sont calculés en résolvant un problème de commande optimale sous contraintes. La dernière partie des travaux consiste à intégrer cette démarche d’optimisation à temps continu dans une stratégie de commande à horizon glissant. Cette approche permet d’une part de corriger les dérives liées aux erreurs de modèles et aux perturbations, et d’autre part, d’améliorer le compromis entre le temps de calcul et l’optimalité de la solution. Cette approche de commande conduit cependant à des temps de calcul importants. Afin de réduire le temps de calcul, une structure de commande prédictive hiérarchisée avec deux niveaux, en travaillant à des échelles de temps et sur des horizons différents, a été proposée. / This thesis focuses on the application of model predictive control approaches to optimize the combined cycle power plants start-ups. Generally, the optimization of start-up is a very problematic issue that poses significant challenges. The development of the proposed approaches is progressive. In the first part a physical model of plant is developed and adapted to optimization purposes, by using a methodology which transforms Modelica model components into optimization-oriented models. By applying this methodology, a library suitable for optimization purposes has been built.In the second part, based on the developed model, an optimization procedure to improve the performances of the start-up phases is suggested. The proposed solution optimizes, in continuous time, the load profile of the turbines, by seeking in specific sets of functions. The optimal profile is derived by considering that this profile can be described by a parameterized function whose parameters are computed by solving a constrained optimal control problem. In the last part, the open-loop optimization procedure has been integrated into a receding horizon control strategy. This strategy represents a robust solution against perturbation and models errors, and enables to improve the trade-off between computation time and optimality of the solution. Nevertheless, the control approach leads to a significant computation time. In order to obtain real-time implementable results, a hierarchical model predictive control structure with two layers, working at different time scales and over different prediction horizons, has been proposed.
62

Modélisation de causalité et diagnostic des systèmes complexes de grande dimension / Causality modeling and diagnosis of large-scale complex systems

Faghraoui, Ahmed 11 December 2013 (has links)
Cette thèse s'inscrit dans le cadre du projet européen PAPYRUS (7th FWP (Seventh Framework Program) et concerne le développement de modèles et d'outils permettant l'analyse d'un procédé industriel en interaction avec les indicateurs des performances du système. Ainsi que la synthèse d'algorithmes "Plug & Play" de diagnostic de défauts. Plus précisément, le premier objectif de la thèse est de proposer des modèles et des critères qui permettent, pour un procédé complexe de grande dimension, de savoir si des objectifs, exprimés en termes de performances (coût, de sûreté de fonctionnement, etc.), sont atteignables. Dans le cadre de la modélisation de causalité du système, une méthode, basée sur le transfert entropie, est proposée afin d'identifier le modèle de causalité du système à partir des données. On s'intéressera aussi à l'influence de divers défauts sur cette atteignabilité. Les outils utilisés sont principalement basés sur l'analyse par approche graphique (graphe de causalité) conjointement avec des outils statistiques. Le second objectif concerne la mise en oeuvre d'algorithmes de diagnostic de défauts. Une procédure hiérarchique de diagnostic de défauts s'appuyant sur les modèles de causalité du système est mise en oeuvre. Cette étape a aussi pour objectif de permettre l'évaluation des performances du système. La cible est le procédé d'application du projet PAPYRUS (papeterie Stora Enso d'IMATRA en Finlande) / This thesis is part of the European project PAPYRUS (7th FWP (Seventh Framework Program) and it concern the developments of models and tools for the analysis of an industrial process in interaction with system performance indicators. Thus, the developments of Plug & play algorithms for fault diagnosis. More specifically, the first objective of the thesis is to propose models and criteria, which allow, for large complex systems, whether the objectives expressed in terms of performance (cost, dependability, etc.) are achievable. Within the causality modeling system, a transfer entropy based method is proposed to identify the causality model of a system from data. We also focused on the influence of different faults on system performance reachability. The tools used are mainly based on graphical approach analysis in parallel with statistical tools. The second objective concerns the implementation of algorithms for faults diagnosis. A hierarchical fault diagnosis process based on causality model of the system is implemented. This step also allows the evaluation of the system performance. We applied our methods on the PAPYRUS project plant (board machine Stora Enso IMATRA in Finland)
63

Discover, model and combine energy leverages for large scale energy efficient infrastructures / Découvrir, modéliser et combiner des leviers énergétiques pour des infrastructures de calculs basse consommation

Rais, Issam 28 September 2018 (has links)
La consommation énergétique de nos entités de calculs à grande échelle est une problématique de plus en plus inquiétante. Il est d'autant plus inquiétant que nous nous dirigeons vers "L'exascale",machine qui calcule 10^18 opérations flottantes par secondes, soit 10 fois plus que les meilleurs machines publiques actuelles. En 2017, les data-center consommaient 7% de la demande globale et étaient responsable de 2% de l’émission globale de CO2. Avec la multiplication actuelle du nombre d'outils connectés par personne, réduire la consommation énergétique des data-centers et supercalculateurs à grande échelle est une problématique cruciale pour construire une société numérique durable.Il est donc urgent de voir la consommation énergétique comme une problématique phare de cescentres. De nombreuses techniques, ici nommé "levier", ont été développées dans le but de réduire la consommation électrique des centres de calculs, à différents niveaux : infrastructure, matériel, intergiciel et applicatif. Bien utiliser ces leviers est donc capitale pour s'approcher de l'efficience énergétique. Un grand nombre de leviers sont disponibles dans ces centres de calculs. Malgré leurs gains potentiels, il peut être compliqué de bien les utiliser mais aussi d'en combiner plusieurs en restant efficace en énergie.Dans cette thèse, nous avons abordé la découverte, compréhension et usage intelligent des leviers disponibles à grande échelle dans ces centres de calculs. Nous avons étudié des leviers de manière indépendante, puis les avons combinés à d'autres leviers afin de proposer une solution générique et dynamique à l'usage combiné des leviers. / Energy consumption is a growing concern on the verge of Exascale computing, a machine reaching 10^18 operations per seconds, 10 times the actual best public supercomputers, it became a crucial focus. Data centers consumed about 7% of total demand of electricity and are responsible of 2% of global carbon emission. With the multiplication of connected devices per person around the world, reducing the energy consumption of large scale computing system is a mandatory step to address in order to build a sustainable digital society.Several techniques, that we call leverage, have been developed in order to lower the electricalconsumption of computing facilities. To face this growing concern many solutions have beendeveloped at multiple levels of computing facilities: infrastructure, hardware, middle-ware, andapplication.It is urgent to embrace energy efficiency as a major concern of our modern computing facilities. Using these leverages is mandatory to better energy efficiency. A lot of leverages are available on large scale computing center. In spite of their potential gains, users and administrators don't fully use them or don't use them at all to better energy efficiency. Although, using these techniques, alone and combined, could be complicated and counter productive if not wisely used.This thesis defines and investigates the discovery, understanding and smart usage of leverages available on a large scale data center or supercomputer. We focus on various single leverages and understand them. We then combine them to other leverages and propose a generic solution to the dynamic usage of combined leverages.
64

The Modeling and Management of Computational Sprinting

Morris, Nathaniel Joseph 22 November 2021 (has links)
No description available.
65

Optimisation des flux dans les réseaux de transport pour les systèmes dynamiques étendus : cas des systèmes hydrographiques / Dynamic network flow optimization for large scale systems : application to hydrographic systems

Tahiri, Ayoub 23 May 2019 (has links)
L’allocation de la ressource de manière optimale, dans un système dynamique étendu, consiste à la répartir et à l’acheminer aux bons endroits, aux bons moments et en bonne quantité. Les flux transportés sont caractérisés par des non-linéarités et sont soumis à des retards lors de leur transfert, mais aussi, à des déformations importantes lorsque la ressource est un fluide. Dans ce travail, nous proposons de prendre en compte, dans la modélisation de ces systèmes, l’ensemble de ces contraintes pour une gestion optimale de transport de fluide. Le système est modélisé par un réseau de transport étendu afin de représenter l’évolution de la ressource au cours du temps et d’intégrer les retards inhérents aux transferts des flux. Afin d’introduire dans le graphe la dynamique des écoulements des fluides à surface libre, nous définissons des sommets de répartition permettant la modélisation des phénomènes de propagation des flux. Les objectifs de gestion sont représentés par des coûts sur les arcs. L’allocation optimale de la ressource est obtenue par la recherche du flot de coût minimal sur le réseau de transport. A cette fin, un algorithme d’optimisation prenant en compte les contraintes additionnelles issues des sommets de répartition est proposé. Les méthodes et algorithmes développés sont appliqués au cas des systèmes hydrographiques et à la problématique de l'allocation de la ressource en eau associée. Cette dernière est devenue cruciale en raison des effets négatifs de l'anthropisation des espaces naturels, du changement climatique et de l’augmentation des besoins. Il s’agit de partager la ressource en eau entre différents usagers, conformément à un ensemble d’objectifs et de priorités. L'allocation de la ressource en eau est réalisée en trois étapes principales : le diagnostic de l'état de la ressource disponible sur le système hydrographique à l'instant initial, incluant la prévision de son évolution sur l'horizon de gestion ; la détermination des actions à réaliser sur le système hydraulique pour allouer la ressource en respectant les contraintes et les objectifs ; la surveillance des données mesurées fournissant des indicateurs reconstitués de l’état du système. Les performances de la démarche proposée sont évaluées sur divers systèmes hydrographiques soumis à de multiples régimes hydrologiques. / Optimal allocation of the resource, in a large scale system, consists in distributing it and delivering it to the right places, at the right time and in the right quantity. The transported flows are characterized by nonlinearities and are subject to delays during their transfer, but also to significant deformations when the resource is a fluid. In this work, we propose to take into account, all these constraints in the modeling of these systems, for an optimal management of fluid transport. The system is modeled by an expanded flow network in order to represent the evolution of the resource over time and to integrate the delays that are inherent in flow transfers. In order to introduce the flow dynamics of open-channel flows into the graph, we define distribution nodes allowing to model the flow propagation phenomena. The water allocation objectives are represented by costs on the network’s arcs. The optimal allocation of the resource is obtained by the search for the minimal cost flow on the network. To this end, an optimization algorithm taking into account the additional constraints resulting from the distribution nodes is proposed. The methods and algorithms developed, are applied to the case of hydrographic systems and to the water resources management problem. The latter has become crucial due to the negative effects of anthropisation of natural areas, climate change and increasing needs. Water allocation consists in sharing the water resource between different users, according to a combination of objectives and priorities. The allocation of the water resource is carried out in three main steps: the diagnosis of the state of the available resource on the hydrographic system at the initial time step, including the forecast of its evolution over the management horizon; the determination of operations to be carried out on the hydraulic system to allocate the resource according to the constraints and objectives; the monitoring of the measured data in order to provide reconstructed indicators of the system’s state. The performances of the proposed approach are evaluated on various hydrographic systems, subjected to multiple hydrological regimes.
66

Breaking the curse of dimensionality based on tensor train : models and algorithms / Gérer le fleau de la dimension à l'aide des trains de tenseurs : modèles et algorithmes

Zniyed, Yassine 15 October 2019 (has links)
Le traitement des données massives, communément connu sous l’appellation “Big Data”, constitue l’un des principaux défis scientifiques de la communauté STIC.Plusieurs domaines, à savoir économique, industriel ou scientifique, produisent des données hétérogènes acquises selon des protocoles technologiques multi-modales. Traiter indépendamment chaque ensemble de données mesurées est clairement une approche réductrice et insatisfaisante. En faisant cela, des “relations cachées” ou des inter-corrélations entre les données peuvent être totalement ignorées.Les représentations tensorielles ont reçu une attention particulière dans ce sens en raison de leur capacité à extraire de données hétérogènes et volumineuses une information physiquement interprétable confinée à un sous-espace de dimension réduite. Dans ce cas, les données peuvent être organisées selon un tableau à D dimensions, aussi appelé tenseur d’ordre D.Dans ce contexte, le but de ce travail et que certaines propriétés soient présentes : (i) avoir des algorithmes de factorisation stables (ne souffrant pas de probème de convergence), (ii) avoir un faible coût de stockage (c’est-à-dire que le nombre de paramètres libres doit être linéaire en D), et (iii) avoir un formalisme sous forme de graphe permettant une visualisation mentale simple mais rigoureuse des décompositions tensorielles de tenseurs d’ordre élevé, soit pour D > 3.Par conséquent, nous nous appuyons sur la décomposition en train de tenseurs (TT) pour élaborer de nouveaux algorithmes de factorisation TT, et des nouvelles équivalences en termes de modélisation tensorielle, permettant une nouvelle stratégie de réduction de dimensionnalité et d'optimisation de critère des moindres carrés couplés pour l'estimation des paramètres d'intérêts nommé JIRAFE.Ces travaux d'ordre méthodologique ont eu des applications dans le contexte de l'analyse spectrale multidimensionelle et des systèmes de télécommunications à relais. / Massive and heterogeneous data processing and analysis have been clearly identified by the scientific community as key problems in several application areas. It was popularized under the generic terms of "data science" or "big data". Processing large volumes of data, extracting their hidden patterns, while preforming prediction and inference tasks has become crucial in economy, industry and science.Treating independently each set of measured data is clearly a reductiveapproach. By doing that, "hidden relationships" or inter-correlations between thedatasets may be totally missed. Tensor decompositions have received a particular attention recently due to their capability to handle a variety of mining tasks applied to massive datasets, being a pertinent framework taking into account the heterogeneity and multi-modality of the data. In this case, data can be arranged as a D-dimensional array, also referred to as a D-order tensor.In this context, the purpose of this work is that the following properties are present: (i) having a stable factorization algorithms (not suffering from convergence problems), (ii) having a low storage cost (i.e., the number of free parameters must be linear in D), and (iii) having a formalism in the form of a graph allowing a simple but rigorous mental visualization of tensor decompositions of tensors of high order, i.e., for D> 3.Therefore, we rely on the tensor train decomposition (TT) to develop new TT factorization algorithms, and new equivalences in terms of tensor modeling, allowing a new strategy of dimensionality reduction and criterion optimization of coupled least squares for the estimation of parameters named JIRAFE.This methodological work has had applications in the context of multidimensional spectral analysis and relay telecommunications systems.
67

Designing Random Sample Synopses with Outliers

Lehner, Wolfgang, Rosch, Philip, Gemulla, Rainer 12 August 2022 (has links)
Random sampling is one of the most widely used means to build synopses of large datasets because random samples can be used for a wide range of analytical tasks. Unfortunately, the quality of the estimates derived from a sample is negatively affected by the presence of 'outliers' in the data. In this paper, we show how to circumvent this shortcoming by constructing outlier-aware sample synopses. Our approach extends the well-known outlier indexing scheme to multiple aggregation columns.
68

Resource Management in Large-scale Systems

Paya, Ashkan 01 January 2015 (has links)
The focus of this thesis is resource management in large-scale systems. Our primary concerns are energy management and practical principles for self-organization and self-management. The main contributions of our work are: 1. Models. We proposed several models for different aspects of resource management, e.g., energy-aware load balancing and application scaling for the cloud ecosystem, hierarchical architecture model for self-organizing and self-manageable systems and a new cloud delivery model based on auction-driven self-organization approach. 2. Algorithms. We also proposed several different algorithms for the models described above. Algorithms such as coalition formation, combinatorial auctions and clustering algorithm for scale-free organizations of scale-free networks. 3. Evaluation. Eventually we conducted different evaluations for the proposed models and algorithms in order to verify them. All the simulations reported in this thesis had been carried out on different instances and services of Amazon Web Services (AWS). All of these modules will be discussed in detail in the following chapters respectively.
69

Complexity-aware Decision-making with Applications to Large-scale and Human-in-the-loop Systems

Stefansson, Elis January 2023 (has links)
This thesis considers control systems governed by autonomous decision-makers and humans. We formalise and compute low-complex control policies with applications to large-scale systems, and propose human interaction models for controllers to compute interaction-aware decisions. In the first part of the thesis, we consider complexity-aware decision-making, formalising the complexity of control policies and constructing algorithms that compute low-complexity control policies. More precisely, first, we consider large-scale control systems given by hierarchical finite state machines (HFSMs) and present a planning algorithm for such systems that exploits the hierarchy to compute optimal policies efficiently. The algorithm can also handle changes in the system with ease. We prove these properties and conduct simulations on HFSMs with up to 2 million states, including a robot application, where our algorithm outperforms both Dijkstra's algorithm and Contraction Hierarchies.  Second, we present a planning objective for control systems modelled as finite state machines yielding an explicit trade-off between a policy's performance and complexity. We consider Kolmogorov complexity since it captures the ultimate compression of an object on a universal Turing machine. We prove that this trade-off is hard to optimise in the sense that dynamic programming is infeasible. Nonetheless, we present two heuristic algorithms obtaining low-complexity policies and evaluate the algorithms on a simple navigation task for a mobile robot, where we obtain low-complexity policies that concur with intuition.  In the second part of the thesis, we consider human-in-the-loop systems and predict human decision-making in such systems. First, we look at how the interaction between a robot and a human in a control system can be predicted using game theory, focusing on an autonomous truck platoon interacting with a human-driven car. The interaction is modelled as a hierarchical dynamic game, where the hierarchical decomposition is temporal with a high-fidelity tactical horizon predicting immediate interactions and a low-fidelity strategic horizon estimating long-term behaviour. The game enables feasible computations validated through simulations yielding situation-aware behaviour with natural and safe interactions.  Second, we seek models to explain human decision-making, focusing on driver overtaking scenarios. The overtaking problem is formalised as a decision problem with perceptual uncertainty. We propose and numerically analyse risk-agnostic and risk-aware decision models, judging if an overtaking is desirable. We show how a driver's decision time and confidence level can be characterised through two model parameters, which collectively represent human risk-taking behaviour. We detail an experimental testbed for evaluating the decision-making process in the overtaking scenario and present some preliminary experimental results from two human drivers. / Denna avhandling studerar styrsystem med autonoma beslutsfattare och människor. Vi formaliserar och beräknar styrlagar av låg komplexitet med tillämpningar på storskaliga system samt föreslår modeller för mänsklig interaktion som kan användas av regulatorer för att beräkna interaktionsmedvetna beslut. I den första delen av denna avhandling studerar vi komplexitet-medveten beslutsfattning, där vi formaliserar styrlagars komplexitet samt konstruerar algoritmer som beräknar styrlagar med låg komplexitet. Mer precist, först studerar vi storskaliga system givna av hierarkiska finita tillståndsmaskiner (HFSMs) och presenterar en planeringsalgoritm för sådana system som utnyttjar hierarkin för att beräkna optimala styrlagar effektivt. Algoritmen kan också lätt hantera förändringar i systemet. Vi bevisar dessa egenskaper och utför simuleringar på HFSMs med upp till 2 miljoner tillstånd, inklusive en robot-applikation, där vår algorithm överträffar både Dijkstra's algoritm och så kallade Contraction Hierarchies. För det andra så presenterar vi ett planeringsobjektiv för finita tillståndsmaskiner som ger en explicit avvägning mellan ett styrlags prestanda och komplexitet. Vi använder Kolmogorovkomplexitet då den fångar den ultimata komprimeringen av ett objekt i en universell Turing-maskin. Vi bevisar att detta objektiv är icke-trivial att optimera över i avseendet att dynamisk programming är omöjligt att utföra. Vi presenterar två algoritmer som beräknar styrlagar med låg komplexitet och evaluerar våra algoritmer på ett enkelt navigationsproblem där vi erhåller styrlagar av låg komplexitet som instämmer med intuition. I den andra delen av denna avhandling behandlar vi reglersystem där en människa interagerar med systemet och studerar hur mänskligt beslutsfattande i sådana system kan förutspås. Först studerar vi hur interaktionen mellan en maskin och en människa i ett reglersystem can förutspås med hjälp av spelteori, med fokus på en självkörande lastbilskonvoj som interagerar med en mänskligt styrd bil. Interaktionen är modellerad som ett hierarkiskt dynamiskt spel, där den hierarkiska indelningen är tidsmässig med en högupplöst taktil horisont som förutspår omedelbara interaktioner samt en lågupplöst strategisk horisont som estimerar långtgående interaktioner. Indelning möjliggör beräkningar som vi validerar via simuleringar där vi får situations-medvetet beteende med naturliga och säkra interaktioner. För det andra söker vi en model med få parametrar som förklarar mänskligt beteende där vi fokuserar på omkörningar. Vi formaliserar omkörningsproblemet som ett beslutfattningsproblem med perceptuell osäkerhet. Vi presenterar och analyserar numeriskt risk-agnostiska och risk-medvetna beslutsmodeller som avväger om en omkörning är önskvärd. Vi visar hur en förares beslutstid och konfidensnivå kan karakteriserar via två modellparametrar som tillsammans representerar mänskligt risk-beteende. Vi beskriver en experimentell testbädd och presentar preliminära resultat från två mänskliga förare. / <p>QC 20230523</p>
70

Model-based control and diagnosis of inland navigation networks / Contrôle et diagnostic à base de modèle de réseaux de navigation intérieure

Segovia Castillo, Pablo 11 June 2019 (has links)
Cette thèse contribue à répondre au problème de la gestion optimale des ressources en eau dans les réseaux de navigation intérieure du point de vue de la théorie du contrôle. Les objectifs principales à atteindre consistent à garantir la navigabilité des réseaux de voies navigables, veiller à la réduction des coûts opérationnels et à la longue durée de vie des équipements. Lors de la conception de lois de contrôle, les caractéristiques des réseaux doivent être prises en compte, à savoir leurs dynamiques complexes, des retards variables et l’absence de pente. Afin de réaliser la gestion optimale, le contrôle efficace des structures hydrauliques doit être assuré. A cette fin, une approche de modélisation orientée contrôle est dérivée. Cependant, la formulation obtenue appartient à la classe des systèmes de descripteurs retardés, pour lesquels la commande prédictive MPC et l’estimation d’état sur horizon glissant MHE peuvent être facilement adaptés à cette formulation, tout en permettant de gérer les contraintes physiques et opérationnelles de manière naturelle. En raison de leur grande dimensionnalité, une mise en œuvre centralisée n’est souvent ni possible ni souhaitable. Compte tenu du fait que les réseaux de navigation intérieure sont des systèmes fortement couplés, une approche distribuée est proposée, incluant un protocole de communication entre agents. Malgré l’optimalité des solutions, toute erreur peut entraîner une gestion inefficace du système. Par conséquent, les dernières contributions de la thèse concernent la conception de stratégies de supervision permettant de détecter et d’isoler les pannes des équipements. Toutes les approches présentées sont appliquées à une étude de cas réaliste basée sur le réseau de voies navigables du nord e la France afin de valider leur efficacité. / This thesis addresses the problem of optimal management of water resources in inland navigation networks from a control theory perspective. The main objectives to be attained consist in guaranteeing the navigability condition of the network, minimizing the operational cost and ensuring a long lifespan of the equipment. However, their complex dynamics, large time delays and negligible bottom slopes complicate their management. In order to achieve the optimal management, the efficient control of the hydraulic structures must be ensured. To this end, a control-oriented modeling approach is derived. The resulting formulation belongs to the class of delayed desciptor systems, for which model predictive control and moving horizon estimation can be easily adapted, as well as being able to deal with physical and operational constraints in a natural manner. However, a centralized implementation is often neither possible nor desirable. As these networks are strongly coupled systems, a distributed approach is followed, featuring a communication protocol among agents. Despite the optimality of the solutions, any malfunction can lead to an inefficient system management. Therefore, the last part of the thesis regards the design of supervisory strategies that allow to detect and isolate faults. All the presented approaches are applied to a realistic case study based on the inland navigation network in the north of France to validate their effectiveness.

Page generated in 0.4426 seconds