• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 17
  • Tagged with
  • 38
  • 17
  • 10
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Hydrogrammes synthétiques par bassin et types d'événements. Estimation, caractérisation, régionalisation et incertitude / Catchment- and event-type specific synthetic design hydrographs. Estimation, characterization, regionalization, and uncertainty

Brunner, Manuela 29 January 2018 (has links)
L'estimation de crues de projet est requise pour le dimensionnement de barrages et de bassins de rétention, de même que pour la gestion des inondations lors de l’élaboration de cartes d’aléas ou lors de la modélisation et délimitation de plaines d’inondation. Généralement, les crues de projet sont définies par leur débit de pointe à partir d’une analyse fréquentielle univariée. Cependant, lorsque le dimensionnement d’ouvrages hydrauliques ou la gestion de crues nécessitent un stockage du volume ruisselé, il est également nécessaire de connaître les caractéristiques volume, durée et forme de l’hydrogramme de crue en plus de son débit maximum. Une analyse fréquentielle bivariée permet une estimation conjointe du débit de pointe et du volume de l’hydrogramme en tenant compte de leur corrélation. Bien qu’une telle approche permette la détermination du couple débit/volume de crue, il manque l’information relative à la forme de l’hydrogramme de crue. Une approche attrayante pour caractériser la forme de la crue de projet est de définir un hydrogramme représentatif normalisé par une densité de probabilité. La combinaison d’une densité de probabilité et des quantiles bivariés débit/volume permet la construction d’un hydrogramme synthétique de crue pour une période de retour donnée, qui modélise le pic d’une crue ainsi que sa forme. De tels hydrogrammes synthétiques sont potentiellement utiles et simples d’utilisation pour la détermination de crues de projet. Cependant, ils possèdent actuellement plusieurs limitations. Premièrement, ils reposent sur la définition d’une période de retour bivariée qui n’est pas univoque. Deuxièmement, ils décrivent en général le comportement spécifique d’un bassin versant en ne tenant pas compte de la variabilité des processus représentée par différents types de crues. Troisièmement, les hydrogrammes synthétiques ne sont pas disponibles pour les bassins versant non jaugés et une estimation de leurs incertitudes n’est pas calculée.Pour remédier à ces manquements, cette thèse propose des avenues pour la construction d’hydrogrammes synthétiques de projet pour les bassins versants jaugés et non jaugés, de même que pour la prise en compte de la diversité des types de crue. Des méthodes sont également développées pour la construction d’hydrogrammes synthétiques de crue spécifiques au bassin et aux événements ainsi que pour la régionalisation des hydrogrammes. Une estimation des diverses sources d’incertitude est également proposée. Ces travaux de recherche montrent que les hydrogrammes synthétiques de projet constituent une approche qui s’adapte bien à la représentation de différents types de crue ou d’événements dans un contexte de détermination de crues de projet. Une comparaison de différentes méthodes de régionalisation montre que les hydrogrammes synthétiques de projet spécifiques au bassin peuvent être régionalisés à des bassins non jaugés à l’aide de méthodes de régression linéaires et non linéaires. Il est également montré que les hydrogrammes de projet spécifiques aux événements peuvent être régionalisés à l’aide d’une approche d’indice de crue bivariée. Dans ce contexte, une représentation fonctionnelle de la forme des hydrogrammes constitue un moyen judicieux pour la délimitation de régions ayant un comportement hydrologique de crue similaire en terme de réactivité. Une analyse de l’incertitude a montré que la longueur de la série de mesures et le choix de la stratégie d’échantillonnage constituent les principales sources d’incertitude dans la construction d’hydrogrammes synthétiques de projet. Cette thèse démontre qu’une approche de crues de projet basée sur un ensemble de crues permet la prise en compte des différents types de crue et de divers processus. Ces travaux permettent de passer de l’analyse fréquentielle statistique de crues vers l’analyse fréquentielle hydrologique de crues permettant de prendre en compte les processus et conduisant à une prise de décision plus éclairée. / Design flood estimates are needed in hydraulic design for the construction of dams and retention basins and in flood management for drawing hazard maps or modeling inundation areas. Traditionally, such design floods have been expressed in terms of peak discharge estimated in a univariate flood frequency analysis. However, design or flood management tasks involving storage, in addition to peak discharge, also require information on hydrograph volume, duration, and shape . A bivariate flood frequency analysis allows the joint estimation of peak discharge and hydrograph volume and the consideration of their dependence. While such bivariate design quantiles describe the magnitude of a design flood, they lack information on its shape. An attractive way of modeling the whole shape of a design flood is to express a representative normalized hydrograph shape as a probability density function. The combination of such a probability density function with bivariate design quantiles allows the construction of a synthetic design hydrograph for a certain return period which describes the magnitude of a flood along with its shape. Such synthetic design hydrographs have the potential to be a useful and simple tool in design flood estimation. However, they currently have some limitations. First, they rely on the definition of a bivariate return period which is not uniquely defined. Second, they usually describe the specific behavior of a catchment and do not express process variability represented by different flood types. Third, they are neither available for ungauged catchments nor are they usually provided together with an uncertainty estimate.This thesis therefore explores possibilities for the construction of synthetic design hydrographs in gauged and ungauged catchments and ways of representing process variability in design flood construction. It proposes tools for both catchment- and flood-type specific design hydrograph construction and regionalization and for the assessment of their uncertainty.The thesis shows that synthetic design hydrographs are a flexible tool allowing for the consideration of different flood or event types in design flood estimation. A comparison of different regionalization methods, including spatial, similarity, and proximity based approaches, showed that catchment-specific design hydrographs can be best regionalized to ungauged catchments using linear and nonlinear regression methods. It was further shown that event-type specific design hydrograph sets can be regionalized using a bivariate index flood approach. In such a setting, a functional representation of hydrograph shapes was found to be a useful tool for the delineation of regions with similar flood reactivities.An uncertainty assessment showed that the record length and the choice of the sampling strategy are major uncertainty sources in the construction of synthetic design hydrographs and that this uncertainty propagates through the regionalization process.This thesis highlights that an ensemble-based design flood approach allows for the consideration of different flood types and runoff processes. This is a step from flood frequency statistics to flood frequency hydrology which allows better-informed decision making.
32

Quelques Algorithmes pour des problèmes de plus court chemin et d'opérations aériennes / Algorithms for shortest path and airline problems

Parmentier, Axel 10 November 2016 (has links)
Cette thèse développe des algorithmes pour les problèmes de plus court chemin sous cont-rain-tes de ressources, et les applique à l'optimisation des rotations des avions et des équipages d'une compagnie aérienne dans le cadre d'approches par génération de colonnes.Les problèmes de plus court chemin sous contraintes de ressources sont généralement résolus grâce à une énumération intelligente de tous les chemins non dominés. Les approches récentes utilisent des bornes sur les ressources des chemins pour éliminer des solutions partielles. L'efficacité de la méthode est conditionnée par la qualité des bornes utilisées. Notre principale contribution au domaine est l'introduction d'une procédure générique pour calculer des bornes qui s'applique à la plupart des problèmes de chemins sous contraintes, et en particulier les problèmes stochastiques. A cette fin, nous introduisons une généralisation du problème de plus court chemin sous contraintes dans laquelle les ressources des chemins appartiennent à un monoïde ordonné comme un treillis. La ressource d'un chemin est la somme des ressources de ses arcs, le terme somme désignant l'opérateur du monoïde. Le problème consiste à trouver parmi les chemins qui satisfont une contrainte donnée celui dont la ressource minimise une fonction de coût croissante de la ressource des chemins. Nous généralisons les algorithmes d'énumération à ce nouveau problème. La théorie des treillis nous permet de construire une procédure polynomiale pour trouver des bornes de qualité. L'efficacité pratique de la méthode est évaluée au travers d'une étude numérique détaillée sur des problèmes de chemins déterministes et stochastiques. Les procédures de calcul des bornes peuvent être interprétées comme des généralisations aux monoïdes ordonnés comme des treillis d'algorithmes de la littérature définis pour résoudre un problème de chemin pour lequel les ressources des chemins prennent leur valeur dans un semi-anneau.Nos algorithmes de chemins ont été appliqués avec succès au problème de crew pairing. Étant donné un ensemble de vols opérés par une compagnie aérienne, les problèmes d'aircraft routing et de crew pairing construisent respectivement les séquences de vols opérées par les avions et par les équipages de manière à couvrir tous les vols à moindre coût. Comme certaines séquences de vols ne peuvent être réalisées par un équipage que s'il reste dans le même avion, les deux problèmes sont liés. La pratique actuelle dans l'industrie aéronautique est de résoudre tout d'abord le problème d'aircraft routing, puis le problème de crew pairing, ce qui aboutit à une solution non-optimale. Des méthodes de résolution pour le problème intégré ont été développées ces dix dernières années. Nous proposons une méthode de résolution pour le problème intégré reposant sur deux nouveaux ingrédients : un programme linéaire en nombre entier compact pour le problème d'aircraft routing, ainsi que de nouveaux pour le problème esclave de l'approche usuelle par génération de colonnes du problème de crew pairing. Ces algorithmes pour le problème esclave sont une application de nos algorithmes pour le problème de plus court chemin sous contraintes. Nous généralisons ensuite cette approche de manière à prendre en compte des contraintes de probabilités sur la propagation du retard. Ces algorithmes permettent de résoudre quasiment à l'optimum les instances industrielles d'Air France / This thesis develops algorithms for resource constrained shortest path problems, and uses them to solve the pricing subproblems of column generation approaches to some airline operations problems.Resource constrained shortest path problems are usually solved using a smart enumeration of the non-dominated paths. Recent improvements of these enumeration algorithms rely on the use of bounds on path resources to discard partial solutions. The quality of the bounds determines the performance of the algorithm. Our main contribution to the topic is to introduce a standard procedure to generate bounds on paths resources in a general setting which covers most resource constrained shortest path problems, among which stochastic versions. In that purpose, we introduce a generalization of the resource constrained shortest path problem where the resources are taken in a lattice ordered monoid. The resource of a path is the monoid sum of the resources of its arcs. The problem consists in finding a path whose resource minimizes a non-decreasing cost function of the path resource among the paths that satisfy a given constraint. Enumeration algorithms are generalized to this framework. We use lattice theory to provide polynomial procedures to find good quality bounds. The efficiency of the approach is proved through an extensive numerical study on deterministic and stochastic path problems. Interestingly, the bounding procedures can be seen as generalizations to lattice ordered monoids of some algebraic path problem algorithms which initially work with resources in a semiring.Given a set of flight legs operated by an airline, the aircraft routing and the crew pairing problem build respectively the sequences of flight legs operated by airplanes and crews at minimum cost. As some sequences of flight legs can be operated by crews only if they stay in the same aircraft, the two problems are linked. The current practice in the industry is to solve first the aircraft routing, and then the crew pairing problem, leading to a non-optimal solution. During the last decade, solution schemes for the integrated problem have been developed. We propose a solution scheme for the integrated problem based on two new ingredients: a compact integer program approach to the aircraft routing problem, and a new algorithm for the pricing subproblem of the usual column generation approach to the crew pairing problem, which is based on our resource constrained shortest path framework. We then generalize the algorithm to take into account delay propagation through probabilistic constraints. The algorithms enable to solve to near optimality Air France industrial instances
33

Classification of uncertain data in the framework of belief functions : nearest-neighbor-based and rule-based approaches / Classification des données incertaines dans le cadre des fonctions de croyance : la métode des k plus proches voisins et la méthode à base de règles

Jiao, Lianmeng 26 October 2015 (has links)
Dans de nombreux problèmes de classification, les données sont intrinsèquement incertaines. Les données d’apprentissage disponibles peuvent être imprécises, incomplètes, ou même peu fiables. En outre, des connaissances spécialisées partielles qui caractérisent le problème de classification peuvent également être disponibles. Ces différents types d’incertitude posent de grands défis pour la conception de classifieurs. La théorie des fonctions de croyance fournit un cadre rigoureux et élégant pour la représentation et la combinaison d’une grande variété d’informations incertaines. Dans cette thèse, nous utilisons cette théorie pour résoudre les problèmes de classification des données incertaines sur la base de deux approches courantes, à savoir, la méthode des k plus proches voisins (kNN) et la méthode à base de règles.Pour la méthode kNN, une préoccupation est que les données d’apprentissage imprécises dans les régions où les classes de chevauchent peuvent affecter ses performances de manière importante. Une méthode d’édition a été développée dans le cadre de la théorie des fonctions de croyance pour modéliser l’information imprécise apportée par les échantillons dans les régions qui se chevauchent. Une autre considération est que, parfois, seul un ensemble de données d’apprentissage incomplet est disponible, auquel cas les performances de la méthode kNN se dégradent considérablement. Motivé par ce problème, nous avons développé une méthode de fusion efficace pour combiner un ensemble de classifieurs kNN couplés utilisant des métriques couplées apprises localement. Pour la méthode à base de règles, afin d’améliorer sa performance dans les applications complexes, nous étendons la méthode traditionnelle dans le cadre des fonctions de croyance. Nous développons un système de classification fondé sur des règles de croyance pour traiter des informations incertains dans les problèmes de classification complexes. En outre, dans certaines applications, en plus de données d’apprentissage, des connaissances expertes peuvent également être disponibles. Nous avons donc développé un système de classification hybride fondé sur des règles de croyance permettant d’utiliser ces deux types d’information pour la classification. / In many classification problems, data are inherently uncertain. The available training data might be imprecise, incomplete, even unreliable. Besides, partial expert knowledge characterizing the classification problem may also be available. These different types of uncertainty bring great challenges to classifier design. The theory of belief functions provides a well-founded and elegant framework to represent and combine a large variety of uncertain information. In this thesis, we use this theory to address the uncertain data classification problems based on two popular approaches, i.e., the k-nearest neighbor rule (kNN) andrule-based classification systems. For the kNN rule, one concern is that the imprecise training data in class over lapping regions may greatly affect its performance. An evidential editing version of the kNNrule was developed based on the theory of belief functions in order to well model the imprecise information for those samples in over lapping regions. Another consideration is that, sometimes, only an incomplete training data set is available, in which case the ideal behaviors of the kNN rule degrade dramatically. Motivated by this problem, we designedan evidential fusion scheme for combining a group of pairwise kNN classifiers developed based on locally learned pairwise distance metrics.For rule-based classification systems, in order to improving their performance in complex applications, we extended the traditional fuzzy rule-based classification system in the framework of belief functions and develop a belief rule-based classification system to address uncertain information in complex classification problems. Further, considering that in some applications, apart from training data collected by sensors, partial expert knowledge can also be available, a hybrid belief rule-based classification system was developed to make use of these two types of information jointly for classification.
34

Conception d’environnement instrumenté pour la veille à la personne / Design of instrumented environment for human monitoring

Massein, Aurélien 22 November 2018 (has links)
L'instrumentation permet à notre environnement, maison ou bâtiment, de devenir intelligent en s'adaptant à nos modes de vie et en nous assistant au quotidien. Un environnement intelligent est sensible et réactif à nos activités, afin d'améliorer notre qualité de vie. La fiabilité d'identification des activités est ainsi essentielle pour cette intelligence ambiante : elle est directement dépendante du positionnement des capteurs au sein de l'environnement. Cette question essentielle du placement des capteurs est très peu considérée par les systèmes ambiants commercialisés ou même dans la littérature. Pourtant, elle est la source principale de leurs dysfonctionnements où une mauvaise reconnaissance des activités entraîne une mauvaise assistance fournie. Le placement de capteurs consiste à choisir et à positionner des capteurs pertinents pour une identification fiable des activités. Dans cette thèse, nous développons et détaillons une méthodologie de placement de capteurs axée sur l'identifiabilité des activités d'intérêt. Nous la qualifions en nous intéressant à deux évaluations différentes : la couverture des intérêts et l'incertitude de mesures. Dans un premier temps, nous proposons un modèle de l'activité où nous décomposons l'activité en actions caractérisées afin d'être indépendant de toute technologie ambiante (axée connaissances ou données). Nous représentons actions et capteurs par un modèle ensembliste unifiant, permettant de fusionner des informations homogènes de capteurs hétérogènes. Nous en évaluons l'identifiabilité des actions d'intérêt au regard des capteurs placés, par des notions de précision (performance d'identification) et de sensibilité (couverture des actions). Notre algorithme de placement des capteurs utilise la Pareto-optimalité pour proposer une large palette de placements-solutions pertinents et variés, pour ces multiples identifiabilités à maximiser. Nous illustrons notre méthodologie et notre évaluation en utilisant des capteurs de présence, et en choisissant optimalement la caractéristique à couvrir pour chaque action. Dans un deuxième temps, nous nous intéressons à la planification optimale des expériences où l'analyse de la matrice d'information permet de quantifier l'influence des sources d'incertitudes sur l'identification d'une caractéristique d'action. Nous représentons les capteurs continus et l'action caractérisée par un modèle analytique, et montrons que certaines incertitudes doivent être prises en compte et intégrées dans une nouvelle matrice d'information. Nous y appliquons les indices d'observabilité directement pour évaluer l'identifiabilité d'une action caractérisée (incertitude d'identification). Nous illustrons cette évaluation alternative en utilisant des capteurs d'angle, et nous la comparons à la matrice d'information classique. Nous discutons des deux évaluations abordées et de leur complémentarité pour la conception d’environnement instrumenté pour la veille à la personne. / Instrumentation enables our environment, house or building, to get smart through self-adjustment to our lifestyles and through assistance of our daily-life. A smart environment is sensitive and responsive to our activities, in order to improve our quality of life. Reliability of activities' identification is absolutely necessary to such ambient intelligence: it depends directly on sensors' positioning within the environment. This fundamental issue of sensor placement is hardly considered by marketed ambient systems or even into the literature. Yet, it is the main source of ambient systems' malfunctions and failures, because a bad activity recognition leads to a bad delivered assistance. Sensor placement is about choosing and positioning relevant sensors for a reliable identification of activities. In this thesis, we develop and detail a sensor placement methodology driven by identifiability of activities of interest. We quantify it by looking at two different evaluations: coverage of interests and uncertainty of measures. First, we present an activity model that decomposes each activity into characterised actions to be technology-free (either knowledge or data driven one). We depict actions and sensors by a set theoretic model, enabling to fuse homogeneous informations of heterogeneous sensors. We then evaluate each action of interest's identifiability regarding placed sensors, through notions of precision (identification's performance) and sensitivity (action's coverage). Our sensor placement algorithm use Pareto-optimality to offer a wide range of relevant solution-placements, for these multiple identifiabilities to maximise. We showcase our methodology and our evaluation through solving a problem featuring motion and binary sensors, by optimally choosing for each action the characteristic to cover. Finally, we look into optimal design of experiments by analysing the information matrix to quantify how sources of uncertainties influence the identification of an action's characteristic. We depict continuous sensors and the characterised action by an analytical model, and we show that some uncertainties should be considered and included in a new information matrix. We then apply directly observability indexes to evaluate identifiability of a characterised action (uncertainty of identification), and compare our new information matrix to the classical one. We showcase our alternate evaluation through solving a sensor placement problem featuring angular sensors. We discuss both covered evaluations and their complementarity towards the design of instrumented environment for human monitoring.
35

Articulating design-time uncertainty with DRUIDE

Dhaouadi, Mouna 09 1900 (has links)
Les modélisateurs rencontrent souvent des incertitudes sur la manière de concevoir un modèle logiciel particulier. Les recherches existantes ont montré comment les modélisateurs peuvent travailler en présence de ce type d' ''incertitude au moment de la conception''. Cependant, le processus par lequel les développeurs en viennent à exprimer leurs incertitudes reste flou. Dans cette thèse, nous prenons des pas pour combler cette lacune en proposant de créer un langage de modélisation d'incertitude et une approche pour articuler l'incertitude au moment de la conception. Nous illustrons notre proposition sur un exemple et l'évaluons non seulement sur deux scénarios d'ingénierie logicielle, mais aussi sur une étude de cas réel basée sur les incertitudes causées par la pandémie COVID-19. Nous menons également un questionnaire post-étude avec les chercheurs qui ont participé à l'étude de cas. Afin de prouver la faisabilité de notre approche, nous fournissons deux outils et les discutons. Enfin, nous soulignons les avantages et discutons des limites de notre travail actuel. / Modellers often encounter uncertainty about how to design a particular software model. Existing research has shown how modellers can work in the presence of this type of ''design-time uncertainty''. However, the process by which developers come to elicit and express their uncertainties remains unclear. In this thesis, we take steps to address this gap by proposing to create an uncertainty modelling language and an approach for articulating design-time uncertainty. We illustrate our proposal on a worked example and evaluate it not only on two software engineering scenarios, but also on a real case study based on uncertainties caused by the COVID-19 pandemic. We also conduct a post-study questionnaire with the researchers who participated in the case study. In order to prove the feasibility of our approach, we provide two tool supports and discuss them. Finally, we highlight the benefits and discuss the limitations of our current work.
36

Optimization and uncertainty handling in air traffic management / Optimisation et gestion de l'incertitude du trafic aérien

Marceau Caron, Gaetan 22 September 2014 (has links)
Cette thèse traite de la gestion du trafic aérien et plus précisément, de l’optimisation globale des plans de vol déposés par les compagnies aériennes sous contrainte du respect de la capacité de l’espace aérien. Une composante importante de ce travail concerne la gestion de l’incertitude entourant les trajectoires des aéronefs. Dans la première partie du travail, nous identifions les principales causes d’incertitude au niveau de la prédiction de trajectoires. Celle-ci est la composante essentielle à l’automatisation des systèmes de gestion du trafic aérien. Nous étudions donc le problème du réglage automatique et en-ligne des paramètres de la prédiction de trajectoires au cours de la phase de montée avec l’algorithme d’optimisation CMA-ES. La principale conclusion, corroborée par d’autres travaux de la littérature, implique que la prédiction de trajectoires des centres de contrôle n’est pas suffisamment précise aujourd’hui pour supporter l’automatisation complète des tâches critiques. Ainsi, un système d’optimisation centralisé de la gestion du traficaérien doit prendre en compte le facteur humain et l’incertitude de façon générale.Par conséquent, la seconde partie traite du développement des modèles et des algorithmes dans une perspective globale. De plus, nous décrivons un modèle stochastique qui capture les incertitudes sur les temps de passage sur des balises de survol pour chaque trajectoire. Ceci nous permet d’inférer l’incertitude engendrée sur l’occupation des secteurs de contrôle par les aéronefs à tout moment.Dans la troisième partie, nous formulons une variante du problème classique du Air Traffic Flow and Capacity Management au cours de la phase tactique. L’intérêt est de renforcer les échanges d’information entre le gestionnaire du réseau et les contrôleurs aériens. Nous définissons donc un problème d’optimisation dont l’objectif est de minimiser conjointement les coûts de retard et de congestion tout en respectant les contraintes de séquencement au cours des phases de décollage et d’attérissage. Pour combattre le nombre de dimensions élevé de ce problème, nous choisissons un algorithme évolutionnaire multiobjectif avec une représentation indirecte du problème en se basant sur des ordonnanceurs gloutons. Enfin, nous étudions les performances et la robustesse de cette approche en utilisant le modèle stochastique défini précédemment. Ce travail est validé à l’aide de problèmes réels obtenus du Central Flow Management Unit en Europe, que l’on a aussi densifiés artificiellement. / In this thesis, we investigate the issue of optimizing the aircraft operators' demand with the airspace capacity by taking into account uncertainty in air traffic management. In the first part of the work, we identify the main causes of uncertainty of the trajectory prediction (TP), the core component underlying automation in ATM systems. We study the problem of online parameter-tuning of the TP during the climbing phase with the optimization algorithm CMA-ES. The main conclusion, corroborated by other works in the literature, is that ground TP is not sufficiently accurate nowadays to support fully automated safety-critical applications. Hence, with the current data sharing limitations, any centralized optimization system in Air Traffic Control should consider the human-in-the-loop factor, as well as other uncertainties. Consequently, in the second part of the thesis, we develop models and algorithms from a network global perspective and we describe a generic uncertainty model that captures flight trajectories uncertainties and infer their impact on the occupancy count of the Air Traffic Control sectors. This usual indicator quantifies coarsely the complexity managed by air traffic controllers in terms of number of flights. In the third part of the thesis, we formulate a variant of the Air Traffic Flow and Capacity Management problem in the tactical phase for bridging the gap between the network manager and air traffic controllers. The optimization problem consists in minimizing jointly the cost of delays and the cost of congestion while meeting sequencing constraints. In order to cope with the high dimensionality of the problem, evolutionary multi-objective optimization algorithms are used with an indirect representation and some greedy schedulers to optimize flight plans. An additional uncertainty model is added on top of the network model, allowing us to study the performances and the robustness of the proposed optimization algorithm when facing noisy context. We validate our approach on real-world and artificially densified instances obtained from the Central Flow Management Unit in Europe.
37

Robust nonlinear control : from continuous time to sampled-data with aerospace applications. / Commande non linéaire robuste : du temps-continu jusqu’aux systèmes sous échantillonnage avec applications aérospatiales.

Mattei, Giovanni 13 February 2015 (has links)
La thèse porte sur le développement des techniques non linéaires robustes de stabilisation et commande des systèmes avec perturbations de model. D’abord, on introduit les concepts de base de stabilité et stabilisabilité robuste dans le contexte des systèmes non linéaires. Ensuite, on présente une méthodologie de stabilisation par retour d’état en présence d’incertitudes qui ne sont pas dans l’image de la commande («unmatched»). L’approche récursive du «backstepping» permet de compenser les perturbations «unmatched» et de construire une fonction de Lyapunov contrôlée robuste, utilisable pour le calcul ultérieur d’un compensateur des incertitudes dans l’image de la commande («matched»). Le contrôleur obtenu est appelé «recursive Lyapunov redesign». Ensuite, on introduit la technique de stabilisation par «Immersion & Invariance» comme outil pour rendre un donné contrôleur non linéaire, robuste par rapport à dynamiques non modelées. La première technique de contrôle non linéaire robuste proposée est appliquée au projet d’un autopilote pour un missile air-air et au développement d’une loi de commande d’attitude pour un satellite avec appendices flexibles. L’efficacité du «recursive Lyapunov redesign» est mis en évidence dans le deux cas d’étude considérés. En parallèle, on propose une méthode systématique de calcul des termes incertains basée sur un modèle déterministe d’incertitude. La partie finale du travail de thèse est relative à la stabilisation des systèmes sous échantillonnage. En particulier, on reformule, dans le contexte digital, la technique d’Immersion et Invariance. En premier lieu, on propose des solutions constructives en temps continu dans le cas d’une classe spéciale des systèmes en forme triangulaire «feedback form», au moyen de «backstepping» et d’arguments de domination non linéaire. L’implantation numérique est basée sur une loi multi-échelles, dont l’existence est garantie pour la classe des systèmes considérée. Le contrôleur digital assure la propriété d’attractivité et des trajectoires bornées. La loi de commande, calculée par approximation finie d’un développement asymptotique, est validée en simulation de deux exemples académiques et deux systèmes physiques, le pendule inversé sur un chariot et le satellite rigide. / The dissertation deals with the problems of stabilization and control of nonlinear systems with deterministic model uncertainties. First, in the context of uncertain systems analysis, we introduce and explain the basic concepts of robust stability and stabilizability. Then, we propose a method of stabilization via state-feedback in presence of unmatched uncertainties in the dynamics. The recursive backstepping approach allows to compensate the uncertain terms acting outside the control span and to construct a robust control Lyapunov function, which is exploited in the subsequent design of a compensator for the matched uncertainties. The obtained controller is called recursive Lyapunov redesign. Next, we introduce the stabilization technique through Immersion \& Invariance (I\&I) as a tool to improve the robustness of a given nonlinear controller with respect to unmodeled dynamics. The recursive Lyapunov redesign is then applied to the attitude stabilization of a spacecraft with flexible appendages and to the autopilot design of an asymmetric air-to-air missile. Contextually, we develop a systematic method to rapidly evaluate the aerodynamic perturbation terms exploiting the deterministic model of the uncertainty. The effectiveness of the proposed controller is highlighted through several simulations in the second case-study considered. In the final part of the work, the technique of I\& I is reformulated in the digital setting in the case of a special class of systems in feedback form, for which constructive continuous-time solutions exist, by means of backstepping and nonlinear domination arguments. The sampled-data implementation is based on a multi-rate control solution, whose existence is guaranteed for the class of systems considered. The digital controller guarantees, under sampling, the properties of manifold attractivity and trajectory boundedness. The control law, computed by finite approximation of a series expansion, is finally validated through numerical simulations in two academic examples and in two case-studies, namely the cart-pendulum system and the rigid spacecraft.
38

Le traitement de l'incertitude dans le contentieux des produits de santé défectueux / The legal treatment of uncertainty in healthcare-product litigation

David, Paul 14 December 2015 (has links)
Alors que le contentieux des produits de santé n'a jamais été aussi fourni, l'application du régime spécial de responsabilité du fait des produits défectueux issu de la directive européenne du 25 juillet 1985, entraîne l'émergence d'un certain nombre d'incertitudes qui affectent directement le sort des demandes en réparation. Les incertitudes matérielles ont, pour la plupart reçu un traitement efficace par l'action conjuguée de la jurisprudence et du législateur. Si les outils juridiques traditionnels, tels que les présomptions ou la causalité alternative, ont permis de résoudre une partie non négligeable de ces incertitudes, les juges se sont également attachés à développer des outils nouveaux comme la balance bénéfice/risque ou encore la répartition de l'obligation à la dette selon les parts de marché. Cependant, si le développement de ces outils juridiques, plus adaptés aux spécificités des produits de santé, a permis d'apporter une solution efficace aux incertitudes matérielles, le traitement de l'incertitude scientifique, fondé sur les présomptions du fait de l'homme, n'apporte, toujours pas, de solutions satisfaisantes. L'étude du traitement des incertitudes dans le contentieux des produits de santé défectueux permet d'apprécier les acquis mais également les limites atteintes par l'utilisation de certains outils mis à la disposition des juges et qui se révèlent parfois inadaptés. L'intervention du législateur et la prise en compte des spécificités des produits de santé, permettraient de développer un système d'indemnisation adapté qui interviendrait de façon subsidiaire en cas d'échec de la voie contentieuse. / At a time when healthcare-product litigation is attaining record heights, the implementation into French law of the special liability regime for defective products, which derives from the European Council Directive of 25 July 1985, has led to the emergence of several grey areas of uncertainty which have a direct impact on the outcome of claims for compensation. Areas of material uncertainty have, for the most part, been effectively dealt with through the combined application of case law and the intervention of the legislator. While classic legal tools such as presumption and alternative causality provide a means to resolve a non-negligible part of these uncertainties, judges have also endeavoured to develop new tools, such as risk/utility test and market-share liability. Still, although the development of these legal tools - better suited as they are to the specific features of healthcare products - provide an effective solution to resolving areas of material uncertainty, the treatment of scientific uncertainty, which is based on presumptions of fact, does not always provide satisfactory solutions. The study of the legal treatment of uncertainty in healthcare-product litigation provides a means to assess the benefits but also the limitations of certain tools that are now available to judges but which at times prove inadequate. Intervention on the part of the legislator, while at the same time taking into account the specific features of healthcare products, could lead to the development of a suitable compensation system that could afford relief when litigation fails.

Page generated in 0.0588 seconds