• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 69
  • 27
  • 1
  • Tagged with
  • 274
  • 101
  • 77
  • 62
  • 58
  • 46
  • 42
  • 37
  • 34
  • 30
  • 30
  • 27
  • 26
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Conception sous incertitudes de modèles avec prise en compte des tests futurs et des re-conceptions / Optimizing the safety margins governing a deterministic design process while considering the effect of a future test and redesign on epistemic model uncertainty

Price, Nathaniel Bouton 15 July 2016 (has links)
Au stade de projet amont, les ingénieurs utilisent souvent des modèles de basse fidélité possédant de larges erreurs. Les approches déterministes prennent implicitement en compte les erreurs par un choix conservatif des paramètres aléatoires et par l'ajout de facteurs de sécurité dans les contraintes de conception. Une fois qu'une solution est proposée, elle est analysée par un modèle haute fidélité (test futur): une re-conception peut s'avérer nécessaire pour restaurer la fiabilité ou améliorer la performance, et le modèle basse fidélité est calibré pour prendre en compte les résultats de l'analyse haute-fidélité. Mais une re-conception possède un coût financier et temporel. Dans ce travail, les effets possibles des tests futurs et des re-conceptions sont intégrés à une procédure de conception avec un modèle basse fidélité. Après les Chapitres 1 et 2 qui donnent le contexte de ce travail et l'état de l'art, le Chapitre 3 analyse le dilemme d'une conception initiale conservatrice en terme de fiabilité ou ambitieuse en termes de performances (avec les re-conceptions associées pour améliorer la performance ou la fiabilité). Le Chapitre 4 propose une méthode de simulation des tests futurs et de re-conception avec des erreurs épistémiques corrélées spatialement. Le Chapitre 5 décrit une application à une fusée sonde avec des erreurs à la fois aléatoires et de modèles. Le Chapitre 6 conclut le travail. / At the initial design stage, engineers often rely on low-fidelity models that have high uncertainty. In a deterministic safety-margin-based design approach, uncertainty is implicitly compensated for by using fixed conservative values in place of aleatory variables and ensuring the design satisfies a safety-margin with respect to design constraints. After an initial design is selected, high-fidelity modeling is performed to reduce epistemic uncertainty and ensure the design achieves the targeted levels of safety. High-fidelity modeling is used to calibrate low-fidelity models and prescribe redesign when tests are not passed. After calibration, reduced epistemic model uncertainty can be leveraged through redesign to restore safety or improve design performance; however, redesign may be associated with substantial costs or delays. In this work, the possible effects of a future test and redesign are considered while the initial design is optimized using only a low-fidelity model. The context of the work and a literature review make Chapters 1 and 2 of this manuscript. Chapter 3 analyzes the dilemma of whether to start with a more conservative initial design and possibly redesign for performance or to start with a less conservative initial design and risk redesigning to restore safety. Chapter 4 develops a generalized method for simulating a future test and possible redesign that accounts for spatial correlations in the epistemic model error. Chapter 5 discusses the application of the method to the design of a sounding rocket under mixed epistemic model uncertainty and aleatory parameter uncertainty. Chapter 6 concludes the work.
252

Modélisation des propriétés électrostatiques des complexes macromoléculaires à partir des données de diffraction des rayons X à très haute résolution / Modeling of electrostatic properties in macromolecular complexes using X-ray diffraction data at ultra-high resolution

Fournier, Bertrand 06 July 2010 (has links)
La diffraction des rayons X permet d’obtenir des informations sur la structure atomique et même sur la distribution de charges de composés sous forme cristalline, ce qui est d’une importance fondamentale pour la compréhension de leurs propriétés. Accéder expérimentalement à une description de la distribution de charges de systèmes macromoléculaires reste rarement possible malgré les améliorations techniques. Pour pallier cette limite, la transférabilité des paramètres de distributions de charges est un moyen fiable d’obtenir pour ces systèmes un modèle estimé et d’en déduire leurs propriétés électrostatiques. Les résultats présentés dans ce travail de thèse s’intègrent dans une dynamique visant à étendre les méthodes initialement réservées pour l’étude des petites molécules aux systèmes macromoléculaires. Il s’articule autour du développement de la suite de logiciels MoPro et de la banque de données ELMAM (Experimental Library of Multipolar Atom Model) pour l’étude des énergies des interactions électrostatiques au sein du site actif de complexes enzyme-inhibiteur. L’étude du fidarestat, un inhibiteur de l’holoenzyme aldose réductase, réalisée à partir de données obtenues à très haute résolution, est exposée dans ce manuscrit et a servi notamment à l’amélioration de la banque ELMAM en vue de l’étude des complexes holoenzymes aldo-keto réductase. A cette occasion, la légitimité du recours aux modèles transférés de distribution de charges a été discutée pour la première fois par une estimation statistique des incertitudes sur les énergies d’interaction électrostatique entre enzyme et inhibiteur / X-ray diffraction allows to obtain information about atomic structure and charge density distribution of crystal-state compounds, which is of main interest for the understanding of their properties. Reaching experimentally charge density distribution description of macromolecular systems is rarely possible despite technical improvements. To get around this limit, the transferability of charge density distribution parameters is a reliable way to obtain for these systems estimated model and to deduce their electrostatic properties. Works introduced in this PhD thesis manuscript take part in the will of extending methods initially for study of small molecules to macromolecular systems. It is centered on the development of the MoPro software suite and of ELMAM database (Experimental Library of Multipolar Atom Model) for the study of electrostatic interaction energies in enzyme-inhibitor complexes’ active site. The study of fidarestat, an inhibitor of aldose reductase holoenzyme, performed using ultra-high resolution data, is exposed in this manuscript and allowed to improve ELMAM database for the study of electrostatic interaction in aldo-keto reductase holoenzyme complexes. Moreover, the legitimacy of using transferred charge density distribution models was discussed for the first time, thanks to statistical estimation of uncertainties on electrostatic interaction energies between enzyme and inhibitor
253

Custom supply chain engineering : modeling and risk management : application to the customs / Ingénierie de la chaîne logistique douanière : modélisation et gestion de risques : application au cas des douanes

Hammadi, Lamia 10 December 2018 (has links)
La sécurité, la sûreté et l’efficacité de la chaîne logistique internationale revêtent une importance capitale pour le gouvernement, pour ses intérêts financiers et économiques et pour la sécurité de ses résidents. À cet égard, la société est confrontée à des multiples menaces, telles que le trafic illicite de drogues, d’armes ou autre type de contrebande, ainsi que la contrefaçon et la fraude commerciale. Pour contrer (détecter, prévenir, enquêter et atténuer) ces menaces, le rôle des douanes se pose en tant que gardiens du commerce international et acteurs principaux de la sécurisation de la chaîne logistique internationale. Les douanes interviennent à tous les stades de l'acheminement des marchandises ; toutes les transactions en provenance ou à destination des pays doivent être traitées par leurs services douaniers. Dans un tel environnement, les douanes deviennent un élément essentiel de la chaîne logistique. Nous adoptons ce point de vue, avec un accent particulier sur les opérations douanières et, pour souligner cet objectif, nous appelons cette analyse "chaîne logistique douanière". Dans cette thèse, nous avons tout d’abord mis en place le concept de chaîne logistique douanière, en identifiant les acteurs et les liens structurels entre eux, puis en établissant la cartographie des processus, l’approche d’intégration et le modèle de mesure de performance du concept proposé. Deuxièmement, nous développons une nouvelle approche de gestion de risques dans la chaîne logistique douanière basée sur une approche qualitative. Une telle approche conduit à identifier les classes de risques et à recommander les meilleures solutions afin de réduire le niveau de risque. Notre approche est appliquée dans la douane Marocaine en considérant la criticité comme un indicateur de risque en premier temps, en appliquant la méthode AMDEC (Analyse des modes de défaillance, de leurs effets et de leur criticité) et la méthode ABC croisée et le poids prioritaire en deuxième temps, en utilisant la méthode AHP (Analytic Hierarchy Process) et la méthode AHP floue (c.-à-d. Évaluation de risques sous incertitude); puis une analyse comparative des deux indicateurs est effectuée afin d’examiner l’efficacité des résultats obtenus. Enfin, nous développons des modèles stochastiques pour les séries chronologiques de risques qui abordent le défi le plus important de la modélisation de risques dans le contexte douanier : la Saisonnalité. Plus précisément, nous proposons d’une part des modèles basés sur la quantification des incertitudes pour décrire les comportements mensuels. Les différents modèles sont ajustés en utilisant la méthode de coïncidence des moments sur des séries temporelles de quantités saisies du trafic illicite dans cinq sites. D'autre part, des modèles de Markov cachés sont ajustés à l'aide de l'algorithme EM sur les mêmes séquences d’observations. Nous montrons que nos modèles permettent avec précision de gérer et de décrire les composantes saisonnières des séries chronologiques de risques dans le contexte douanier. On montre également que les modèles ajustés sont interprétables et fournissent une bonne description des propriétés importantes des données, telles que la structure du second ordre et les densités de probabilité par saison et par site. / The security, safety and efficiency of the international supply chain are of central importance for the governments, for their financial and economic interests and for the security of its residents. In this regard, the society faces multiple threats, such as illicit traffic of drugs, arms and other contraband, as well as counterfeiting and commercial fraud. For countering (detecting, preventing, investigating and mitigating) such threats, the role of customs arises as the gatekeepers of international trade and the main actor in securing the international supply chain. Customs intervene in all stages along the routing of cargo; all transactions leaving or entering the country must be processed by the custom agencies. In such an environment, customs become an integral thread within the supply chain. We adopt this point of view, with a particular focus on customs operations and, in order to underline this focus, we refer to this analysis as “customs supply chain”. In this thesis, we firstly set up the concept of customs supply chain, identify the actors and structural links between them, then establish the process mapping, integration approach and performance model. Secondly, we develop a new approach for managing risks in customs supply chain based on qualitative analysis. Such an approach leads to identify the risk classes as well as recommend best possible solutions to reduce the risk level. Our approach is applied in Moroccan customs by considering the criticality as a risk indicator. In a first time we use Failure Modes Effects Criticality Analysis (FMECA) and Cross Activity Based Costing (ABC) Method and priority weight; in the second time we use Analytic Hierarchy Process (AHP) and Fuzzy AHP (i.e., risk assessment under uncertainty); then a benchmarking of the two indicators is conducted in order to examine the effectiveness of the obtained results. Finally, we develop stochastic models for risk time series that address the most important challenge of risk modeling in the customs context: Seasonality. To be more specific, we propose on the one hand, models based on uncertainty quantification to describe monthly components. The different models are fitted using Moment Matching method to the time series of seized quantities of the illicit traffic on five sites. On the other hand, Hidden Markov Models which are fitted using the EM-algorithm on the same observation sequences. We show that these models allow to accurately handle and describe the seasonal components of risk time series in customs context. It is also shown that the fitted models can be easily interpreted and provide a good description of important properties of the data such as the second-order structure and Probability Density Function (PDFs) per season per site.
254

Towards robust prediction of the dynamics of the Antarctic ice sheet: Uncertainty quantification of sea-level rise projections and grounding-line retreat with essential ice-sheet models / Vers des prédictions robustes de la dynamique de la calotte polaire de l'Antarctique: Quantification de l'incertitude sur les projections de l'augmentation du niveau des mers et du retrait de la ligne d'ancrage à l'aide de modèles glaciologiques essentiels

Bulthuis, Kevin 29 January 2020 (has links) (PDF)
Recent progress in the modelling of the dynamics of the Antarctic ice sheet has led to a paradigm shift in the perception of the Antarctic ice sheet in a changing climate. New understanding of the dynamics of the Antarctic ice sheet now suggests that the response of the Antarctic ice sheet to climate change will be driven by instability mechanisms in marine sectors. As concerns have grown about the response of the Antarctic ice sheet in a warming climate, interest has grown simultaneously in predicting with quantified uncertainty the evolution of the Antarctic ice sheet and in clarifying the role played by uncertainties in predicting the response of the Antarctic ice sheet to climate change. Essential ice-sheet models have recently emerged as computationally efficient ice-sheet models for large-scale and long-term simulations of the ice-sheet dynamics and integration into Earth system models. Essential ice-sheet models, such as the fast Elementary Thermomechanical Ice Sheet (f.ETISh) model developed at the Université Libre de Bruxelles, achieve computational tractability by representing essential mechanisms and feedbacks of ice-sheet thermodynamics through reduced-order models and appropriate parameterisations. Given their computational tractability, essential ice-sheet models combined with methods from the field of uncertainty quantification provide opportunities for more comprehensive analyses of the impact of uncertainty in ice-sheet models and for expanding the range of uncertainty quantification methods employed in ice-sheet modelling. The main contributions of this thesis are twofold. On the one hand, we contribute a new assessment and new understanding of the impact of uncertainties on the multicentennial response of the Antarctic ice sheet. On the other hand, we contribute new methods for uncertainty quantification of geometrical characteristics of the spatial response of physics-based computational models, with, as a motivation in glaciology, a focus on predicting with quantified uncertainty the retreat of the grounded region of the Antarctic ice sheet. For the first contribution, we carry out new probabilistic projections of the multicentennial response of the Antarctic ice sheet to climate change using the f.ETISh model. We apply methods from the field of uncertainty quantification to the f.ETISh model to investigate the influence of several sources of uncertainty, namely sources of uncertainty in atmospheric forcing, basal sliding, grounding-line flux parameterisation, calving, sub-shelf melting, ice-shelf rheology, and bedrock relation, on the continental response on the Antarctic ice sheet. We provide new probabilistic projections of the contribution of the Antarctic ice sheet to future sea-level rise; we carry out stochastic sensitivity analysis to determine the most influential sources of uncertainty; and we provide new probabilistic projections of the retreat of the grounded portion of the Antarctic ice sheet. For the second contribution, we propose to address uncertainty quantification of geometrical characteristics of the spatial response of physics-based computational models within the probabilistic context of the random set theory. We contribute to the development of the concept of confidence sets that either contain or are contained within an excursion set of the spatial response with a specified probability level. We propose a new multifidelity quantile-based method for the estimation of such confidence sets and we demonstrate the performance of the proposed method on an application concerned with predicting with quantified uncertainty the retreat of the Antarctic ice sheet. In addition to these two main contributions, we contribute to two additional pieces of research pertaining to the computation of Sobol indices in global sensitivity analysis in small-data settings using the recently introduced probabilistic learning on manifolds (PLoM) and to a multi-model comparison of the projections of the contribution of the Antarctic ice sheet to global mean sea-level rise. / Les progrès récents effectués dans la modélisation de la dynamique de la calotte polaire de l'Antarctique ont donné lieu à un changement de paradigme vis-à-vis de la perception de la calotte polaire de l'Antarctique face au changement climatique. Une meilleure compréhension de la dynamique de la calotte polaire de l'Antarctique suggère désormais que la réponse de la calotte polaire de l'Antarctique au changement climatique sera déterminée par des mécanismes d'instabilité dans les régions marines. Tandis qu'un nouvel engouement se porte sur une meilleure compréhension de la réponse de la calotte polaire de l'Antarctique au changement climatique, un intérêt particulier se porte simultanément vers le besoin de quantifier les incertitudes sur l'évolution de la calotte polaire de l'Antarctique ainsi que de clarifier le rôle joué par les incertitudes sur le comportement de la calotte polaire de l'Antarctique en réponse au changement climatique. D'un point de vue numérique, les modèles glaciologiques dits essentiels ont récemment été développés afin de fournir des modèles numériques efficaces en temps de calcul dans le but de réaliser des simulations à grande échelle et sur le long terme de la dynamique des calottes polaires ainsi que dans l'optique de coupler le comportement des calottes polaires avec des modèles globaux du sytème terrestre. L'efficacité en temps de calcul de ces modèles glaciologiques essentiels, tels que le modèle f.ETISh (fast Elementary Thermomechanical Ice Sheet) développé à l'Université Libre de Bruxelles, repose sur une modélisation des mécanismes et des rétroactions essentiels gouvernant la thermodynamique des calottes polaires au travers de modèles d'ordre réduit et de paramétrisations. Vu l'efficacité en temps de calcul des modèles glaciologiques essentiels, l'utilisation de ces modèles en complément des méthodes du domaine de la quantification des incertitudes offrent de nombreuses opportunités afin de mener des analyses plus complètes de l'impact des incertitudes dans les modèles glaciologiques ainsi que de développer de nouvelles méthodes du domaine de la quantification des incertitudes dans le cadre de la modélisation glaciologique. Les contributions de cette thèse sont doubles. D'une part, nous contribuons à une nouvelle estimation et une nouvelle compréhension de l'impact des incertitudes sur la réponse de la calotte polaire de l'Antarctique dans les prochains siècles. D'autre part, nous contribuons au développement de nouvelles méthodes pour la quantification des incertitudes sur les caractéristiques géométriques de la réponse spatiale de modèles physiques numériques avec, comme motivation en glaciologie, un intérêt particulier vers la prédiction sous incertitudes du retrait de la région de la calotte polaire de l'Antarctique en contact avec le lit rocheux. Dans le cadre de la première contribution, nous réalisons de nouvelles projections probabilistes de la réponse de la calotte polaire de l'Antarctique au changement climatique au cours des prochains siècles à l'aide du modèle numérique f.ETISh. Nous appliquons des méthodes du domaine de la quantification des incertitudes au modèle numérique f.ETISh afin d'étudier l'impact de différentes sources d'incertitude sur la réponse continentale de la calotte polaire de l'Antarctique. Les sources d'incertitude étudiées sont relatives au forçage atmosphérique, au glissement basal, à la paramétrisation du flux à la ligne d'ancrage, au vêlage, à la fonte sous les barrières de glace, à la rhéologie des barrières de glace et à la relaxation du lit rocheux. Nous réalisons de nouvelles projections probabilistes de la contribution de la calotte polaire de l'Antarctique à l'augmentation future du niveau des mers; nous réalisons une analyse de sensibilité afin de déterminer les sources d'incertitude les plus influentes; et nous réalisons de nouvelles projections probabilistes du retrait de la région de la calotte polaire de l'Antarctique en contact avec le lit rocheux.Dans le cadre de la seconde contribution, nous étudions la quantification des incertitudes sur les caractéristiques géométriques de la réponse spatiale de modèles physiques numériques dans le cadre de la théorie des ensembles aléatoires. Dans le cadre de la théorie des ensembles aléatoires, nous développons le concept de régions de confiance qui contiennent ou bien sont inclus dans un ensemble d'excursion de la réponse spatiale du modèle numérique avec un niveau donné de probabilité. Afin d'estimer ces régions de confiance, nous proposons de formuler l'estimation de ces régions de confiance dans une famille d'ensembles paramétrés comme un problème d'estimation de quantiles d'une variable aléatoire et nous proposons une nouvelle méthode de type multifidélité pour estimer ces quantiles. Finalement, nous démontrons l'efficacité de cette nouvelle méthode dans le cadre d'une application relative au retrait de la région de la calotte polaire de l'Antarctique en contact avec le lit rocheux. En plus de ces deux contributions principales, nous contribuons à deux travaux de recherche additionnels. D'une part, nous contribuons à un travail de recherche relatif au calcul des indices de Sobol en analyse de sensibilité dans le cadre de petits ensembles de données à l'aide d'une nouvelle méthode d'apprentissage probabiliste sur des variétés géométriques. D'autre part, nous fournissons une comparaison multimodèle de différentes projections de la contribution de la calotte polaire de l'Antarctique à l'augmentation du niveau des mers. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
255

Caractérisation de la contamination des systèmes aquatiques par les psychotropes : développement d'une méthode de référence incluant une démarche multifactorielle de hiérarchisation / Characterization of the contamination of aquatic systems by psychotropic compounds : development of a reference method including a multifactorial selection approach

Brieudes, Vincent 18 April 2014 (has links)
Les résidus de médicaments font partie des polluants dits « émergents » pour lesquels il n’existe actuellement pas de réglementation quant à leur présence dans l’environnement. Afin d’anticiper un risque éventuel pour l’Homme et les milieux aquatiques il est, entre autres, nécessaire de réaliser un état des lieux de la contamination des systèmes aquatiques par ce type de micropolluants. Dans ce contexte, disposer de données de mesures de qualité (traçables et comparables) constitue un prérequis indispensable pour décider au mieux des politiques à conduire dans ce domaine. L’étude des psychotropes présente un enjeu important d’autant plus qu’il s’agit de molécules abondamment consommées.Les travaux conduits lors de cette thèse avaient deux objectifs principaux. Le premier était de caractériser l’occurrence environnementale de composés psychotropes. Le second objectif était de proposer des outils métrologiques permettant d’assurer l’exactitude, la traçabilité, la comparabilité mais également la représentativité des résultats de mesure.Dans un premier temps, une méthode multi-résidus par SPE-LC-MS² a été développée pour une sélection de composés psychotropes et d’autres médicaments de consommation courante. Les limites de quantification de la méthode étaient de l’ordre du ng.L-1. Cela a permis de caractériser leur occurrence dans différents cours d’eau et rejets de station d’épuration en France. En parallèle, une approche par échantillonnage intégratif a été développée et déployée dans différents sites. Cette stratégie complémentaire a permis d’établir les niveaux d’occurrence des 68 psychotropes et traceurs sélectionnés et de conduire une démarche de hiérarchisation dans le but d’établir une liste restreinte de composés d’intérêt. Enfin, une méthode de référence associant la dilution isotopique à la spectrométrie de masse (DI-MS) a été développée pour l’analyse de 24 psychotropes dans les eaux de surface. Elle se caractérise par des incertitudes élargies (k=2) inférieures à 10%. La mise en oeuvre de cette méthode dans des études environnementales a permis de mettre en évidence l’importance de la contribution de l’incertitude liée à l’échantillonnage par rapport à l’incertitude totale de mesure. / Pharmaceuticals and their residues belong to the so-called “emerging” pollutants for which no current regulation is applied regarding their presence in the environment. Monitoring the contamination of aquatic resources by these kinds of micropollutants is a necessity in order to anticipate potential effects regarding human health and ecosystems. In this context, data quality (traceability and comparability) is compulsory so as to take better decisions regarding policies to be driven. Psychotropic compounds, which are widely consumed, display a great concern in that field.This thesis aimed at characterizing occurrence of psychotropic compounds in the environment and putting forward metrological tools insuring accuracy, traceability, comparability as well as representativity of the measurement results.To that purpose, a SPE-LC-MS² multi-residue method has been developed for a selection of psychotropic compounds and other commonly consumed drugs. Method limits of quantification were in the range of ng.L-1 which enabled to characterize their occurrence in several surface waters and treated wastewaters. Concurrently, usage of integrative samplers was evaluated and applied on the field in different locations. Occurrence levels of 68 selected compounds were established by implementation of this complementary strategy in aquatic systems. Furthermore, results from measurement campaigns were used to rank studied compounds into a short list of interest. Finally, a reference method using isotopic dilution and mass spectrometry (DI-MS) was developed for the characterization of 24 psychotropic compounds in surface waters. Expanded uncertainties (k=2) inferior to 10% were obtained. Last be not least, implementing this method to environmental analysis emphasized the importance of sampling related uncertainties regarding to global measurement uncertainties.
256

L’évaluation de la fiabilité d’un système mécatronique en phase de développement / Reliability analysis of mechatronic systems

Ben Said Amrani, Nabil 01 July 2019 (has links)
L’étude de la fiabilité des systèmes mécatroniques est un axe de recherche relativement récent. Ces études doivent être menées au plus tôt au cours de la phase de conception, afin de prévoir, modéliser et concevoir des systèmes fiables, disponibles et sûrs et de réduire les coûts et le nombre de prototypes nécessaires à la validation d’un système. Après avoir défini les systèmes mécatroniques et les notions de sûreté de fonctionnement et de fiabilité, nous présentons un aperçu des approches existantes (quantitatives et qualitatives) pour la modélisation et l’évaluation de la fiabilité, et nous mettons en évidence les points d’amélioration et les pistes à développer par la suite.Les principales difficultés dans les études de fiabilité des systèmes mécatroniques sont la combinaison multi-domaines (mécanique, électronique,informatique) et les différents aspects fonctionnels et dysfonctionnels (hybride, dynamique, reconfigurable et interactif). Il devient nécessaire d’utiliser de nouvelles approches pour l’estimation de la fiabilité.Nous proposons une méthodologie d’évaluation de la fiabilité prévisionnelle en phase de conception d’un système mécatronique, en prenant en compte les interactions multi-domaines entre les composants, à l’aide de la modélisation par Réseaux de Pétri,Réseaux bayésiens et fonctions de croyance.L’évaluation de la fiabilité en phase de développement doit être robuste, avec une confiance suffisante et prendre en compte tant les incertitudes épistémiques concernant les variables aléatoires d’entrée du modèle utilisé que l’incertitude sur le modèle pris en hypothèse. L’approche proposée a été appliquée à l’«actionneur intelligent» de la société Pack’ Aero. / Reliability analysis of mechatronic systems is one of the most dynamic fields of research. This analysis must be conducted during the design phase, in order to model and to design safe and reliable systems. After presenting some concepts of mechatronic systems and of dependability and reliability, we present an overview of existing approaches (quantitatives and qualitatives) for the reliability assessment and we highlight the perspectives to develop. The criticality of mechatronic systems is due, on one hand, to multi-domain combination (mechanical, electronic, software), and, on the other hand, to their different functional and dysfunctional aspects (hybrid, dynamic, reconfigurable and interactive). Therefore, new approaches for dependability assessment should be developped. We propose a methodology for reliability assessment in the design phase of a mechatronic system, by taking into account multi-domain interactions and by using modeling tools such as Petri Nets and Dynamic Bayesian Networks. Our approach also takes into account epistemic uncertainties (uncertainties of model and of parameters) by using an evidential network adapted to our model. Our methodology was applied to the reliability assessment of an "intelligent actuator" from Pack’Aero
257

Apprentissage statistique de modèles réduits non-linéaires par approche expérimentale et design de contrôleurs robustes: le cas de la cavité ouverte

Ottonelli, Claudio 20 June 2014 (has links) (PDF)
Cette thèse est consacrée à la conception d'un contrôle en boucle fermée d'un écoulement de cavité subsonique. L'objectif est de réaliser un contrôleur qui dépend seulement de grandeurs observables expérimentalement et qui gère des situations où les écoulements sont excités par des perturbations aléatoires extérieures. Pour faire face à ces deux aspects essentiels, deux stratégies ont été définies: l'identification d'un modèle non-linéaire reproduisant la dynamique de l'écoulement à partir seulement d'informations mesurables et la conception d'un compensateur linéaire robuste, basée sur la théorie du contrôle H∞, qui incorpore des propriété de robustesse dans la définition de la fonction objectif. La première partie de la thèse est consacrée à l'identification d'un modèle non-linéaire grâce à des données obtenues à partir d'une expérience menée dans la soufflerie subsonique (M = 0.1) S19 sur le site Chalais-Meudon de l'ONERA. Afin de décrire la dynamique de cet écoulement, et en particulier son contenu fréquentiel, l'écoulement sans contrôle a été caractérisé par des mesures par fil chaud et de pression instationnaire et par des clichés de vélocimétrie par images des particules (PIV) résolue en temps. Un filtrage temporel a été appliqué avec succès aux clichés PIV afin d'extraire la dynamique basse fréquence de l'écoulement. Cette étape est indispensable pour pouvoir gérer des écoulements turbulents caractérisés par un spectre fréquentiel très étendu. Les modes POD obtenus ont été utilisés comme base de projection pour le champ de vitesse et les trajectoires associées ont été interpolées (apprentissage statistique) sur une structure de modèle non-linéaire autorégressif exogène (NLARX). Il s'avère que les modèles obtenus ne sont pas robustes, dans le sens où ils ne parviennent pas à reproduire la dynamique d'un ensemble de données de validation, une fois adaptés à un ensemble de données d'apprentissage. Il a été démontré que cet échec est dû aux fortes non-linéarités observées dans l'écoulement de cavité, qui rendent impraticables les méthodes d'identification. La deuxième partie de la thèse est consacrée à la conception d'un contrôleur robuste à partir de simulations numériques d'un écoulement de cavité carrée, incompressible et en régime transitionnel, pour différents nombres de Reynolds. Diverses méthodes de synthèse de contrôleur ont été testées et évaluées en utilisant plusieurs mesures de robustesse. On a constaté que la technique traditionnelle de contrôle linéaire quadratique gaussien (LQG) présente une faible robustesse aux perturbations extérieures, tandis que d'autres, comme la technique LTR (Loop Transfer Recovery) et les contrôleurs basés sur les perturbations "les pires" (worst-case), améliorent la robustesse, mais pas suffisamment pour faire face à la forte non-linéarité de l'écoulement. Dans ce but, on met en place un contrôleur qui optimise les propriétés de robustesse par rapport à des incertitudes de type "entrée-multiplicative" et de type "entrée vers sortie". Celui-ci présente des marges de robustesse fortement augmentées par rapport à l'introduction de perturbations de la partie stable de la dynamique entré-sortie, même si le prix à payer en terme de performance est significatif. Une stratégie pour prendre en compte également des perturbations de la partie instable de la dynamique entrée-sortie, comme celles obtenues par un changement du nombre de Reynolds, a été présentée.
258

Indicateurs biologiques de la qualité écologique des cours d’eau : variabilités et incertitudes associées / Ecological assessment of running waters using bio-indicators : associated variability and uncertainty

Marzin, Anahita 11 January 2013 (has links)
Evaluer, maintenir et restaurer les conditions écologiques des rivières nécessitent des mesures du fonctionnement de leurs écosystèmes. De par leur complexité, notre compréhension de ces systèmes est imparfaite. La prise en compte des incertitudes et variabilités liées à leur évaluation est donc indispensable à la prise de décision des gestionnaires. En analysant des données nationales (~ 1654 sites), les objectifs principaux de cette thèse étaient de (1) tester certaines hypothèses intrinsèques aux bio-indicateurs et (2) d'étudier les incertitudes de l'évaluation écologique associées à la variabilité temporelle des bio-indicateurs et à la prédiction des conditions de référence. (1) Ce travail met en évidence (i) le rôle prépondérant des facteurs environnementaux naturels dans la structuration des communautés aquatiques en comparaison des facteurs anthropiques (définis à l'échelle du bassin versant, du corridor riparien et du tronçon), (ii) les réponses contrastées des communautés aquatiques aux pressions humaines (dégradations hydro-morphologiques et de la qualité de l'eau) et (iii) plus généralement, les forts impacts des barrages et de l'altération de la qualité de l'eau sur les communautés aquatiques. (2) Une méthode Bayésienne a été développée pour estimer les incertitudes liées à la prédiction des conditions de référence d'un indice piscicole (IPR+). Les incertitudes prédictives de l'IPR+ dépendent du site considéré mais aucune tendance claire n'a été observée. Par comparaison, la variabilité temporelle de l'IPR+ est plus faible et semble augmenter avec l'intensité des perturbations anthropiques. Les résultats de ce travail confirment l'avantage d'indices multi-métriques basés sur des traits fonctionnels par rapport à ceux relatifs à la composition taxonomique. Les sensibilités différentes des macrophytes, poissons, diatomées et macro-invertébrés aux pressions humaines soulignent leur complémentarité pour l'évaluation des écosystèmes fluviaux. Néanmoins, de futures recherches sont nécessaires à une meilleure compréhension des effets d'interactions entre types de pressions et entre pressions humaines et environnement. / Sensitive biological measures of ecosystem quality are needed to assess, maintain or restore the ecological conditions of rivers. Since our understanding of these complex systems is imperfect, river management requires recognizing variability and uncertainty of bio-assessment for decision-making. Based on the analysis of national data sets (~ 1654 sites), the main goals of this work were (1) to test some of the assumptions that shape bio-indicators and (2) address the temporal variability and the uncertainty associated to prediction of reference conditions.(1) This thesis highlights (i) the predominant role of physiographic factors in shaping biological communities in comparison to human pressures (defined at catchment, riparian corridor and reach scales), (ii) the differences in the responses of biological indicators to the different types of human pressures (water quality, hydrological, morphological degradations) and (iii) more generally, the greatest biological impacts of water quality alterations and impoundments. (2) A Bayesian method was developed to estimate the uncertainty associated with reference condition predictions of a fish-based bio-indicator (IPR+). IPR+ predictive uncertainty was site-dependent but showed no clear trend related to the environmental gradient. By comparison, IPR+ temporal variability was lower and sensitive to an increase of human pressure intensity. This work confirmed the advantages of multi-metric indexes based on functional metrics in comparison to compositional metrics. The different sensitivities of macrophytes, fish, diatoms and macroinvertebrates to human pressures emphasize their complementarity in assessing river ecosystems. Nevertheless, future research is needed to better understand the effects of interactions between pressures and between pressures and the environment.
259

Analyse numérique de méthodes performantes pour les EDP stochastiques modélisant l'écoulement et le transport en milieux poreux / Numerical analysis of performant methods for stochastic PDEs modeling flow and transport in porous media

Oumouni, Mestapha 06 June 2013 (has links)
Ce travail présente un développement et une analyse des approches numériques déterministes et probabilistes efficaces pour les équations aux dérivées partielles avec des coefficients et données aléatoires. On s'intéresse au problème d'écoulement stationnaire avec des données aléatoires. Une méthode de projection dans le cas unidimensionnel est présentée, permettant de calculer efficacement la moyenne de la solution. Nous utilisons la méthode de collocation anisotrope des grilles clairsemées. D'abord, un indicateur de l'erreur satisfaisant une borne supérieure de l'erreur est introduit, il permet de calculer les poids d'anisotropie de la méthode. Ensuite, nous démontrons une amélioration de l'erreur a priori de la méthode. Elle confirme l'efficacité de la méthode en comparaison avec Monte-Carlo et elle sera utilisée pour accélérer la méthode par l'extrapolation de Richardson. Nous présentons aussi une analyse numérique d'une méthode probabiliste pour quantifier la migration d'un contaminant dans un milieu aléatoire. Nous considérons le problème d'écoulement couplé avec l'équation d'advection-diffusion, où on s'intéresse à la moyenne de l'extension et de la dispersion du soluté. Le modèle d'écoulement est discrétisée par une méthode des éléments finis mixtes, la concentration du soluté est une densité d'une solution d'une équation différentielle stochastique, qui sera discrétisée par un schéma d'Euler. Enfin, on présente une formule explicite de la dispersion et des estimations de l'erreur a priori optimales. / This work presents a development and an analysis of an effective deterministic and probabilistic approaches for partial differential equation with random coefficients and data. We are interesting in the steady flow equation with stochastic input data. A projection method in the one-dimensional case is presented to compute efficiently the average of the solution. An anisotropic sparse grid collocation method is also used to solve the flow problem. First, we introduce an indicator of the error satisfying an upper bound of the error, it allows us to compute the anisotropy weights of the method. We demonstrate an improvement of the error estimation of the method which confirms the efficiency of the method compared with Monte Carlo and will be used to accelerate the method using the Richardson extrapolation technique. We also present a numerical analysis of one probabilistic method to quantify the migration of a contaminant in random media. We consider the previous flow problem coupled with the advection-diffusion equation, where we are interested in the computation of the mean extension and the mean dispersion of the solute. The flow model is discretized by a mixed finite elements method and the concentration of the solute is a density of a solution of the stochastic differential equation, this latter will be discretized by an Euler scheme. We also present an explicit formula of the dispersion and an optimal a priori error estimates.
260

Analyse numérique d’équations aux dérivées aléatoires, applications à l’hydrogéologie / Numerical analysis of partial differential equations with random coefficients, applications to hydrogeology

Charrier, Julia 12 July 2011 (has links)
Ce travail présente quelques résultats concernant des méthodes numériques déterministes et probabilistes pour des équations aux dérivées partielles à coefficients aléatoires, avec des applications à l'hydrogéologie. On s'intéresse tout d'abord à l'équation d'écoulement dans un milieu poreux en régime stationnaire avec un coefficient de perméabilité lognormal homogène, incluant le cas d'une fonction de covariance peu régulière. On établit des estimations aux sens fort et faible de l'erreur commise sur la solution en tronquant le développement de Karhunen-Loève du coefficient. Puis on établit des estimations d'erreurs éléments finis dont on déduit une extension de l'estimation d'erreur existante pour la méthode de collocation stochastique, ainsi qu'une estimation d'erreur pour une méthode de Monte-Carlo multi-niveaux. On s'intéresse enfin au couplage de l'équation d'écoulement considérée précédemment avec une équation d'advection-diffusion, dans le cas d'incertitudes importantes et d'une faible longueur de corrélation. On propose l'analyse numérique d'une méthode numérique pour calculer la vitesse moyenne à laquelle la zone contaminée par un polluant s'étend. Il s'agit d'une méthode de Monte-Carlo combinant une méthode d'élements finis pour l'équation d'écoulement et un schéma d'Euler pour l'équation différentielle stochastique associée à l'équation d'advection-diffusion, vue comme une équation de Fokker-Planck. / This work presents some results about probabilistic and deterministic numerical methods for partial differential equations with stochastic coefficients, with applications to hydrogeology. We first consider the steady flow equation in porous media with a homogeneous lognormal permeability coefficient, including the case of a low regularity covariance function. We establish error estimates, both in strong and weak senses, of the error in the solution resulting from the truncature of the Karhunen-Loève expansion of the coefficient. Then we establish finite element error estimates, from which we deduce an extension of the existing error estimate for the stochastic collocation method along with an error estimate for a multilevel Monte-Carlo method. We finally consider the coupling of the previous flow equation with an advection-diffusion equation, in the case when the uncertainty is important and the correlation length is small. We propose the numerical analysis of a numerical method, which aims at computing the mean velocity of the expansion of a pollutant. The method consists in a Monte-Carlo method, combining a finite element method for the flow equation and an Euler scheme for the stochastic differential equation associated to the advection-diffusion equation, seen as a Fokker-Planck equation.

Page generated in 0.1229 seconds