• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 112
  • 95
  • 72
  • 10
  • 8
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 325
  • 101
  • 56
  • 43
  • 37
  • 34
  • 31
  • 24
  • 24
  • 24
  • 24
  • 21
  • 21
  • 21
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Advanced Fuel Cycle Scenarios with AP1000 PWRs and VHTRs and Fission Spectrum Uncertainties

Cuvelier, Marie-Hermine 2012 May 1900 (has links)
Minimization of HLW inventories and U consumption are key elements guaranteeing nuclear energy expansion. The integration of complex nuclear systems into a viable cycle yet constitutes a challenging multi-parametric optimization problem. The reactors and fuel cycle performance parameters may be strongly dependent on minor variations in the system's input data. Proven discrepancies in nuclear data evaluations could affect the validity of the system optimization metrics. This study first analyzes various advanced AP1000-VHTR fuel cycle scenarios by assessing their TRU destruction and their U consumption minimization capabilities, and by computing reactor performance parameters such as the time evolution of the effective multiplication factor keff, the reactors' energy spectrum or the isotopic composition/activity at EOL. The performance metrics dependence to prompt neutron fission spectrum discrepancies is then quantified to assess the viability of one strategy. Fission spectrum evaluations are indeed intensively used in reactors' calculations. Discrepancies higher than 10% have been computed among nuclear data libraries for energies above 8MeV for 235U. TRU arising from a 3wt% 235U-enriched UO2-fueled AP1000 were incinerated in a VHTR. Fuels consisting of 20%, 40% and 100% of TRU completed by UO2 were examined. MCNPX results indicate that up to 88.9% of the TRU initially present in a VHTR fueled with 20% of TRU and 80% of ThO2 were transmuted. Additionally, the use of WgPu instead of RgPu should reduce the daily consumption of 235U by 1.3 and augment core lifetime. To estimate the system metrics dependence to fission spectrum discrepancies and validate optimization studies outputs, the VTHR 235U fission spectrum distribution was altered successively in three manners. keff is at worst lowered by 1.7% of the reference value and the energy spectrum by 5% between 50meV and 2MeV when a significantly distorted fission spectrum tail is used. 233U, 236Pu and 237Pu inventories and activities are multiplied by 263, 523 and 34 but are still negligible compared to 239Pu mass or the total activity. The AP1000-VHTR system is in conclusion not dependent on the selected fission spectrum variations. TRU elimination optimization studies in AP1000-VHTR systems will be facilitated by freeing performance metrics dependency from 1 input parameter.
132

Essays on the economics of electronic commerce

Luo, Jifeng 20 August 2008 (has links)
This dissertation examines the innovations in electronic commerce and their managerial impacts. In the first essay, we investigate the importance of product and retailer uncertainty in a customer's online purchase decision as well as the uncertainty-reduction effects of retailer characteristics. In the second essay, we examine online pricing strategies of B2C retailers, with an aim to understand whether and how the driving factors of price dispersion evolve over time. Based on the theories of resource-based view (RBV), IT business value, and competitive dynamics, the third essay examines the factors that affect cross-channel capabilities and competitive actions in the apparel industry in the U.S.
133

Site Water Budget: Influences of Measurement Uncertainties on Measurement Results and Model Results / Standortswasserbilanz: Einflüsse von Messunsicherheiten auf Mess- und Modellergebnisse

Spank, Uwe 10 December 2010 (has links) (PDF)
The exact quantification of site water budget is a necessary precondition for successful and sustainable management of forests, agriculture and water resources. In this study the water balance was investigated at the spatial scale of canopies and at different temporal scales with focus on the monthly time scale. The estimation of the individual water balance components was primarily based on micrometeorological measurement methods. Evapotranspiration was assessed by the eddy-covariance (EC) method, while sap flow measurements were used to estimate transpiration. Interception was assessed by a combination of canopy drip, stem flow and precipitation (gross rainfall) measurements and soil moisture measurements were used to estimate the soil water storage. The combination of different measurement methods and the derivation of water balance components that are not directly measurable e.g. seepage and soil evaporation is a very complex task due to different scales of measurement, measurement uncertainties and the superposition of these effects. The quantification of uncertainties is a core point of the present study. The uncertainties were quantified for water balance component as well as for meteorological variables (e.g. wind speed, temperature, global radiation, net radiation and precipitation) that served as input data in water balance models. Furthermore, the influences of uncertainties were investigated in relation to numerical water balance simulations. Here, both the effects of uncertainties in input data and in reference data were analysed and evaluated. The study addresses three main topics. The first topic was the providing of reference data of evapotranspiration by EC measurements. Here, the processing of EC raw-data was of main concern with focus on the correction of the spectral attenuation. Four different methods of spectral correction were tested and compared. The estimated correction coefficients were significantly different between all methods. However, the effects were small to absolute values on half-hourly time scale. In contrast to half-hour data sets, the method had significant influence to estimated monthly totals of evapotranspiration. The second main topic dealt with the comparison of water balances between a spruce (Picea abies) and a beech (Fagus sylvatica) site. Both sites are located in the Tharandter Wald (Germany). Abiotic conditions are very similar at both sites. Thus, the comparison of both sites offered the opportunity to reveal differences in the water balance due to different dominant tree species. The aim was to estimate and to compare all individual components of the water balance by a combination of the above mentioned measurement methods. A major challenge was to overcome problems due different scales of measurements. Significant differences of the water balances between both sites occurred under untypical weather conditions. However, under typical condition the sites showed a similar behaviour. Here, the importance of involved uncertainties deserved special attention. Results showed that differences in the water balance between sites were blurred by uncertainties. The third main topic dealt with the effects of uncertainties on simulations of water balances with numerical models. These analyses were based on data of three sites (Spruce, Grass and Agricultural site). A kind of Monte-Carlo-Simulation (uncertainty model) was used to simulate effects of measurement uncertainties. Furthermore, the effects of model complexity and the effect of uncertainties in reference data on the evaluation of simulation results were investigated. Results showed that complex water balance models like BROOK90 have the ability to describe the general behaviour and tendencies of a water balance. However, satisfying quantitative results were only reached under typical weather conditions. Under untypical weather e.g. droughts or extreme precipitation, the results significantly differed from actual (measured) values. In contrast to complex models, it was demonstrated that simple Black Box Models (e.g. HPTFs) are not suited for water balance simulations for the three sites tested here. / Die genaue Quantifizierung des Standortswasserhaushalts ist eine notwendige Voraussetzung für eine erfolgreiche und nachhaltige Bewirtschaftung von Wäldern, Äckern und Wasserressourcen. In dieser Studie wurde auf der Raumskala des Bestandes und auf verschieden Zeitskalen, jedoch vorrangig auf Monatsebene, die Wasserbilanz untersucht. Die Bestimmung der einzelnen Wasserbilanzkomponenten erfolgte hauptsächlich mit mikrometeorologischen Messmethoden. Die Eddy- Kovarianz- Methode (EC- Methode) wurde benutzt zur Messung der Evapotranspiration, während Xylem- Flussmessungen angewendet wurden, um die Transpiration zu bestimmen. Die Interzeption wurde aus Messungen des Bestandesniederschlags, des Stammablaufs und des Freilandniederschlags abgeleitet. Messungen der Bodenfeuchte dienten zur Abschätzung des Bodenwasservorrats. Die Kombination verschiedener Messmethoden und die Ableitung von nicht direkt messbaren Wasserhaushaltkomponenten (z.B. Versickerung und Bodenverdunstung) ist eine äußerst komplexe Aufgabe durch verschiedenen Messskalen, Messfehler und die Überlagerung dieser Effekte. Die Quantifizierung von Unsicherheiten ist ein Kernpunkt in dieser Studie. Dabei werden sowohl Unsicherheiten in Wasserhaushaltskomponenten als auch in meteorologischen Größen, welche als Eingangsdaten in Wasserbilanzmodellen dienen (z.B. Windgeschwindigkeit, Temperatur, Globalstrahlung, Nettostrahlung und Niederschlag) quantifiziert. Weiterführend wird der Einfluss von Unsicherheiten im Zusammenhang mit numerischen Wasserbilanzsimulationen untersucht. Dabei wird sowohl die Wirkung von Unsicherheiten in Eingangsdaten als auch in Referenzdaten analysiert und bewertet. Die Studie beinhaltet drei Hauptthemen. Das erste Thema widmet sich der Bereitstellung von Referenzdaten der Evapotranspiration mittels EC- Messungen. Dabei waren die Aufbereitung von EC- Rohdaten und insbesondere die Dämpfungskorrektur (Spektralkorrektur) der Schwerpunkt. Vier verschiedene Methoden zur Dämpfungskorrektur wurden getestet und verglichen. Die bestimmten Korrekturkoeffizienten unterschieden sich deutlich zwischen den einzelnen Methoden. Jedoch war der Einfluss auf die Absolutwerte halbstündlicher Datensätze gering. Im Gegensatz dazu hatte die Methode deutlichen Einfluss auf die ermittelten Monatssummen der Evapotranspiration. Das zweite Hauptthema beinhaltet einen Vergleich der Wasserbilanz eines Fichten- (Picea abies) mit der eines Buchenbestands (Fagus sylvatica). Beide Bestände befinden sich im Tharandter Wald (Deutschland). Die abiotischen Faktoren sind an beiden Standorten sehr ähnlich. Somit bietet der Vergleich die Möglichkeit Unterschiede in der Wasserbilanz, die durch unterschiedliche Hauptbaumarten verursacht wurden, zu analysieren. Das Ziel was es, die einzelnen Wasserbilanzkomponenten durch eine Kombination der eingangs genanten Messmethoden zu bestimmen und zu vergleichen. Ein Hauptproblem dabei war die Umgehung der unterschiedlichen Messskalen. Deutliche Unterschiede zwischen den beiden Standorten traten nur unter untypischen Wetterbedingungen auf. Unter typischen Bedingungen zeigten die Bestände jedoch ein ähnliches Verhalten. An dieser Stelle erlangten Messunsicherheiten besondere Bedeutung. So demonstrierten die Ergebnisse, dass Unterschiede in der Wasserbilanz beider Standorte durch Messunsicherheiten verwischt wurden. Das dritte Hauptthema behandelt die Wirkung von Unsicherheiten auf Wasserbilanzsimulationen mittels numerischer Modelle. Die Analysen basierten auf Daten von drei Messstationen (Fichten-, Grasland- und Agrarstandort). Es wurde eine Art Monte-Carlo-Simulation eingesetzt, um die Wirkung von Messunsicherheiten zu simulieren. Ferner wurden auch der Einfluss der Modellkomplexität und die Effekte von Unsicherheiten in Referenzdaten auf die Bewertung von Modellergebnissen untersucht. Die Ergebnisse zeigten, dass komplexe Wasserhaushaltsmodelle wie BROOK90 in der Lage sind, das Verhalten und Tendenzen der Wasserbilanz abzubilden. Jedoch wurden zufriedenstellende quantitative Ergebnisse nur unter üblichen Wetterbedingungen erzielt. Unter untypischen Wetterbedingungen (Dürreperioden, Extremniederschläge) wichen die Ergebnisse deutlich vom tatsächlichen (gemessenen) Wert ab. Im Gegensatz zu komplexen Modellen zeigte sich, dass Black Box Modelle (HPTFs) nicht für Wasserhaushaltssimulation an den drei genannten Messstandorten geeignet sind.
134

Flexible Urban Water Distribution Systems

Tsegaye, Seneshaw Amare 01 January 2013 (has links)
With increasing global change pressures such as urbanization and climate change, cities of the future will experience difficulties in efficiently managing scarcer and less reliable water resources. However, projections of future global change pressures are plagued with uncertainties. This increases the difficulty in developing urban water systems that are adaptable to future uncertainty. A major component of an urban water system is the distribution system, which constitutes approximately 80-85% of the total cost of the water supply system (Swamee and Sharma, 2008). Traditionally, water distribution systems (WDS) are designed using deterministic assumptions of main model input variables such as water availability and water demand. However, these deterministic assumptions are no longer valid due to the inherent uncertainties associated with them. Hence, a new design approach is required, one that recognizes these inherent uncertainties and develops more adaptable and flexible systems capable of using their active capacity to act or respond to future alterations in a timely, performance-efficient, and cost-effective manner. This study develops a framework for the design of flexible WDS that are adaptable to new, different, or changing requirements. The framework consists of two main parts. The first part consists of several components that are important in the pre and post--processing of the least-cost design methodology of a flexible WDS. These components include: the description of uncertainties affecting WDS design, identification of potential flexibility options for WDS, generation of flexibility through optimization, and a method for assessing of flexibility. For assessment a suite of performance metrics is developed that reflect the degree of flexibility of a distribution system. These metrics focus on the capability of the WDS to respond and react to future changes. The uncertainties description focuses on the spatial and temporal variation of future demand. The second part consists of two optimization models for the design of centralized and decentralized WDS respectively. The first model generates flexible, staged development plans for the incremental growth of a centralized WDS. The second model supports the development of clustered/decentralized WDS. It is argued that these clustered systems promote flexibility as they provide internal degrees of freedom, allowing many different combinations of distribution systems to be considered. For both models a unique genetic algorithm based flexibility optimization (GAFO) model was developed that maximizes the flexibility of a WDS at the least cost. The efficacy of the developed framework and tools are demonstrated through two case study applications on real networks in Uganda. The first application looks at the design of a centralized WDS in Mbale, a small town in Eastern Uganda. Results from this application indicate that the flexibility framework is able to generate a more flexible design of the centralized system that is 4% - 50% less expensive than a conventionally designed system when compared against several future scenarios. In addition, this application highlights that the flexible design has a lower regret under different scenarios when compared to the conventionally designed system (a difference of 11.2m3/US$). The second application analyzes the design of a decentralized network in the town of Aura, a small town in Northern Uganda. A comparison of a decentralized system to a centralized system is performed, and the results indicate that the decentralized system is 24% - 34% less expensive and that these cost savings are associated with the ability of the decentralized system to be staged in a way that traces the urban growth trajectory more closely. The decentralized clustered WDS also has a lower regret (a difference of 17.7m3/US$) associated with the potential future conditions in comparison with the conventionally centralized system and hence is more flexible.
135

Applications of Bayesian networks in natural hazard assessments

Vogel, Kristin January 2013 (has links)
Even though quite different in occurrence and consequences, from a modeling perspective many natural hazards share similar properties and challenges. Their complex nature as well as lacking knowledge about their driving forces and potential effects make their analysis demanding: uncertainty about the modeling framework, inaccurate or incomplete event observations and the intrinsic randomness of the natural phenomenon add up to different interacting layers of uncertainty, which require a careful handling. Nevertheless deterministic approaches are still widely used in natural hazard assessments, holding the risk of underestimating the hazard with disastrous effects. The all-round probabilistic framework of Bayesian networks constitutes an attractive alternative. In contrast to deterministic proceedings, it treats response variables as well as explanatory variables as random variables making no difference between input and output variables. Using a graphical representation Bayesian networks encode the dependency relations between the variables in a directed acyclic graph: variables are represented as nodes and (in-)dependencies between variables as (missing) edges between the nodes. The joint distribution of all variables can thus be described by decomposing it, according to the depicted independences, into a product of local conditional probability distributions, which are defined by the parameters of the Bayesian network. In the framework of this thesis the Bayesian network approach is applied to different natural hazard domains (i.e. seismic hazard, flood damage and landslide assessments). Learning the network structure and parameters from data, Bayesian networks reveal relevant dependency relations between the included variables and help to gain knowledge about the underlying processes. The problem of Bayesian network learning is cast in a Bayesian framework, considering the network structure and parameters as random variables itself and searching for the most likely combination of both, which corresponds to the maximum a posteriori (MAP score) of their joint distribution given the observed data. Although well studied in theory the learning of Bayesian networks based on real-world data is usually not straight forward and requires an adoption of existing algorithms. Typically arising problems are the handling of continuous variables, incomplete observations and the interaction of both. Working with continuous distributions requires assumptions about the allowed families of distributions. To "let the data speak" and avoid wrong assumptions, continuous variables are instead discretized here, thus allowing for a completely data-driven and distribution-free learning. An extension of the MAP score, considering the discretization as random variable as well, is developed for an automatic multivariate discretization, that takes interactions between the variables into account. The discretization process is nested into the network learning and requires several iterations. Having to face incomplete observations on top, this may pose a computational burden. Iterative proceedings for missing value estimation become quickly infeasible. A more efficient albeit approximate method is used instead, estimating the missing values based only on the observations of variables directly interacting with the missing variable. Moreover natural hazard assessments often have a primary interest in a certain target variable. The discretization learned for this variable does not always have the required resolution for a good prediction performance. Finer resolutions for (conditional) continuous distributions are achieved with continuous approximations subsequent to the Bayesian network learning, using kernel density estimations or mixtures of truncated exponential functions. All our proceedings are completely data-driven. We thus avoid assumptions that require expert knowledge and instead provide domain independent solutions, that are applicable not only in other natural hazard assessments, but in a variety of domains struggling with uncertainties. / Obwohl Naturgefahren in ihren Ursachen, Erscheinungen und Auswirkungen grundlegend verschieden sind, teilen sie doch viele Gemeinsamkeiten und Herausforderungen, wenn es um ihre Modellierung geht. Fehlendes Wissen über die zugrunde liegenden Kräfte und deren komplexes Zusammenwirken erschweren die Wahl einer geeigneten Modellstruktur. Hinzu kommen ungenaue und unvollständige Beobachtungsdaten sowie dem Naturereignis innewohnende Zufallsprozesse. All diese verschiedenen, miteinander interagierende Aspekte von Unsicherheit erfordern eine sorgfältige Betrachtung, um fehlerhafte und verharmlosende Einschätzungen von Naturgefahren zu vermeiden. Dennoch sind deterministische Vorgehensweisen in Gefährdungsanalysen weit verbreitet. Bayessche Netze betrachten die Probleme aus wahrscheinlichkeitstheoretischer Sicht und bieten somit eine sinnvolle Alternative zu deterministischen Verfahren. Alle vom Zufall beeinflussten Größen werden hierbei als Zufallsvariablen angesehen. Die gemeinsame Wahrscheinlichkeitsverteilung aller Variablen beschreibt das Zusammenwirken der verschiedenen Einflussgrößen und die zugehörige Unsicherheit/Zufälligkeit. Die Abhängigkeitsstrukturen der Variablen können durch eine grafische Darstellung abgebildet werden. Die Variablen werden dabei als Knoten in einem Graphen/Netzwerk dargestellt und die (Un-)Abhängigkeiten zwischen den Variablen als (fehlende) Verbindungen zwischen diesen Knoten. Die dargestellten Unabhängigkeiten veranschaulichen, wie sich die gemeinsame Wahrscheinlichkeitsverteilung in ein Produkt lokaler, bedingter Wahrscheinlichkeitsverteilungen zerlegen lässt. Im Verlauf dieser Arbeit werden verschiedene Naturgefahren (Erdbeben, Hochwasser und Bergstürze) betrachtet und mit Bayesschen Netzen modelliert. Dazu wird jeweils nach der Netzwerkstruktur gesucht, welche die Abhängigkeiten der Variablen am besten beschreibt. Außerdem werden die Parameter der lokalen, bedingten Wahrscheinlichkeitsverteilungen geschätzt, um das Bayessche Netz und dessen zugehörige gemeinsame Wahrscheinlichkeitsverteilung vollständig zu bestimmen. Die Definition des Bayesschen Netzes kann auf Grundlage von Expertenwissen erfolgen oder - so wie in dieser Arbeit - anhand von Beobachtungsdaten des zu untersuchenden Naturereignisses. Die hier verwendeten Methoden wählen Netzwerkstruktur und Parameter so, dass die daraus resultierende Wahrscheinlichkeitsverteilung den beobachteten Daten eine möglichst große Wahrscheinlichkeit zuspricht. Da dieses Vorgehen keine Expertenwissen voraussetzt, ist es universell in verschiedenen Gebieten der Gefährdungsanalyse einsetzbar. Trotz umfangreicher Forschung zu diesem Thema ist das Bestimmen von Bayesschen Netzen basierend auf Beobachtungsdaten nicht ohne Schwierigkeiten. Typische Herausforderungen stellen die Handhabung stetiger Variablen und unvollständiger Datensätze dar. Beide Probleme werden in dieser Arbeit behandelt. Es werden Lösungsansätze entwickelt und in den Anwendungsbeispielen eingesetzt. Eine Kernfrage ist hierbei die Komplexität des Algorithmus. Besonders wenn sowohl stetige Variablen als auch unvollständige Datensätze in Kombination auftreten, sind effizient arbeitende Verfahren gefragt. Die hierzu in dieser Arbeit entwickelten Methoden ermöglichen die Verarbeitung von großen Datensätze mit stetigen Variablen und unvollständigen Beobachtungen und leisten damit einen wichtigen Beitrag für die wahrscheinlichkeitstheoretische Gefährdungsanalyse.
136

Analyse de sensibilité pour des modèles stochastiques à entrées dépendantes : application en énergétique du bâtiment / Sensitivity analysis for stochastic models for dependent inputs : application in building energy

Grandjacques, Mathilde 09 November 2015 (has links)
Les bâtiments représentent un des principaux leviers d'action pour optimiser l'efficacité énergétique et la réduction des émissions de CO2 dans les villes. Afin d'optimiser les performances énergétiques, différentes études ont été menées sur les performances thermiques aussi bien du de point de vue de la conception, de la calibration de modèle que de l'impact de changement climatique. L'analyse de sensibilité vise à évaluer la part d'incertitude due à chacune des variables ou des paramètres qui peuvent influencer ces performances.La plupart des études en bâtiment menées dans la littérature se placent dans un cadre statique qui ne représente pas l'évolution du système. Il est très vite apparu nécessaire de développer des méthodes qui prennent en compte à la fois la dépendance des entrées et la dimension temporelle qui elle-même comporte toujours de la dépendance. Parmi les différentes méthodes d'analyse de sensibilité, nous avons privilégié la méthode globale, reposant sur le calcul des indices de sensibilité de Sobol. Le calcul effectif des indices de sensibilité permet de hiérarchiser les paramètres d'entrée en fonction de leur influence sur la sortieLes indices de Sobol peuvent se calculer de différentes façons. Nous nous sommes intéressés notamment à la méthode Pick and Freeze basée sur l'échantillonnage. Celle-ci repose sur l'hypothèse fondamentale et dans la pratique le plus souvent non vérifiée d'indépendance des entrées. Cela nous a amené du point de vue statistique à développer des techniques nouvelles pour tenir compte du caractère des entrées de type dynamique et dépendantes entre elles à la fois dans le temps et à chaque instant.Nous avons placé notre travail dans l'optique de méthodes permettant de se ramener au cas d'entrées indépendantes. Notre préoccupation a été de modéliser les entrées de manière souple, aisément transposable à d'autres situations concrètes et permettant des simulations relativement aisées. Afin de rendre compte du lien temporel entre les variables, nous avons choisi de considérer un indice dépendant de l'instant de calcul et de quantifier la variabilité de la sortie non pas seulement à la variabilité de l'entrée à l'instant t mais aussi à cette même variabilité provenant des instants précédents. Cette vision permet d'introduire la notion de mémoire utile pour le calcul de la sensibilité. Nous avons développé une méthode d'estimation des indices de Sobol pour des entrées dépendantes statiques a priori. Elle peut néanmoins être mise en œuvre pour des entrées dynamiques de courte mémoire mais les calculs sont alors très lourds dès que le nombre d'entrées est grand ou les mémoires importantes. Cette méthode permet de séparer des variables dépendantes de loi quelconque en des variables indépendantes de loi uniforme. Facile à mettre en œuvre ces méthodes d'estimation ne s'appuient pas sur des hypothèses d'indépendance des entrées, elles permettent alors un large éventail d'applications.Nous avons appliqué notre méthodologie à un bâtiment existant, apportant ainsi un outil utile à l'analyse du comportement thermique et donc à son optimisation. Nous avons pu montrer différentes situations en analysant l'ordre des variables suivant les sensibilités à partir de mesures. Deux critères ont été étudiés. Un critère de confort : l'étude de la température intérieure et un critère de performance : l'énergie de chauffage. / Buildings represent one of the main levers of action to optimize energy efficiency and reducing emissions of $ CO_2 $. To understand how perform energy consumption of a building, different studies have been conducted on the thermal performance both the point of view of design and model calibration as the climate change impact. Energy performance can be optimized according to these studies by evaluating the degree of uncertainty due to each of the variables or parameters that may influence performance. This stage is called sensitivity analysis.Most building studies in the literature are placed in a static framework that does not represent the evolution of the system. The variables whose sensitivity to be studied are either considered at a given time or the input-output models are not dynamic. It became necessary to develop methods that take into account both the dependence of the inputs and the temporal dimension which itself always involves dependence. Among the different methods of sensitivity analysis, we have focused on the global method, based on the calculation of Sobol sensitivity indices. Sobol index of a parameter (or group of parameters) is a statistical indicator of easy interpretation. It allows to measure the importance of this parameter (or group of parameters) on the variability of a scalar quantity of interest, depending on the model output. Sensitivity indices allow to rank input parameters according to their influence on the output.Sobol indices can be calculated in different ways. We focused on the Pick and Freeze method based on sampling. This is based on a fundamental assumption and in practice often unverified : inputs independence. This led us statistically to develop new techniques to take into account the dynamic characteristic of inputs and dependents both in time and in every moment. Our work focuses on methods that can bring back to the case of independent inputs. Our concern was modelled in a flexible way inputs, easily transferable to other concrete situations and allowing relatively easy simulations. The input-output relationships are not important as the only constraint, of course not trivial, possible simulation.In order to reproduce the temporal relationship between the variables, we chose to consider an index dependent, in the non-stationary case (especially if there are seasonal phenomena), on the time of calculation and quantify the variability of output not not only to the variability of the input at time $ t $, but also to the same variability from previous times. This vision allows to introduce the concept of usable memory for the calculation of the sensitivity.The second method that we have developed is an estimation method of Sobol indices for static dependent inputs a priori. It may nevertheless be implemented for dynamic inputs with short memory but the calculations are then very heavy when the number of inputs are large or own important memories. This method allows to separate dependent variables of any law in independent variables uniformly distributed.Easy to implement these estimation methods developed are not based on assumptions of independence of inputs. It then allows a wide range of applications.This method applied to an existing building can help improve energy management and can be useful in the design from the implementation scenarios. We could show different situations by analysing the variable order according to the sensitivities from measurements on a test building. Two criteria were studied. A criterion of comfort: the study of indoor temperature and performance criteria: the heating energy.
137

Contribution à l’évaluation des incertitudes sur les sections efficaces neutroniques, pour les réacteurs à neutrons rapides / Contribution to uncertainties evaluation for fast reactors neutronic cross sections

Privas, Edwin 28 September 2015 (has links)
La thèse a essentiellement été motivée par la volonté croissante de maîtriser les incertitudes des données nucléaires, pour des raisons de sûreté nucléaire. Elle vise en particulier les sections efficaces indispensables aux calculs neutroniques des réacteurs rapides au sodium de Génération IV (RNR-Na), et les moyens permettant de les évaluer.Le principal objectif de la thèse est de fournir et montrer l’intérêt de nouveaux outils permettant de réaliser des évaluations cohérentes, avec des incertitudes maîtrisées et fiables. Pour répondre aux attentes, différentes méthodes ont été implémentées dans le cadre du code CONRAD, développé au CEA de Cadarache, au Département d’Étude des Réacteurs.Après l’état des lieux et la présentation des différents éléments nécessaires pour effectuer une évaluation, il est présenté des résolutions stochastiques de l’inférence Bayésienne. Elles permettent de fournir d’une part, des informations supplémentaires à l’évaluateur par rapport à la résolution analytique et d’autre part, de valider cette dernière. Les algorithmes ont été testés avec succès à travers plusieurs cas, malgré des temps de calcul plus longs faute aux méthodes de type Monte Carlo.Ensuite, ce travail a rendu possible, dans CONRAD, de prendre en compte des contraintes dites microscopiques. Elles sont définies par l’ajout ou le traitement d’informations additionnelles par rapport à l’évaluation traditionnelle. Il a été développé un algorithme basé sur le formalisme des multiplicateurs de Lagrange pour résoudre les problèmes de continuité entre deux domaines en énergies traitées par deux théories différentes. De plus, d’autres approches sont présentées, avec notamment l’utilisation de la marginalisation, permettant soit de compléter une évaluation existante en ajoutant des matrices de covariance, soit de considérer une incertitude systématique pour une expérience décrite par deux théories. Le bon fonctionnement des différentes méthodes implémentées est illustré par des exemples, dont celui de la section efficace totale de l’238U.Enfin, les dernières parties de la thèse se focalisent sur le retour des expériences intégrales, par méthodes d’assimilation de données intégrales. Cela permet de réduire les incertitudes sur les sections efficaces d’intérêt pour les réacteurs rapides. Ce document se clôt par la présentation de quelques résultats clefs sur les sections efficaces de l’238U et du 239Pu, avec la considération d’expériences comme PROFIL et PROFIL-2 dans Phénix ou encore Jezebel. / The thesis has been motivated by a wish to increase the uncertainty knowledge on nuclear data, for safety criteria. It aims the cross sections required by core calculation for sodium fast reactors (SFR), and new tools to evaluate its.The main objective of this work is to provide new tools in order to create coherent evaluated files, with reliable and mastered uncertainties. To answer those problematic, several methods have been implemented within the CONRAD code, which is developed at CEA of Cadarache.After a summary of all the elements required to understand the evaluation world, stochastic methods are presented in order to solve the Bayesian inference. They give the evaluator more information about probability density and they also can be used as validation tools. The algorithms have been successfully tested, despite long calculation time.Then, microscopic constraints have been implemented in CONRAD. They are defined as new information that should be taken into account during the evaluation process. An algorithm has been developed in order to solve, for example, continuity issues between two energy domains, with the Lagrange multiplier formalism. Another method is given by using a marginalization procedure, in order to either complete an existing evaluation with new covariance or add systematic uncertainty on an experiment described by two theories. The algorithms are well performed along examples, such the 238U total cross section.The last parts focus on the integral data feedback, using methods of integral data assimilation to reduce the uncertainties on cross sections. This work ends with uncertainty reduction on key nuclear reactions, such the capture and fission cross sections of 238U and 239Pu, thanks to PROFIL and PROFIL-2 experiments in Phénix and the Jezebel benchmark.
138

Analyse et propagation des incertitudes associées à la dépressurisation de l’Hélium 3 sur les transitoires de puissance du réacteur CABRI / Analysis and propagation of uncertainties associated with Helium-3 depressurization on the characteristics of power transients in the CABRI reactor

Clamens, Olivier 26 October 2018 (has links)
CABRI est un réacteur piscine conçu pour tester du combustible irradié dans des conditions accidentelles de type RIA, c'est à dire d'insertion intempestive de réactivité.Un circuit dédié de dépressurisation d'hélium 3, contenu dans les barres transitoires, permet d'injecter jusqu'à 4 $ de réactivité contrée majoritairement par l'effet Doppler quand la puissance atteint en quelques millisecondes jusqu'à 200000 fois la puissance initiale de 100 kW.La thèse présente les améliorations apportées à la prédiction des transitoires et les études d'incertitudes qui en découlent.Le calcul par cinétique ponctuelle couplée à la thermohydraulique 1D et échanges de chaleur des transitoires de puissance CABRI a été renforcé par l'ajout de métamodèles basés sur des analyses expérimentales et des calculs Best-Estimate de la dépressurisation d'hélium 3, des effets en réactivité et des paramètres cinétiques.L'amélioration de la modélisation des transitoires de puissance a eu un impact positif sur la prédiction des essais CABRI.Le code SPARTE, associé à la plate-forme URANIE, ont permis de propager les incertitudes expérimentales et de modélisation.Finalement, l'optimisation des transitoires pour améliorer la conception d'expériences dans CABRI est abordée. / CABRI is a pool type pulsed reactor designed for studying pre-irradiated nuclear fuel behavior under RIA (Reactivity Initiated Accident) conditions.The helium-3 depressurization from the transient rods system allows the insertion of up to 4 $ reactivity mainly countered by the Doppler effect when the power reaches in few milliseconds up to 200,000 times the initial 100~kW power.This thesis presents the improvements added to the power transients prediction and the associated uncertainties studies.The point kinetics calculation coupled with 1D thermal-hydraulics and heat transfer has been improved by the addition of surrogate models based on experimental analysis and Best-Estimate calculations of the helium-3 depressurization and of the reactivity effects and of the kinetics parameters.The power transients modeling improvements have a positiv impact on the CABRI tests prediction.The propagation of the experimental and of the modeling uncertainties was realized with the SPARTE code and the URANIE uncertainty platform.Finally, the power transients characteristics optimization is approached in order to improve the CABRI experiments designing.
139

Contributions à l'analyse de fiabilité structurale : prise en compte de contraintes de monotonie pour les modèles numériques / Contributions to structural reliability analysis : accounting for monotonicity constraints in numerical models

Moutoussamy, Vincent 13 November 2015 (has links)
Cette thèse se place dans le contexte de la fiabilité structurale associée à des modèles numériques représentant un phénomène physique. On considère que la fiabilité est représentée par des indicateurs qui prennent la forme d'une probabilité et d'un quantile. Les modèles numériques étudiés sont considérés déterministes et de type boîte-noire. La connaissance du phénomène physique modélisé permet néanmoins de faire des hypothèses de forme sur ce modèle. La prise en compte des propriétés de monotonie dans l'établissement des indicateurs de risques constitue l'originalité de ce travail de thèse. Le principal intérêt de cette hypothèse est de pouvoir contrôler de façon certaine ces indicateurs. Ce contrôle prend la forme de bornes obtenues par le choix d'un plan d'expériences approprié. Les travaux de cette thèse se concentrent sur deux thématiques associées à cette hypothèse de monotonie. La première est l'étude de ces bornes pour l'estimation de probabilité. L'influence de la dimension et du plan d'expériences utilisé sur la qualité de l'encadrement pouvant mener à la dégradation d'un composant ou d'une structure industrielle sont étudiées. La seconde est de tirer parti de l'information de ces bornes pour estimer au mieux une probabilité ou un quantile. Pour l'estimation de probabilité, l'objectif est d'améliorer les méthodes existantes spécifiques à l'estimation de probabilité sous des contraintes de monotonie. Les principales étapes d'estimation de probabilité ont ensuite été adaptées à l'encadrement et l'estimation d'un quantile. Ces méthodes ont ensuite été mises en pratique sur un cas industriel. / This thesis takes place in a structural reliability context which involves numerical model implementing a physical phenomenon. The reliability of an industrial component is summarised by two indicators of failure,a probability and a quantile. The studied numerical models are considered deterministic and black-box. Nonetheless, the knowledge of the studied physical phenomenon allows to make some hypothesis on this model. The original work of this thesis comes from considering monotonicity properties of the phenomenon for computing these indicators. The main interest of this hypothesis is to provide a sure control on these indicators. This control takes the form of bounds obtained by an appropriate design of numerical experiments. This thesis focuses on two themes associated to this monotonicity hypothesis. The first one is the study of these bounds for probability estimation. The influence of the dimension and the chosen design of experiments on the bounds are studied. The second one takes into account the information provided by these bounds to estimate as best as possible a probability or a quantile. For probability estimation, the aim is to improve the existing methods devoted to probability estimation under monotonicity constraints. The main steps built for probability estimation are then adapted to bound and estimate a quantile. These methods have then been applied on an industrial case.
140

Évaluation probabiliste de la fiabilité structurelle des digues fluviales à partir du jugement d’expert / Probabilistic evaluation of the structural reliability of river levees based on expert judgment

Hathout, Michel 03 April 2018 (has links)
Les digues de protection contre les inondations sont d’une importance stratégique incontournable pour la sécurité des personnes et des biens. Une meilleure connaissance de leur fiabilité structurelle constitue un enjeu majeur pour les ingénieurs et pour les gestionnaires de ces ouvrages afin de répondre aux réglementations en vigueur et potentiellement les faire évoluer. La réglementation en France relative à la sûreté des ouvrages hydrauliques exige la réalisation d’études de dangers, au sein desquelles les démarches probabilistes d’évaluation de la sécurité prennent une place de plus en plus importante. De par la complexité de leurs mécanismes de rupture et l’absence de condition d’état-limite précis pour certains mécanismes de défaillance tels que l’érosion interne, la surverse ou l’affouillement, le calcul d’une probabilité de défaillance par des approches quantitatives demeure à ce jour impossible. Les digues induisent des problématiques particulières pour l’évaluation de leur fiabilité structurelle où l’intervention d’experts s’avère nécessaire et centrale. Ceux-ci doivent procéder à l’interprétation des données disponibles et la prise en compte de leurs incertitudes, pour pouvoir ensuite évaluer la fiabilité structurelle de digues en termes de probabilité de défaillance. L’objectif de la thèse est l’élaboration d’une démarche complète d’aide à l’évaluation probabiliste de la fiabilité structurelle des digues à partir du jugement expert. Une démarche scientifiquement justifiée pour le recueil et l’exploitation des évaluations expertes, incertaines mais quantitatives, de la fiabilité structurelle des ouvrages, sous la forme d’une probabilité de défaillance ou d’un coefficient de sécurité, assorti(e) d’une marge d’incertitude probabiliste. Afin de répondre à cet objectif, deux démarches ont été développée, « EiCAD » et « EiDA », toutes reposant (dans des ordres différents) sur les phases suivantes :- Une phase d’élicitation individuelle des avis experts (Ei) permettant le recueil des évaluations expertes probabilistes par la construction d’un formulaire de questionnement ;- Une phase de calibration (C) permettant de pondérer les évaluations expertes en fonction des degrés de précision et de justesse ;- Une phase d’agrégation (A) permettant une prise en compte simultanée de plusieurs évaluations expertes probabilistes ;- Une phase de débiaisage (D) permettant de traiter les biais susceptibles d’entacher les évaluations expertes probabilistes. Les démarches développées ont été mises en œuvre sur des cas de digues du Drac, dans l’agglomération grenobloise, pour évaluer la probabilité de défaillance, par jugement expert, vis-à-vis de mécanisme de rupture par glissement et par érosion interne / River levees as protective measures against flooding are a matter of utmost strategic importance for the security of people and property. A better knowledge of their structural reliability is a major challenge for engineers and managers of these structures in order to meet current regulations and potentially develop them. In France, the regulations relating to the safety of hydraulic structures require the realization of hazard studies, in which probabilistic safety evaluation procedures take on a more and more important role. Due to the complexity of their failure mechanisms and the lack of a specific condition of limit-state for some failure mechanisms such as internal erosion and overtopping or scour, calculating a probability of failure by quantitative approaches remains impossible to this day. Levees induce specific problems in evaluating their structural reliability where expert intervention is necessary and pivotal. They must interpret the available data and take into account the uncertainties in their analysis, in order to evaluate the structural reliability of levees in terms of probability of failure. The aim of the thesis is to develop and elaborate a complete approach for supporting probabilistic evaluation of structural reliability of levees based on expert judgments. It is designed as a scientifically justified approach to collect and use uncertain but quantitative expert evaluations of structural reliability, in the form of a failure probability or a safety factor, accompanied by a margin of probabilistic uncertainty. To meet this goal, two approaches have been developed, "EiCAD" and "EiDA" composed of the following phases (in different orders):- individual elicitation phase of expert judgment (Ei) allowing the collection of probabilistic expert evaluations by a constricted questionnaire ;- calibration phase (C) to weigh the probabilistic expert evaluations elicited depending on the degrees of precision and accuracy that can be provided;- aggregation phase (A) during which the probabilistic expert evaluations elicited by several experts are taken into account ;- debiasing phase (D) during which biases that may affect the probabilistic expert evaluations are removed. The developed approaches have been implemented for the cases of Drac levees, located in the Grenoble agglomeration, to assess the probability of failure, by expert judgment, with regard to sliding and internal erosion mechanism of failure

Page generated in 0.0651 seconds