• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

The Theatre-Royal in Drury Lane, 1711-1716, under Colley Cibber, Barton Booth, and Robert Wilks

Ashley, Leonard R. N. January 1962 (has links)
Thesis (Ph. D.)--Princeton University. / Reprint of 1957 microfilm ed., published by University Microfilms, Ann Arbor. Includes bibliographical references (leaves 539-545) and index.
2

On testing genetic covariance via the mean cross-products ratio / Teste da covariância genética via razão de produtos cruzados médios

Silva, Anderson Rodrigo da 17 July 2015 (has links)
When a genetic factor is being studied for more than one response variable, estimates of the genetic covariances are essential, specially in breeding programs. In a genetic covariance analysis, genetic and residual mean cross-products are obtained. Stochastically, to quantify the magnitude of the joint variation of two response variables due to genetic effect with respect to the variation due to residual effect may allow one to make inferences about the significance of the associated genetic covariance. In this study it is presented tests of significance for genetic covariance upon a twofold way: tests that take into account the genetic and environmental effects and tests that only consider the genetic information. The first way refers to tests based on the mean cross-products ratio via nonparametric bootstrap resampling and Monte Carlo simulation of Wishart matrices. The second way of testing genetic covariance refers to tests based on adaptation of Wilks\' and Pillai\'s statistics for evaluating independence of two sets of variables. For the first type of tests, empirical distributions under the null hypothesis, i.e., null genetic covariance, were built and graphically analyzed. In addition, the exact distribution of mean cross-products ratio obtained from variables normally distributed with zero mean and finite variance was examined. Writing computational algorithms in R language to perform the proposed tests was also an objective of this study. Only under certain conditions does the probability density function of the product of two random Gaussian variables approximate a normal curve. Therefore, studying the distribution of a mean cross-products ratio as a quotient of two Gaussian variables is not suitable. Tests based on mean cross-products ratio are related to both the value of the genetic covariance and the magnitude of the latter relative to the residual covariance. And both approaches (bootstrap and simulation) are more sensitive than the tests based only on genetic information. The performance of the tests based on mean cross-products ratio is related to the quality of the original data set in terms of the MANOVA assumptions, and the test statistic does not depend on the estimation of the matrix of genetic covariances ΣG. The adaptation of Wilks\' and Pillai\'s statistics can be used to test the genetic covariance. Their approximations to a χ21 distribution were checked and the accuracy of their inferences is related to the quality of G. / Quando um fator genético está sendo estudado em mais de uma variável de resposta, estimativas das covariâncias genéticas são essenciais, especialmente para programas de melhoramento. Em uma análise de covariância genética, produtos cruzados médios devido ao efeito genético, a partir do qual é obtida a covariância genética, e devido ao efeito residual são obtidos. Estocasticamente, quantificar a magnitude da variação conjunta de duas variáveis resposta devido ao efeito genético em relação à variação devida ao efeito residual pode permitir realizar inferências sobre a covariância genética associada. Neste estudo são apresentados testes de significância para a covariância genética de duas formas: testes que levam em conta os efeitos genéticos e ambientais (ou residuais) e testes que consideram apenas a informação genética. A primeira forma refere-se testes baseados na razão de produtos cruzados médios via bootstrap não paramétrico e simulação de matrizes Wishart pelo método de Monte Carlo. A segunda maneira de testar a covariância genética refere-se a testes com base em uma adaptação das estatísticas de Wilks e Pillai para avaliar a independência de dois conjuntos de variáveis. Para o primeiro tipo de testes, as distribuições empíricas sob a hipótese nula, ou seja, covariância genética nula, foram construídas e analisadas graficamente. Além disso, foi feito um estudo analítico da distribuição da razão de produtos cruzados médios obtidos a partir de variáveis normalmente distribuídas com média zero e variância finita. Escrever algoritmos computacionais em linguagem R para realizar os testes propostos também foi um dos objetivos deste estudo. Apenas sob certas condições a função de densidade de probabilidade do produto de duas variáveis aleatórias gaussianas aproxima-se da curva normal. Por conseguinte, o estudo da distribuição da razão de produtos cruzados médios como um quociente de duas variáveis gaussianas não é adequado. Os testes baseados na razão de produtos cruzados médios estão relacionados tanto com o valor da covariância genética quanto com a magnitude desta em relação à covariância residual. Ambas as abordagens (bootstrap e simulação) mostraram-se mais sensíveis do que os testes baseados apenas nas informações genéticas. O desempenho dos testes baseados na razão de produtos cruzados médios está relacionado à qualidade dos dados originais em termos das pressuposições da MANOVA, e a estatística de teste não depende da estimação da matriz de covariâncias genéticas ΣG. A adaptação das estatísticas de Wilks e Pillai pode ser usada para testar a covariância genética. As aproximações à distribuição Χ21 foi verificada. A precisão de suas inferências está relacionada a qualidade da matriz G.
3

On testing genetic covariance via the mean cross-products ratio / Teste da covariância genética via razão de produtos cruzados médios

Anderson Rodrigo da Silva 17 July 2015 (has links)
When a genetic factor is being studied for more than one response variable, estimates of the genetic covariances are essential, specially in breeding programs. In a genetic covariance analysis, genetic and residual mean cross-products are obtained. Stochastically, to quantify the magnitude of the joint variation of two response variables due to genetic effect with respect to the variation due to residual effect may allow one to make inferences about the significance of the associated genetic covariance. In this study it is presented tests of significance for genetic covariance upon a twofold way: tests that take into account the genetic and environmental effects and tests that only consider the genetic information. The first way refers to tests based on the mean cross-products ratio via nonparametric bootstrap resampling and Monte Carlo simulation of Wishart matrices. The second way of testing genetic covariance refers to tests based on adaptation of Wilks\' and Pillai\'s statistics for evaluating independence of two sets of variables. For the first type of tests, empirical distributions under the null hypothesis, i.e., null genetic covariance, were built and graphically analyzed. In addition, the exact distribution of mean cross-products ratio obtained from variables normally distributed with zero mean and finite variance was examined. Writing computational algorithms in R language to perform the proposed tests was also an objective of this study. Only under certain conditions does the probability density function of the product of two random Gaussian variables approximate a normal curve. Therefore, studying the distribution of a mean cross-products ratio as a quotient of two Gaussian variables is not suitable. Tests based on mean cross-products ratio are related to both the value of the genetic covariance and the magnitude of the latter relative to the residual covariance. And both approaches (bootstrap and simulation) are more sensitive than the tests based only on genetic information. The performance of the tests based on mean cross-products ratio is related to the quality of the original data set in terms of the MANOVA assumptions, and the test statistic does not depend on the estimation of the matrix of genetic covariances ΣG. The adaptation of Wilks\' and Pillai\'s statistics can be used to test the genetic covariance. Their approximations to a χ21 distribution were checked and the accuracy of their inferences is related to the quality of G. / Quando um fator genético está sendo estudado em mais de uma variável de resposta, estimativas das covariâncias genéticas são essenciais, especialmente para programas de melhoramento. Em uma análise de covariância genética, produtos cruzados médios devido ao efeito genético, a partir do qual é obtida a covariância genética, e devido ao efeito residual são obtidos. Estocasticamente, quantificar a magnitude da variação conjunta de duas variáveis resposta devido ao efeito genético em relação à variação devida ao efeito residual pode permitir realizar inferências sobre a covariância genética associada. Neste estudo são apresentados testes de significância para a covariância genética de duas formas: testes que levam em conta os efeitos genéticos e ambientais (ou residuais) e testes que consideram apenas a informação genética. A primeira forma refere-se testes baseados na razão de produtos cruzados médios via bootstrap não paramétrico e simulação de matrizes Wishart pelo método de Monte Carlo. A segunda maneira de testar a covariância genética refere-se a testes com base em uma adaptação das estatísticas de Wilks e Pillai para avaliar a independência de dois conjuntos de variáveis. Para o primeiro tipo de testes, as distribuições empíricas sob a hipótese nula, ou seja, covariância genética nula, foram construídas e analisadas graficamente. Além disso, foi feito um estudo analítico da distribuição da razão de produtos cruzados médios obtidos a partir de variáveis normalmente distribuídas com média zero e variância finita. Escrever algoritmos computacionais em linguagem R para realizar os testes propostos também foi um dos objetivos deste estudo. Apenas sob certas condições a função de densidade de probabilidade do produto de duas variáveis aleatórias gaussianas aproxima-se da curva normal. Por conseguinte, o estudo da distribuição da razão de produtos cruzados médios como um quociente de duas variáveis gaussianas não é adequado. Os testes baseados na razão de produtos cruzados médios estão relacionados tanto com o valor da covariância genética quanto com a magnitude desta em relação à covariância residual. Ambas as abordagens (bootstrap e simulação) mostraram-se mais sensíveis do que os testes baseados apenas nas informações genéticas. O desempenho dos testes baseados na razão de produtos cruzados médios está relacionado à qualidade dos dados originais em termos das pressuposições da MANOVA, e a estatística de teste não depende da estimação da matriz de covariâncias genéticas ΣG. A adaptação das estatísticas de Wilks e Pillai pode ser usada para testar a covariância genética. As aproximações à distribuição Χ21 foi verificada. A precisão de suas inferências está relacionada a qualidade da matriz G.
4

Monte Carlo analysis of BWR transients : A study on the Best Estimate Plus Uncertainty methodology within safety analyses at Forsmark 3

Eriksson, Jonathan January 2023 (has links)
Transient analyses at Forsmark nuclear power plant are currently performed using realistic computer models in conjunction with conservative estimates of initial- and boundary conditions. This is known as the combined methodology. Due to the conservative estimates, the methodology runs the risk of sometimes over-estimating certain safety criteria which will negatively affect the optimization of reactor operation. The Best Estimate Plus Uncertainty (BEPU) methodology can provide higher safety margins by using probabilities instead of conservatisms when estimating initial and boundary conditions. The BEPU methodology applies a Monte Carlo method to assess the distribution of one or several key outputs. This study focuses on the lowest dryout margin achieved during each Monte Carlo simulation. The tolerance limits of the output are set with the help of Wilks formula using a one-sided 95% tolerance limit with 95% confidence. A total of 36 unique parameters describing initial and boundary conditions have been sampled for each Monte Carlo simulation. The parameters have been sampled using either Gaussian or Uniform distribution functions. The random nature of the Monte Carlo simulations has uncovered alternative event sequences and end states that are not seen in the combined methodology. Assessing the choice of order statistic in Wilks formula also concludes that there are diminishing returns the higher the order statistic is. When choosing the order statistic, one should consider the trade-off between an increased accuracy in the estimated outputs and the increased computational time required. The conservative methodology uses a mix of conservative and nominal estimations of key parameters. The difference in dryout margin between the conservative and the Monte Carlo results should therefore not be used to draw a conclusion about which methodology out-performs the other. While the Monte Carlo simulations do not result in an improved core optimization, they can act as a complement to the combined methodology by providing a more detailed analysis of possible event pathways for a postulated transient.
5

An Empirical Study of Students’ Performance at Assessing Normality of Data Through Graphical Methods

Leander Aggeborn, Noah, Norgren, Kristian January 2019 (has links)
When applying statistical methods for analyzing data, with normality as an assumption there are different procedures of determining if a sample is drawn from a normally distributed population. Because normality is such a central assumption, the reliability of the procedures is of most importance. Much research focus on how good formal tests of normality are, while the performance of statisticians when using graphical methods are far less examined. Therefore, the aim of the study was to empirically examine how good students in statistics are at assessing if samples are drawn from normally distributed populations through graphical methods, done by a web survey. The results of the study indicate that the students distinctly get better at accurately determining normality in data drawn from a normally distributed population when the sample size increases. Further, the students are very good at accurately rejecting normality of data when the sample is drawn from a symmetrical non-normal population and fairly good when the sample is drawn from an asymmetrical distribution. In comparison to some common formal tests of normality, the students' performance is superior at accurately rejecting normality for small sample sizes and inferior for large, when drawn from a non-normal population.
6

Uncertainty Quantification and Sensitivity Analysis for Cross Sections and Thermohydraulic Parameters in Lattice and Core Physics Codes. Methodology for Cross Section Library Generation and Application to PWR and BWR

Mesado Melia, Carles 01 September 2017 (has links)
This PhD study, developed at Universitat Politècnica de València (UPV), aims to cover the first phase of the benchmark released by the expert group on Uncertainty Analysis in Modeling (UAM-LWR). The main contribution to the benchmark, made by the thesis' author, is the development of a MATLAB program requested by the benchmark organizers. This is used to generate neutronic libraries to distribute among the benchmark participants. The UAM benchmark pretends to determine the uncertainty introduced by coupled multi-physics and multi-scale LWR analysis codes. The benchmark is subdivided into three phases: 1. Neutronic phase: obtain collapsed and homogenized problem-dependent cross sections and criticality analyses. 2. Core phase: standalone thermohydraulic and neutronic codes. 3. System phase: coupled thermohydraulic and neutronic code. In this thesis the objectives of the first phase are covered. Specifically, a methodology is developed to propagate the uncertainty of cross sections and other neutronic parameters through a lattice physics code and core simulator. An Uncertainty and Sensitivity (U&S) analysis is performed over the cross sections contained in the ENDF/B-VII nuclear library. Their uncertainty is propagated through the lattice physics code SCALE6.2.1, including the collapse and homogenization phase, up to the generation of problem-dependent neutronic libraries. Afterward, the uncertainty contained in these libraries can be further propagated through a core simulator, in this study PARCSv3.2. The module SAMPLER -available in the latest release of SCALE- and DAKOTA 6.3 statistical tool are used for the U&S analysis. As a part of this process, a methodology to obtain neutronic libraries in NEMTAB format -to be used in a core simulator- is also developed. A code-to-code comparison with CASMO-4 is used as a verification. The whole methodology is tested using a Boiling Water Reactor (BWR) reactor type. Nevertheless, there is not any concern or limitation regarding its use in any other type of nuclear reactor. The Gesellschaft für Anlagen und Reaktorsicherheit (GRS) stochastic methodology for uncertainty quantification is used. This methodology makes use of the high-fidelity model and nonparametric sampling to propagate the uncertainty. As a result, the number of samples (determined using the revised Wilks' formula) does not depend on the number of input parameters but only on the desired confidence and uncertainty of output parameters. Moreover, the output Probability Distribution Functions (PDFs) are not subject to normality. The main disadvantage is that each input parameter must have a pre-defined PDF. If possible, input PDFs are defined using information found in the related literature. Otherwise, the uncertainty definition is based on expert judgment. A second scenario is used to propagate the uncertainty of different thermohydraulic parameters through the coupled code TRACE5.0p3/PARCSv3.0. In this case, a PWR reactor type is used and a transient control rod drop occurrence is simulated. As a new feature, the core is modeled chan-by-chan following a fully 3D discretization. No other study is found using a detailed 3D core. This U&S analysis also makes use of the GRS methodology and DAKOTA 6.3. / Este trabajo de doctorado, desarrollado en la Universitat Politècnica de València (UPV), tiene como objetivo cubrir la primera fase del benchmark presentado por el grupo de expertos Uncertainty Analysis in Modeling (UAM-LWR). La principal contribución al benchmark, por parte del autor de esta tesis, es el desarrollo de un programa de MATLAB solicitado por los organizadores del benchmark, el cual se usa para generar librerías neutrónicas a distribuir entre los participantes del benchmark. El benchmark del UAM pretende determinar la incertidumbre introducida por los códigos multifísicos y multiescala acoplados de análisis de reactores de agua ligera. El citado benchmark se divide en tres fases: 1. Fase neutrónica: obtener los parámetros neutrónicos y secciones eficaces del problema específico colapsados y homogenizados, además del análisis de criticidad. 2. Fase de núcleo: análisis termo-hidráulico y neutrónico por separado. 3. Fase de sistema: análisis termo-hidráulico y neutrónico acoplados. En esta tesis se completan los principales objetivos de la primera fase. Concretamente, se desarrolla una metodología para propagar la incertidumbre de secciones eficaces y otros parámetros neutrónicos a través de un código lattice y un simulador de núcleo. Se lleva a cabo un análisis de incertidumbre y sensibilidad para las secciones eficaces contenidas en la librería neutrónica ENDF/B-VII. Su incertidumbre se propaga a través del código lattice SCALE6.2.1, incluyendo las fases de colapsación y homogenización, hasta llegar a la generación de una librería neutrónica específica del problema. Luego, la incertidumbre contenida en dicha librería puede continuar propagándose a través de un simulador de núcleo, para este estudio PARCSv3.2. Para el análisis de incertidumbre y sensibilidad se ha usado el módulo SAMPLER -disponible en la última versión de SCALE- y la herramienta estadística DAKOTA 6.3. Como parte de este proceso, también se ha desarrollado una metodología para obtener librerías neutrónicas en formato NEMTAB para ser usadas en simuladores de núcleo. Se ha realizado una comparación con el código CASMO-4 para obtener una verificación de la metodología completa. Esta se ha probado usando un reactor de agua en ebullición del tipo BWR. Sin embargo, no hay ninguna preocupación o limitación respecto a su uso con otro tipo de reactor nuclear. Para la cuantificación de la incertidumbre se usa la metodología estocástica Gesellschaft für Anlagen und Reaktorsicherheit (GRS). Esta metodología hace uso del modelo de alta fidelidad y un muestreo no paramétrico para propagar la incertidumbre. Como resultado, el número de muestras (determinado con la fórmula revisada de Wilks) no depende del número de parámetros de entrada, sólo depende del nivel de confianza e incertidumbre deseados de los parámetros de salida. Además, las funciones de distribución de probabilidad no están limitadas a normalidad. El principal inconveniente es que se ha de disponer de las distribuciones de probabilidad de cada parámetro de entrada. Si es posible, las distribuciones de probabilidad de entrada se definen usando información encontrada en la literatura relacionada. En caso contrario, la incertidumbre se define en base a la opinión de un experto. Se usa un segundo escenario para propagar la incertidumbre de diferentes parámetros termo-hidráulicos a través del código acoplado TRACE5.0p3/PARCSv3.0. En este caso, se utiliza un reactor tipo PWR para simular un transitorio de una caída de barra. Como nueva característica, el núcleo se modela elemento a elemento siguiendo una discretización totalmente en 3D. No se ha encontrado ningún otro estudio que use un núcleo tan detallado en 3D. También se usa la metodología GRS y el DAKOTA 6.3 para este análisis de incertidumbre y sensibilidad. / Aquest treball de doctorat, desenvolupat a la Universitat Politècnica de València (UPV), té com a objectiu cobrir la primera fase del benchmark presentat pel grup d'experts Uncertainty Analysis in Modeling (UAM-LWR). La principal contribució al benchmark, per part de l'autor d'aquesta tesi, es el desenvolupament d'un programa de MATLAB sol¿licitat pels organitzadors del benchmark, el qual s'utilitza per a generar llibreries neutròniques a distribuir entre els participants del benchmark. El benchmark del UAM pretén determinar la incertesa introduïda pels codis multifísics i multiescala acoblats d'anàlisi de reactors d'aigua lleugera. El citat benchmark es divideix en tres fases: 1. Fase neutrònica: obtenir els paràmetres neutrònics i seccions eficaces del problema específic, col¿lapsats i homogeneïtzats, a més de la anàlisi de criticitat. 2. Fase de nucli: anàlisi termo-hidràulica i neutrònica per separat. 3. Fase de sistema: anàlisi termo-hidràulica i neutrònica acoblats. En aquesta tesi es completen els principals objectius de la primera fase. Concretament, es desenvolupa una metodologia per propagar la incertesa de les seccions eficaces i altres paràmetres neutrònics a través d'un codi lattice i un simulador de nucli. Es porta a terme una anàlisi d'incertesa i sensibilitat per a les seccions eficaces contingudes en la llibreria neutrònica ENDF/B-VII. La seua incertesa es propaga a través del codi lattice SCALE6.2.1, incloent les fases per col¿lapsar i homogeneïtzar, fins aplegar a la generació d'una llibreria neutrònica específica del problema. Després, la incertesa continguda en la esmentada llibreria pot continuar propagant-se a través d'un simulador de nucli, per a aquest estudi PARCSv3.2. Per a l'anàlisi d'incertesa i sensibilitat s'ha utilitzat el mòdul SAMPLER -disponible a l'última versió de SCALE- i la ferramenta estadística DAKOTA 6.3. Com a part d'aquest procés, també es desenvolupa una metodologia per a obtenir llibreries neutròniques en format NEMTAB per ser utilitzades en simuladors de nucli. S'ha realitzat una comparació amb el codi CASMO-4 per obtenir una verificació de la metodologia completa. Aquesta s'ha provat utilitzant un reactor d'aigua en ebullició del tipus BWR. Tanmateix, no hi ha cap preocupació o limitació respecte del seu ús amb un altre tipus de reactor nuclear. Per a la quantificació de la incertesa s'utilitza la metodologia estocàstica Gesellschaft für Anlagen und Reaktorsicherheit (GRS). Aquesta metodologia fa ús del model d'alta fidelitat i un mostreig no paramètric per propagar la incertesa. Com a resultat, el nombre de mostres (determinat amb la fórmula revisada de Wilks) no depèn del nombre de paràmetres d'entrada, sols depèn del nivell de confiança i incertesa desitjats dels paràmetres d'eixida. A més, las funcions de distribució de probabilitat no estan limitades a la normalitat. El principal inconvenient és que s'ha de disposar de les distribucions de probabilitat de cada paràmetre d'entrada. Si és possible, les distribucions de probabilitat d'entrada es defineixen utilitzant informació trobada a la literatura relacionada. En cas contrari, la incertesa es defineix en base a l'opinió d'un expert. S'utilitza un segon escenari per propagar la incertesa de diferents paràmetres termo-hidràulics a través del codi acoblat TRACE5.0p3/PARCSv3.0. En aquest cas, s'utilitza un reactor tipus PWR per simular un transitori d'una caiguda de barra. Com a nova característica, cal assenyalar que el nucli es modela element a element seguint una discretizació totalment 3D. No s'ha trobat cap altre estudi que utilitze un nucli tan detallat en 3D. També s'utilitza la metodologia GRS i el DAKOTA 6.3 per a aquesta anàlisi d'incertesa i sensibilitat.¿ / Mesado Melia, C. (2017). Uncertainty Quantification and Sensitivity Analysis for Cross Sections and Thermohydraulic Parameters in Lattice and Core Physics Codes. Methodology for Cross Section Library Generation and Application to PWR and BWR [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86167 / TESIS
7

Feed-and-bleed transient analysis of OSU APEX facility using the modern Code Scaling, Applicability, and Uncertainty method

Hallee, Brian Todd 05 March 2013 (has links)
The nuclear industry has long relied upon bounding parametric analyses in predicting the safety margins of reactor designs undergoing design-basis accidents. These methods have been known to return highly-conservative results, limiting the operating conditions of the reactor. The Best-Estimate Plus Uncertainty (BEPU) method using a modernized version of the Code-Scaling, Applicability, and Uncertainty (CSAU) methodology has been applied to more accurately predict the safety margins of the Oregon State University Advanced Plant Experiment (APEX) facility experiencing a Loss-of-Feedwater Accident (LOFA). The statistical advantages of the Bayesian paradigm of probability was utilized to incorporate prior knowledge when determining the analysis required to justify the safety margins. RELAP5 Mod 3.3 was used to accurately predict the thermal-hydraulics of a primary Feed-and-Bleed response to the accident using assumptions to accompany the lumped-parameter calculation approach. A novel coupling of thermal-hydraulic and statistical software was accomplished using the Symbolic Nuclear Analysis Package (SNAP). Uncertainty in Peak Cladding Temperature (PCT) was calculated at the 95/95 probability/confidence levels under a series of four separate sensitivity studies. / Graduation date: 2013

Page generated in 0.0201 seconds