• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 1
  • 1
  • Tagged with
  • 5
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Noninformative priors for some models useful in reliability and survival analysis /

Lee, Gunhee, January 1996 (has links)
Thesis (Ph. D.)--University of Missouri-Columbia, 1996. / Typescript. Vita. Includes bibliographical references (leaves 105-108). Also available on the Internet.
2

Noninformative priors for some models useful in reliability and survival analysis

Lee, Gunhee, January 1996 (has links)
Thesis (Ph. D.)--University of Missouri-Columbia, 1996. / Typescript. Vita. Includes bibliographical references (leaves 105-108). Also available on the Internet.
3

Évaluation de la modélisation et des prévisions de la vitesse du vent menant à l'estimation de la production d'énergie annuelle d'une turbine éolienne

Coulombe, Janie 04 1900 (has links)
Suite à un stage avec la compagnie Hatch, nous possédons des jeux de données composés de séries chronologiques de vitesses de vent mesurées à divers sites dans le monde, sur plusieurs années. Les ingénieurs éoliens de la compagnie Hatch utilisent ces jeux de données conjointement aux banques de données d’Environnement Canada pour évaluer le potentiel éolien afin de savoir s’il vaut la peine d’installer des éoliennes à ces endroits. Depuis quelques années, des compagnies offrent des simulations méso-échelle de vitesses de vent, basées sur divers indices environnementaux de l’endroit à évaluer. Les ingénieurs éoliens veulent savoir s’il vaut la peine de payer pour ces données simulées, donc si celles-ci peuvent être utiles lors de l’estimation de la production d’énergie éolienne et si elles pourraient être utilisées lors de la prévision de la vitesse du vent long terme. De plus, comme l’on possède des données mesurées de vitesses de vent, l’on en profitera pour tester à partir de diverses méthodes statistiques différentes étapes de l’estimation de la production d’énergie. L’on verra les méthodes d’extrapolation de la vitesse du vent à la hauteur d’une turbine éolienne et l’on évaluera ces méthodes à l’aide de l’erreur quadratique moyenne. Aussi, on étudiera la modélisation de la vitesse du vent par la distributionWeibull et la variation de la distribution de la vitesse dans le temps. Finalement, l’on verra à partir de la validation croisée et du bootstrap si l’utilisation de données méso-échelle est préférable à celle de données des stations de référence, en plus de tester un modèle où les deux types de données sont utilisées pour prédire la vitesse du vent. Nous testerons la méthodologie globale présentement utilisée par les ingénieurs éoliens pour l’estimation de la production d’énergie d’un point de vue statistique, puis tenterons de proposer des changements à cette méthodologie, qui pourraient améliorer l’estimation de la production d’énergie annuelle. / Following an internship with the company Hatch, we have access to datasets that are composed of wind speed time series measured at different sites accross the world and over several years. The wind speed engineers from Hatch are using these datasets jointly with Environment Canada databases in order to ascertain the wind energy potential of these sites and to know whether it is worth installing wind turbines there. For a few years, some companies are also offering mesoscale simulations of wind speed based on different environmental characteristics from the site we want to evaluate. We would like to know if it is worth paying for those mesoscale datasets and if they can be used to provide better estimations of the wind energy potential. Among other things, these data could be used to provide a better estimation of the long term mean wind speed. Since we already possess measured datasets, we will also use them to test, with statistical methods, the methodology currently used and the different steps leading to an estimation of the wind energy production. First of all, we will see what are the different methods that could be used to extrapolate wind speed to a wind turbine’s height and we will evaluate those methods with the mean squared extrapolation error. Also, we will study wind distribution modelling by the Weibull distribution and consider its variability over time. Finally, cross-validation and block bootstrap will be used to see whether we should use mesoscale data instead of wind data from Environment Canada or whether it would even be beneficial to use both kind of data to predict wind speed. In summary, the whole methodology used by wind speed engineers to estimate the energy production will be tested from a statistical point of view and we will attempt to propose changes in this methodology that could improve the estimation of the wind speed annual energy production.
4

Inference for Gamma Frailty Models based on One-shot Device Data

Yu, Chenxi January 2024 (has links)
A device that is accompanied by an irreversible chemical reaction or physical destruction and could no longer function properly after performing its intended function is referred to as a one-shot device. One-shot device test data differ from typical data obtained by measuring lifetimes in standard life-tests. Due to the very nature of one-shot devices, actual lifetimes of one-shot devices under test cannot be observed, and they are either left- or right-censored. In addition, a one-shot device often has multiple components that could cause the failure of the device. The components are coupled together in the manufacturing process or assembly, resulting in the failure modes possessing latent heterogeneity and dependence. Frailty models enable us to describe the influence of common, but unobservable covariates, on the hazard function as a random effect in a model and also provide an easily understandable interpretation. In this thesis, we develop some inferential results for one-shot device testing data with gamma frailty model. We first develop an efficient expectation-maximization (EM) algorithm for determining the maximum likelihood estimates of model parameters of a gamma frailty model with exponential lifetime distributions for components based on one-shot device test data with multiple failure modes, wherein the data are obtained from a constant-stress accelerated life-test. The maximum likelihood estimate of the mean lifetime of $k$-out-of-$M$ structured one-shot devices under normal operating conditions is also presented. In addition, the asymptotic variance–covariance matrix of the maximum likelihood estimates is derived, which is then used to construct asymptotic confidence intervals for the model parameters. The performance of the proposed inferential methods is finally evaluated through Monte Carlo simulations and then illustrated with a numerical example. A gamma frailty model with Weibull baseline hazards is considered next for fitting one-shot device testing data. The Weibull baseline hazards enable us to analyze time-varying failure rates more accurately, allowing for a deeper understanding of the dynamic nature of system's reliability. We develop an EM algorithm for estimating the model parameters utilizing the complete likelihood function. A detailed simulation study evaluates the performance of the Weibull baseline hazard model with that of the exponential baseline hazard model. The introduction of shape parameters in the component's lifetime distribution within the Weibull baseline hazard model offers enhanced flexibility in model fitting. Finally, Bayesian inference is then developed for the gamma frailty model with exponential baseline hazard for one-shot device testing data. We introduce the Bayesian estimation procedure using Markov chain Monte Carlo (MCMC) technique for estimating the model parameters as well as for developing credible intervals for those parameters. The performance of the proposed method is evaluated in a simulation study. Model comparison between independence model and the frailty model is made using Bayesian model selection criterion. / Thesis / Candidate in Philosophy
5

Schädigungsprognose mittels Homogenisierung und mikromechanischer Materialcharakterisierung

Goldmann, Joseph 01 October 2018 (has links)
In der vorliegenden Arbeit wird die Frage untersucht, ob effektive Eigenschaften von Verbunden auch nach dem Auftreten einer Dehnungslokalisierung aufgrund von entfestigendem Materialverhalten noch durch numerische Homogenisierungsmethoden berechnet werden können. Ihr Nutzen für diesen Anwendungsfall wird in der Literatur kritisch beurteilt. Aus diesem Grund werden hier systematisch alle Teilaufgaben betrachtet, die zu diesem Zweck gelöst werden müssen. Die erste dieser Aufgaben ist die Charakterisierung der einzelnen Verbundbestandteile. Zur Demonstration einer experimentell gestützten Charakterisierung wird ein glasfaserverstärktes Epoxidharz als Beispielmaterial gewählt. Neben der Beschreibung von Faser- und Matrixmaterial wird besonderes Augenmerk auf die Charakterisierung der Grenzschicht zwischen beiden gelegt. Die für die Glasfasern vorliegenden Festigkeitsmessungen entsprechen nicht der Kettenhypothese. Daher werden zahlreiche Verallgemeinerungen der Weibull-Verteilung untersucht, um störende Effekte zu erfassen. Schließlich werden Wahrscheinlichkeitsverteilungen hergeleitet, die Faserbrüche im Bereich der Einspannung einbeziehen. Die Messwerte können von diesen Verteilungen gut wiedergegeben werden. Zusätzlich macht ihre Anwendung das aufwändige Aussortieren und Wiederholen jener Experimente unnötig, bei denen der Faserbruch im Klemmbereich auftritt. Zur Modellierung der Grenzfläche wird ein Kohäsivzonengesetz entwickelt. Die Bestimmung seiner Parameter erfolgt anhand von Daten aus Pullout- und Einzelfaserfragmentierungsversuchen. Aus diesen ermittelte Festigkeiten und Energiefreisetzungsraten weisen eine sehr gute Übereinstimmung zwischen beiden Versuchen auf. Dabei erfolgt die Parameteridentifikation mithilfe von Finite-Elemente-Modellen anstatt der häufig genutzten vereinfachten analytischen Modelle, welche üblicherweise eine schlechtere Übereinstimmung erreichen. Sobald eine Dehnungslokalisierung auftritt, ist neben der Materialmodellierung auch das Homogenisierungsschema zu verallgemeinern. Zu diesem gehören die Generierung repräsentativer Volumenelemente, Randbedingungen (RB) und ein Mittelungsoperator. Anhand des aktuellen Standes der Literatur werden die Randbedingungen als ein signifikanter Schwachpunkt von Homogenisierungsverfahren erkannt. Daher erfolgt die Untersuchung periodischer RB, linearer Verschiebungsrandbedingungen und minimal kinematischer RB sowie zweier adaptiver RB, nämlich Lokalisierungspfad-ausgerichteter RB und generalisiert periodischer RB. Unter der Bezeichnung Tesselationsrandbedingungen wird ein weiterer Typ adaptiver RB vorgeschlagen. Zunächst erfolgt der Beweis, dass alle drei adaptiven RB die Hill-Mandel-Bedingung erfüllen. Des Weiteren wird mittels einer Modifikation der Hough-Transformation ein systematischer Fehler derselben bei der Bestimmung der Richtung von Lokalisierungszonen eliminiert. Schließlich werden die Eigenschaften aller Randbedingungen an verschiedenen Beispielen demonstriert. Dabei zeigt sich, dass nur Tesselationsrandbedingungen sowohl beliebige Richtungen von Lokalisierungszonen erlauben als auch fehlerhafte Lokalisierungen in Eckbereichen ausschließen. Zusammengefasst können in der Literatur geäußerte grundlegende Einschränkungen hinsichtlich der Anwendbarkeit numerischer Homogenisierungsverfahren beim Auftreten von Dehnungslokalisierungen aufgehoben werden. Homogenisierungsmethoden sind somit auch für entfestigendes Materialverhalten anwendbar. / The thesis at hand is concerned with the question if numerical homogenization schemes can be of use in deriving effective material properties of composite materials after the onset of strain localization due to strain softening. In this case, the usefulness of computational homogenization methods has been questioned in the literature. Hence, all the subtasks to be solved in order to provide a successful homogenization scheme are investigated herein. The first of those tasks is the characterization of the constituents, which form the composite. To allow for an experimentally based characterization an exemplary composite has to be chosen, which herein is a glass fiber reinforced epoxy. Hence the constituents to be characterized are the epoxy and the glass fibers. Furthermore, special attention is paid to the characterization of the interface between both materials. In case of the glass fibers, the measured strength values do not comply with the weakest link hypothesis. Numerous generalizations of the Weibull distribution are investigated, to account for interfering effects. Finally, distributions are derived, that incorporate the possibility of failure inside the clamped fiber length. Application of such a distribution may represent the measured data quite well. Additionally, it renders the cumbersome process of sorting out and repeating those tests unnecessary, where the fiber fails inside the clamps. Identifying the interface parameters of the proposed cohesive zone model relies on data from pullout and single fiber fragmentation tests. The agreement of both experiments in terms of interface strength and energy release rate is very good, where the parameters are identified by means of an evaluation based on finite element models. Also, the agreement achieved is much better than the one typically reached by an evaluation based on simplified analytical models. Beside the derivation of parameterized material models as an input, the homogenization scheme itself needs to be generalized after the onset of strain localization. In an assessment of the current state of the literature, prior to the generation of representative volume elements and the averaging operator, the boundary conditions (BC) are identified as a significant issue of such a homogenization scheme. Hence, periodic BC, linear displacement BC and minimal kinematic BC as well as two adaptive BC, namely percolation path aligned BC and generalized periodic BC are investigated. Furthermore, a third type of adaptive BC is proposed, which is called tesselation BC. Firstly, the three adaptive BC are proven to fulfill the Hill-Mandel condition. Secondly, by modifying the Hough transformation an unbiased criterion to determine the direction of the localization zone is given, which is necessary for adaptive BC. Thirdly, the properties of all the BC are demonstrated in several examples. These show that tesselation BC are the only type, that allows for arbitrary directions of localization zones, yet is totally unsusceptible to spurious localization zones in corners of representative volume elements. Altogether, fundamental objections, that have been raised in the literature against the application of homogenization in situations with strain localization, are rebutted in this thesis. Hence, the basic feasibility of homogenization schemes even in case of strain softening material behavior is shown.

Page generated in 0.0924 seconds