• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 59
  • 6
  • 4
  • Tagged with
  • 69
  • 69
  • 34
  • 27
  • 27
  • 22
  • 20
  • 20
  • 20
  • 17
  • 11
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Charakterisierung von Punkt- und Intervallschätzern des gemittelt sequenziellen Populations-assoziierten Risikoanteils in der Epidemiologie kardiovaskulärer Erkrankungen / Characterization of Point and Interval Estimators for Average Sequential Population Attributable Fraction in Cardiovascular Disease Epidemiology

Malsch, Carolin January 2021 (has links) (PDF)
Zielsetzung Die Entwicklung von Präventionsstrategien zur Senkung der Morbidität und Mortalität aufgrund von kardiovaskulären Erkrankungen (KVE) in der Bevölkerung stellt eine Hauptaufgabe der Epidemiologie und Public Health Forschung dar. In den vergangenen 20 Jahren rückte die Hochrisikoprävention im Zuge der Weiterentwicklung der Scoringsysteme für das KVE Hochrisiko-Screening in den Fokus der Leitlinien zur KVE Prävention. Jedoch sind die größten Erfolge aus einer komplementären Strategie aus Hochrisiko- und Populationsprävention mit Priorität auf der Reduktion der Exposition von Risikofaktoren für KVE in der gesamten Population zu erwarten. Die Grundvoraussetzung für die Entwicklung effizienter, populationsweiter Präventionsprogramme ist das Verständnis einerseits der Rolle von Risikofaktoren bei der Krankheitsentstehung und andererseits der Bedeutung der Risikofaktoren auf Populationsebene. Der Populations-assoziierte Risikoanteil (PAF) ist das bevorzugte statistische Maß zur Quantifizierung des Effekts von Risikofaktoren auf Populationsebene, da er neben der Effektstärke eines Risikofaktors auch dessen Prävalenz berücksichtigt. In der Praxis erfolgt die Berechnung des PAF in multifaktoriellen Situationen mithilfe von Adjustierungsansätzen oder Partialisierungsansätzen. Partialisierungsansätze, zu denen auch der gemittelt sequenzielle PAF (gsPAF) gehört, erfüllen die Additivitätseigenschaft. Insbesondere der gsPAF kommt daher in der praktischen Anwendung zunehmend häufiger zum Einsatz. Das Ziel der vorliegenden Arbeit ist die Charakterisierung des gsPAF am Beispiel der Epidemiologie von KVE. Methoden In Projekt 1 erfolgt die theoretische Abgrenzung des gsPAF von anderen Adjustierungs- und Partialisierungsverfahren in Bezug auf Intention, Definition, Modellvoraussetzungen und -annahmen und Interpretation. Diese verschiedenen Konzepte werden in einer einheitlichen mathematischen Symbolik dargestellt, um das Verständnis zu erleichtern und Abweichungen in den Definitionen hervorzuheben. Anschließend wird in Projekt 2 der praktische Vergleich von modellbasierten Punktschätzern vorgenommen. Im Rahmen der Sekundäranalyse der ProsCIS-Studie über den Populationseinfluss von Risikofaktoren auf schlechtes Outcome nach Schlaganfall werden dem gsPAF ein additiver und ein multiplikativer Adjustierungsansatz gegenübergestellt und die Schätzergebnisse hinsichtlich Übereinstimmung der Größenordnung und Rangfolgen analysiert. In Projekt 3 werden im Rahmen einer Simulationsstudie nach dem proof-of-concept-Prinzip die asymptotischen Eigenschaften existierender modellfreier und modellbasierter Schätzer des gsPAF in Verbindung mit resamplingbasierten Konfidenzschätzern in einer Situation mit einem binären Outcome und drei binären Risikofaktoren unter insgesamt 296 Modellsituationen charakterisiert. Dabei wird die Abhängigkeit von der Stichprobengröße, der Prävalenz des Outcomes, der Prävalenz und Effektstärke der Risikofaktoren, der stochastischen Abhängigkeit der Risikofaktoren und ihrer Effekte auf das Outcome, der Vollständigkeit des statistischen Modells sowie des Outcome-Mechanismus untersucht. Abschließend erfolgt in Projekt 4 die Demonstration der gsPAF-Schätzung exemplarisch im Rahmen der Sekundäranalyse des deutschen Arms der EUROASPIRE IV-Studie. Hier wird der Einfluss von Baselinefaktoren auf das Auftreten rekurrenter kardiovaskulärer Ereignisse nach erstmaliger Hospitalisierung auf Populationsebene modelliert. Die Ergebnisse werden anschließend einer umfassenden Methodenkritik unterzogen. Dazu wird die Modellanpassung der Regressionsmodelle überprüft, die Performanz der gsPAF-Schätzung mit Hilfe der zuvor entwickelten Simulationsstudie evaluiert, eine exemplarische Stichprobenumfangsplanung durchgeführt sowie die Angemessenheit der Modellannahmen des gsPAF diskutiert. Ergebnisse %Die Möglichkeiten der statistischen Modellierung von PAF sind nahezu unbegrenzt. Projekt 1: Adjustierungs- und Partialisierungsmethoden beantworten verschiedene Fragestellungen. Dies resultiert aus dem unterschiedlichen Umgang beider Methoden mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, und führt infolgedessen auch zu unterschiedlichen Interpretationen. Der PAF beschreibt den Anteil an der Ereigniswahrscheinlichkeit, der mit dem Vorliegen eines Risikofaktors assoziiert ist. Für den gsPAF muss zusätzlich betont werden, dass der Effekt in Subgruppen mit mehreren Risikofaktoren auf additive Weise zerlegt und der Anteil des Zusammenwirkens der beteiligten Risikofaktoren (Surplus) zu gleichen Anteilen den Risikofaktoren zugewiesen wird. Dahinter steckt die Annahme, dass dieser Teil nur durch das Zusammenwirken überhaupt entstehen konnte, wofür beide Risikofaktoren gleichermaßen verantwortlich gemacht werden. Im Gegensatz zu Adjustierungsmethoden erfüllen Partialisierungsmethoden zwar die Additivitätseigenschaft, gehen jedoch gleichzeitig mit spezifischen Modellannahmen einher, die Kenntnisse über die kausalen Verläufe der Risikofaktoren voraussetzen. Im Falle des gsPAF ist dies die Annahme, dass unter den betrachteten Risikofaktoren keine hierarchischen Abhängigkeiten herrschen. Die theoretische Basis des gsPAF ist derzeit nur für dichotome Outcomes umfangreich erarbeitet und deckt hier alle Ansprüche für den Praxiseinsatz ab: Modellfreie und modellbasierte Punktschätzer, zugehörige Varianzschätzer mit und ohne Berücksichtigung von Störgrößen und Konfidenzschätzer stehen zur Verfügung. Mathematische Eigenschaften wie Symmetrie, Dummyeigenschaft, Additivität und (internen) marginalen Rationalität des gsPAF und anderer Partialisierungsansätze wurden erörtert. Die verfügbare Software stellt derzeit nur Ausschnitte des Methodenspektrums zur Schätzung des gsPAF bereit und ist deshalb für den Einsatz in der empirischen Forschung zu KVE nur begrenzt nützlich. Eine erfolgreiche und effiziente Recherche zum gsPAF wird durch die uneinheitliche Verwendung der Fachtermini ''partieller'' und ''gemittelt sequenzieller'' PAF erschwert. Projekt 2: Der Vergleich von Ergebnissen aus einem Adjustierungsansatz mit Ergebnissen aus einem Partialisierungsansatz ist über den kombinierten PAF möglich, da der unterschiedliche Umgang mit Subgruppen, die bezüglich mehrerer Risikofaktoren gleichzeitig exponiert sind, nicht zum Tragen kommt, solange nur der kombinierte Risikofaktor im statistischen Modell berücksichtigt wird. Anhand des Datenbeispiels der ProsCIS-Studie wurde für diesen Parameter keine Abweichung der Ergebnisse des multiplikativen Ansatzes (Faktor 1,0) und nur eine geringe Abweichung des additiven Ansatzes (Faktor 1,1) vom gsPAF beobachtet. Die Größenordnungen der Schätzwerte einzelner Risikofaktoren sowie deren Summe sind zwischen Adjustierungs- und Partialisierungsmethoden nicht vergleichbar. Die Ergebnisse aus dem multiplikativen Regressionsmodell weichen bis zu einem Faktor von 1,3 von den Schätzwerten des gsPAF ab. Die Abweichungen aus dem additiven Regressionsmodell gehen deutlich darüber hinaus. Der gsPAF liefert nahezu additive Schätzergebnisse, während die Summe der risikofaktorspezifischen Schätzwerte aus den beiden Adjustierungsmethoden den kombinierten PAF übersteigt. Im Gegensatz zu vorangegangenen Studien wird die Rangfolge der Risikofaktoren im Datenbeispiel nicht wesentlich von der Schätzmethode beeinflusst. Projekt 3: Die Simulationsstudie charakterisiert die modellfreien und modellbasierten Punktschätzer des gsPAF und belegt deren Konsistenz und (asymptotische) Erwartungstreue, sofern das statistische Modell korrekt spezifiziert ist. Es zeigt sich, dass in kleinen Stichproben oder bei kleinen Ereigniswahrscheinlichkeiten der modellbasierte Schätzer erwartungstreu und damit dem modellfreien Schätzer überlegen ist. Die Berechnungszeit des modellbasierten Schätzers steigt jedoch superlinear mit steigender Stichprobengröße und mit steigender Anzahl von Variablen im Regressionsmodell an. Resamplingbasierte Methoden wie Bootstrap Normal, Perzentil und Jackknife eignen sich für die Schätzung von Konfidenzintervallen des gsPAF. Auch hier ist ein superlinearer Anstieg der Berechnungszeit insbesondere in Verbindung mit dem modellbasierten Schätzer mit steigender Stichprobengröße und mit steigender Anzahl der Risikofaktoren im statistischen Modell zu beobachten. Biologische Interaktionen von Risikofaktoren im Outcome-Mechanismus verändern die Wahrscheinlichkeit für Ereignisse in Subgruppen mit mehreren Risikofaktoren weg von einem stochastisch unabhängigen und hin zu einem stochastisch abhängigen Szenario. Diese Ereigniswahrscheinlichkeiten werden durch die Anpassung der Parameter im binär-logistischen Regressionsmodell angenähert. Modelle ohne Interaktionsterme repräsentieren aus statistischer Sicht immer einen Outcome-Mechanismus mit stochastischer Abhängigkeit. Interaktionsterme sind nur dann als biologische Interaktionen zu interpretieren, wenn der biologische Outcome-Mechanismus korrekt durch die logistische Regressionsfunktion beschrieben wird. Anderenfalls dienen die Interaktionsterme nur der Modellanpassung und spiegeln nicht die An- oder Abwesenheit biologischer Interaktionen wider. Die Vernachlässigung von relevanten Interaktionstermen führt zu ernstzunehmenden Verzerrungen der Modellparameter und infolgedessen zu stark verzerrten gsPAF-Schätzungen. Dies ist jedoch durch eine gewissenhafte Überprüfung der Modellanpassung während der Auswertung vermeidbar. Grundsätzlich liefert die modellbasierte Schätzung des gsPAF mit allen Interaktionstermen immer unverzerrte Ergebnisse. Die benötigte Stichprobengröße für eine aussagekräftige Schätzung des gsPAF übersteigt die für relative Maße und steigt mit der Anzahl zu betrachtender Variablen im Modell und mit sinkender Prävalenz des Outcomes an. Während für den PAF steigende Effektgrößen der Risikofaktoren die benötigte Stichprobengröße verkleinern, wurde in der Simulationsstudie ein umgekehrter Zusammenhang für den gsPAF beobachtet. Projekt 4: Die in den Projekten 1 und 3 gewonnenen Erkenntnisse wurden im Rahmen der Datenanalyse der EUROASPIRE IV-Studie am Praxisbeispiel untersucht und diskutiert. Das Regressionsmodell ohne Interaktionsterme lieferte verzerrte gsPAF-Schätzungen, was durch die Berücksichtigung von Interaktionstermen korrigiert werden konnte. Die resamplingbasierten Konfidenzintervalle überdeckten große Teile des Wertebereiches des gsPAF und liefern somit keine nützlichen Informationen für die epidemiologische Interpretation der Studienergebnisse. Die Validierung der gsPAF-Schätzungen mit Hilfe der Simulationsstudie machte auf die mangelnde Performanz der Punkt- und Konfidenzintervalle aufgrund der verhältnismäßig kleinen Stichprobengröße für die betrachtete Anzahl der Risikofaktoren aufmerksam. Die benötigte Stichprobengröße für eine performante Schätzung des gsPAF in einer Datensituation wie in der EUROASPIRE IV-Studie beobachtet wurde mit Hilfe der Simulationsstudie ermittelt. Dabei wurde deutlich, dass etwa das Zehnfache der vorliegenden Stichprobengröße benötigt würde, um den modellfreien Schätzer des gsPAF zusammen mit resamplingbasierten Konfidenzintervallen mit einer ausreichenden Performanz schätzen zu können. Da unter den in EUROASPIRE IV betrachteten Risikofaktoren hierarchische Abhängigkeiten vorliegen könnten, sind die Voraussetzungen für die Schätzung des gsPAF nicht erfüllt. Anstelle des gsPAF könnte im vorliegenden Beispiel ein adjustierter Schätzer zum Einsatz kommen, oder, sofern genügend Informationen über die kausalen Zusammenhänge unter den Risikofaktoren vorliegen, auch sequenzielle oder proportionale Partialisierungsansätze. Die durchgeführte Methodenkritik in Projekt 4 ermöglicht es, weitere Schritte zur Steigerung der Aussagekraft der Studienergebnisse zu unternehmen, beispielsweise durch die Wahl geeigneter statistischer Methoden und die Erhöhung des Stichprobenumfangs. Schlussfolgerungen Die Grundvoraussetzungen für die Gewinnung qualitativ hochwertiger Daten sind bekanntermaßen die Wahl eines der Forschungsfrage angemessenen Studiendesigns sowie die sorgfältige Studienplanung. Aufgrund der hohen Anzahl der Risikofaktoren und Störgrößen für kardiovaskuläre Erkrankungen sowie der Komplexität ihrer kausalen Verläufe erfordern Beobachtungsstudien zu KVE große Stichproben, um eine unverzerrte und valide Schätzung der Effekte von Risikofaktoren zu ermöglichen. Doch die gewonnenen Erkenntnisse eignen sich nur dann für Schlussfolgerungen im epidemiologischen und Public Health Kontext dann, wenn auch die statistische Analyse der Studiendaten mit einer ebenso hohen Qualität erfolgt. Eine qualitativ hochwertige Datenanalyse zeichnet sich aus durch (1) die Auswahl der statistischen Methoden passend zur Forschungsfrage, (2) die Berücksichtigung aktueller methodischer Forschungsergebnisse, (3) die sorgfältige Überprüfung der Modellannahmen und Modellanpassung, (4) die Sicherstellung und Überprüfung einer guten Performanz der Punkt- und Konfidenzschätzer und (5) die realistische Interpretation der Ergebnisse unter Berücksichtigung der Modellvoraussetzungen und -annahmen. Ein gewissenhafter Umgang mit den statistischen Methoden ist erforderlich, um belastbare Schlussfolgerungen aus Beobachtungsstudien ziehen zu können. Dies gilt insbesondere im Kontext von Sekundärdatenanalysen, die einen beträchtlichen Anteil der Publikationen darstellen. Simulationsstudien sind ein schlagkräftiges Werkzeug für die Validierung der verwendeten statistischen Methoden und ermöglichen die Einschätzung des Informationsgehaltes von Analyseergebnissen. Sie sind ausgesprochen flexibel und lassen sich an beliebige Datensituationen anpassen. Das macht sie zu einem unverzichtbaren Qualitätskriterium für die Publikation empirischer Studien. Jeder Validierungsschritt trägt wesentlich zu einer verbesserten Qualität der Publikationen bei. Damit entsteht eine solide Basis, um die kausalen Verläufe der Risikofaktoren aufzudecken und die Entwicklung von Präventionsprogrammen zur Verbesserung des Gesundheitsstatus in der Population durch Reduktion der Morbidität und Mortalität von KVE voranzubringen. / Aims The development of prevention programs to reduce morbidity and mortality from cardiovascular diseases (CVD) in the population is a fundamental principle in epidemiology and public health research. During the last two decades, the development and advances of high-risk screening scores led to an increased emphasis on high-risk approaches in guidelines for CVD prevention. However, best results in reducing morbidity and mortality from CVD in the population are expected from a complementary strategy including both, high-risk and population-wide prevention, with priority on reducing the exposure of CVD risk factors in the population. The prerequisite for the development of efficient population-wide prevention programs is a precise understanding of the risk factors' roles in the disease mechanism and their overall impact on the population. Population-attributable fraction (PAF) is the preferred statistical measure to quantify the overall effect of one or more risk factors from the population perspective, since it takes the risk factor’s effect size as well as its prevalence into account. In multifactorial situations, PAF can be calculated via adjustment or partialization approaches. The average sequential PAF (gsPAF) belongs to the latter group and shares the property of additivity. This measure is increasingly used in practical applications of CVD research recently. This dissertation aims to characterize the gsPAF in an exemplary way for application in CVD research. Methods In project 1, gsPAF is compared to other adjustment and partialization methods from a theoretical point of view with focus on intention, definition, model requirements and assumptions and interpretation. A unified mathematical formalism is chosen to facilitate the understanding of similarities and discrepancies between the concepts. The practical comparison of model-based point estimators is conducted in project 2 by analyzing the population impact of risk factors for death and functional dependency one year after stroke in the course of a secondary data analysis of the ProsCIS study. Three model-based estimators, namely the gsPAF, the adjusted PAF from a multiplicative and the adjusted PAF from an additive regression model, are analyzed regarding consistency of magnitudes and the ranking of estimates. In project 3, a simulation study following the proof-of-concept principle reveals the asymptotic properties of non model-based and model-based gsPAF estimators in conjunction with resampling-based confidence intervals in a situation with a binary outcome and three binary risk factors under 296 different model situations. Dependency of the estimators with respect to sample size, prevalence of outcome, prevalence and effect size of risk factors, interactions between risk factors and combined effects on outcome, completeness of statistical models and outcome mechanism is analyzed. Non model-based and model-based gsPAF estimators are used in project 4 in the course of a secondary analysis of data from the German subgroup of the EUROASPIRE IV-study to investigate the population impact of risk factors on recurrent cardiovascular events after first-ever hospitalization. Subsequently, a comprehensive assessment of methodology is conducted, including (a) examination of model fit and performance considerations under the given data condition using the simulation study, (b) illustrative sample size calculation and (c) discussion of suitability of model requirements and assumptions in order to ensure a valid estimation and interpretation of study results. Results Project 1: Adjustment and partialization methods provide answers to different questions. This results from their divergent strategies of handling subgroups with multiple exposures and consequently leads to different interpretations. PAF can be interpreted as the amount of outcome probability, that is associated with the presence of a risk factor in the population. In the interpretation of gsPAF estimates it must be stressed that the effect in subgroups with multiple exposures is partitioned in an additive manner and the resulting summand related to the joint effect (called ''surplus'') is evenly apportioned and assigned to the involved risk factors. This mechanism covers the implicit assumption, that existence of the surplus is caused by the joint action of the risk factors, which holds both factors equally accountable. In contrast to adjustment methods, partialization methods fulfill the property of additivity. However, this happens in exchange for further model assumptions which require understanding of the causal relationships of the risk factors. In the case of gsPAF, the assumption is that there are no mutual hierarchical dependencies among the risk factors. The soundness of such assumptions about the underlying biological mechanisms must be reviewed critically. The theoretical basis of gsPAF is developed extensively for binary outcomes and meets the various demands of practical applications: non model-based and model-based point estimators, corresponding variance estimators with or without adjustment for confounders, and confidence estimators are available and the mathematical properties of the gsPAF are elucidated. Yet, available software packages cover only parts of these various methodological options and are therefore of limited value for application in CVD research. An efficient enquiry of gsPAF literature is hampered by the heterogeneous use of the technical terms ''average sequential'' and ''partial'' PAF. Project 2: Estimation results from adjustment and partialization methods can be compared with regard to the combined PAF, since the diverging strategies of handling subgroups with multiple exposures has no impact as long as only one risk factors, namely the combined risk factor, is considered. The results from the secondary analysis of the ProsCIS-study show no discrepancy of combined PAF between gsPAF and the adjusted PAF based on a multiplicative regression model (factor 1.0) and only a small deviation for the adjusted PAF based on an additive regression model (factor 1.1). Worthy of note is, however, the incomparability of magnitudes and ordering of risk factor specific estimates. Estimates of gsPAF are surpassed from adjusted PAF based on multiplicative regression by factor 1.3 and from adjusted PAF based on a additive regression by even higher factors. While gsPAF yields fairly additive results, both adjustment methods do not. In contrast to previous results, no notable alteration of the risk factors' ordering was observed in the ProsCIS-study with regard to the model choice of PAF. Project 3: The simulation study characterizes non model-based and model-based estimators of the gsPAF and proves both, consistency and asymptotic unbiasedness, given that the statistical model is correctly specified with respect to interaction terms and completeness of variables in the model. The model-based estimator is unbiased even in small samples and in situations with small outcome prevalences and outperforms the non model-based estimator. However, computational time of the model-based estimator increases with increasing sample size and number of variables in the model. Resampling-based methods such as Bootstrap with normality assumption and percentile as well as Jackknife are suited for confidence interval estimation. Here, the computational time especially in conjunction with the model-based estimator shows a superlinear increase with increasing sample size. Sufficient sample sizes for performant estimations of gsPAF exceed those for relative effect measures such as risk and odds ratio and increase with increasing number of variables and decreasing prevalence of outcome. While sample sizes for PAF decrease with increasing prevalence and effect size of a risk factor, a reverse relation was observed for gsPAF, stressing the need for further investigations using a stretch-methods simulation study that also takes the asymptotic variance formula and resulting confidence intervals into account. Biological interactions cause the outcome probability in subgroups with multiple risk factors to shift from the expected probability under stochastic independence towards stochastic dependence. These outcome probabilities are targeted with binary-logistic regression analysis by estimating the regression coefficients. Binary-logistic regression models without interaction terms, however, represent an outcome mechanism that corresponds to stochastic dependency. This means, interaction terms do not necessarily reflect the presence or absence of biological interactions. In fact, interaction terms in the regression model represent biological interactions only if the outcome mechanism is properly described by the logistic regression function. Ignoring relevant interaction terms when fitting a model causes a poor estimation of regression parameters and yields severely biased gsPAF estimates. This can be avoided by examining the consistency of the stratum-specific outcome probabilities in the data set with the predicted probabilities from the fitted regression model. In addition, using a regression model with full interaction pattern when estimating gsPAF guarantees unbiased estimates. Project 4: The findings from projects 1 and 3 were considered during the analysis of the EUROASPIRE IV-study. The regression model without interaction terms led to biased regression parameters and gsPAF estimates, which was corrected by introducing interaction terms. Resampling-based confidence intervals covered large parts of the range of gsPAF and failed to provide useful information.Validation of the gsPAF estimates using a simulation study revealed an insufficient performance of point and confidence interval estimators due to the relatively small sample size for the chosen number of risk factors. The required sample size for a performant estimation of the gsPAF in a data situation as observed in the EUROASPIRE IV study was calculated using the simulation study. It was shown, that the actual sample size multiplied by approximately factor ten would be sufficient to estimate the non model-based gsPAF and resampling-based confidence intervals with a satisfying performance. Due to the fact, that hierarchical dependencies of the risk factors could be possible, the model requirements for gsPAF estimation are not fulfilled. Instead of gsPAF, the adjusted PAF seems to be a better choice. Also sequential or proportional PAF could be more suitable, if sufficient information about the causal relationships between the risk factors is available. These findings provide opportunity to take further steps for improving the data situation and analysis, for example by pooling data sets from comparable studies and choosing more appropriate statistical methods. Conclusions The prerequisites for a good quality of the study data are known to be an appropriate study design and a prudent study planning and implementation process. Due to the high number and complex causal pathways of risk factors and confounders, observational studies on CVD require large sample sizes to ensure unbiased and high performant estimates. However, findings that are valuable for interpretation and conclusions in the epidemiological and public health context also depend on an equally high-standard data analytics process. A high-quality data analysis is characterized by (1) the application of statistical methods suitable to the research question, (2) the consideration of recent methodological advancements, (3) a careful examination of model assumptions and model fitting, (4) the verification of reasonable performance of point and interval estimators and (5) a realistic interpretation of results while accurately considering model requirements and assumptions. A decent validation of study results indicates the conscientiousness and diligence that is necessary when using statistical methods to draw conclusions from observational data, in particular in the context of secondary data analysis. Simulation studies are a powerful tool for validation of statistical methods and allow judging the informative value of the obtained results. They are utmost flexible and can be adapted to a wide range of data situations, what makes them to an indispensable quality criterion for the publication of empirical study results. Every validation step contributes to an improvement of the quality of publications. This provides a sound basis for unraveling the causal pathways of risk factors and developing prevention programs to improve the health status in the population by reducing morbidity and mortality from CVD.
2

Firm Values and Systemic Stability in Financial Networks / Firmenwerte und systemisches Risiko in finanziellen Netzwerken

Karl, Sabine January 2015 (has links) (PDF)
Based on the work of Eisenberg and Noe [2001], Suzuki [2002], Elsinger [2009] and Fischer [2014], we consider a generalization of Merton's asset valuation approach where n firms are linked by cross-ownership of equities and liabilities. Each firm is assumed to have a single outstanding liability, whereas its assets consist of one system-exogenous asset, as well as system-endogenous assets comprising some fraction of other firms' equity and liability, respectively. Following Fischer [2014], one can obtain no-arbitrage prices of equity and the recovery claims of liabilities as solutions of a fixed point problem, and hence obtain no-arbitrage prices of the `firm value' of each firm, which is the value of the firm's liability plus the firm's equity. In a first step, we consider the two-firm case where explicit formulae for the no-arbitrage prices of the firm values are available (cf. Suzuki [2002]). Since firm values are derivatives of exogenous asset values, the distribution of firm values at maturity can be determined from the distribution of exogenous asset values. The Merton model and most of its known extensions do not account for the cross-ownership structure of the assets owned by the firm. Therefore the assumption of lognormally distributed exogenous assets leads to lognormally distributed firm values in such models, as the values of the liability and the equity add up to the exogenous asset's value (which has lognormal distribution by assumption). Our work therefore starts from lognormally distributed exogenous assets and reveals how cross-ownership, when correctly accounted for in the valuation process, affects the distribution of the firm value, which is not lognormal anymore. In a simulation study we examine the impact of several parameters (amount of cross-ownership of debt and equity, ratio of liabilities to expected exogenous assets value) on the differences between the distribution of firm values obtained from our model and correspondingly matched lognormal distributions. It becomes clear that the assumption of lognormally distributed firm values may lead to both over- and underestimation of the “true" firm values (within the cross-ownership model) and consequently of bankruptcy risk, too. In a second step, the bankruptcy risk of one firm within the system is analyzed in more detail in a further simulation study, revealing that the correct incorporation of cross-ownership in the valuation procedure is the more important, the tighter the cross-ownership structure between the two firms. Furthermore, depending on the considered type of cross-ownership (debt or equity), the assumption of lognormally distributed firm values is likely to result in an over- resp. underestimation of the actual probability of default. In a similar vein, we consider the Value-at-Risk (VaR) of a firm in the system, which we calculate as the negative α-quantile of the firm value at maturity minus the firm's risk neutral price in t=0, i.e. we consider the (1-α)100%-VaR of the change in firm value. If we let the cross-ownership fractions (i.e. the fraction that one firm holds of another firm's debt or equity) converge to 1 (which is the supremum of the possible values that cross-ownership fractions can take), we can prove that in a system of two firms, the lognormal model will over- resp. underestimate both univariate and bivariate probabilities of default under cross-ownership of debt only resp. cross-ownership of equity only. Furthermore, we provide a formula that allows us to check for an arbitrary scenario of cross-ownership and any non-negative distribution of exogenous assets whether the approximating lognormal model will over- or underestimate the related probability of default of a firm. In particular, any given non-negative distribution of exogenous asset values (non-degenerate in a certain sense) can be transformed into a new, “extreme" distribution of exogenous assets yielding such a low or high actual probability of default that the approximating lognormal model will over- and underestimate this risk, respectively. After this analysis of the univariate distribution of firm values under cross-ownership in a system of two firms with bivariately lognormally distributed exogenous asset values, we consider the copula of these firm values as a distribution-free measure of the dependency between these firm values. Without cross-ownership, this copula would be the Gaussian copula. Under cross-ownership, we especially consider the behaviour of the copula of firm values in the lower left and upper right corner of the unit square, and depending on the type of cross-ownership and the considered corner, we either obtain error bounds as to how good the copula of firm values under cross-ownership can be approximated with the Gaussian copula, or we see that the copula of firm values can be written as the copula of two linear combinations of exogenous asset values (note that these linear combinations are not lognormally distributed). These insights serve as a basis for our analysis of the tail dependence coefficient of firm values under cross-ownership. Under cross-ownership of debt only, firm values remain upper tail independent, whereas they become perfectly lower tail dependent if the correlation between exogenous asset values exceeds a certain positive threshold, which does not depend on the exact level of cross-ownership. Under cross-ownership of equity only, the situation is reverse in that firm values always remain lower tail independent, but upper tail independence is preserved if and only if the right tail behaviour of both firms’ values is determined by the right tail behaviour of the firms’ own exogenous asset value instead of the respective other firm’s exogenous asset value. Next, we return to systems of n≥2 firms and analyze sensitivities of no-arbitrage prices of equity and the recovery claims of liabilities with respect to the model parameters. In the literature, such sensitivities are provided with respect to exogenous asset values by Gouriéroux et al. [2012], and we extend the existing results by considering how these no-arbitrage prices depend on the cross-ownership fractions and the level of liabilities. For the former, we can show that all prices are non-decreasing in any cross-ownership fraction in the model, and by use of a version of the Implicit Function Theorem we can also determine exact derivatives. For the latter, we show that the recovery value of debt and the equity value of a firm are non-decreasing and non-increasing in the firm's nominal level of liabilities, respectively, but the firm value is in general not monotone in the firm's level of liabilities. Furthermore, no-arbitrage prices of equity and the recovery claims of liabilities of a firm are in general non-monotone in the nominal level of liabilities of other firms in the system. If we confine ourselves to one type of cross-ownership (i.e. debt or equity), we can derive more precise relationships. All the results can be transferred to risk-neutral prices before maturity. Finally, following Gouriéroux et al. [2012] and as a kind of extension to the above sensitivity results, we consider how immediate changes in exogenous asset values of one or more firms at maturity affect the financial health of a system of n initially solvent firms. We start with some theoretical considerations on what we call the contagion effect, namely the change in the endogenous asset value of a firm caused by shocks on the exogenous assets of firms within the system. For the two-firm case, an explicit formula is available, making clear that in general (and in particular under cross-ownership of equity only), the effect of contagion can be positive as well as negative, i.e. it can both, mitigate and exacerbate the change in the exogenous asset value of a firm. On the other hand, we cannot generally say that a tighter cross-ownership structure leads to bigger absolute contagion effects. Under cross-ownership of debt only, firms cannot profit from positive shocks beyond the direct effect on exogenous assets, as the contagion effect is always non-positive. Next, we are concerned with spillover effects of negative shocks on a subset of firms to other firms in the system (experiencing non-negative shocks themselves), driving them into default due to large losses in their endogenous asset values. Extending the results of Glasserman and Young [2015], we provide a necessary condition for the shock to cause such an event. This also yields an upper bound for the probability of such an event. We further investigate how the stability of a system of firms exposed to multiple shocks depends on the model parameters in a simulation study. In doing so, we consider three network types (incomplete, core-periphery and ring network) with simultaneous shocks on some of the firms and wiping out a certain percentage of their exogenous assets. Then we analyze for all three types of cross-ownership (debt only, equity only, both debt and equity) how the shock intensity, the shock size, and network parameters as the number of links in the network and the proportion of a firm's debt or equity held within the system of firms influences several output parameters, comprising the total number of defaults and the relative loss in the sum of firm values, among others. Comparing our results to the studies of Nier et al. [2007], Gai and Kapadia [2010] and Elliott et al. [2014], we can only partly confirm their results with respect to the number of defaults. We conclude our work with a theoretical comparison of the complete network (where each firm holds a part of any other firm) and the ring network with respect to the number of defaults caused by a shock on a single firm, as it is done by Allen and Gale [2000]. In line with the literature, we find that under cross-ownership of debt only, complete networks are “robust yet fragile" [Gai and Kapadia, 2010] in that moderate shocks can be completely withstood or drive the firm directly hit by the shock in default, but as soon as the shock exceeds a certain size, all firms are simultaneously in default. In contrast to that, firms default one by one in the ring network, with the first “contagious default" (i.e. a default of a firm not directly hit by the shock) already occurs for smaller shock sizes than under the complete network. / Basierend auf den Arbeiten von Eisenberg und Noe [2001], Suzuki [2002], Elsinger [2009] und Fischer [2014] wird ein Netzwerk aus n≥2 Firmen betrachtet, die über Fremd- und/oder Eigenkapitalverflechtungen miteinander verbunden sind. Dabei wird angenommen, dass jede Firma eine Klasse von exogenen Assets sowie eine Klasse von Schulden mit Fälligkeitszeitpunkt T besitzt. Der Wert der Schulden und des Eigenkapitals jeder Firma zum Fälligkeitszeitpunkt kann dann mit Hilfe des Fixpunktalgorithmus von Fischer [2014] bestimmt werden, was auch den ‚Firmenwert‘ (Gesamtwert der Assets einer Firma) liefert. Ausgehend von lognormalverteilten Assetwerten wird in einer Simulationsstudie für den Zwei-Firmen-Fall die Verteilung des Firmenwerts mit einer angepassten Lognormalverteilung verglichen, ebenso die daraus resultierenden Ausfallwahrscheinlichkeiten. Für extrem hohe Verflechtungsgrade werden theoretische Ergebnisse bezüglich Über- und Unterschätzung der tatsächlichen Ausfallwahrscheinlichkeit durch die Lognormalverteilung hergeleitet. Anschließend wird der lower und upper tail dependence coefficient der Firmenwerte zweier Firmen bei ausschließlich Fremd- bzw. Eigenkapitalverflechtungen bestimmt. Für Netzwerke beliebiger Größe wird nach einer Sensitivitätsanalyse des Werts der Schulden, des Werts des Eigenkapitals und des Firmenwerts in Abhängigkeit der vorliegenden Verflechtungsgrade und des nominellen Schuldenwerts untersucht, unter welchen Bedingungen sich Schocks auf die exogenen Assetwerte einer oder mehrerer Firmen innerhalb des Netzwerks verbreiten und möglicherweise zum Ausfall anderer, nicht direkt vom Schock betroffenen Firmen im System führen.
3

Contributions to the Multivariate Max-Domain of Attraction / Beiträge zum Multivariaten Max-Stabilen Anziehungsbereich

Fuller, Timo January 2020 (has links) (PDF)
This thesis covers a wide range of results for when a random vector is in the max-domain of attraction of max-stable random vector. It states some new theoretical results in D-norm terminology, but also gives an explaination why most approaches to multivariate extremes are equivalent to this specific approach. Then it covers new methods to deal with high-dimensional extremes, ranging from dimension reduction to exploratory methods and explaining why the Huessler-Reiss model is a powerful parametric model in multivariate extremes on par with the multivariate Gaussian distribution in multivariate regular statistics. It also gives new results for estimating and inferring the multivariate extremal dependence structure, strategies for choosing thresholds and compares the behavior of local and global threshold approaches. The methods are demonstrated in an artifical simulation study, but also on German weather data. / Diese Disseration behandelt eine Reihe von Resultaten, die gelten, wenn sich ein Zufallsvektor im multivariaten Anziehungsbereich eines max-stabilen Zufallsvektors befindet. Es gibt einige neue theoretische Resulte, die in D-Norm Terminologie behandelt werden, aber es wird auch erläutert, warum dieser Ansatz äquivalent zu den meisten anderen Ansätzen in multivariater Extremwerttheorie ist. Es werden neue Methoden dargestellt, mit denen hoch-dimensionale Extremwertprobleme angegangen werden können, darunter Konzepte die Dimensionsreduzierung bis explorative Methoden, und es wird weiter erklärt, warum das parametrische Hüssler-Reiss model eine mächtige Rolle in der multivariaten Extremwerttheorie einnimmt, vergleichbar mit Gausschen Zufallsvektoren in der Standard-Statistik. Es gibt außerdem neue Methoden für Schätzung und Interferenz der extremalen Abhängigkeitsstruktur, Strategien, wie Thresholds gewählt werden können und ein Vergleich von lokalen gegenüber globalen Thresholds. Die Methoden werden in einer Simulationsstudie mit künstlichen Daten, aber auch mit deutschen Wetterdaten demonstriert.
4

Output Optimization by Lie Bracket Approximations / Ausgangsoptimierung durch Lie-Klammer-Approximationen

Suttner, Raik January 2020 (has links) (PDF)
In this dissertation, we develop and analyze novel optimizing feedback laws for control-affine systems with real-valued state-dependent output (or objective) functions. Given a control-affine system, our goal is to derive an output-feedback law that asymptotically stabilizes the closed-loop system around states at which the output function attains a minimum value. The control strategy has to be designed in such a way that an implementation only requires real-time measurements of the output value. Additional information, like the current system state or the gradient vector of the output function, is not assumed to be known. A method that meets all these criteria is called an extremum seeking control law. We follow a recently established approach to extremum seeking control, which is based on approximations of Lie brackets. For this purpose, the measured output is modulated by suitable highly oscillatory signals and is then fed back into the system. Averaging techniques for control-affine systems with highly oscillatory inputs reveal that the closed-loop system is driven, at least approximately, into the directions of certain Lie brackets. A suitable design of the control law ensures that these Lie brackets point into descent directions of the output function. Under suitable assumptions, this method leads to the effect that minima of the output function are practically uniformly asymptotically stable for the closed-loop system. The present document extends and improves this approach in various ways. One of the novelties is a control strategy that does not only lead to practical asymptotic stability, but in fact to asymptotic and even exponential stability. In this context, we focus on the application of distance-based formation control in autonomous multi-agent system in which only distance measurements are available. This means that the target formations as well as the sensed variables are determined by distances. We propose a fully distributed control law, which only involves distance measurements for each individual agent to stabilize a desired formation shape, while a storage of measured data is not required. The approach is applicable to point agents in the Euclidean space of arbitrary (but finite) dimension. Under the assumption of infinitesimal rigidity of the target formations, we show that the proposed control law induces local uniform asymptotic (and even exponential) stability. A similar statement is also derived for nonholonomic unicycle agents with all-to-all communication. We also show how the findings can be used to solve extremum seeking control problems. Another contribution is an extremum seeking control law with an adaptive dither signal. We present an output-feedback law that steers a fully actuated control-affine system with general drift vector field to a minimum of the output function. A key novelty of the approach is an adaptive choice of the frequency parameter. In this way, the task of determining a sufficiently large frequency parameter becomes obsolete. The adaptive choice of the frequency parameter also prevents finite escape times in the presence of a drift. The proposed control law does not only lead to convergence into a neighborhood of a minimum, but leads to exact convergence. For the case of an output function with a global minimum and no other critical point, we prove global convergence. Finally, we present an extremum seeking control law for a class of nonholonomic systems. A detailed averaging analysis reveals that the closed-loop system is driven approximately into descent directions of the output function along Lie brackets of the control vector fields. Those descent directions also originate from an approximation of suitably chosen Lie brackets. This requires a two-fold approximation of Lie brackets on different time scales. The proposed method can lead to practical asymptotic stability even if the control vector fields do not span the entire tangent space. It suffices instead that the tangent space is spanned by the elements in the Lie algebra generated by the control vector fields. This novel feature extends extremum seeking by Lie bracket approximations from the class of fully actuated systems to a larger class of nonholonomic systems. / In dieser Dissertation werden neuartige optimierende Rückkopplungsgesetze für kontroll-affine Systeme mit reell-wertigen zustandsabhängigen Ausgangs- (bzw. Kosten-) funktionen entwickelt und analysiert. Das Ziel ist es zu einem gegebenen kontroll-affinen System ein Ausgangsrückkopplungsgesetz zu erlangen, welches das System im geschlossenen Regelkreis asymptotisch um Zustände stabilisiert bei denen die Ausgangsfunktion einen Minimalwert annimmt. Die Kontrollstrategie soll dabei derart konstruiert sein, dass eine Implementierung nur Echtzeitmessungen des Ausgangswerts erfordert. Zusätzliche Informationen, wie z.B. der aktuelle Systemzustand oder der Gradientenvektor der Ausgangsfunktion, werden nicht als bekannt angenommen. Eine Methode, die alle diese Kritierien erfüllt, bezeichnet man als Extremwertregelungsgesetz. Es wird hierzu ein vor kurzer Zeit etablierter Ansatz in der Extremwertregelung verfolgt, welcher auf der Approximation von Lie-Klammern basiert. Für diesen Zweck wird das gemessene Ausgangssignal mit geeigneten hoch-oszillierenden Signalen moduliert und danach zurück in das System eingespeist. Mittelungstechniken für kontroll-affine Systeme mit hoch-oszillierenden Eingängen enthüllen, dass das System im geschlossenen Regelkreis zumindest näherungsweise in die Richtung von gewissen Lie-Klammern getrieben wird. Eine geeignete Konstruktion des Kontrollgesetzes sichert, dass diese Lie-Klammern in Abstiegsrichtungen der Ausgangsfunktion zeigen. Unter geeigneten Annahmen führt diese Methode zu dem Effekt, dass Minima der Ausgangsfunktion praktisch gleichmäßig asymptotisch stabil für das System im geschlossenen Regelkreis sind. Das vorliegende Dokument erweitert und verbessert diesen Ansatz auf Verschiedene Arten und Weisen. Eine der Neuerungen ist eine Kontrollstrategie, die nicht nur zu praktischer asymptotischer Stabilität, sondern mehr noch zu asymptotischer Stabilität und sogar exponentieller Stabilität führt. In diesem Zusammenhang wird der Schwerpunkt auf die Anwendung zur abstandsbasierten Formationssteuerung in autonomen Multiagentensystemen gelegt, bei der nur Abstandsmessungen verfügbar sind. Dies bedeutet, dass sowohl die Zielformationen als auch die Messgrößen durch Abstände bestimmt sind. Es wird ein vollständig verteiltes Kontrollgesetz vorgeschlagen, welches lediglich Abstandsmessungen von jedem einzelnen Agenten beinhaltet um eine Formation zu stabilisieren, wobei eine Speicherung von Messdaten nicht erforderlich ist. Der Ansatz ist anwendbar auf Punktagenten im euklidischen Raum von beliebiger (aber endlicher) Dimension. Unter der Annahme von infinitesimaler Starrheit der Zielformationen wird nachgewiesen, dass das vorgeschlagene Steuerungsgesetz lokale gleichmäßige asymptotische (und sogar exponentielle) Stabilität induziert. Eine ähnliche Aussage wird auch für nicht-holonome Einradagenten mit alle-zu-allen-Kommunikation erlangt. Es wird außerdem gezeigt wie diese Erkenntnisse genutzt werden können um Extremwertregelungsprobleme zu lösen. Ein weiterer Beitrag ist ein Extremwertregelungsgesetz mit einem adaptiven Zittersignal. Es wird ein Ausgangsrückkopplungsgesetz präsentiert, welches ein voll-aktuiertes kontroll-affines System mit allgemeinem Driftvektorfeld zu einem Minimum der Ausgangsfunktion steuert. Eine entscheidende Neuheit des Ansatzes ist eine adaptive Wahl des Frequenzparameters. Auf diesem Weg wird die Aufgabe eine hinreicheind großen Frequenzparamter zu bestimmen hinfällig. Die adaptive Wahl des Frequenzparameters verhindert auch endliche Entweichzeiten in der Gegenwart eines Drifts. Das vorgeschlagene Kontrollgesetz führ nicht nur zu Konvergenz in eine Umgebung eines Minimums, sondern führt zu exakter Konvergenz. Für den Fall einer Ausgangsfunktion mit globalem Minimum und keinem anderen kritischen Punkt wird globale Konvergenz bewiesen. Schließlich wird ein Extremwertregelungsgesetz für eine Klasse von nicht-holonomen Systemen präsentiert. Eine detaillierte Mittelungsanalyse enthüllt, dass das System im geschlossenen Regelkreis näherungsweise in Abstiegsrichtungen der Ausgangsfunktion entlang von Lie-Klammern der Kontrollvektorfelder getrieben wird. Jene Abstiegsrichtungen stammen ebenso von einer Approximation von geeignet gewählten Lie-Klammern. Dies erfordert eine zweifache Approximation von Lie-Klammern auf verschiedenen Zeitskalen. Die vorgeschlagene Methode kann zu praktischer asymptotischer Stabilität führen selbst wenn die Kontrollvektorfelder nicht den gesamten Tangentialraum aufspannen. Es reicht stattdessen, dass der Tangentialraum durch die Elemente in der Lie-Algebra, welche durch die Kontrollvektorfelder generiert wird, aufgespannt wird. Diese neuartige Eigenschaft erweitert Extremwertregelung durch Lie-Klammer-Approximationen von der Klasse der voll-aktuierten Systeme zu einer größeren Klasse von nicht-holonomen Systemen.
5

Agent-based modeling of cell differentiation in mouse ICM organoids / Agentenbasierte Modellierung von Maus ICM Organoiden

Schardt, Simon January 2023 (has links) (PDF)
Mammalian embryonic development is subject to complex biological relationships that need to be understood. However, before the whole structure of development can be put together, the individual building blocks must first be understood in more detail. One of these building blocks is the second cell fate decision and describes the differentiation of cells of the inner cell mass of the embryo into epiblast and primitive endoderm cells. These cells then spatially segregate and form the subsequent bases for the embryo and yolk sac, respectively. In organoids of the inner cell mass, these two types of progenitor cells are also observed to form, and to some extent to spatially separate. This work has been devoted to these phenomena over the past three years. Plenty of studies already provide some insights into the basic mechanics of this cell differentiation, such that the first signs of epiblast and primitive endoderm differentiation, are the expression levels of transcription factors NANOG and GATA6. Here, cells with low expression of GATA6 and high expression of NANOG adopt the epiblast fate. If the expressions are reversed, a primitive endoderm cell is formed. Regarding the spatial segregation of the two cell types, it is not yet clear what mechanism leads to this. A common hypothesis suggests the differential adhesion of cell as the cause for the spatial rearrangement of cells. In this thesis however, the possibility of a global cell-cell communication is investigated. The approach chosen to study these phenomena follows the motto "mathematics is biology's next microscope". Mathematical modeling is used to transform the central gene regulatory network at the heart of this work into a system of equations that allows us to describe the temporal evolution of NANOG and GATA6 under the influence of an external signal. Special attention is paid to the derivation of new models using methods of statistical mechanics, as well as the comparison with existing models. After a detailed stability analysis the advantages of the derived model become clear by the fact that an exact relationship of the model parameters and the formation of heterogeneous mixtures of two cell types was found. Thus, the model can be easily controlled and the proportions of the resulting cell types can be estimated in advance. This mathematical model is also combined with a mechanism for global cell-cell communication, as well as a model for the growth of an organoid. It is shown that the global cell-cell communication is able to unify the formation of checkerboard patterns as well as engulfing patterns based on differently propagating signals. In addition, the influence of cell division and thus organoid growth on pattern formation is studied in detail. It is shown that this is able to contribute to the formation of clusters and, as a consequence, to breathe some randomness into otherwise perfectly sorted patterns. / Die embryonale Entwicklung von Säugetieren unterliegt komplexen biologischen Zusammenhängen, die es zu verstehen gilt. Bevor jedoch das gesamte Gebilde der Entwicklung zusammengesetzt werden kann, müssen zunächst die einzelnen Bausteine genauer verstanden werden. Einer dieser Bausteine ist die zweite Zellschicksalsentscheidung und beschreibt die Differenzierung von Zellen der inneren Zellmasse des Embryos hin zu Epiblast- und primitiven Endodermzellen. Diese Zellen teilen sich daraufhin räumlich auf und bilden die anschließend die Grundlagen für den Embryo und den Dottersack. In Organoiden der inneren Zellmasse wird ebenfalls beobachtet, wie sich diese zwei Typen von Vorläuferzellen bilden, und sich in gewissem Maße räumlich voneinander trennen. Diesem Phänomenen widmete sich diese Arbeit im Verlaufe der letzten drei Jahre. Über diese Zelldifferenzierung ist bereits bekannt, dass die ersten Anzeichen für Epiblast- und primitive Endodermdifferenzierung jeweils die Expressionslevel der Transkriptionsfaktoren NANOG und GATA6 sind. Dabei nehmen Zellen mit niedriger Expression an GATA6 und hoher Expression an NANOG das Epiblastschicksal an. Sind die Expressionen umgekehrt, so entsteht eine primitive Endodermzelle. Bei der räumlichen Aufteilung der beiden Zelltypen ist noch nicht eindeutig geklärt, welcher Mechanismus dazu führt. Eine gängige Hypothese besagt, dass die Ursache für die räumliche Umlagerung der Zellen in der unterschiedlichen Adhäsion der Zellen liegt. In dieser Arbeit wird jedoch die Möglichkeit einer globalen Zell-Zell-Kommunikation untersucht. Die gewählte Vorgehensweise bei der Untersuchung dieser Phänomene folgt dem Motto "Die Mathematik ist das nächste Mikroskop der Biologie". Mit Hilfe mathematischer Modellierung wird das zentrale genregulierende Netzwerk im Mittelpunkt dieser Arbeit in ein Gleichungssystem umgewandelt, welches es ermöglicht, die zeitliche Entwicklung von NANOG und GATA6 unter Einfluss eines externen Signals zu beschreiben. Ein besonderes Augenmerk liegt dabei auf der Herleitung neuer Modelle mit Hilfe von Methoden der statistischen Mechanik, sowie dem Vergleich mit bestehenden Modellen. Nach einer ausführlichen Stabilitätsanalyse werden die Vorteile des hergeleiteten Modells dadurch deutlich, dass ein exakter Zusammenhang der Modellparameter und der Formierung von heterogenen Mischungen zweier Zelltypen gefunden wurde. Dadurch lässt sich das Modell einfach kontrollieren und die Proportionen der resultierenden Zelltypen bereits im Voraus abschätzen. Dieses mathematische Modell wird außerdem kombiniert mit einem Mechanismus zur globalen Zell-Zell Kommunikation, sowie einem Modell zum Wachstum eines Organoiden. Dabei wird gezeigt dass die globale Zell-Zell Kommunikation dazu in der Lage ist die Bildung von Schachbrettmustern, sowie auch umrandenden Muster anhand unterschiedlich ausbreitender Signale zu vereinen. Zusätzlich wird der Einfluss der Zellteilung und somit des Organoidwachstums auf die Musterbildung genauestens untersucht. Es wird gezeigt, dass dies zur Bildung von Clustern beiträgt und infolgedessen eine gewisse Zufälligkeit in ansonsten perfekt sortierte Muster einbringt.
6

Numerical Methods for Stochastic Control Problems with Applications in Financial Mathematics

Blechschmidt, Jan 25 May 2022 (has links)
This thesis considers classical methods to solve stochastic control problems and valuation problems from financial mathematics numerically. To this end, (linear) partial differential equations (PDEs) in non-divergence form or the optimality conditions known as the (nonlinear) Hamilton-Jacobi-Bellman (HJB) equations are solved by means of finite differences, volumes and elements. We consider all of these three approaches in detail after a thorough introduction to stochastic control problems and discuss various solution terms including classical solutions, strong solutions, weak solutions and viscosity solutions. A particular role in this thesis play degenerate problems. Here, a new model for the optimal control of an energy storage facility is developed which extends the model introduced in [Chen, Forsyth (2007)]. This four-dimensional HJB equation is solved by the classical finite difference Kushner-Dupuis scheme [Kushner, Dupuis (2001)] and a semi-Lagrangian variant which are both discussed in detail. Additionally, a convergence proof of the standard scheme in the setting of parabolic HJB equations is given. Finite volume schemes are another classical method to solve partial differential equations numerically. Sharing similarities to both finite difference and finite element schemes we develop a vertex-centered dual finite volume scheme. We discuss convergence properties and apply the scheme to the solution of HJB equations, which has not been done in such a broad context, to the best of our knowledge. Astonishingly, this is one of the first times the finite volume approach is systematically discussed for the solution of HJB equations. Furthermore, we give many examples which show advantages and disadvantages of the approach. Finally, we investigate novel tailored non-conforming finite element approximations of second-order PDEs in non-divergence form, utilizing finite-element Hessian recovery strategies to approximate second derivatives in the equation. We study approximations with both continuous and discontinuous trial functions. Of particular interest are a-priori and a-posteriori error estimates as well as adaptive finite element methods. In numerical experiments our method is compared with other approaches known from the literature. We discuss implementations of all three approaches in MATLAB (finite differences and volumes) and FEniCS (finite elements) publicly available in GitHub repositories under https://github.com/janblechschmidt. Many numerical experiments show convergence properties as well as pros and cons of the respective approach. Additionally, a new postprocessing procedure for policies obtained from numerical solutions of HJB equations is developed which improves the accuracy of control laws and their incurred values.
7

Fraktionale Integration und Kointegration in Theorie und Praxis / Fractional integration and cointegration in theory and praxis

Dechert, Andreas January 2014 (has links) (PDF)
Das Ziel der Arbeit ist eine Zusammenfassung über den Stand der Forschung über das Thema der fraktionalen Integration und Kointegration sowie Weiterentwicklungen der aktuellen Methoden im Hinblick darauf, dass sie robuster auf eine Reihe von empirischen Gegebenheiten anwendbar sind. Hierzu wurden insbesondere die Möglichkeiten von Strukturbrüchen in deterministischen Prozessanteilen vorgeschlagen sowie deren Auswirkungen auf Schätzeigenschaften analysiert. Mit diesem Wissen können Schätzstrategien entwickelt werden, die auch im empirischen Teil der Arbeit angewandt wurden. Der Aufbau der Arbeit gestaltet sich so, dass nach der Einleitung und Problemstellung im zweiten Kapitel der Arbeit zunächst in die Zeitreihenanalyse eingeführt wird. Hierbei wird auch eine intuitive Motivation für die Betrachtung von Long-Memory-Prozessen gegeben. Diese gestaltet sich so, dass der klassischerweise als ganzzahlig angenommene Integrationsgrad eines Prozesses nun jede beliebige Zahl, also auch Brüche, annehmen kann. Diese Annahme führt wiederum dazu, dass hiermit sehr langfristige Abhängigkeiten von Zeitreihen effizient beschrieben werden können, da diese lediglich von einem einzigen Parameter abhängen. Die Schätzung dieses nunmehr fraktionalen Integrationsgrads wird im dritten Kapitel ausführlich beschrieben und in mehreren Simulationsstudien ausgiebig analysiert. Hierzu werden neben parametrischen Schätzmethoden, die einer genauen Spezifizierung der Korrelationsstruktur von Zeitreihen bedürfen, auch semiparametrische Methoden angeführt, die in der Praxis robuster einsetzbar sind, da ihre Schätzgenauigkeit und Effizienz nicht von einer korrekten Klassifizierung von sog. Short-Memory-Komponenten beeinflusst werden. Die Analyse dieser Methode erfolgt in erster Linie im Hinblick auf eine empirische Anwendbarkeit und bietet auch als Ergebnis Empfehlungen für eine optimale Schätzstrategie. Das vierte Kapitel beschäftigt sich in erster Linie mit Integrationstests wie z.B. Einheitswurzeltests und deren Anwendbarkeit bei Existenz von Long-Memory-Prozessbestandteilen. Darüber hinaus werden auch Schätz- und Testmethoden für das Vorliegen von deterministischen Trends thematisiert, die wiederum auch die Möglichkeit von Strukturbrüchen zulassen. Eine multivariate Betrachtungsweise ermöglicht das fünfte Kapitel mit der Einführung der fraktionalen Kointegration. Auch liegt der Fokus der Arbeit darin, die empirische Anwendbarkeit zu verbessern, indem in Simulationsstudien Effekte von empirischen Gegebenheiten - wie Strukturbrüche - analysiert und optimale Schätzstrategien entwickelt werden. Im sechsten Kapitel der Arbeit wird im Rahmen der ökonomischen Theorie der Markterwartungshypothese die Verzinsung deutscher im Zeitraum Oktober 1998 bis November 2011 untersucht. Diese Hypothese impliziert, dass zwischen den einzelnen Zinssätzen eine multivariate Beziehung in Form von Kointegrationsbeziehungen bestehen sollte, da die Zinssatzdifferenzen einer Liquiditätsprämie entsprechen. Von dieser wurde in bisherigen Studien angenommen, dass sie stationär ist, d.h. dass sie allenfalls eine Short-Memory-Eigenschaft aufweist, welche nur relativ kurzfristige Abhängigkeit impliziert. Von dieser Sichtweise löst sich die Arbeit, indem sie die Möglichkeit von fraktionalen Kointegrationsbeziehungen ermöglicht, die eine Aussage über die Persistenz der Liquiditätsprämie ermöglicht. Im Rahmen dieser Analyse konnten eine Reihe interessanter Erkenntnisse gewonnen werden, wie z.B. dass das Ausmaß der Persistenz (d.h. die Trägheit der Anpassung auf ökonomische Schocks) mit ansteigender Laufzeitdifferenz sukzessive größer wird und auch nicht mehr durch klassisch angenommene Prozessstrukturen erklärt werden kann. Nichtsdestotrotz können die Ergebnisse der empirischen Analyse die Annahmen der Markterwartungshypothese nicht bestätigen, da insbesondere der Integrationsgrad für sehr lange Laufzeitdifferenzen so groß ausfällt, dass selbst eine relativ schwache fraktionale Kointegrationsbeziehung abgelehnt werden muss. / Fractional integration and cointegration in theory and praxis
8

Confidence and Prediction under Covariates and Prior Information / Konfidenz- und Prognoseintervalle unter Kovariaten und Vorinformation

Lurz, Kristina January 2015 (has links) (PDF)
The purpose of confidence and prediction intervals is to provide an interval estimation for an unknown distribution parameter or the future value of a phenomenon. In many applications, prior knowledge about the distribution parameter is available, but rarely made use of, unless in a Bayesian framework. This thesis provides exact frequentist confidence intervals of minimal volume exploiting prior information. The scheme is applied to distribution parameters of the binomial and the Poisson distribution. The Bayesian approach to obtain intervals on a distribution parameter in form of credibility intervals is considered, with particular emphasis on the binomial distribution. An application of interval estimation is found in auditing, where two-sided intervals of Stringer type are meant to contain the mean of a zero-inflated population. In the context of time series analysis, covariates are supposed to improve the prediction of future values. Exponential smoothing with covariates as an extension of the popular forecasting method exponential smoothing is considered in this thesis. A double-seasonality version of it is applied to forecast hourly electricity load under the use of meteorological covariates. Different kinds of prediction intervals for exponential smoothing with covariates are formulated. / Konfidenz- und Prognoseintervalle dienen der Intervallschätzung unbekannter Verteilungsparameter und künftiger Werte eines Phänomens. In vielen Anwendungen steht Vorinformation über einen Verteilungsparameter zur Verfügung, doch nur selten wird außerhalb von bayesscher Statistik davon Gebrauch gemacht. In dieser Dissertation werden exakte frequentistische Konfidenzintervalle unter Vorinformation kleinsten Volumens dargelegt. Das Schema wird auf Verteilungsparameter für die Binomial- und die Poissonverteilung angewandt. Der bayessche Ansatz von Intervallen für Verteilungsparameter wird in Form von Vertrauensintervallen behandelt, mit Fokus auf die Binomialverteilung. Anwendung findet Intervallschätzung in der Wirtschaftsprüfung, wo zweiseitige Intervalle vom Stringer-Typ den Mittelwert in Grundgesamtheiten mit vielen Nullern enthalten sollen. Im Zusammenhang mit Zeitreihenanalyse dienen Kovariaten der Verbesserung von Vorhersagen zukünftiger Werte. Diese Arbeit beschäftigt sich mit exponentieller Glättung mit Kovariaten als eine Erweiterung der gängigen Prognosemethode der exponentiellen Glättung. Eine Version des Modells, welche doppelte Saison berücksichtigt, wird in der Prognose des stündlichen Elektrizitätsbedarfs unter Zuhilfenahme von meteorologischen Variablen eingesetzt. Verschiedene Arten von Prognoseintervallen für exponentielle Glättung mit Kovariaten werden beschrieben.
9

Monotonic Probability Distribution : Characterisation, Measurements under Prior Information, and Application / Monotone Wahrscheinlichkeitsverteilung : Charakterisierung, Messverfahren unter Vorinformation und Anwendung

Sans, Wolfgang January 2019 (has links) (PDF)
Statistical Procedures for modelling a random phenomenon heavily depend on the choice of a certain family of probability distributions. Frequently, this choice is governed by a good mathematical feasibility, but disregards that some distribution properties may contradict reality. At most, the choosen distribution may be considered as an approximation. The present thesis starts with a construction of distributions, which uses solely available information and yields distributions having greatest uncertainty in the sense of the maximum entropy principle. One of such distributions is the monotonic distribution, which is solely determined by its support and the mean. Although classical frequentist statistics provides estimation procedures which may incorporate prior information, such procedures are rarely considered. A general frequentist scheme for the construction of shortest confidence intervals for distribution parameters under prior information is presented. In particular, the scheme is used for establishing confidence intervals for the mean of the monotonic distribution and compared to classical procedures. Additionally, an approximative procedure for the upper bound of the support of the monotonic distribution is proposed. A core purpose of auditing sampling is the determination of confidence intervals for the mean of zero-inflated populations. The monotonic distribution is used for modelling such a population and is utilised for the procedure of a confidence interval under prior information for the mean. The results are compared to two-sided intervals of Stringer-type. / Statistische Verfahren zur Modellierung eines zufälligen Phänomens hängen stark von der Wahl einer bestimmter Familie von Wahrscheinlichkeitsverteilungen ab. Oft wird die Auswahl der Verteilung durch das Vorliegen guter mathematischer Handhabbarkeit bestimmt, dabei aber außer Acht gelassen, dass einige Verteilungseigenschaften gegen die Realität verstoßen können und bestenfalls als Näherung aufgefasst werden können. Die vorgelegte Arbeit beginnt mit einer Konstruktion von Verteilungen, die ausschließlich verfügbare Informationen verwenden und im Sinne des Prinzips der maximalen Entropie die größte Unsicherheit beinhalten. Eine dieser Verteilungen ist die monotone Verteilung, die alleine durch ihren Träger und den Mittelwert festgelegt ist. In der klassischen, frequentistischen Statistik existieren zwar Verfahren zur Schätzung von Verteilungsparametern, die Vorinformationen verarbeiten können, sie finden aber kaum Beachtung. Es wird ein allgemeines frequentistisches Verfahren zur Konstruktion kürzester Konfidenzintervalle für Verteilungsparameter unter Vorinformation vorgestellt. Dieses Verfahren wird zur Herleitung von Konfidenzintervallen für das erste Moment der monotonen Verteilung angewendet, und diese mit klassischen Bereichsschätzern verglichen. Außerdem wird ein approximatives Schätzverfahren für die obere Grenze des Trägers der Monotonen Verteilung vorgeschlagen. Ein Hauptziel der Wirtschaftsprüfung ist die Bestimmung von Konfidenzintervalle für Mittelwerte von Grundgesamtheiten zu bestimmen, die viele Nullen enthalten. Die monotone Verteilung geht in die Modellierung einer solchen Grundgesamtheit und in das Verfahren für ein Konfidenzintervall unter Vorinformation zur Schätzung des Mittelwerts ein. Die Ergebnisse werden mit zweiseitigen Intervallen vom Stringer-Typ verglichen.
10

Finding the Maximizers of the Information Divergence from an Exponential Family: Finding the Maximizersof the Information Divergencefrom an Exponential Family

Rauh, Johannes 09 January 2011 (has links)
The subject of this thesis is the maximization of the information divergence from an exponential family on a finite set, a problem first formulated by Nihat Ay. A special case is the maximization of the mutual information or the multiinformation between different parts of a composite system. My thesis contributes mainly to the mathematical aspects of the optimization problem. A reformulation is found that relates the maximization of the information divergence with the maximization of an entropic quantity, defined on the normal space of the exponential family. This reformulation simplifies calculations in concrete cases and gives theoretical insight about the general problem. A second emphasis of the thesis is on examples that demonstrate how the theoretical results can be applied in particular cases. Third, my thesis contain first results on the characterization of exponential families with a small maximum value of the information divergence.:1. Introduction 2. Exponential families 2.1. Exponential families, the convex support and the moment map 2.2. The closure of an exponential family 2.3. Algebraic exponential families 2.4. Hierarchical models 3. Maximizing the information divergence from an exponential family 3.1. The directional derivatives of D(*|E ) 3.2. Projection points and kernel distributions 3.3. The function DE 3.4. The first order optimality conditions of DE 3.5. The relation between D(*|E) and DE 3.6. Computing the critical points 3.7. Computing the projection points 4. Examples 4.1. Low-dimensional exponential families 4.1.1. Zero-dimensional exponential families 4.1.2. One-dimensional exponential families 4.1.3. One-dimensional exponential families on four states 4.1.4. Other low-dimensional exponential families 4.2. Partition models 4.3. Exponential families with max D(*|E ) = log(2) 4.4. Binary i.i.d. models and binomial models 5. Applications and Outlook 5.1. Principles of learning, complexity measures and constraints 5.2. Optimally approximating exponential families 5.3. Asymptotic behaviour of the empirical information divergence A. Polytopes and oriented matroids A.1. Polytopes A.2. Oriented matroids Bibliography Index Glossary of notations

Page generated in 0.0351 seconds