• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 4
  • 1
  • Tagged with
  • 25
  • 25
  • 25
  • 14
  • 12
  • 7
  • 7
  • 7
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Vergleich von Schätz- und Testverfahren unter alternativen Spezifikationen linearer Panelmodelle /

Wolf, Katja. January 2005 (has links)
Zugl.: Erlangen, Nürnberg, Universiẗat, Diss., 2004.
12

Substanzwertrechnung bei Leasingunternehmen im Stresstest

Kapust, Julia 26 October 2017 (has links)
Aufgrund der typischen asymmetrischen Aufwands- und Ertragsverteilung bei Leasingunternehmen spiegelt das bilanzielle Eigenkapital den Unternehmenswert nur unzureichend wider. Um seitens Refinanzierungspartnern ein realitäsnäheres Bild der Unternehmenssituation zu erhalten, werden in der Substanzwertrechung zusätzlich zum Eigenkapital auch zukünftige, noch nicht realisierte Erträge einbezogen. Dabei werden zu erwartende Verluste in Form von Risikoabschlägen berücksichtigt. Im Rahmen dieser Arbeit wird die Ausfallwahrscheinlichkeit von Unternehmen in den als Leasingnehmer wichtigen Branchen Bau, Verkehr und Gesundheit in Abhängigkeit der gesamtwirtschaftlichen Entwicklung modelliert. Unter Verwendung des Modells wird mittels einer Monte-Carlo-Simulation ein Stresstest durchgeführt. Auf diese Weise wird untersucht, wie stark sich die erwarteten Verluste ändern. Dies impliziert eine vergleichbare Veränderung des Unternehmenswertes und gibt Aufschluss über die Aussagekraft des Substanzwertes.
13

Long memory and the aggregation of AR(1) processes

Mudelsee, Manfred 23 March 2017 (has links)
Granger (1980) found that the aggregation of m short-memory AR(1) processes yields a long-memory process. Thereby he assumed m -> ∞, Gaussian shape and betadistributed AR(1) parameters over (0; 1). To test hypotheses that long memory in climate time series comes from aggregation, the finding of Granger (1980) cannot be directly applied. First, the number of \'microclimatic\' processes to be aggregated is finite. Second, climatic processes often produce right-skewed data. Third, the AR(1) parameters of the microclimatic processes could be restricted to a narrower interval than (0; 1). We therefore perform Monte Carlo simulations to study aggregation in climate time series under realistic conditions. The long-memory parameter, H, is estimated by fitting an ARFIMA model to various types of aggregations. Our results are as follows. First, for m above a few hundred, H approaches saturation. Second, the distributional shape has little influence, as noted by Granger (1980). Third, the upper limit of the interval for the AR(1) parameter has a strong influence on the saturation value of H, as noted by Granger (1980). / Granger (1980) fand heraus, dass die Summe von m schwach seriell abhängigen AR(1)-Prozessen einen stark seriell abhängigen Prozess ergibt. Er nahm dabei an, dass m -> ∞ geht, die Verteilungen Gaußsch sind und die AR(1)-Parameter beta-verteilt über (0; 1) sind. Um die Hypothese zu testen, daß starke serielle Abhängigkeit in Klimazeitreihen von dieser \'Aggregation\' rührt, kann das Ergebnis von Granger (1980) jedoch nicht direkt angewendet werden. Erstens: die Anzahl \'mikroklimatischer\', zu summierender Prozesse is endlich. Zweitens: Klimaprozesse erzeugen oft rechtsschief verteilte Daten. Drittens: die AR(1)-Parameter der mikroklimatischen Prozesse mögen auf ein engeres Intervall begrenzt sein als (0; 1). Wir f¨uhren deshalb Monte-Carlo-Simulationen durch, um die Aggregation in Klimazeitreihen für realistische Bedingungen zu studieren. Der Parameter H, der die starke serielle Abhängigkeit beschreibt, wird geschätzt durch die Anpassung eines ARFIMA-Modelles an unterschiedliche Aggregations-Typen. Unsere Ergebnisse sind wie folgt. Erstens: für m oberhalb einiger hundert erreicht H S¨attigung. Zweitens: die Verteilungsform hat geringen Einfluß, wie von Granger (1980) bemerkt. Drittens: die obere Grenze des Intervalles für den AR(1)-Parameter hat einen starken Einfluß auf den Sättigungwert von H, wie von Granger (1980) bemerkt.
14

Pricing portfolio credit derivatives by means of evolutionary algorithms /

Hager, Svenja. January 2008 (has links)
University, Diss.--Tübingen, 2007.
15

Radiative transfer modelling in inhomogeneous clouds by means of the Monte Carlo Method

Gimeno García, Sebastián, Trautmann, Thomas 10 January 2017 (has links)
The Monte Carlo (MC) method is an effective approach to simulate the radiative transfer in an inhomogeneous cloudy atmosphere. It is based on the direct physical simulation of the extinction processes that solar and thermal photons incur when traveling through the atmosphere. A detailed description of the MC method is presented in the second chapter. A new three-dimensional Monte Carlo radiative transfer model, based on a pre-existing model (Trautmann et al. [1999]), has been developed. Some outstanding characteristics of this model are discussed in chapter 3. Several simulations of reflectances, transmittances, absorptances and horizontal flux densities have been performed, the results of which have been compared with worldwide accepted codes (chapter 4). The two cases selected for the radiative transfer computations were taken from the Intercomparison of 3D Radiative Codes (I3RC) project: an ARM (Atmospheric Radiation Measurements) reconstructed cloud and a 3D marine boundary layer cloud / Die Monte Carlo (MC) Methode ist ein effektives Verfahren, um den Strahlungstransport in einer inhomogenen bewölkten Atmosphäre zu simulieren. Es begründet sich auf der direkten Simulation der Extinktionsprozesse eines solaren oder thermischen Photons auf seinem Weg durch die Atmosphäre. Eine detallierte Beschreibung der MC Methode erfolgt in Kapitel 2. In Kapitel 3 wird ein neues dreidimensionales MC-Strahlungstranportmodell vorgestellt, das, aufbauend auf einem schon bestehenden Modell (Trautmann et al. [1999]), entwickelt wurde. Mehrere Simulationen von Reflektanzen, Transmittanzen, Absorptanzen und Strahlungsflussdichten für zwei Fälle des \'Intercomparison of 3D radiative Codes\' projektes, nämlich eine ARM rekonstruierte Wolke und eine 3D marine Grenzschichwolke, wurden durchgeführt, und mit den Ergebnissen anderer weltweit akzeptierten Codes verglichen.
16

Stochastische Teilchensysteme zur Approximation der Koagulationsgleichung

Eibeck, Andreas 24 May 2002 (has links)
Koagulation ist physikalisch bedeutsam für eine Vielzahl von technischen und naturwissenschaftlichen Anwendungen und bezeichnet die paarweise Verschmelzung von Clustern unterschiedlicher Masse. Der zeitliche Verlauf der Clusterkonzentration läßt sich durch Smoluchowskis Koagulationsgleichung beschreiben, einem unendliches System nichtlinearer Differentialgleichungen. Ausgangspunkt dieser Arbeit ist eine nichtlineare maßwertige Gleichung, die die Koagulations- und andere kinetische Gleichungen beinhaltet und verschiedene physikalische und chemische Mechanismen integriert. Sie ermöglicht einen allgemeinen Zugang zu Fragen bezüglich der Existenz von Lösungen und ihrer Approximation durch stochastische Partikelsysteme. Die Teilchensysteme werden dabei als reguläre Sprungprozesse modelliert, welche eine Menge diskreter Maße auf einem lokal-kompakten Raum als Zustandsraum besitzen. Die Arbeit untergliedert sich in drei Teile: Unter geeigneten Voraussetzungen an die Sprungraten werden zunächst für wachsende Teilchenzahlen Approximations- und Konvergenzaussagen unter Verwendung von Kompaktheitsargumenten, Martingaltheoremen und Lokalisierungstechniken bewiesen. Ihre Anwendung auf die Koagulationsgleichung mit Fragmentation, Quellen und Senken erlaubt anschließend die Herleitung neuer Existenzresultate und stochastischer Algorithmen. Der letzte Abschnitt illustriert die numerischen Eigenschaften und die Effizienz der neuen Algorithmen im Vergleich zu bisherigen Monte Carlo Methoden und ihre besondere Eignung zur Analyse des Gelationsphänomens, einem Phasenübergang, welcher zum Masseverlust im Clustersystem führt. / Coagulation is an important physical process for a wide range of technical and scientific applications and denotes the pairwise merging of clusters with different mass. The dynamic behaviour of the cluster concentration can be described by Smoluchowski's coagulation equation which is an infinite system of nonlinear differential equations. In this thesis we start with a nonlinear measure-valued equation generalizing the coagulation and other kinetic equations and integrating various physical and chemical processes. This equation allows a unified treatment of questions concerning existence of solutions and their approximation by means of stochastic particle systems. Here, the particle systems are defined as regular jump processes living on a set of point measures on a locally compact space. The thesis consists of three parts: First of all, approximation and convergence results for suitable jump rates and increasing particle numbers are proved by means of compactness theorems, martingale techniques and localizing procedures. Then, an application to the coagulation equation with fragmentation, source and efflux terms leads to new existence results and stochastic algorithms. Finally, their numerical features and efficiency are compared to known Monte Carlo methods and their specific convergence properties are presented with respect to a phase transition which is called gelation and leads to a loss of total cluster mass.
17

Entwicklung eines Neutronentransportmoduls für das Strahlungstransportprogramm AMOS

Helbig, Kai 16 October 2013 (has links) (PDF)
Im Rahmen der vorliegenden Arbeit ist das am Institut für Kern- und Teilchenphysik der Technischen Universität Dresden entwickelte Monte-Carlo-Strahlungstransportprogramm AMOS für Photonen und Elektronen um einen neuartigen Transportalgorithmus für Neutronen erweitert worden. Für die Modellierung der Wechselwirkungsprozesse werden evaluierte Wirkungsquerschnittsdaten im ENDF-Format verwendet, welche mit einer eigens dafür entwickelten Anwendung für eine effiziente Simulation aufbereitet worden sind. Für eine schnelle Simulation mit hoher Genauigkeit werden die Wirkungsquerschnitte über eine empirisch bestimmte hochaufgelöste Gruppenstruktur gemittelt. Die differentiellen Wirkungsquerschnitte werden für den Transportalgorithmus ins Laborsystem transformiert und linear interpoliert. Das erarbeitete Neutronentransportmodul ist anhand mehrerer Beispielrechnungen getestet und verifiziert worden. Im Vergleich mit vorhandenen Strahlungstransportprogrammen erreicht es bei gleicher Genauigkeit eine deutlich höhere Geschwindigkeit. Sowohl das Programm zur Aufbereitung der Daten als auch der Transportalgorithmus sind im Rahmen dieser Arbeit konzipiert und implementiert worden. Die gute Übereinstimmung der Ergebnisse zeigt, dass das entwickelte Programmsystem eine vollwertige Alternative zu den vorhandenen Lösungen darstellt.
18

Entwicklung eines Neutronentransportmoduls für das Strahlungstransportprogramm AMOS

Helbig, Kai 10 September 2013 (has links)
Im Rahmen der vorliegenden Arbeit ist das am Institut für Kern- und Teilchenphysik der Technischen Universität Dresden entwickelte Monte-Carlo-Strahlungstransportprogramm AMOS für Photonen und Elektronen um einen neuartigen Transportalgorithmus für Neutronen erweitert worden. Für die Modellierung der Wechselwirkungsprozesse werden evaluierte Wirkungsquerschnittsdaten im ENDF-Format verwendet, welche mit einer eigens dafür entwickelten Anwendung für eine effiziente Simulation aufbereitet worden sind. Für eine schnelle Simulation mit hoher Genauigkeit werden die Wirkungsquerschnitte über eine empirisch bestimmte hochaufgelöste Gruppenstruktur gemittelt. Die differentiellen Wirkungsquerschnitte werden für den Transportalgorithmus ins Laborsystem transformiert und linear interpoliert. Das erarbeitete Neutronentransportmodul ist anhand mehrerer Beispielrechnungen getestet und verifiziert worden. Im Vergleich mit vorhandenen Strahlungstransportprogrammen erreicht es bei gleicher Genauigkeit eine deutlich höhere Geschwindigkeit. Sowohl das Programm zur Aufbereitung der Daten als auch der Transportalgorithmus sind im Rahmen dieser Arbeit konzipiert und implementiert worden. Die gute Übereinstimmung der Ergebnisse zeigt, dass das entwickelte Programmsystem eine vollwertige Alternative zu den vorhandenen Lösungen darstellt.
19

Essays in empirical finance : volatility, interdependencies, and risk in emerging markets /

Johansson, Anders C. January 2007 (has links) (PDF)
Univ., Diss.--Göteborg, 2007. / Enth. 4 Beitr.
20

On the statistical power of Baarda’s outlier test and some alternative

Lehmann, Rüdiger, Voß-Böhme, Anja 19 September 2018 (has links)
Baarda’s outlier test is one of the best established theories in geodetic practice. The optimal test statistic of the local model test for a single outlier is known as the normalized residual. Also other model disturbances can be detected and identified with this test. It enjoys the property of being a uniformly most powerful invariant (UMPI) test, but is not a uniformly most powerful (UMP) test. In this contribution we will prove that in the class of test statistics following a common central or non-central chi2 distribution, Baarda’s solution is also uniformly most powerful, i.e. UMPchi2 for short. It turns out that UMPchi2 is identical to UMPI, such that this proof can be seen as another proof of the UMPI property of the test. We demonstrate by an example that by means of the Monte Carlo method it is even possible to construct test statistics, which are regionally more powerful than Baarda’s solution. They follow a socalled generalized chi2 distribution. Due to high computational costs we do not yet propose this as a ”new outlier detection method”, but only as a proof that it is in principle possible to outperform the statistical power of Baarda’s test. / Der Ausreißertest nach Baarda ist eine der am besten etablierten Theorien in der geodätischen Praxis. Die optimale Teststatistik des lokalen Modelltests für einen einzelnen Ausreißer wird als normierte Verbesserung bezeichnet. Auch andere Modellabweichungen können mit diesem Test aufgedeckt und identifiziert werden. Er hat die Eigenschaft, der gleichmäßig stärkste invariante (uniformly most powerful invariant, UMPI) Test zu sein, aber er ist kein gleichmäßig stärkster (uniformly most powerful, UMP) Test. In diesem Beitrag werden wir beweisen, dass in der Klasse der Teststatistiken mit einer gewöhnlichen zentralen oder nichtzentralen chi2 Verteilung die Baardaschen Lösung auch gleichmäßig stärkster Test ist, abgekürzt UMPchi2. Es stellt sich heraus, dass UMPchi2 gleichwertig mit UMPI ist, so dass dieser Beweis als ein weiterer Beweis der UMPI-Eigenschaft des Testes angesehen werden kann. Wir zeigen an einem Beispiel, dass es mittels der Monte Carlo Methode sogar möglich ist, Teststatistiken zu konstruieren, die regional stärker ist, als die Baardasche Lösung. Diese weisen eine sogenannte verallgemeinerte chi2 Verteilung auf. Wegen der hohen Rechenkosten schlagen wir das noch nicht als neue Ausreißererkennungsmethode vor, sondern nur als Beweis, dass es im Prinzip möglich ist, die Teststärke des Ausreißertests nach Baarda zu übertreffen.

Page generated in 0.0723 seconds