• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 27
  • 27
  • 10
  • 8
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Quantifying the Hydraulic Performance of Treatment Wetlands

Wahl, Mark D. 03 September 2010 (has links)
No description available.
22

Hazard functions and macroeconomic dynamics

Yao, Fang 24 January 2011 (has links)
In dieser Arbeit werden die Folgen der Calvo-Annahme in dynamischen makroökonomischen Modellen untersucht. Dafür wird die Calvo-Annahme unter Anwendung des Konzepts der statistischen Hazardfunktion verallgemeinert. Ich untersuche zwei mögliche Anwendungen dieses Ansatzes innerhalb von DSGE-Modellen. Im ersten Artikel zeige ich, dass der Zugewinn an Handhabbarkeit, der aus der Calvo-Annahme für Neu-Keynesianische Modelle folgt, mit unerwünschten Folgen in Bezug auf die Inflationsdynamiken einher geht. Der zweite Artikel schätzt die aggregierte Hazardfunktion unter Verwendung des theoretischen Rahmens des ersten Artikels. Es zeigt sich, dass die Annahme einer konstanten Hazardfunktion, die aus der Calvo-Annahme folgt, von den Daten eindeutig abgelehnt wird. Im dritten Artikel analysiere ich die Implikationen der empirisch geschätzten Hazardfunktion für die Persistenz von Inflation und die Geldpolitik. Die Untersuchungen zeigen, dass mittels der empirisch plausiblen aggregierten Hazardfunktion Zeitreihen simuliert werden können, die mit der Persistenz der inflatorischen Lücke im US Verbraucherpreisindex konsistent sind. Anhand dieser Ergebnisse komme ich zu dem Schluss, dass die Hazardfunktion eine entscheidende Rolle für die dynamischen Eigenschaften von Inflation spielt. Der letzte Artikel wendet den selben Modellierungsansatz auf ein Real-Business-Cycle Model mit rigidem Arbeitsmarkt an. Unter Verwendung eines allgemeineren stochastischen Anpassungsprozess stelle ich fest, dass die Arbeitsmarktdynamiken von einem Parameter beinflusst werden, der das Monotonieverhalten der Hazardfunktion bestimmt. Insbesondere steigt die Volatilität des Beschäftigungsniveaus, wohingegen dessen Persistenz mit zunehmendem Parameterwert abnimmt. / The Calvo assumption (Calvo, 1983) is widely used in the macroeconomic literature to model market frictions that limit the ability of economic agents to re-optimize their control variables. In spite of its virtues, the Calvo assumption also implies singular adjustment behavior at the firm level as well as a restrictive aggregation mechanism for the whole economy. In this study, I examine implications of the Calvo assumption for macroeconomic dynamics. To do so, I extend the Calvo assumption to a more general case based on the concept of the statistical hazard function. Two applications of this approach are studied in the DSGE framework. In the first essay, I apply this approach to a New Keynesian model, and demonstrate that tractability gained from the Calvo pricing assumption is costly in terms of inflation dynamics. The second essay estimates aggregate price reset hazard function using the theoretical framework constructed in the first essay, and shows that the constant hazard function implied by the Calvo assumption is strongly rejected by the aggregate data. In the third essay, I further explore implications of the empirically based hazard function for inflation persistence and monetary policy. I find that the empirically plausible aggregate price reset hazard function can generate simulated data that are consistent with inflation gap persistence found in the US CPI data. Based on these results, I conclude that the price reset hazard function plays a crucial role for generating inflation dynamics. The last essay applies the same modeling approach to a RBC model with employment rigidity. I find that, when introducing a more general stochastic adjustment process, the employment dynamics vary with a parameter, which determines the monotonic property of the hazard function. In particular, the volatility of employment is increasing, but the persistence is decreasing in the value of the parameter.
23

Contribution de la Théorie des Valeurs Extrêmes à la gestion et à la santé des systèmes / Contribution of extreme value theory to systems management and health

Diamoutene, Abdoulaye 26 November 2018 (has links)
Le fonctionnement d'un système, de façon générale, peut être affecté par un incident imprévu. Lorsque cet incident a de lourdes conséquences tant sur l'intégrité du système que sur la qualité de ses produits, on dit alors qu'il se situe dans le cadre des événements dits extrêmes. Ainsi, de plus en plus les chercheurs portent un intérêt particulier à la modélisation des événements extrêmes pour diverses études telles que la fiabilité des systèmes et la prédiction des différents risques pouvant entraver le bon fonctionnement d'un système en général. C'est dans cette optique que s'inscrit la présente thèse. Nous utilisons la Théorie des Valeurs Extrêmes (TVE) et les statistiques d'ordre extrême comme outil d'aide à la décision dans la modélisation et la gestion des risques dans l'usinage et l'aviation. Plus précisément, nous modélisons la surface de rugosité de pièces usinées et la fiabilité de l'outil de coupe associé par les statistiques d'ordre extrême. Nous avons aussi fait une modélisation à l'aide de l'approche dite du "Peaks-Over Threshold, POT" permettant de faire des prédictions sur les éventuelles victimes dans l'Aviation Générale Américaine (AGA) à la suite d'accidents extrêmes. Par ailleurs, la modélisation des systèmes soumis à des facteurs d'environnement ou covariables passent le plus souvent par les modèles à risque proportionnel basés sur la fonction de risque. Dans les modèles à risque proportionnel, la fonction de risque de base est généralement de type Weibull, qui est une fonction monotone; l'analyse du fonctionnement de certains systèmes comme l'outil de coupe dans l'industrie a montré qu'un système peut avoir un mauvais fonctionnement sur une phase et s'améliorer sur la phase suivante. De ce fait, des modifications ont été apportées à la distribution de Weibull afin d'avoir des fonctions de risque de base non monotones, plus particulièrement les fonctions de risque croissantes puis décroissantes. En dépit de ces modifications, la prise en compte des conditions d'opérations extrêmes et la surestimation des risques s'avèrent problématiques. Nous avons donc, à partir de la loi standard de Gumbel, proposé une fonction de risque de base croissante puis décroissante permettant de prendre en compte les conditions extrêmes d'opérations, puis établi les preuves mathématiques y afférant. En outre, un exemple d'application dans le domaine de l'industrie a été proposé. Cette thèse est divisée en quatre chapitres auxquels s'ajoutent une introduction et une conclusion générales. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Le deuxième chapitre s'intéresse aux concepts de base de l'analyse de survie, particulièrement à ceux relatifs à l'analyse de fiabilité, en proposant une fonction de risque croissante-décroissante dans le modèle à risques proportionnels. En ce qui concerne le troisième chapitre, il porte sur l'utilisation des statistiques d'ordre extrême dans l'usinage, notamment dans la détection de pièces défectueuses par lots, la fiabilité de l'outil de coupe et la modélisation des meilleures surfaces de rugosité. Le dernier chapitre porte sur la prédiction d'éventuelles victimes dans l'Aviation Générale Américaine à partir des données historiques en utilisant l'approche "Peaks-Over Threshold" / The operation of a system in general may at any time be affected by an unforeseen incident. When this incident has major consequences on the system integrity and the quality of system products, then it is said to be in the context of extreme events. Thus, increasingly researchers have a particular interest in modeling such events with studies on the reliability of systems and the prediction of the different risks that can hinder the proper functioning of a system. This thesis takes place in this very perspective. We use Extreme Value Theory (EVT) and extreme order statistics as a decision support tool in modeling and risk management in industry and aviation. Specifically, we model the surface roughness of machined parts and the reliability of the associated cutting tool with the extreme order statistics. We also did a modeling using the "Peaks-Over Threshold, POT" approach to make predictions about the potential victims in the American General Aviation (AGA) following extreme accidents. In addition, the modeling of systems subjected to environmental factors or covariates is most often carried out by proportional hazard models based on the hazard function. In proportional hazard models, the baseline risk function is typically Weibull distribution, which is a monotonic function. The analysis of the operation of some systems like the cutting tool in the industry has shown that a system can deteriorated on one phase and improving on the next phase. Hence, some modifications have been made in the Weibull distribution in order to have non-monotonic basic risk functions, more specifically, the increasing-decreasing risk function. Despite these changes, taking into account extreme operating conditions and overestimating risks are problematics. We have therefore proposed from Gumbel's standard distribution, an increasingdecreasing risk function to take into account extreme conditions, and established mathematical proofs. Furthermore, an example of the application in the field of industry was proposed. This thesis is organized in four chapters and to this must be added a general introduction and a general conclusion. In the first chapter, we recall some basic notions about the Extreme Values Theory. The second chapter focuses on the basic concepts of survival analysis, particularly those relating to reliability analysis by proposing a function of increasing-decreasing hazard function in the proportional hazard model. Regarding the third chapter, it deals with the use of extreme order statistics in industry, particularly in the detection of defective parts, the reliability of the cutting tool and the modeling of the best roughness surfaces. The last chapter focuses on the prediction of potential victims in AGA from historical data using the Peaks-Over Threshold approach.
24

A new estimation approach for modeling activity-travel behavior : applications of the composite marginal likelihood approach in modeling multidimensional choices

Ferdous, Nazneen 04 November 2011 (has links)
The research in the field of travel demand modeling is driven by the need to understand individuals’ behavior in the context of travel-related decisions as accurately as possible. In this regard, the activity-based approach to modeling travel demand has received substantial attention in the past decade, both in the research arena as well as in practice. At the same time, recent efforts have been focused on more fully realizing the potential of activity-based models by explicitly recognizing the multi-dimensional nature of activity-travel decisions. However, as more behavioral elements/dimensions are added, the dimensionality of the model systems tends to explode, making the estimation of such models all but infeasible using traditional inference methods. As a result, analysts and practitioners often trade-off between recognizing attributes that will make a model behaviorally more representative (from a theoretical viewpoint) and being able to estimate/implement a model (from a practical viewpoint). An alternative approach to deal with the estimation complications arising from multi-dimensional choice situations is the technique of composite marginal likelihood (CML). This is an estimation technique that is gaining substantial attention in the statistics field, though there has been relatively little coverage of this method in transportation and other fields. The CML approach is a conceptually and pedagogically simpler simulation-free procedure (relative to traditional approaches that employ simulation techniques), and has the advantage of reproducibility of the results. Under the usual regularity assumptions, the CML estimator is consistent, unbiased, and asymptotically normally distributed. The discussion above indicates that the CML approach has the potential to contribute in the area of travel demand modeling in a significant way. For example, the approach can be used to develop conceptually and behaviorally more appealing models to examine individuals’ travel decisions in a joint framework. The overarching goal of the current research work is to demonstrate the applicability of the CML approach in the area of activity-travel demand modeling and to highlight the enhanced features of the choice models estimated using the CML approach. The goal of the dissertation is achieved in three steps as follows: (1) by evaluating the performance of the CML approach in multivariate situations, (2) by developing multidimensional choice models using the CML approach, and (3) by demonstrating applications of the multidimensional choice models developed in the current dissertation. / text
25

貝氏Weibull模式應用於加速壽命試驗

吳雅婷, Wu,Ya-Ting Unknown Date (has links)
本文所探討的中心為貝氏模型運用於加速壽命試驗,並且假設受測項目之壽命服從Weibull分配。加速實驗環境有三種,其中第二種環境代表正常狀態,採用加速壽命試驗的方式涵蓋了三種:固定應力、漸進之逐步應力和變量曲線之逐步應力。對於先驗參數,並不是直接給予特定的值,而是透過專家評估,給定各種環境之下的產品可靠度之中位數或百分位數,再利用這些資訊經過數值運算解出先驗參數。資料的型態分成兩種,一為區間資料,另一為型一設限資料,透過蒙地卡羅法模擬出後驗分配,並且估計正常環境狀態的可靠度。 / This article develops a Bayes inference model for accelerated life testing assuming failure times at each stress level are Weibull distributed. Using the approach, there are three stressed to be used, and the three testing scenarios to be adapted are as follows:fixed-stress, progressive step-stress and profile step-stress. Prior information is used to indirectly define a multivariate prior distribution for the scale parameters at the various stress levels. The inference procedure accommodates both the interval data sampling strategy and type I censored sampling strategy for the collection of ALT test data. The inference procedure uses the well-known Markov Chain Monte Carlo methods to derive posterior approximations.
26

Essays on price dynamics

Silva, João Luiz Ayres Queiroz 26 July 2011 (has links)
Submitted by Joao Luiz Ayres Queiroz da Silva (jluizayres@gmail.com) on 2012-01-13T03:10:40Z No. of bitstreams: 1 TeseDoutorado_JoaoAyres_VersaoFinal_Eletronica.pdf: 529477 bytes, checksum: d6770f4fc6e8a2ced7e469151b866323 (MD5) / Approved for entry into archive by Andrea Virginio Machado (andrea.machado@fgv.br) on 2012-02-17T16:50:02Z (GMT) No. of bitstreams: 1 TeseDoutorado_JoaoAyres_VersaoFinal_Eletronica.pdf: 529477 bytes, checksum: d6770f4fc6e8a2ced7e469151b866323 (MD5) / Made available in DSpace on 2012-02-28T12:07:31Z (GMT). No. of bitstreams: 1 TeseDoutorado_JoaoAyres_VersaoFinal_Eletronica.pdf: 529477 bytes, checksum: d6770f4fc6e8a2ced7e469151b866323 (MD5) Previous issue date: 2011-07-26 / Esta tese tem como objetivo principal aproximar a evidencia empirica existente sobre os agregados macroeconomicos com as novas evidencias empiricas baseadas nos micro dados de precos ao consumidor, tendo como base os modelos padroes de rigidez de preco utilizados na literatura de politica monetaria. Para isso, esta tese utiliza a base de dados individuais de precos ao consumidor no Brasil fornecida pela Fundacao Getulio Vargas. Especificamente, esta tese foca em tres temas principais: a existencia de variac˜oes temporararias de precos, a heterogeneidade na rigidez de precos entre firmas de um mesmo setor e o formato das func˜oes hazard. Os resultados mostram que: existe de fato uma correlac˜ao entre as variaveis referentes as mudancas temporararias de precos e os agregados macroeconomicos; a heterogeneidade na rigidez de precos entre firmas de um mesmo setor apresenta efeitos significativos sobre a dinamica dos agregados macroeconomicos; e por fim, o formato mais geral da func˜ao hazard proposta nesta tese possibilita novas dinamicas dos agregados macroeconomicos. / This thesis has as its main goal to approximate the existing empirical evidence on macroeconomic aggregates with the new empirical evidences based on micro data on consumer prices, having as a baseline the standard sticky-price models used in the literature on monetary policy. In order to do that, this thesis makes use of a micro data on individual consumer prices in Brazil published by Getulio Vargas Foundation. Specifically, this thesis focus on three main issues: the existence of temporary price changes, the within-sector heterogeneity in price stickiness and the shape of hazard functions. The results show that: there exist a correlation between variables on temporary price changes and macroeconomic aggregates; the within-sector heterogeneity in price stickiness has significant effects on macroeconomic dynamics; and the more general specification of the shape of the hazard function that is proposed in this thesis leads to new dynamics for the macroeconomic aggregates.
27

Essays on bayesian analysis of state space models with financial applications

Gingras, Samuel 05 1900 (has links)
Cette thèse est organisée en trois chapitres où sont développées des méthodes de simulation à posteriori pour inférence Bayesienne dans des modèles espace-état ainsi que des modèles économétriques pour l’analyse de données financières. Au chapitre 1, nous considérons le problème de simulation a posteriori dans les modèles espace-état univariés et non-Gaussiens. Nous proposons une nouvelle méthode de Monte-Carlo par chaînes de Markov (MCMC) mettant à jour le vecteur de paramètres de la dynamique d’état ainsi que la séquence de variables d’état conjointement dans un bloc unique. La proposition MCMC est tirée en deux étapes: la distribution marginale du vecteur de paramètres de la dynamique d’état est construite en utilisant une approximation du gradient et du Hessien du logarithme de sa densité a posteriori, pour laquelle le vecteur de variables d’état a été intégré. La distribution conditionnelle de la séquence de variables d’état, étant donné la proposition du vecteur de paramètres, est telle que décrite dans McCausland (2012). Le calcul du gradient et du Hessien approximatif combine des sous-produits de calcul du tirage d’état avec une quantité modeste de calculs supplémentaires. Nous comparons l’efficacité numérique de notre simulation a posteriori à celle de la méthode Ancillarity-Sufficiency Interweaving Strategy (ASIS) décrite dans Kastner & Frühwirth-Schnatter (2014), en utilisant un modèle de volatilité stochastique Gaussien et le même panel de 23 taux de change quotidiens utilisé dans ce même article. Pour calculer la moyenne a posteriori du paramètre de persistance de la volatilité, notre efficacité numérique est de 6 à 27 fois plus élevée; pour la volatilité du paramètre de volatilité, elle est de 18 à 53 fois plus élevée. Nous analysons dans un second exemple des données de compte de transaction avec un modèle Poisson et Gamma-Poisson dynamique. Malgré la nature non Gaussienne des données de compte, nous obtenons une efficacité numérique élevée, guère inférieure à celle rapportée dans McCausland (2012) pour une méthode d’échantillonnage impliquant un calcul préliminaire de la forme de la distribution a posteriori statique des paramètres. Au chapitre 2, nous proposons un nouveau modèle de durée conditionnelle stochastique (SCD) pour l’analyse de données de transactions financières en haute fréquence. Nous identifions certaines caractéristiques indésirables des densités de durée conditionnelles paramétriques existantes et proposons une nouvelle famille de densités conditionnelles flexibles pouvant correspondre à une grande variété de distributions avec des fonctions de taux de probabilité modérément variable. Guidés par des considérations théoriques issues de la théorie des files d’attente, nous introduisons des déviations non-paramétriques autour d’une distribution exponentielle centrale, qui, selon nous, est un bon modèle de premier ordre pour les durées financières, en utilisant une densité de Bernstein. La densité résultante est non seulement flexible, dans le sens qu’elle peut s’approcher de n’importe quelle densité continue sur [0, ∞) de manière arbitraire, à condition qu’elle se compose d’un nombre suffisamment grand de termes, mais également susceptible de rétrécissement vers la distribution exponentielle. Grâce aux tirages très efficaces des variables d’état, l’efficacité numérique de notre simulation a posteriori se compare très favorablement à celles obtenues dans les études précédentes. Nous illustrons nos méthodes à l’aide des données de cotation d’actions négociées à la Bourse de Toronto. Nous constatons que les modèles utilisant notre densité conditionnelle avec moins de qua- tre termes offrent le meilleur ajustement. La variation régulière trouvée dans les fonctions de taux de probabilité, ainsi que la possibilité qu’elle ne soit pas monotone, aurait été impossible à saisir avec une spécification paramétrique couramment utilisée. Au chapitre 3, nous présentons un nouveau modèle de durée stochastique pour les temps de transaction dans les marchés d’actifs. Nous soutenons que les règles largement acceptées pour l’agrégation de transactions apparemment liées induisent une inférence erronée concernant les durées entre des transactions non liées: alors que deux transactions exécutées au cours de la même seconde sont probablement liées, il est extrêmement improbable que toutes paires de transactions le soient, dans un échantillon typique. En plaçant une incertitude sur les transactions liées dans notre modèle, nous améliorons l’inférence pour la distribution de la durée entre les transactions non liées, en particulier près de zéro. Nous proposons un modèle en temps discret pour les temps de transaction censurés permettant des valeurs nulles excessives résultant des durées entre les transactions liées. La distribution discrète des durées entre les transactions indépendantes découle d’une densité flexible susceptible de rétrécissement vers une distribution exponentielle. Dans un exemple empirique, nous constatons que la fonction de taux de probabilité conditionnelle sous-jacente pour des durées (non censurées) entre transactions non liées varie beaucoup moins que celles trouvées dans la plupart des études; une distribution discrète pour les transactions non liées basée sur une distribution exponentielle fournit le meilleur ajustement pour les trois séries analysées. Nous prétendons que c’est parce que nous évitons les artefacts statistiques qui résultent de règles déterministes d’agrégation des échanges et d’une distribution paramétrique inadaptée. / This thesis is organized in three chapters which develop posterior simulation methods for Bayesian inference in state space models and econometrics models for the analysis of financial data. In Chapter 1, we consider the problem of posterior simulation in state space models with non-linear non-Gaussian observables and univariate Gaussian states. We propose a new Markov Chain Monte Carlo (MCMC) method that updates the parameter vector of the state dynamics and the state sequence together as a single block. The MCMC proposal is drawn in two steps: the marginal proposal distribution for the parameter vector is constructed using an approximation of the gradient and Hessian of its log posterior density, with the state vector integrated out. The conditional proposal distribution for the state sequence given the proposal of the parameter vector is the one described in McCausland (2012). Computation of the approximate gradient and Hessian combines computational by-products of the state draw with a modest amount of additional computation. We compare the numerical efficiency of our posterior simulation with that of the Ancillarity-Sufficiency Interweaving Strategy (ASIS) described in Kastner & Frühwirth-Schnatter (2014), using the Gaus- sian stochastic volatility model and the panel of 23 daily exchange rates from that paper. For computing the posterior mean of the volatility persistence parameter, our numerical efficiency is 6-27 times higher; for the volatility of volatility parameter, 18-53 times higher. We analyse trans- action counts in a second example using dynamic Poisson and Gamma-Poisson models. Despite non-Gaussianity of the count data, we obtain high numerical efficiency that is not much lower than that reported in McCausland (2012) for a sampler that involves pre-computing the shape of a static posterior distribution of parameters. In Chapter 2, we propose a new stochastic conditional duration model (SCD) for the analysis of high-frequency financial transaction data. We identify undesirable features of existing parametric conditional duration densities and propose a new family of flexible conditional densities capable of matching a wide variety of distributions with moderately varying hazard functions. Guided by theoretical consideration from queuing theory, we introduce nonparametric deviations around a central exponential distribution, which we argue is a sound first-order model for financial durations, using a Bernstein density. The resulting density is not only flexible, in the sense that it can approximate any continuous density on [0,∞) arbitrarily closely, provided it consists of a large enough number of terms, but also amenable to shrinkage towards the exponential distribution. Thank to highly efficiency draws of state variables, numerical efficiency of our posterior simulation compares very favourably with those obtained in previous studies. We illustrate our methods using quotation data on equities traded on the Toronto Stock Exchange. We find that models with our proposed conditional density having less than four terms provide the best fit. The smooth variation found in the hazard functions, together with the possibility of it being non-monotonic, would have been impossible to capture using commonly used parametric specification. In Chapter 3, we introduce a new stochastic duration model for transaction times in asset markets. We argue that widely accepted rules for aggregating seemingly related trades mislead inference pertaining to durations between unrelated trades: while any two trades executed in the same second are probably related, it is extremely unlikely that all such pairs of trades are, in a typical sample. By placing uncertainty about which trades are related within our model, we improve inference for the distribution of duration between unrelated trades, especially near zero. We propose a discrete model for censored transaction times allowing for zero-inflation resulting from clusters of related trades. The discrete distribution of durations between unrelated trades arises from a flexible density amenable to shrinkage towards an exponential distribution. In an empirical example, we find that the underlying conditional hazard function for (uncensored) durations between unrelated trades varies much less than what most studies find; a discrete distribution for unrelated trades based on an exponential distribution provides a better fit for all three series analyzed. We claim that this is because we avoid statistical artifacts that arise from deterministic trade-aggregation rules and unsuitable parametric distribution.

Page generated in 0.1089 seconds