• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 3
  • Tagged with
  • 7
  • 7
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Ecosystem Models in a Bayesian State Space Framework

Smith Jr, John William 17 June 2022 (has links)
Bayesian approaches are increasingly being used to embed mechanistic process models used into statistical state space frameworks for environmental prediction and forecasting applications. In this study, I focus on Bayesian State Space Models (SSMs) for modeling the temporal dynamics of carbon in terrestrial ecosystems. In Chapter 1, I provide an introduction to Ecological Forecasting, State Space Models, and the challenges of using State Space Models for Ecosystems. In Chapter 2, we provide a brief background on State Space Models and common methods of parameter estimation. In Chapter 3, we simulate data from an example model (DALECev) using driver data from the Talladega National Ecosystem Observatory Network (NEON) site and perform a simulation study to investigate its performance under varying frequencies of observation data. We show that as observation frequency decreases, the effective sample size of our precision estimates becomes too small to reliably make inference. We introduce a method of tuning the time resolution of the latent process, so that we can still use high-frequency flux data, and show that this helps to increase sampling efficiency of the precision parameters. Finally, we show that data cloning is a suitable method for assessing the identifiability of parameters in ecosystem models. In Chapter 4, we introduce a method for embedding positive process models into lognormal SSMs. Our approach, based off of moment matching, allows practitioners to embed process models with arbitrary variance structures into lognormally distributed stochastic process and observation components of a state space model. We compare and contrast the interpretations of our lognormal models to two existing approaches, the Gompertz and Moran-Ricker SSMs. We use our method to create four state space models based off the Gompertz and Moran-Ricker process models, two with a density dependent variance structure for the process and observations and two with a constant variance structure for the process and observations. We design and conduct a simulation study to compare the forecast performance of our four models to their counterparts under model mis-specification. We find that when the observation precision is estimated, the Gompertz model and its density dependent moment matching counterpart have the best forecasting performance under model mis-specification when measured by the average Ignorance score (IGN) and Continuous Ranked Probability Score (CRPS), even performing better than the true generating model across thirty different synthetic datasets. When observation precisions were fixed, all models except for the Gompertz displayed a significant improvement in forecasting performance for IGN, CRPS, or both. Our method was then tested on data from the NOAA Dengue Forecasting Challenge, where we found that our novel constant variance lognormal models had the best performance measured by CRPS, and also had the best performance for both CRPS and IGN for one and two week forecast horizons. This shows the importance of having a flexible method to embed sensible dynamics, as constant variance lognormal SSMs are not frequently used but perform better than the density dependent models here. In Chapter 5, we apply our lognormal moment matching method to embed the DALEC2 ecosystem model into the process component of a state space model using NEON data from University of Notre Dame Environmental Research Center (UNDE). Two different fitting methods are considered for our difficult problem: the updated Iterated Filtering algorithm (IF2) and the Particle Marginal Metropolis Hastings (PMMH) algorithm. We find that the IF2 algorithm is a more efficient algorithm than PMMH for our problem. Our IF2 global search finds candidate parameter values in thirty hours, while PMMH takes 82 hours and accepts only .12% of proposed samples. The parameter values obtained from our IF2 global search show good potential for out of sample prediction for Leaf Area Index and Net Ecosystem Exchange, although both have room for improvement in future work. Overall, the work done here helps to inform the application of state space models to ecological forecasting applications where data are not available for all stocks and transfers at the operational timestep for the ecosystem model, where large numbers of process parameters and long time series provide computational challenges, and where process uncertainty estimation is desired. / Doctor of Philosophy / With ecosystem carbon uptake expected to play a large role in climate change projections, it is important that we make our forecasts as informed as possible and account for as many sources of variation as we can. In this dissertation, we examine a statistical modeling framework called the State Space Model (SSM), and apply it to models of terrestrial ecosystem carbon. The SSM helps to capture numerous sources of variability that can contribute to the overall predictability of a physical process. We discuss challenges of using this framework for ecosystem models, and provide solutions to a number of problems that may arise when using SSMs. We develop methodology for ensuring that these models mimic the well defined upper and lower bounds of the physical processes that we are interested in. We use both real and synthetic data to test that our methods perform as desired, and provide key insights about their performance.
2

Estimation and Identification of a DSGE model: an Application of the Data Cloning Methodology / Estimação e identificação de um Modelo DSGE: uma applicação da metodologia data cloning

Chaim, Pedro Luiz Paulino 18 January 2016 (has links)
We apply the data cloning method developed by Lele et al. (2007) to estimate the model of Smets and Wouters (2007). The data cloning algorithm is a numerical method that employs replicas of the original sample to approximate the maximum likelihood estimator as the limit of Bayesian simulation-based estimators. We also analyze the identification properties of the model. We measure the individual identification strength of each parameter by observing the posterior volatility of data cloning estimates, and access the identification problem globally through the maximum eigenvalue of the posterior data cloning covariance matrix. Our results indicate that the model is only poorly identified. The system displays bad global identification properties, and most of its parameters seem locally ill-identified. / Neste trabalho aplicamos o método data cloning de Lele et al. (2007) para estimar o modelo de Smets e Wouters (2007). O algoritmo data cloning é um método numérico que utiliza réplicas da amostra original para aproximar o estimador de máxima verossimilhança como limite de estimadores Bayesianos obtidos por simulação. Nós também analisamos a identificação dos parâmetros do modelo. Medimos a identificação de cada parâmetro individualmente ao observar a volatilidade a posteriori dos estimadores de data cloning. O maior autovalor da matriz de covariância a posteriori proporciona uma medida global de identificação do modelo. Nossos resultados indicam que o modelo de Smets e Wouters (2007) não é bem identificado. O modelo não apresenta boas propriedades globais de identificação, e muitos de seus parâmetros são localmente mal identificados.
3

Estimation and Identification of a DSGE model: an Application of the Data Cloning Methodology / Estimação e identificação de um Modelo DSGE: uma applicação da metodologia data cloning

Pedro Luiz Paulino Chaim 18 January 2016 (has links)
We apply the data cloning method developed by Lele et al. (2007) to estimate the model of Smets and Wouters (2007). The data cloning algorithm is a numerical method that employs replicas of the original sample to approximate the maximum likelihood estimator as the limit of Bayesian simulation-based estimators. We also analyze the identification properties of the model. We measure the individual identification strength of each parameter by observing the posterior volatility of data cloning estimates, and access the identification problem globally through the maximum eigenvalue of the posterior data cloning covariance matrix. Our results indicate that the model is only poorly identified. The system displays bad global identification properties, and most of its parameters seem locally ill-identified. / Neste trabalho aplicamos o método data cloning de Lele et al. (2007) para estimar o modelo de Smets e Wouters (2007). O algoritmo data cloning é um método numérico que utiliza réplicas da amostra original para aproximar o estimador de máxima verossimilhança como limite de estimadores Bayesianos obtidos por simulação. Nós também analisamos a identificação dos parâmetros do modelo. Medimos a identificação de cada parâmetro individualmente ao observar a volatilidade a posteriori dos estimadores de data cloning. O maior autovalor da matriz de covariância a posteriori proporciona uma medida global de identificação do modelo. Nossos resultados indicam que o modelo de Smets e Wouters (2007) não é bem identificado. O modelo não apresenta boas propriedades globais de identificação, e muitos de seus parâmetros são localmente mal identificados.
4

Modelos de mistura beta mistos sob abordagem bayesiana / Mixture of beta mixed models: a Bayesian approach

Zerbeto, Ana Paula 14 December 2018 (has links)
Os modelos de mistura são muito eficazes para analisar dados compostos por diferentes subpopulações com alocações desconhecidas ou que apresentam assimetria, multimodalidade ou curtose. Esta tese propõe relacionar a distribuição de probabilidade beta e a técnica de ajuste de modelos mistos à metodologia de modelos de mistura para que sejam adequados na análise de dados que assumem valores em um intervalo restrito conhecido e que também são caracterizados por possuírem uma estrutura de agrupamento ou hierárquica. Foram especificados os modelos de mistura beta mistos linear, com dispersão constante e variável, e não linear. Foi considerada uma abordagem bayesiana com uso de métodos de Monte Carlo via Cadeias de Markov (MCMC). Estudos de simulação foram delineados para avaliar os resultados inferenciais destes modelos em relação à acurácia da estimação pontual dos parâmetros, ao desempenho de critérios de informação na seleção do número de elementos da mistura e ao diagnóstico de identificabilidade obtido com o algoritmo data cloning. O desempenho dos modelos foi muito promissor, principalmente pela boa acurácia da estimação pontual dos parâmetros e por não haver evidências de falta de identificabilidade. Três bancos de dados reais das áreas de saúde, marketing e educação foram estudados por meio das técnicas propostas. Tanto nos estudos de simulação quanto na aplicação a dados reais se obtiveram resultados muito satisfatórios que evidenciam tanto a utilidade dos modelos desenvolvidos aos objetivos tratados quanto a potencialidade de aplicação. Ressaltando que a metodologia apresentada também pode ser aplicada e estendida a outros modelos de mistura. / Mixture models are very effective for analyzing data composed of different subpopulations with unknown allocations or with asymmetry, multimodality or kurtosis. This work proposes to link the beta probability distribution and the mixed models to the methodology of mixture models so that they are suitable to analyse data with values in a restricted and known interval and that also are characterized by having a grouping or hierarchical structure. There were specified the linear beta mixture models with random effects, with constant and varying dispersion, and also the nonlinear one with constant dispersion. It was considered a Bayesian approach using Markov Chain Monte Carlo (MCMC) methods. Simulation studies were designed to evaluate the inferential results of these models in relation to the accuracy of the parameter estimation, to the performance of information criteria in the selection of the number of elements of the mixture and to the diagnosis of identifiability obtained with the algorithm data cloning. The performance of the models was very promising, mainly due to the good accuracy of the point estimation of the parameters and because there was no evidence of lack of identifiability of the model. Three real databases of health, marketing and education were studied using the proposed techniques. In both the simulation studies and the application to real data had very satisfactory results that show both the usefulness of the models developed to the treated objectives and the potentiality of application. Note that the presented methodology can also be applied and extended to other mixing models.
5

A condução da política monetária no Brasil : uma análise a partir de modelo DSGE e do método de data cloning

Furlani, Luiz Gustavo Cassilatti January 2014 (has links)
A utilização de modelos de equilíbrio-geral estocásticos e dinâmicos (DSGE) para o estudo detalhado das relações entre variáveis econômicas reais e nominais tem crescido substancialmente nos últimos anos. Avanços computacionais recentes contribuíram significativamente para este movimento, permitindo que a modelagem DSGE se torne cada vez mais precisa, superando técnicas menos restritivas de modelagem macroeconômica. Contudo, a estimação destes modelos, usualmente realizada através de métodos Bayesianos, apresenta problemas, como a alta dependência da distribuição a priori. A principal inovação desta tese é propor uma solução para estes problemas, ao apresentar e utilizar o método de datacloning para estimar uma versão simplificada do modelo DSGE de Gali e Monacelli (2005), com o objetivo de avaliar a condução da política monetária pelo Banco Central do Brasil (BCB). Os principais resultados encontrados indicam que o BCB segue uma política anti-inflacionária, reage ao produto e a variações cambiais, além de gerar uma trajetória suave para a taxa de juros ao longo do tempo. Foram encontrados indícios de que a alteração de estratégia do BCB a partir de 2010, com a introdução de uma série de medidas macroprudenciais, não configurou quebra na condução da política monetária. / The use of dynamic stochastic general equilibrium (DSGE) models for the detailed study of the relationship between real and nominal economic variables has grown substantially in recent years. Computational advances have contributed significantly to this movement, allowing DSGE modelling to become increasingly precise, surpassing less restrictive macroeconomic modelling techniques. However, the estimation of these models, usually performed with Bayesian methods, presents problems, such as high dependence on the prior distribution. The main innovation of this thesis is to propose a solution to these problems, presenting and using the data cloning method to estimate a simplified version of Gali and Monacelli (2005)’s DSGE model, in order to assess the conduct of monetary policy by the Central Bank of Brazil (BCB). The main findings of this thesis indicate that the BCB follows an anti-inflationary policy, responds to GDP and exchange rate changes, and chooses a smooth interest rate path over time. Evidence suggests that the change in BCB’s strategy from 2010 onwards, with the introduction of a series of macroprudential measures, is not a conclusive indication of a parameter break in its reaction function.
6

A condução da política monetária no Brasil : uma análise a partir de modelo DSGE e do método de data cloning

Furlani, Luiz Gustavo Cassilatti January 2014 (has links)
A utilização de modelos de equilíbrio-geral estocásticos e dinâmicos (DSGE) para o estudo detalhado das relações entre variáveis econômicas reais e nominais tem crescido substancialmente nos últimos anos. Avanços computacionais recentes contribuíram significativamente para este movimento, permitindo que a modelagem DSGE se torne cada vez mais precisa, superando técnicas menos restritivas de modelagem macroeconômica. Contudo, a estimação destes modelos, usualmente realizada através de métodos Bayesianos, apresenta problemas, como a alta dependência da distribuição a priori. A principal inovação desta tese é propor uma solução para estes problemas, ao apresentar e utilizar o método de datacloning para estimar uma versão simplificada do modelo DSGE de Gali e Monacelli (2005), com o objetivo de avaliar a condução da política monetária pelo Banco Central do Brasil (BCB). Os principais resultados encontrados indicam que o BCB segue uma política anti-inflacionária, reage ao produto e a variações cambiais, além de gerar uma trajetória suave para a taxa de juros ao longo do tempo. Foram encontrados indícios de que a alteração de estratégia do BCB a partir de 2010, com a introdução de uma série de medidas macroprudenciais, não configurou quebra na condução da política monetária. / The use of dynamic stochastic general equilibrium (DSGE) models for the detailed study of the relationship between real and nominal economic variables has grown substantially in recent years. Computational advances have contributed significantly to this movement, allowing DSGE modelling to become increasingly precise, surpassing less restrictive macroeconomic modelling techniques. However, the estimation of these models, usually performed with Bayesian methods, presents problems, such as high dependence on the prior distribution. The main innovation of this thesis is to propose a solution to these problems, presenting and using the data cloning method to estimate a simplified version of Gali and Monacelli (2005)’s DSGE model, in order to assess the conduct of monetary policy by the Central Bank of Brazil (BCB). The main findings of this thesis indicate that the BCB follows an anti-inflationary policy, responds to GDP and exchange rate changes, and chooses a smooth interest rate path over time. Evidence suggests that the change in BCB’s strategy from 2010 onwards, with the introduction of a series of macroprudential measures, is not a conclusive indication of a parameter break in its reaction function.
7

A condução da política monetária no Brasil : uma análise a partir de modelo DSGE e do método de data cloning

Furlani, Luiz Gustavo Cassilatti January 2014 (has links)
A utilização de modelos de equilíbrio-geral estocásticos e dinâmicos (DSGE) para o estudo detalhado das relações entre variáveis econômicas reais e nominais tem crescido substancialmente nos últimos anos. Avanços computacionais recentes contribuíram significativamente para este movimento, permitindo que a modelagem DSGE se torne cada vez mais precisa, superando técnicas menos restritivas de modelagem macroeconômica. Contudo, a estimação destes modelos, usualmente realizada através de métodos Bayesianos, apresenta problemas, como a alta dependência da distribuição a priori. A principal inovação desta tese é propor uma solução para estes problemas, ao apresentar e utilizar o método de datacloning para estimar uma versão simplificada do modelo DSGE de Gali e Monacelli (2005), com o objetivo de avaliar a condução da política monetária pelo Banco Central do Brasil (BCB). Os principais resultados encontrados indicam que o BCB segue uma política anti-inflacionária, reage ao produto e a variações cambiais, além de gerar uma trajetória suave para a taxa de juros ao longo do tempo. Foram encontrados indícios de que a alteração de estratégia do BCB a partir de 2010, com a introdução de uma série de medidas macroprudenciais, não configurou quebra na condução da política monetária. / The use of dynamic stochastic general equilibrium (DSGE) models for the detailed study of the relationship between real and nominal economic variables has grown substantially in recent years. Computational advances have contributed significantly to this movement, allowing DSGE modelling to become increasingly precise, surpassing less restrictive macroeconomic modelling techniques. However, the estimation of these models, usually performed with Bayesian methods, presents problems, such as high dependence on the prior distribution. The main innovation of this thesis is to propose a solution to these problems, presenting and using the data cloning method to estimate a simplified version of Gali and Monacelli (2005)’s DSGE model, in order to assess the conduct of monetary policy by the Central Bank of Brazil (BCB). The main findings of this thesis indicate that the BCB follows an anti-inflationary policy, responds to GDP and exchange rate changes, and chooses a smooth interest rate path over time. Evidence suggests that the change in BCB’s strategy from 2010 onwards, with the introduction of a series of macroprudential measures, is not a conclusive indication of a parameter break in its reaction function.

Page generated in 0.0992 seconds