• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 152
  • 86
  • 54
  • 21
  • 10
  • 7
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • Tagged with
  • 412
  • 181
  • 87
  • 86
  • 78
  • 78
  • 77
  • 70
  • 65
  • 58
  • 57
  • 56
  • 48
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Classification bayésienne non supervisée de données fonctionnelles en présence de covariables / Unsupervised Bayesian clustering of functional data in the presence of covariates

Juery, Damien 18 December 2014 (has links)
Un des objectifs les plus importants en classification non supervisée est d'extraire des groupes de similarité depuis un jeu de données. Avec le développement actuel du phénotypage où les données sont recueillies en temps continu, de plus en plus d'utilisateurs ont besoin d'outils capables de classer des courbes.Le travail présenté dans cette thèse se fonde sur la statistique bayésienne. Plus précisément, nous nous intéressons à la classification bayésienne non supervisée de données fonctionnelles. Les lois a priori bayésiennes non paramétriques permettent la construction de modèles flexibles et robustes.Nous généralisons un modèle de classification (DPM), basé sur le processus de Dirichlet, au cadre fonctionnel. Contrairement aux méthodes actuelles qui utilisent la dimension finie en projetant les courbes dans des bases de fonctions, ou en considérant les courbes aux temps d'observation, la méthode proposée considère les courbes complètes, en dimension infinie. La théorie des espaces de Hilbert à noyau reproduisant (RKHS) nous permet de calculer, en dimension infinie, les densités de probabilité des courbes par rapport à une mesure gaussienne. De la même façon, nous explicitons un calcul de loi a posteriori, sachant les courbes complètes et non seulement les valeurs discrétisées. Nous proposons un algorithme qui généralise l'algorithme "Gibbs sampling with auxiliary parameters" de Neal (2000). L'implémentation numérique requiert le calcul de produits scalaires, qui sont approchés à partir de méthodes numériques. Quelques applications sur données réelles et simulées sont également présentées, puis discutées.En dernier lieu, l'ajout d'une hiérarchie supplémentaire à notre modèle nous permet de pouvoir prendre en compte des covariables fonctionnelles. Nous verrons à cet effet qu'il est possible de définir plusieurs modèles. La méthode algorithmique proposée précédemment est ainsi étendue à chacun de ces nouveaux modèles. Quelques applications sur données simulées sont présentées. / One of the major objectives of unsupervised clustering is to find similarity groups in a dataset. With the current development of phenotyping, in which continuous-time data are collected, more and more users require new efficient tools capable of clustering curves.The work presented in this thesis is based on Bayesian statistics. Specifically, we are interested in unsupervised Bayesian clustering of functional data. Nonparametric Bayesian priors allow the construction of flexible and robust models.We generalize a clustering model (DPM), founded on the Dirichlet process, to the functional framework. Unlike current methods which make use of the finite dimension, either by representing curves as linear combinations of basis functions, or by regarding curves as data points, calculations are hereby carried out on complete curves, in the infinite dimension. The reproducing kernel Hilbert space (RKHS) theory allows us to derive, in the infinite dimension, probability density functions of curves with respect to a gaussian measure. In the same way, we make explicit a posterior distribution, given complete curves and not only data points. We suggest generalizing the algorithm "Gibbs sampling with auxiliary parameters" by Neal (2000). The numerical implementation requires the calculation of inner products, which are approximated from numerical methods. Some case studies on real and simulated data are also presented, then discussed.Finally, the addition of an extra hierarchy in our model allows us to take functional covariates into account. For that purpose, we will show that it is possible to define several models. The previous algorithmic method is therefore extended to each of these models. Some case studies on simulated data are presented.
92

Modelos SEIR com taxa de remoção não homogênea / SEIR models with time in-homogeneous removal rate

Diniz, Márcio Augusto 17 August 2018 (has links)
Orientadores: Jorge Alberto Achcar, Luiz Koodi Hotta / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-17T21:22:44Z (GMT). No. of bitstreams: 1 Diniz_MarcioAugusto_M.pdf: 2168206 bytes, checksum: 900902dfc4c68974431fbf2286d5cca6 (MD5) Previous issue date: 2011 / Resumo: A modelagem matemática de epidemias apresenta grande relevância para a área de epidemiologia por possibilitar uma melhor compreensão do desenvolvimento da doença na população e permitir analisar o impacto de medidas de controle e erradicação. Neste contexto, os modelos compartimentais SEIR (Suscetíveis - Expostos - Infectantes - Removidos) que foram introduzidos por Kermarck e Mckendrick (1927 apud YANG, 2001, Capítulo 1) são extremamente utilizados. Esta dissertação discute o modelo SEIR encontrado em Lekone e Finkenstädt (2006) que considera a introdução das medidas de intervenção na taxa de contato entre suscetíveis e infectantes, e é aplicado aos dados parcialmente observados da epidemia de febre hemorrágica Ebola, ocorrida no Congo em 1995, através de métodos bayesianos. Em uma segunda etapa, o modelo é modificado a fim de considerar a introdução das medidas de intervenção também na taxa de remoção. A utilização da taxa de remoção não homogênea permite uma quantificação do impacto das medidas de intervenção mais próxima da realidade. Além disso, nos dois modelos considerados, uma análise da incerteza gerada pela observação parcial dos dados e uma análise de sensibilidade da escolha das distribuições a priori são realizadas a partir de simulações. E também, é apresentada uma discussão sobre erros de especificação da taxa de remoção Por fim, os dois modelos são aplicados aos dados da epidemia de febre hemorrágica Ebola e os resultados são discutidos / Abstract: Mathematical modeling of epidemics has great relevance to the area of epidemiology by enabling a better understanding of the development of the disease in the population and allow the analysis of the impact of eradication and control measures. In this context, SEIR (Susceptible-Exposed-Infectious-Removed) compartmental models that were introduced by Kermarck e Mckendrick (1927 apud YANG, 2001, Chapter 1) are extremely used. This essay discusses the SEIR model found in Lekone e Finkenstädt (2006) that considers the introduction of intervention measures in the contact rate between susceptible and infectious, and is applied to data partially observed the outbreak of Ebola hemorrhagic fever in Congo, held in 1995, by Bayesian methods. In a second step, the model is modified in order to consider the introduction of intervention measures in the removal rate. The use of time in-homogeneous removal rate allows quantification of the impact of intervention measures closer to reality. In addition, both models considered, an analysis of uncertainty generated by partial observation and a sensitivity analysis of the choice of a priori distributions are made from simulations. And also, a discussion about errors of removal rate specification. Finally, the two models are applied to the data of Ebola hemorrhagic fever epidemic and the results are discussed / Mestrado / Métodos Estatísticos / Mestre em Estatística
93

Uma abordagem Bayesiana para o mapeamento de QTLs utilizando o método MCMC com saltos reversíveis / A Bayesian approach to detect quantitative trait loci using reversible-jump MCMC

Joseane Padilha da Silva 07 February 2007 (has links)
A utilização de metodologias Bayesianas tem se tornado freqüuente nas aplicações em Genética, em particular em mapeamento de QTLs usando marcadores moleculares. Mapear um QTL implica em identificar sua posição no genoma, bem como seus efeitos genéticos. A abordagem Bayesiana combina, através do Teorema de Bayes, a verossimilhança dos dados fenotípicos com distribuições a priori atribuídas a todos os parâmetros desconhecidos (número, localização e efeito do QTL) induzindo distribuições a posteriori a respeito dessas quantidades. Métodos de mapeamento Bayesiano podem tratar o número desconhecido de QTLs como uma variável aleatória, resultando em complicações na obtençãao da amostra aleatória da distribuição conjunta a posteriori, uma vez que a dimensão do espaço do modelo pode variar. O Método MCMC com Saltos Reversíveis (MCMC-SR), proposto por Green(1995), é excelente para explorar distribuições a posteriori nesse contexto. O método proposto foi avaliado usando dados simulados no WinQTLCart, onde o maior objetivo foi avaliar diferentes prioris atribuídas para o número de QTLs. / The use of Bayesian methodology in genetical applications has grown increasingly popular, in particular in the analysis of quantitative trait loci (QTL) for studies using molecular markers. In such analyses the aim is mapping QTLs, estimating their locations in the genome and their genotypic effects. The Bayesian approach proceeds by setting up a likelihood function for the phenotype and assigning prior distributions to all unknowns in the problem (number of QTL, chromosome, locus, genetics effects). These induce a posterior distribution on the unknown quantities that contains all of the available information for inference of the genetic architecture of the trait. Bayesian mapping methods can treat the unknown number of QTL as a random variable, which has several advantages but results in the complication of varying the dimension of the model space. The reversible jump MCMC algorithm offers a powerful and general approach to exploring posterior distributions in this setting. The method was evaluated by analyzing simulated data, where the major goal was evaluate if different priors distributions on the QTL numbers.
94

Modelos da teoria de resposta ao item multidimensionais assimétricos de grupos múltiplos para respostas dicotômicas sob um enfoque bayesiano / Assimetric multidimensional item response theory models for multiple groups and dichotomic responses under a bayesian perspective

Padilla Gómez, Juan Leonardo, 1989- 03 June 2014 (has links)
Orientadores: Caio Lucidius Naberezny Azevedo, Dalton Francisco de Andrade / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-24T22:30:44Z (GMT). No. of bitstreams: 1 PadillaGomez_JuanLeonardo_M.pdf: 10775900 bytes, checksum: 50bc9965f728b4b04b42b7428c3ec8ab (MD5) Previous issue date: 2014 / Resumo: No presente trabalho propõe-se novos modelos da Teoria de Resposta ao Item Multidimensional (TRIM) para respostas dicotômicas ou dicotomizadas considerando uma estrutura de grupos múltiplos. Para as distribuições dos traços latentes de cada grupo, propõe-se uma nova parametrização da distribuição normal assimétrica multivariada centrada, que combina as propostas de Lachos (2004) e de Arellano-Valle et.al (2008), a qual não só garante a identificabilidade dos modelos aqui introduzidos, mas também facilita a interpretação e estimação dos seus parâmetros. Portanto, nosso modelo representa uma alternativa interessante, para solucionar os problemas de falta de identificabilidade encontrados por Matos (2010) e Nojosa (2008), nos modelos multidimensionais assimétricos de um único grupo por eles desenvolvidos. Estudos de simulação, considerando vários cenários de interesse prático, foram conduzidos a fim de avaliar o potencial da tríade: modelagem, métodos de estimação e ferramentas de diagnósticos. Os resultados indicam que os modelos considerando a assimetria nos traços latentes, em geral, forneceram estimativas mais acuradas que os modelos tradicionais. Para a seleção de modelos, utilizou-se o critério de informação deviance (DIC), os valores esperados do critério de informação de Akaike (EAIC) e o critério de informação bayesiano (EBIC). Em relação à verificação da qualidade do ajuste de modelos, explorou-se alguns métodos de checagem preditiva a posteriori, os quais fornecem meios para avaliar a qualidade tanto do instrumento de medida, quanto o ajuste do modelo de um ponto de vista global e em relação à suposições específicas, entre elas a dimensão do teste. Com relação aos métodos de estimação, adaptou-se e implementou-se vários algoritmos MCMC propostos na literatura para outros modelos, inclusive a proposta de aceleração de convergência de González (2004), os quais foram comparados em relação aos aspectos de qualidade de convergência através do critério de tamanho efetivo da amostra de Sahu (2002). A análise de um conjunto de dados reais, referente à primeira fase do vestibular da UNICAMP de 2013 também foi realizada / Abstract: In this work it is proposed a new class of Multidimensional Item Response Theory (MIRT) models for dichotomic or dichotomized answers considering a multiple group structure. For the latent traits distribution of each group, it is proposed a new parametrization of the centered multivariate skew normal distribution, which combines the proposed by Lachos (2004) and the one proposed by Arellano-Valle et.al (2008), which not only ensures de identifiability of our proposed models, but also it makes simpler the interpretation and estimation of their parameters. Hence, our model stands as an important alternative, in order to solve the identifiability problems found for the one group multidimensional skewed models proposed by Matos (2010) and Nojosa (2008). Simulation studies, taking into account some situations of practical interest, were conducted in order to evaluate the potential of the triad: modeling, estimation methods and diagnostic tools. The results indicate that the models considering a skew component on the latent traits, in general, produced more accurate results than those ones obtained with the symmetric models. For model selection, it was used the deviance information criterion (DIC), the expected values of both the Akaike¿s information criterion (EAIC) and bayesian information criteron (EBIC). Concerning assessment of model fit quality, it was explored posterior predictive checking methods, which allows for evaluating the quality of the measure instrument as well as the quality fit of the model from a global point of view and related to specific assumptions, as the test dimensionality. Concerning the estimation methods, it was adopted and implemented several MCMC algorithms proposed in the literature for other models, including the convergence accelerating propose algorithm by Gonzalez (2004), which were compared concerning some convergence quality aspects through the Sahu (2002) effective sample size. The analysis of a real data set, from the 2013 first stage of the UNICAMP admission exam was done as well / Mestrado / Estatistica / Mestre em Estatística
95

Inferência bayesiana em modelos de regressão beta e beta inflacionados / Bayesian inference in beta and inflated beta regression models

Nogarotto, Danilo Covaes, 1987- 07 April 2013 (has links)
Orientador: Caio Lucidius Naberezny Azevedo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-23T07:11:52Z (GMT). No. of bitstreams: 1 Nogarotto_DaniloCovaes_M.pdf: 12817108 bytes, checksum: 0e5e0de542d707f4023f5ef62dc40a82 (MD5) Previous issue date: 2013 / Resumo: No presente trabalho desenvolvemos ferramentas de inferência bayesiana para modelos de regressão beta e beta inflacionados, em relação à estimação paramétrica e diagnóstico. Trabalhamos com modelos de regressão beta não inflacionados, inflacionados em zero ou um e inflacionados em zero e um. Devido à impossibilidade de obtenção analítica das posteriores de interesse, tais ferramentas foram desenvolvidas através de algoritmos MCMC. Para os parâmetros da estrutura de regressão e para o parâmetro de precisão exploramos a utilização de prioris comumente empregadas em modelos de regressão, bem como prioris de Jeffreys e de Jeffreys sob independência. Para os parâmetros das componentes discretas, consideramos prioris conjugadas. Realizamos diversos estudos de simulação considerando algumas situações de interesse prático com o intuito de comparar as estimativas bayesianas com as frequentistas e também de estudar a sensibilidade dos modelos _a escolha de prioris. Um conjunto de dados da área psicométrica foi analisado para ilustrar o potencial do ferramental desenvolvido. Os resultados indicaram que há ganho ao se considerar modelos que contemplam as observações inflacionadas ao invés de transformá-las a fim de utilizar modelos não inflacionados / Abstract: In the present work we developed Bayesian tools, concerning parameter estimation and diagnostics, for noninflated, zero inflated, one inflated and zero-one inflated beta regression models. Due to the impossibility of obtaining the posterior distributions of interest, analytically, all these tools were developed through MCMC algorithms. For the regression and precision parameters we exploited the using of prior distributions commonly considered in regression models as well as Jeffreys and independence Jeffreys priors. For the parameters related to the discrete components, we considered conjugate prior distributions. We performed simulation studies, considering some situations of practical interest, in order to compare the Bayesian and frequentist estimates as well as to evaluate the sensitivity of the models to the prior choice. A psychometric real data set was analyzed to illustrate the performance of the developed tools. The results indicated that there is an overall improvement in using models that consider the inflated observations compared to transforming these observations in order to use noninflated models / Mestrado / Estatistica / Mestre em Estatística
96

Um modelo de resposta ao item para grupos múltiplos com distribuições normais assimétricas centralizadas / A multiple group IRT model with skew-normal latent trait distribution under the centred parametrization

Santos, José Roberto Silva dos, 1984- 20 August 2018 (has links)
Orientador: Caio Lucidius Naberezny Azevedo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-20T09:23:25Z (GMT). No. of bitstreams: 1 Santos_JoseRobertoSilvados_M.pdf: 2068782 bytes, checksum: f8dc91d2f7f6091813ba229dc12991f4 (MD5) Previous issue date: 2012 / Resumo: Uma das suposições dominantes nos modelos de resposta ao item (MRI) é a suposição de normalidade simétrica para modelar o comportamento dos traços latentes. No entanto, tal suposição tem sido questionada em vários trabalhos como, por exemplo, nos trabalhos de Micceri (1989) e Bazán et.al (2006). Recentemente Azevedo et.al (2011) propuseram um MRI com distribuição normal assimétrica centralizada para os traços latentes, considerando a estrutura de um único grupo de indivíduos. No presente trabalho fazemos uma extensão desse modelo para o caso de grupos múltiplos. Desenvolvemos dois algoritmos MCMC para estimação dos parâmetros utilizando a estrutura de dados aumentados para representar a função de resposta ao item (FRI), veja Albert (1992). O primeiro é um amostrador de Gibbs com passos de Metropolis-Hastings. No segundo utilizamos representações estocásticas (gerando uma estrutura hierárquica) das densidades a priori dos traços latentes e parâmetros populacionais conseguindo, assim, formas conhecidas para todas as distribuições condicionais completas, o que nos possibilitou desenvolver o amostrador de Gibbs completo. Comparamos esses algoritmos utilizando como critério o tamanho efetivo de amostra, veja Sahu (2002). O amostrador de Gibbs completo obteve o melhor desempenho. Também avaliamos o impacto do número de respondentes por grupo, número de itens por grupo, número de itens comuns, assimetria da distribuição do grupo de referência e priori, na recuperação dos parâmetros. Os resultados indicaram que nosso modelo recuperou bem todos os parâmetros, principalmente, quando utilizamos a priori de Jeffreys. Além disso, o número de itens por grupo e o número de examinados por grupo, mostraram ter um alto impacto na recuperação dos traços latentes e parâmetros dos itens, respectivamente. Analisamos um conjunto de dados reais que apresenta indícios de assimetria na distribuição dos traços latentes de alguns grupos. Os resultados obtidos com o nosso modelo confirmam a presença de assimetria na maioria dos grupos. Estudamos algumas medidas de diagnóstico baseadas na distribuição preditiva de medidas de discrepância adequadas. Por último, comparamos os modelos simétrico e assimétrico utilizando os critérios sugeridos por Spiegelhalter et al. (2002). O modelo assimétrico se ajustou melhor aos dados segundo todos os critérios / Abstract: An usual assumption for parameter estimation in the Item Response Models (IRM) is to assume that the latent traits are random variables which follow a normal distribution. However, many works suggest that this assumption does not apply in many cases. For example, the works of Micceri (1989) and Bazán (2006). Recently Azevedo et.al (2011) proposed an IRM with skew-normal distribution under the centred parametrization for the latent traits, considering one single group of examinees. In the present work, we developed an extension of this model to account for multiple groups. We developed two MCMC algorithms to parameter estimation using the augmented data structure to represent the Item response function (IRF), see Albert (1992). The First is a Metropolis-Hastings within Gibbs sampling. In the second, we use stochastic representations (creating a hierarchical structure) in the prior distribution of the latent traits and population parameters. Therefore, we obtained known full conditional distributions, which enabled us to develop the full Gibbs sampler. We compared these algorithms using the effective sample size criteria, see Sahu (2002). The full Gibbs sampling presented the best performance. We also evaluated the impact of the number of examinees per group, number of items per group, number of common items, priors and asymmetry of the reference group, on the parameter recovery. The results indicated that our approach recovers properly all parameters, mainly, when we consider the Jeffreys prior. Furthermore, the number of items per group and the number of examinees per group, showed to have a high impact on the recovery of the true of latent traits and item parameters, respectively. We analyze a real data set in which we found an evidence of asymmetry in the distribution of latent traits of some groups. The results obtained with our model confirmed the presence of asymmetry in most groups. We studied some diagnostic measures based on predictive distribution of appropriate discrepancy measures. Finally, we compared the symmetric and asymmetric models using the criteria suggested by Spiegelhalter et al. (2002). The asymmetrical model fits better according to all criteria / Mestrado / Estatistica / Mestre em Estatística
97

Quantification de radionucléides par approche stochastique globale / Global stochastic approach for radionuclides quantification

Clément, Aloïs 19 December 2017 (has links)
Parmi les techniques de mesure nucléaire non destructives utilisées par les instrumentistes du noyau atomique, la spectrométrie gamma est aujourd’hui une méthode d’identification et de quantification de radionucléides largement employée dans le cadre de la gestion d’objets nucléaires complexes tels que des déchets radioactifs, des fûts de déchets ou des boîtes à gants. Les caractéristiques physico-nucléaires non-reproductibles et variées de ces objets, telles que leurs compositions, la répartition des matériaux, leurs densités et formes géométriques, ou le nombre et la forme de leurs termes sources émetteurs, induisent une inaptitude des méthodes d’étalonnage traditionnel à permettre l’obtention de l’activité d’un matériau nucléaire donné. Cette thèse propose une méthode de quantification de radionucléides multi-émetteurs, limitant, voire supprimant, l’utilisation d’informations dites a priori issues de l’avis d’expert ou du retour d’expériences. Cette méthode utilise entre autres la métamodélisation pour construire une efficacité de détection gamma équivalente de la scène de mesure, le formalisme de résolution de problème inverse par Chaines de Markov Monte-Carlo (MCMC), le tout placé dans un cadre de travail probabiliste bayésien afin d’estimer les densités de probabilités des variables d’intérêt telle qu’une masse de radionucléide. Un protocole de validation expérimentale permet de vérifier la robustesse de la méthode à estimer une masse de 239Pu au sein d’objets similaires à ceux traités en routine par le laboratoire. Les perspectives de la méthode concernent la réduction des temps de calcul, des coûts financiers et humains par limitation de l’approche type expert, et la réduction des incertitudes associées. / Gamma spectrometry is a commonly passive nondestructive assay used to identify and quantify radionuclides present in more or less complex objects such as waste packages, waste drums or glove boxes. Basic methods using empirical calibration with a standard in order to quantify the activity of nuclear materials by determining the absolute calibration efficiency are useless on non-reproducible, complex and single nuclear objects such as waste packages. Package specifications as composition or geometry change from one package to another and involve a high variability of objects. Current quantification process uses numerical modeling of the measured scene with few available data such as geometry or composition. These data are density, material, screen, geometrical shape, matrix composition and source distribution. Some of them are strongly dependent on package data knowledge. The method developed in this thesis suggests combining a global stochastic approach which uses, among others, surrogate models available to simulate the gamma attenuation behaviour, a Bayesian approach which considers conditional probability density functions of problem inputs, and Markov Chains Monte Carlo algorithms (MCMC) which solve inverse problems, with gamma ray emission radionuclide spectrum and outside dimensions of interest objects. The methodology is testing to standard in terms of actinide masses, locations and distributions. Activity uncertainties are taken into account by this adjustment methodology. An experimental protocol is built to validate the quantification method in terms of robustness with the quantification of 239Pu. The perspectives of the method are to save time by improving the nuclear measurement process, to cut back on costs by avoiding as far as possible expert approaches, and to reduce the actinide mass uncertainties by increasing the precision of quantification process.
98

Statistical Inference for Multivariate Stochastic Differential Equations

Liu, Ge 15 November 2019 (has links)
No description available.
99

Zero-Inflated Censored Regression Models: An Application with Episode of Care Data

Prasad, Jonathan P. 07 July 2009 (has links) (PDF)
The objective of this project is to fit a sequence of increasingly complex zero-inflated censored regression models to a known data set. It is quite common to find censored count data in statistical analyses of health-related data. Modeling such data while ignoring the censoring, zero-inflation, and overdispersion often results in biased parameter estimates. This project develops various regression models that can be used to predict a count response variable that is affected by various predictor variables. The regression parameters are estimated with Bayesian analysis using a Markov chain Monte Carlo (MCMC) algorithm. The tests for model adequacy are discussed and the models are applied to an observed data set.
100

[pt] MODELO SEMI-ESTRUTURAL APLICADO À ECONOMIA BRASILEIRA / [en] SEMISTRUCTURAL MODEL FOR THE BRAZILIAN ECONOMY

LARISSA BATISTA GARCEZ 08 November 2022 (has links)
[pt] A evidência empírica demonstra que termos de troca e produtividade flutuam juntos para economias grandes exportadoras de commodities. O modelo semi estrutural estimado nesta dissertação visa representar uma pequena economia aberta, na qual as flutuações dos termos de troca impactam de forma direta a produtividade da economia. A partir de métodos Bayesianos, o modelo testa se existe correlação positiva entre períodos de expansão dos termos de troca e períodos de expansão da produtividade, com o objetivo de analisar a influência dos termos de troca na dinâmica da economia brasileira de 2000 a 2019. Os resultados obtidos corroboram a correlação positiva prevista nos dados. / [en] The empirical evidence shows that terms of trade and productivity move in the same direction for commodity exporting economies. The semi structural model estimated in this paper of an small open economy introduces a direct impact of fluctuations in terms of trade on the productivity. Using Bayesian methods of estimation, we analyze whether there is a positive correlation between periods of terms of trade booms and periods of productivity growth in Brazilian economy fluctuations from 2000 to 2019. The results show that a positive shock in the terms of trade leads to an increase in productivity, proving the positive correlation predicted in the data.

Page generated in 0.0406 seconds