• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 152
  • 86
  • 54
  • 21
  • 10
  • 7
  • 4
  • 4
  • 4
  • 3
  • 2
  • 2
  • Tagged with
  • 412
  • 181
  • 87
  • 86
  • 78
  • 78
  • 77
  • 70
  • 65
  • 58
  • 57
  • 56
  • 48
  • 43
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Abordagem bayesiana para curva de crescimento com restrições nos parâmetros

AMARAL, Magali Teresópolis Reis 18 August 2008 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-04T13:26:23Z No. of bitstreams: 1 Magali Teresopolis Reis Amaral.pdf: 5438608 bytes, checksum: a3ca949533ae94adaf7883fd465a627a (MD5) / Made available in DSpace on 2016-08-04T13:26:23Z (GMT). No. of bitstreams: 1 Magali Teresopolis Reis Amaral.pdf: 5438608 bytes, checksum: a3ca949533ae94adaf7883fd465a627a (MD5) Previous issue date: 2008-08-18 / The adjustment of the weight-age growth curves for animals plays an important role in animal production planning. These adjusted growth curves must be coherent with the biological interpretation of animal growth, which often demands imposition of constraints on model parameters.The inference of the parameters of nonlinear models with constraints, using classical techniques, presents various difficulties. In order to bypass those difficulties, a bayesian approach for adjustment of the growing curves is proposed. In this respect the bayesian proposed approach introduces restrictions on model parameters through choice of the prior density. Due to the nonlinearity, the posterior density of those parameters does not have a kernel that can be identified among the traditional distributions, and their moments can only be obtained using numerical techniques. In this work the MCMC simulation (Monte Carlo chain Markov) was implemented to obtain a summary of the posterior density. Besides, selection model criteria were used for the observed data, based on generated samples of the posterior density.The main purpose of this work is to show that the bayesian approach can be of practical use, and to compare the bayesian inference of the estimated parameters considering noninformative prior density (from Jeffreys), with the classical inference obtained by the Gauss-Newton method. Therefore it was possible to observe that the calculation of the confidence intervals based on the asymptotic theory fails, indicating non significance of certain parameters of some models, while in the bayesian approach the intervals of credibility do not present this problem. The programs in this work were implemented in R language,and to illustrate the utility of the proposed method, analysis of real data was performed, from an experiment of evaluation of system of crossing among cows from different herds, implemented by Embrapa Pecuária Sudeste. The data correspond to 12 measurements of weight of animals between 8 and 19 months old, from the genetic groups of the races Nelore and Canchim, belonging to the genotype AALLAB (Paz 2002). The results reveal excellent applicability of the bayesian method, where the model of Richard presented difficulties of convergence both in the classical and in the bayesian approach (with non informative prior). On the other hand the logistic model provided the best adjustment of the data for both methodologies when opting for non informative and informative prior density. / O ajuste de curva de crescimento peso-idade para animais tem um papel importante no planejamento da produção animal. No entanto, as curvas de crescimento ajustadas devem ser coerentes com as interpretações biológicas do crescimento do animal, o que exige muitas vezes que sejam impostas restrições aos parâmetros desse modelo.A inferência de parâmetros de modelos não lineares sujeito a restrições, utilizando técnicas clássicas apresenta diversas dificuldades. Para contornar estas dificuldades, foi proposta uma abordagem bayesiana para ajuste de curvas de crescimento. Neste sentido,a abordagem bayesiana proposta introduz as restrições nos parâmetros dos modelos através das densidades de probabilidade a priori adotadas. Devido à não linearidade, as densidades a posteriori destes parâmetros não têm um núcleo que possa ser identificado entre as distribuições tradicionalmente conhecidas e os seus momentos só podem ser obtidos numericamente. Neste trabalho, as técnicas de simulação de Monte Carlo Cadeia de Markov (MCMC) foram implementadas para obtenção de um sumário das densidades a posteriori. Além disso, foram utilizados critérios de seleção do melhor modelo para um determinado conjunto de dados baseados nas amostras geradas das densidades a posteriori.O objetivo principal deste trabalho é mostrar a viabilidade da abordagem bayesiana e comparar a inferência bayesiana dos parâmetros estimados, considerando-se densidades a priori não informativas (de Jeffreys), com a inferência clássica das estimativas obtidas pelo método de Gauss-Newton. Assim, observou-se que o cálculo de intervalos de confiança, baseado na teoria assintótica, falha, levando a não significância de certos parâmetros de alguns modelos. Enquanto na abordagem bayesiana os intervalos de credibilidade não apresentam este problema. Os programas utilizados foram implementados no R e para ilustração da aplicabilidade do método proposto, foram realizadas análises de dados reais oriundos de um experimento de avaliação de sistema de cruzamento entre raças bovinas de corte, executado na Embrapa Pecuária Sudeste. Os dados correspondem a 12 mensurações de peso dos 8 aos 19 meses de idade do grupo genético das raças Nelore e Canchim, pertencente ao grupo de genotípico AALLAB, ver (Paz 2002). Os resultados revelaram excelente aplicabilidade do método bayesiano, destacando que o modelo de Richard apresentou dificuldades de convergência tanto na abordagem clássica como bayesiana (com priori não informativa). Por outro lado o modelo Logístico foi quem melhor se ajustou aos dados em ambas metodologias quando se optou por densidades a priori não informativa e informativa.
122

Uso de Métodos Bayesianos para Confiabilidade de Redes / Using Bayesian methods for network reliability

Sandra Cristina de Oliveira 21 May 1999 (has links)
Neste trabalho apresentamos uma análise Bayesiana para confiabilidade de sistemas de redes usando métodos de simulação de Monte Carlo via Cadeias de Markov. Assumimos diferentes densidades a priori para as confiabilidades dos componentes individuais, com o objetivo de obtermos sumários de interesse. A metodologia é exemplificada condiderando um sistema de rede com sete componentes e um caso especial de sistema complexo composto por nove componentes. Consideramos ainda confiabilidade de redes tipo k-out--of-m com alguns exemplos numéricos / In this work we present a Bayesian approach for network reliability systems using Marov Chain Monte Carlo methods. We assume different prior densities for the individual component reliabilities th to get the posterior summaries of interest. The methodology is exemplified considering a network system with seven components and a special case of complex system with nine components. We also consider k-out-of-m system reliabiility with some numerical examples
123

Modelos estocásticos com heterocedasticidade para séries temporais em finanças / Stochastic models with heteroscedasticity for time series in finance

Sandra Cristina de Oliveira 20 May 2005 (has links)
Neste trabalho desenvolvemos um estudo sobre modelos auto-regressivos com heterocedasticidade (ARCH) e modelos auto-regressivos com erros ARCH (AR-ARCH). Apresentamos os procedimentos para a estimação dos modelos e para a seleção da ordem dos mesmos. As estimativas dos parâmetros dos modelos são obtidas utilizando duas técnicas distintas: a inferência Clássica e a inferência Bayesiana. Na abordagem de Máxima Verossimilhança obtivemos intervalos de confiança usando a técnica Bootstrap e, na abordagem Bayesiana, adotamos uma distribuição a priori informativa e uma distribuição a priori não-informativa, considerando uma reparametrização dos modelos para mapear o espaço dos parâmetros no espaço real. Este procedimento nos permite adotar distribuição a priori normal para os parâmetros transformados. As distribuições a posteriori são obtidas através dos métodos de simulação de Monte Carlo em Cadeias de Markov (MCMC). A metodologia é exemplificada considerando séries simuladas e séries do mercado financeiro brasileiro / In this work we present a study of autoregressive conditional heteroskedasticity models (ARCH) and autoregressive models with autoregressive conditional heteroskedasticity errors (AR-ARCH). We also present procedures for the estimation and the selection of these models. The estimates of the parameters of those models are obtained using both Maximum Likelihood estimation and Bayesian estimation. In the Maximum Likelihood approach we get confidence intervals using Bootstrap resampling method and in the Bayesian approach we present informative prior and non-informative prior distributions, considering a reparametrization of those models in order to map the space of the parameters into real space. This procedure permits to choose prior normal distributions for the transformed parameters. The posterior distributions are obtained using Monte Carlo Markov Chain methods (MCMC). The methodology is exemplified considering simulated and Brazilian financial series
124

Inferência estatística para regressão múltipla h-splines / Statistical inference for h-splines multiple regression

Morellato, Saulo Almeida, 1983- 25 August 2018 (has links)
Orientador: Ronaldo Dias / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-25T00:25:46Z (GMT). No. of bitstreams: 1 Morellato_SauloAlmeida_D.pdf: 32854783 bytes, checksum: 040664acd0c8f1efe07cedccda8d11f6 (MD5) Previous issue date: 2014 / Resumo: Este trabalho aborda dois problemas de inferência relacionados à regressão múltipla não paramétrica: a estimação em modelos aditivos usando um método não paramétrico e o teste de hipóteses para igualdade de curvas ajustadas a partir do modelo. Na etapa de estimação é construída uma generalização dos métodos h-splines, tanto no contexto sequencial adaptativo proposto por Dias (1999), quanto no contexto bayesiano proposto por Dias e Gamerman (2002). Os métodos h-splines fornecem uma escolha automática do número de bases utilizada na estimação do modelo. Estudos de simulação mostram que os resultados obtidos pelos métodos de estimação propostos são superiores aos conseguidos nos pacotes gamlss, mgcv e DPpackage em R. São criados dois testes de hipóteses para testar H0 : f = f0. Um teste de hipóteses que tem sua regra de decisão baseada na distância quadrática integrada entre duas curvas, referente à abordagem sequencial adaptativa, e outro baseado na medida de evidência bayesiana proposta por Pereira e Stern (1999). No teste de hipóteses bayesiano o desempenho da medida de evidência é observado em vários cenários de simulação. A medida proposta apresentou um comportamento que condiz com uma medida de evidência favorável à hipótese H0. No teste baseado na distância entre curvas, o poder do teste foi estimado em diversos cenários usando simulações e os resultados são satisfatórios. Os procedimentos propostos de estimação e teste de hipóteses são aplicados a um conjunto de dados referente ao trabalho de Tanaka e Nishii (2009) sobre o desmatamento no leste da Ásia. O objetivo é escolher um entre oito modelos candidatos. Os testes concordaram apontando um par de modelos como sendo os mais adequados / Abstract: In this work we discuss two inference problems related to multiple nonparametric regression: estimation in additive models using a nonparametric method and hypotheses testing for equality of curves, also considering additive models. In the estimation step, it is constructed a generalization of the h-splines method, both in the sequential adaptive context proposed by Dias (1999), and in the Bayesian context proposed by Dias and Gamerman (2002). The h-splines methods provide an automatic choice of the number of bases used in the estimation of the model. Simulation studies show that the results obtained by proposed estimation methods are superior to those achieved in the packages gamlss, mgcv and DPpackage in R. Two hypotheses testing are created to test H0 : f = f0. A hypotheses test that has a decision rule based on the integrated squared distance between two curves, for adaptive sequential approach, and another based on the Bayesian evidence measure proposed by Pereira and Stern (1999). In Bayesian hypothesis testing the performance measure of evidence is observed in several simulation scenarios. The proposed measure showed a behavior that is consistent with evidence favorable to H0. In the test based on the distance between the curves, the power of the test was estimated at various scenarios using simulations, and the results are satisfactory. At the end of the work the proposed procedures of estimation and hypotheses testing are applied in a dataset concerning to the work of Tanaka and Nishii (2009) about the deforestation in East Asia. The objective is to choose one amongst eight models. The tests point to a pair of models as being the most suitableIn this work we discuss two inference problems related to multiple nonparametric regression: estimation in additive models using a nonparametric method and hypotheses testing for equality of curves, also considering additive models. In the estimation step, it is constructed a generalization of the h-splines method, both in the sequential adaptive context proposed by Dias (1999), and in the Bayesian context proposed by Dias and Gamerman (2002). The h-splines methods provide an automatic choice of the number of bases used in the estimation of the model. Simulation studies show that the results obtained by proposed estimation methods are superior to those achieved in the packages gamlss, mgcv and DPpackage in R. Two hypotheses testing are created to test H0 : f = f0. A hypotheses test that has a decision rule based on the integrated squared distance between two curves, for adaptive sequential approach, and another based on the Bayesian evidence measure proposed by Pereira and Stern (1999). In Bayesian hypothesis testing the performance measure of evidence is observed in several simulation scenarios. The proposed measure showed a behavior that is consistent with evidence favorable to H0. In the test based on the distance between the curves, the power of the test was estimated at various scenarios using simulations, and the results are satisfactory. At the end of the work the proposed procedures of estimation and hypotheses testing are applied in a dataset concerning to the work of Tanaka and Nishii (2009) about the deforestation in East Asia. The objective is to choose one amongst eight models. The tests point to a pair of models as being the most suitable / Doutorado / Estatistica / Doutor em Estatística
125

Contrôle Santé des Structures Composites : application à la Surveillance des Nacelles Aéronautiques. / Structural Health Monitoring of Composite Structures : application to the Monitoring of Aeronautical Nacelles.

Fendzi, Claude 14 December 2015 (has links)
Ce travail de thèse concerne la surveillance de l’état de santé de structures complexes en service. Elle est appliquée à des éléments d’une nacelle d’avion gros porteur. Ce travail est original et s’inscrit dans le cadre d’un projet, coordonné par AIRBUS Operations SAS et porté par AIRCELLE (Groupe SAFRAN). Les principales parties de la nacelle visées par notre démarche sont le capot de soufflante (fan cowl, composite monolithique) et la structure interne fixe du capot coulissant de l’inverseur de poussée (IFS, sandwich nid d’abeille). Ces structures réalisées en matériaux composites sont sujettes à de nombreux modes de dégradation(rupture de fibres, délaminage, fissures, etc…), qui peuvent impacter la durée de vie de la nacelle. De plus elles sont exposées à de nombreuses sollicitations environnementales dont des variations thermiques importantes (de -55 °C à +120°C). L’objectif de ce travail est la mise en place d’un système SHM visant à suivre l’état de santé de ces structures afin de détecter l’apparition de tels endommagements et de les localiser avant qu’ils ne conduisent à une dégradation de la structure; ceci de manière à permettre une maintenance prédictive. Des capteurs et actionneurs piézoélectriques (PZT) sont collés sur la structure et sont utilisés pour générer des ondes de Lamb et effectuer des mesures. La démarche SHM proposée s’appuie sur des mesures successives en partant d’un état initial considéré comme sain, puis en réalisant régulièrement des mesures de suivi. La différence entre des signaux mesurés pour deux états est analysée afin d’en extraire des caractéristiquessensibles à l’apparition de dommages. Après validation, des PZT ont été collés sur le fan cowl et l’IFS ainsi que sur des coupons et un banc d’essai approprié a été conçu afin de valider notre démarche. Du fait que l’on est amené à travailler sur des différences de signaux, des algorithmes de détection, basés sur les testsd’hypothèses statistiques et l’Analyse en Composantes Principales (ACP), ont dû être développés et validés. Ceci a d’abord été testé pour la détection de dommages contrôlés introduits d’abord dans des coupons, puis dans le fan cowl et dans l’IFS. Des algorithmes robustes (y compris aux variations de température) de localisation de ces dommages, basés sur l’extraction des temps de vol des ondes de Lamb, ont été développés et validés sur les structures étudiées. Une approche de quantification des incertitudes sur la localisation par inférence Bayésienne a été proposée en complément de la démarche déterministe implémentée. / This work aims at designing a Structural Health Monitoring (SHM) system for complex composite structures, with an application to elements of aeronautical nacelles. This work is original and is in the framework of a project, coordinated by AIRBUS Operations SAS and headed by AIRCELLE (SAFRAN Group). The main parts of the nacelle concerned with our approach are the fan cowl (composite monolithic) and the inner fixed structure (IFS, sandwich structure with honeycomb core) of the thrust reverser. These structures made from composite materials are subjected to many damages types which can affect nacelle’s useful life (fiber breaking, delamination, crack, etc…). Furthermore these structures are exposed to many environmental constraints which are for instance important thermal variations (from -55°C to +120°C). The objective of this work is to develop a SHM system aimed at detecting and localizing these damages, before the degradation of the whole structureoccurs. Piezoelectric (PZT) actuators and sensors are bonded on the structure and they are used to generate Lamb wave signals and perform measurements. The proposed SHM approach is based on successive measurements starting from an initial state, considered as healthy and regularly conducting follow-up. The difference in signals measured between two states is analyzed in order to extract some damages-sensitivesfeatures. After validation, PZT elements were glued to the fan cowl and to the IFS as well as on representative coupons and a suitable test bench is designed in order to validate our approach. Since one has to work on difference in signals, damage detection algorithms based on statistical hypothesis testing and PrincipalComponent Analysis (PCA) have been developed and validated. This was first tested for the detection of controlled damages introduced in coupons, and thereafter on the fan cowl and IFS. Robust damage localization algorithms (including with temperature variations) based on Time-of-flight (ToF) extraction from difference in signals, were developed and validated for these structures. A Bayesian approach for uncertainties quantification in the damage localization is also developed, leading to more accuracy in the damage localization results.
126

Metody předvídání volatility / Methods of volatility estimation

Hrbek, Filip January 2015 (has links)
In this masterthesis I have rewied basic approaches to volatility estimating. These approaches are based on classical and Bayesian statistics. I have applied the volatility models for the purpose of volatility forecasting of a different foreign exchange (EURUSD, GBPUSD and CZKEUR) in the different period (from a second period to a day period). I formulate the models EWMA, GARCH, EGARCH, IGARCH, GJRGARCH, jump diffuison with constant volatility and jump diffusion model with stochastic volatility. I also proposed an MCMC algorithm in order to estimate the Bayesian models. All the models we estimated as univariate models. I compared the models according to Mincer Zarnowitz regression. The most successfull model is the jump diffusion model with a stochastic volatility. On the second place they were the GJR- GARCH model and the jump diffusion model with a constant volatility. But the jump diffusion model with a constat volatilit provided much more overvalued results.The rest of the models were even worse. From the rest the IGARCH model is the best but provided undervalued results. All these findings correspond with R squared coefficient.
127

Modelos da teoria de resposta ao item assimétricos de grupos múltiplos para respostas politômicas nominais e ordinais sob um enfoque bayesiano / Skew item response theory models for multiple groups and for nominal and ordinal polytomous responses under a Bayesian framework

Ferreira, Eduardo Vargas, 1987- 24 August 2018 (has links)
Orientador: Caio Lucidius Naberezny Azevedo / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-24T12:51:18Z (GMT). No. of bitstreams: 1 Ferreira_EduardoVargas_M.pdf: 8131052 bytes, checksum: f344cd1f11e8d818f3aac90f48396cbc (MD5) Previous issue date: 2014 / Resumo: No presente trabalho propõem-se novos modelos da Teoria de Resposta ao Item para respostas politômicas nominais e ordinais (graduais), via dados aumentados, para grupos múltiplos. Para a modelagem das distribuições dos traços latentes de cada grupo, considera-se normais assimétricas centradas. Tal abordagem, além de acomodar a característica de assimetria aos dados, ajuda a garantir a identificabilidade dos modelos estudados, a qual é tratada tanto sob a ótica frequentista quanto bayesiana. Com relação aos métodos de estimação, desenvolveu-se procedimentos bayesianos através de algoritmos de Monte Carlo via cadeias de Markov (MCMC), utilizando o algoritmo de Gibbs (DAGS), com a verossimilhança aumentada (dados aumentados) e Metropolis-Hastings, considerando a verossimilhança original. As implementações computacionais foram escritas em linguagem C++, integradas ao ambiente computacional, gráfico e estatístico R, viabilizando rotinas gratuitas, de código aberto e alta velocidade no processamento, essenciais à difusão de tais metodologias. Para a seleção de modelos, utilizou-se o critério de informação deviance (DIC), os valores esperados do critério de informação de Akaike (EAIC) e o critério de informação bayesiano (EBIC). Em relação à verificação da qualidade do ajuste de modelos, explorou-se a checagem preditiva a posteriori, que fornece meios concretos de se avaliar a qualidade do instrumento de medida (prova, questionário etc), qualidade do ajuste do modelo de um modo global, além de indícios de violações de suposições específicas. Estudos de simulação, considerando diversas situações de interesse prático, indicam que os modelos e métodos de estimação produzem resultados bastante satisfatórios, com superioridade dos modelos assimétricos com relação ao simétrico (o qual assume simetria das distribuições das variáveis latentes). A análise de um conjunto de dados reais, referente à primeira fase do vestibular da UNICAMP de 2013, ilustra o potencial da tríade: modelagem, métodos de estimação e ferramentas de diagnósticos, desenvolvida neste trabalho / Abstract: In this work, we propose new Item Response Theory models for nominal and ordinal (gradual) polytomous responses through augmented data schemes considering multiple groups. For the distribution of the latent traits of each group, we consider a skew-normal distribution under the centered parametrization. This approach will allow for accommodating a possible skewness of the latent trait distribution, but is also helpful to ensure the identifiability of the models, which is studied under frequentist and Bayesian paradigms. Concerning estimation methods, we developed Bayesian methods through Markov chain Monte Carlo (MCMC) algorithms by using the Gibbs algorithm (DAGS), with augmented likelihood (augmented data) and Metropolis-Hastings algorithms, considering the original likelihood. The computational environment was written in the C++ language and integrated with the R program (a statistical computational and graphical environment), allowing for free, open source and high-speed routines which, in turn, are essential to the dissemination of the developed methodologies. In terms of model selection, we considered the deviance information criterion (DIC), the expected Akaike information criterion (EAIC) and expected Bayesian information criterion (EBIC). Regarding model-fit assessment tools, we explore the posterior predictive model- checking which allows for assessing the quality of measurement, instruments (tests, questionnaires, and others), the model fit in a global sense, besides providing directions toward violations of specific assumptions. Simulation studies, considering different situations of practical interest, indicate that the models and estimation methods produced reasonable results, with outperformance of skew models when compared to symmetric ones (which assumes symmetry of the latent trait distribution). Analysis of a data set which corresponds to the first phase of the 2013 written examination of UNICAMP (State University of Campinas), illustrates the potential of the following triad: modelling; estimation methods; and diagnostic tools developed in this work. / Mestrado / Estatistica / Mestre em Estatística
128

Estimação e diagnóstico na distribuição exponencial por partes em análise de sobrevivência com fração de cura / Estimation and diagnostics for the piecewise exponential distribution in survival analysis with fraction cure

Alessandra Cristiane Sibim 31 March 2011 (has links)
O principal objetivo deste trabalho é desenvolver procedimentos inferências em uma perspectiva bayesiana para modelos de sobrevivência com (ou sem) fração de cura baseada na distribuição exponencial por partes. A metodologia bayesiana é baseada em métodos de Monte Carlo via Cadeias de Markov (MCMC). Para detectar observações influentes nos modelos considerados foi usado o método bayesiano de análise de influência caso a caso (Cho et al., 2009), baseados na divergência de Kullback-Leibler. Além disso, propomos o modelo destrutivo binomial negativo com fração de cura. O modelo proposto é mais geral que os modelos de sobrevivência com fração de cura, já que permitem estimar a probabilidade do número de causas que não foram eliminadas por um tratamento inicial / The main objective is to develop procedures inferences in a bayesian perspective for survival models with (or without) the cure rate based on piecewise exponential distribution. The methodology is based on bayesian methods for Markov Chain Monte Carlo (MCMC). To detect influential observations in the models considering bayesian case deletion influence diagnostics based on the Kullback-Leibler divergence (Cho et al., 2009). Furthermore, we propose the negative binomial model destructive cure rate. The proposed model is more general than the survival models with cure rate, since the probability to estimate the number of cases which were not eliminated by an initial treatment
129

Uso dos métodos clássico e bayesiano para os modelos não-lineares heterocedásticos simétricos / Use of the classical and bayesian methods for nonlinear heterocedastic symmetric models

Márcia Aparecida Centanin Macêra 21 June 2011 (has links)
Os modelos normais de regressão têm sido utilizados durante muitos anos para a análise de dados. Mesmo nos casos em que a normalidade não podia ser suposta, tentava-se algum tipo de transformação com o intuito de alcançar a normalidade procurada. No entanto, na prática, essas suposições sobre normalidade e linearidade nem sempre são satisfeitas. Como alternativas à técnica clássica, foram desenvolvidas novas classes de modelos de regressão. Nesse contexto, focamos a classe de modelos em que a distribuição assumida para a variável resposta pertence à classe de distribuições simétricas. O objetivo geral desse trabalho é a modelagem desta classe no contexto bayesiano, em particular a modelagem da classe de modelos não-lineares heterocedásticos simétricos. Vale ressaltar que esse trabalho tem ligação com duas linhas de pesquisa, a saber: a inferência estatística abordando aspectos da teoria assintótica e a inferência bayesiana considerando aspectos de modelagem e critérios de seleção de modelos baseados em métodos de simulação de Monte Carlo em Cadeia de Markov (MCMC). Uma primeira etapa consiste em apresentar a classe dos modelos não-lineares heterocedásticos simétricos bem como a inferência clássica dos parâmetros desses modelos. Posteriormente, propomos uma abordagem bayesiana para esses modelos, cujo objetivo é mostrar sua viabilidade e comparar a inferência bayesiana dos parâmetros estimados via métodos MCMC com a inferência clássica das estimativas obtidas por meio da ferramenta GAMLSS. Além disso, utilizamos o método bayesiano de análise de influência caso a caso baseado na divergência de Kullback-Leibler para detectar observações influentes nos dados. A implementação computacional foi desenvolvida no software R e para detalhes dos programas pode ser consultado aos autores do trabalho / The normal regression models have been used for many years for data analysis. Even in cases where normality could not be assumed, was trying to be some kind of transformation in order to achieve the normality sought. However, in practice, these assumptions about normality and linearity are not always satisfied. As alternatives to classical technique new classes of regression models were developed. In this context, we focus on the class of models in which the distribution assumed for the response variable belongs to the symmetric distributions class. The aim of this work is the modeling of this class in the bayesian context, in particular the modeling of the nonlinear models heteroscedastic symmetric class. Note that this work is connected with two research lines, the statistical inference addressing aspects of asymptotic theory and the bayesian inference considering aspects of modeling and criteria for models selection based on simulation methods Monte Carlo Markov Chain (MCMC). A first step is to present the nonlinear models heteroscedastic symmetric class as well as the classic inference of parameters of these models. Subsequently, we propose a bayesian approach to these models, whose objective is to show their feasibility and compare the estimated parameters bayesian inference by MCMC methods with the classical inference of the estimates obtained by GAMLSS tool. In addition, we use the bayesian method of influence analysis on a case based on the Kullback-Leibler divergence for detecting influential observations in the data. The computational implementation was developed in the software R and programs details can be found at the studys authors
130

"Métodos de estimação na teoria de resposta ao item" / Estimation methods in item response theory

Caio Lucidius Naberezny Azevedo 27 February 2003 (has links)
Neste trabalho apresentamos os mais importantes processos de estimação em algumas classes de modelos de resposta ao item (Dicotômicos e Policotômicos). Discutimos algumas propriedades desses métodos. Com o objetivo de comparar o desempenho dos métodos conduzimos simulações apropriadas. / In this work we show the most important estimation methods for some item response models (both dichotomous and polichotomous). We discuss some proprieties of these methods. To compare the characteristic of these methods we conducted appropriate simulations.

Page generated in 0.0536 seconds