• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 13
  • Tagged with
  • 371
  • 371
  • 358
  • 358
  • 358
  • 130
  • 86
  • 71
  • 66
  • 66
  • 66
  • 60
  • 50
  • 48
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Análise estatística do modelo de Nelson e Siegel

Brocco, Marcelo Bertini 21 March 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1 5090.pdf: 2622386 bytes, checksum: efb13371116d8185c23b86079eb4237c (MD5) Previous issue date: 2013-03-21 / Financiadora de Estudos e Projetos / The present paper studies the yield curve, an important tool for financial decisions, due to its fundamental role in the implementation and evaluation of monetary policies by the central banks. It also shows market perspectives in relation to the future development of interest rates, inflation and economical activities. Using an adequate model and a reasoned assessment of its parameters enables us to adjust the curve as far as possible to the real curve and hence obtain most precise and trustful results. These results were acquired by studying a model which was developed in 1987 by Nelson and Siegel and used to draw up the yield curve. Considering the model s limitations, diferent methods were used to attain the estimated parameters, such as Ordinary Least Squares, Maximum Likelihood and Bayesian Inference in the static version. The Nelson-Siegel model is widely used in Brazil and in the rest of the world, due to its economical idea, easy implementation and eficient adjustment into diferent formats that the yield curve is able to deal with. By considering the restrictions of the model, we found estimations for the parameters of the model safer than other and besides, the main point of this work is an estimation form of parameters of time together with others parameters of the model without considering one fixed value for it. / O objeto de estudo deste trabalho é a curva de taxas de juros, uma importante ferramenta utilizada em decisões financeiras, pois desempenha um papel fundamental na implementação e avaliação de políticas monetárias pelos bancos centrais. Assim sendo, indica as expectativas do mercado quanto ao comportamento futuro das taxas de juros, inflação e atividade econômica. A utilização de um bom modelo e uma boa estimação dos parâmetros do mesmo nos permite representar a curva ajustada o mais próximo da curva real, dessa forma, conseguimos encontrar resultados mais precisos e confiáveis. Neste trabalho estudamos o modelo utilizado para construção das curvas de taxas de juros desenvolvido em 1987 por Nelson e Siegel (1987) e métodos, considerando as restrições do modelo, para obtermos as estimativas dos parâmetros (Mínimos Quadrados Ordinários, Máxima Verossimilhança e Inferência Bayesiana) na vers~ao estática. O modelo de Nelson e Siegel apresenta grande aplicação tanto no Brasil quanto no restante do mundo, pois ele apresenta como características seu caráter parcimonioso nos parâmetros, sua fácil implementação e ajuste eficiente nos diversos formatos que a curva de taxas de juros pode assumir. Por considerarmos as restrições do modelo, encontramos estimativas para os parâmetros do modelo mais seguras e além disso, como principal contribuição deste trabalho, temos uma forma de estimação do parâmetro de tempo conjuntamente com os demais parâmetros do modelo, sem considerar apenas um valor fixo para ele.
332

Análise da qualidade do ar : um estudo de séries temporais para dados de contagem

Silva, Kelly Cristina Ramos da 30 April 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:08Z (GMT). No. of bitstreams: 1 5213.pdf: 2943691 bytes, checksum: 6d301fea12ee3950f36c4359dd4a627e (MD5) Previous issue date: 2013-04-30 / Financiadora de Estudos e Projetos / The aim of this study was to investigate the monthly amount of unfavourable days to pollutant dispersion in the atmosphere on the metropolitan region of S ão Paulo (RMSP). It was considered two data sets derived from the air quality monitoring on the RMSP: (1) monthly observations of the times series of annual period and (2) monthly observations of the times series of period form May to September. It was used two classes of models: the Vector Autoregressive models (VAR) and Generalized Additive Models for Location, Scale and Shape (GAMLSS). The techniques presented in this dissertation was focus in: VAR class had emphasis on modelling stationary time series; and GAMLSS class had emphasis on models for count data, like Delaporte (DEL), Negative Binomial type I (NBI), Negative Binomial type II (NBII), Poisson (PO), inflated Poisson Zeros (ZIP), Inverse Poisson Gaussian (PIG) and Sichel (SI). The VAR was used only for the data set (1) obtaining a good prediction of the monthly amount of unfavourable days, although the adjustment had presented relatively large residues. The GAMLSS were used in both data sets, and the NBII model had good performance to data set (1), and ZIP model for data set (2). Also, it was made a simulation study to better understanding of the GAMLSS class for count data. The data were generated from three different Negative Binomial distributions. The results shows that the models NBI, NBII, and PIG adjusted well the data generated. The statistic techniques used in this dissertation was important to describe and understand the air quality problem. / O objetivo deste trabalho foi investigar a quantidade mensal de dias desfavoráveis à dispersão de poluentes na atmosfera da região metropolitana de São Paulo (RMSP). Foram considerados dois conjuntos de dados provenientes do monitoramento da qualidade do ar da RMSP: (1) um contendo observações mensais das séries temporais do período anual e (2) outro contendo observações mensais das séries temporais do período de maio a setembro. Foram utilizadas duas classes de modelos: os Modelos Vetoriais Autorregressivos (VAR) e os Modelos Aditivos Generalizados para Locação, Escala e Forma (GAMLSS), ressaltando que as técnicas apresentadas nessa dissertação da classe VAR têm ênfase na modelagem de séries temporais estacionárias e as da classe GAMLSS têm ênfase nos modelos para dados de contagem, sendo eles: Delaporte (DEL), Binomial Negativa tipo I (NBI), Binomial Negativa tipo II (NBII), Poisson (PO), Poisson Inflacionada de Zeros (ZIP), Poisson Inversa Gaussiana (PIG) e Sichel (SI). O modelo VAR foi utilizado apenas para o conjunto de dados (1), obtendo uma boa previsão da quantidade mensal de dias desfavoráveis, apesar do ajuste ter apresentado resíduos relativamente grandes. Os GAMLSS foram utilizados em ambos conjuntos de dados, sendo que os modelos NBII e ZIP melhor se ajustaram aos conjuntos de dados (1) e (2) respectivamente. Além disso, realizou-se um estudo de simulação para compreender melhor os GAMLSS investigados. Os dados foram gerados de três diferentes distribuições Binomiais Negativas. Os resultados obtidos mostraram que, tanto os modelos NBI e NBII como o modelo PIG, ajustaram bem os dados gerados. As técnicas estatísticas utilizadas nessa dissertação foram importantes para descrever e compreender o problema da qualidade do ar.
333

Inferência em distribuições discretas bivariadas

Chire, Verônica Amparo Quispe 26 November 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1 5618.pdf: 988258 bytes, checksum: 1ce6234a919d1f5b4a4d4fd7482d543c (MD5) Previous issue date: 2013-11-26 / Financiadora de Estudos e Projetos / The analysis of bivariate data can be found in several areas of knowledge, when the data of interest are obtained in a paired way and present correlation between counts. In this work the Holgate bivariate Poisson, bivariate generalized Poisson and bivariate zero-inflated Poisson models are presented, which are useful to the modeling of bivariate count data correlated. Illustrative applications are presented for these models and the comparison between them is made by using criteria of model selection AIC and BIC, as well as the asymptotic likelihood ratio test. Particularly, we propose a Bayesian approach to the Holgate bivariate Poisson and bivariate zero-inflated Poisson models, based in the Gibbs sampling algorithm with data augmentation. / A análise de dados bivariados pode ser encontrada nas mais diversas áreas do conhecimento, quando os dados de interesse são obtidos de forma pareada e apresentam correlação entre as contagens. Neste trabalho são apresentados os modelos Poisson bivariado de Holgate, Poisson generalizado bivariado e Poisson bivariado inflacionado de zeros, os quais são úteis na modelagem de dados de contagem bivariados correlacionados. Aplicações ilustrativas serão apresentadas para estes modelos e a comparação entre eles será realizada pelos critérios de seleção de modelos AIC e BIC, assim como pelo teste da razão de verossimilhança assintótico. Particularmente, propomos uma abordagem Bayesiana para os modelos Poisson bivariado de Holgate e Poisson Inflacionado de zeros, baseada no algoritmo Gibbs sampling com dados ampliados.
334

Dependência entre perdas em risco operacional

Requena, Guaraci de Lima 12 February 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1 5762.pdf: 2315381 bytes, checksum: 2d23013b02c4b33dcbf1b10405b613b9 (MD5) Previous issue date: 2014-02-12 / Financiadora de Estudos e Projetos / In this work, we present and discuss the operational risk in the financial institutions, Basel Accord II, the structure of dependence between cumulative operational losses, a tool for modeling this dependence (theory of copula) and the allocation of a capital, called regulatory capital. The usual method for calculation of regulatory capital for operational risk, suggested by Basel Committee, overestimates the final capital because it is considered that the losses are perfectly positively dependents. Then, we propose a new method for this calculation based on theory of copula for the bivariate case. Such method models the dependence between two losses and considers a index (representing the expert opinion). We discuss also a method studied on Alexander (2003) and perform a simulation study in order to compare all methods, the usual, the proposed and the convolution one. / Nesse trabalho, abordamos o risco operacional nas instituições financeiras sob o ponto de vista do Acordo de Basileia II, a característica da presença de dependência estocástica entre as variáveis aleatórias em questão, a ferramenta para modelagem de tal dependência (teoria de cópulas) e a alocação de capital regulatório. Como o método usual para alocação de capital regulatório sugerido pelo Acordo de Basileia II superestima tal capital por considerar que as variáveis perdas são perfeitamente dependentes, propomos neste trabalho uma metodologia alternativa, baseada em teoria de cópulas, para o caso bivariado. Tal metodologia modela a dependência entre duas perdas e ainda inclui a opinião de especialistas da área no modelo final. Também discutimos uma metodologia existente na literatura (método da convolução) e fazemos um estudo de simulação para analisar o comportamento dos métodos abordados: método usual, proposto e da convolução.
335

Extensões dos modelos de sobrevivência referente a distribuição Weibull

Vigas, Valdemiro Piedade 07 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1 5822.pdf: 1106242 bytes, checksum: 613a82d7af4c6f40b60637e4c7122121 (MD5) Previous issue date: 2014-03-07 / Financiadora de Estudos e Projetos / In this dissertation, two models of probability distributions for the lifetimes until the occurrence of the event produced by a specific cause for elements in a population are reviewed. The first revised model is called the Weibull-Poisson (WP) which has been proposed by Louzada et al. (2011a). This model generalizes the exponential-Poisson distributions proposed by Kus (2007) and Weibull. The second, called long-term model, has been proposed by several authors and it considers that the population is not homogeneous in relation to the risk of event occurence by the cause studied. The population has a sub-population that consists of elements who are not liable do die by the specific cause in study. These elements are considered as immune or cured. In relation to the elements who are at risk the minimum value of time of the event accurance is observed. In the review of WP the expressions of the survival function, quantile function, probability density function, and of the hazard function, as well the expression of the non-central moments of order k and the distribution of order statistics are detailed. From this review we propose, in an original way, studies of the simulation to analyze the paramenters of frequentist properties of maximum likelihood estimators for this distribution. And also we also present results related to the inference about the parameters of this distribution, both in the case in which the data set consists of complete observations of lifetimes, and also in the case in which it may contain censored observations. Furthermore, we present in this paper, in an original way a regression model in a form of location and scale when T has WP distribution. Another original contribution of this dissertation is to propose the distribution of long-term Weibull-Poisson (LWP). Besides studying the LWP in the situation in which the covariates are included in the analysis. We also described the functions that characterize this distribution (distribution function, quantile function, probability density function and the hazard function). Moreover we describe the expression of the moment of order k, and the density function of a statistical order. A study by simulation viii of this distribution is made through maximum likelihood estimators. Applications to real data set illustrate the applicability of the two considered models. / Nesta dissertação são revistos dois modelos de distribuições de probabilidade para os tempos de vida até a ocorrência do evento provocado por uma causa específica para elementos em uma população. O primeiro modelo revisto é o denominado Weibull-Poisson (WP) que foi proposto por Louzada et al. (2011a), esse modelo generaliza as distribuições exponencial Poisson proposta por Kus (2007) e Weibull. O segundo, denominado modelo de longa duração, foi proposto por vários autores e considera que a população não é homogênea em relação ao risco de ocorrência do evento pela causa em estudo. A população possui uma sub-população constituída de elementos que não estão sujeitos ao evento pela causa especifica em estudo, sendo considerados como imunes ou curados. Em relação à parcela dos elementos que estão em risco observa-se o valor mínimo dos tempos da ocorrência do evento. Na revisão sobre a WP são detalhadas as expressões da função de sobrevivência, da função quantil, da função densidade de probabilidade e da função de risco, bem como a expressão dos momentos não centrais de ordem k e a distribuição de estatísticas de ordem. A partir desta revisão, é proposta de forma original, estudos de simulação com o objetivo de analisar as propriedades frequentistas dos estimadores de máxima verossimilhança dos parâmetros desta distribuição. E apresenta-se resultados relativos à inferência sobre os parâmetros desta distribuição, tanto no caso em que o conjunto de dados consta de observações completas de tempos de vida, como no caso em que ele possa conter observações censuradas. Alem disso, apresentamos de forma original neste trabalho um modelo de regressão na forma de locação e escala quando T tem distribuição WP. Outra contribuição original dessa dissertação é propor a distribuição de longa duração Weibull-Poisson (LWP), alem de estudar a LWP na situação em que as covariáveis são incluídas na análise. Realizou-se também a descrição das funções que caracterizam essa distribuição (função distribuição, função quantil, função densidade de probabilidade e função de risco). Assim como a descrição da expressão do momento de ordem k e da função densidade da estatística de ordem. É feito um estudo por simulação desta distribuição via máxima verossimilhança. Aplicações à conjuntos de dados reais ilustram a utilidade dos dois modelos considerados.
336

Modelagem estatística para análise de dados imobiliários completos e com censura à esquerda

Estevam, Amanda Cristina 01 April 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1 5914.pdf: 1420398 bytes, checksum: e5c2a5d7845b5b17b94959ce849fd613 (MD5) Previous issue date: 2014-04-01 / Financiadora de Estudos e Projetos / The real estate market has a key role in the country and counties economy attracting several studies and researches that explains and interpret the numerous transactions performed, and especially to find appropriate ways to define the monetary value. Usually the real estate data modeling is performed through regression models, especially the linear and also the generalized linear models ( Nelder andWedderburn, 1972). Because these data has different characteristics such as heteroscedasticity, non-normality and heterogeneity, the use of these models can suffer limitations, so it is appropriate to use more and more complex models, such as generalized additive models for location, scale and shape GAMLSS (proposed by Rigby & Stasinopoulos (2005), that allows all parameters of the response variable are modeled parametric or non parametric form. In this context and based on a dataset of urban land of São Carlos city in 2005 was estimated the empirical function the value of the land addressing the class of linear models, generalized linear models and the GAMLSS. Alternatively, considering the existence of two types of real estate prices: already sold (observed) and announced (censored), was proposed to the data, using the survival analysis considering censored left and the GAMLSS in the parameter estimation process. A simulation study and a study of local influence was also performed. / O mercado imobiliário possui um papel fundamental na economia do país e municípios atraindo diversos estudos e pesquisas que buscam explicar e interpretar as inúmeras transações realizadas, e principalmente, encontrar maneiras adequadas de determinar seu valor monetário. Geralmente a modelagem de dados imobiliários e feita por meio de modelos de regressão, especialmente os lineares e também, os modelos lineares generalizados (Nelder e Wedder-burn,1972). Por se tratarem de dados com diferentes características, como heterocedasticidade, não normalidade e heterogeneidade, o uso desses modelos podem sofrer limitações, por isso torna-se adequada a utilização de modelos cada vez mais complexos, como por exemplo, os modelos aditivos generalizados para posição, escala e forma (GAMLSS) propostos por Rigby & Stasinopoulos (2005), que permitem que todas as estimativas dos parâmetros envolvidos no modelo sejam obtidas de forma paramétrica ou não-paramétrica. Neste contexto e com base em um conjunto de dados de lotes urbanos da cidade de Sao Carlos do ano de 2005 foi estimado a função empírica do valor de lotes abordando a classe de modelos lineares, modelos lineares generalizados e o GAMLSS. Alternativamente, considerando a existência de dois tipos de preços de imóveis: ja vendidos (observados) e anunciados (censurados), foi proposto aos dados, a utilização da analise de sobrevivência considerando censura a esquerda e o GAMLSS no processo de estimação dos parâmetros. Foi realizado também um estudo de simulação e um estudo de influência local.
337

Modelos mistos semiparamétricos parcialmente não lineares

Machado, Robson José Mariano 28 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1 6004.pdf: 835734 bytes, checksum: b9cae4e00b44525ff06f6dfea7cfe687 (MD5) Previous issue date: 2014-03-28 / Universidade Federal de Sao Carlos / Correlated data sets with nonlinear structure are common in many areas such as biostatistics, pharmacokinetics and longitudinal studies. Nonlinear mixed-effects models are useful tools to analyse those type of problems. In this dissertation, a generalization to this models is proposed, namely by semiparametric partially nonlinear mixed-effects model (MMSPNL), with a nonparametric function to model the mean of the response variable. It assumes that the mean of the interest variable is explained by a nonlinear function, which depends on fixed effects parameters and explanatory variables, and by a nonparametric function. Such nonparametic function is quite flexible, allowing a better adequacy to the functional form that underlies the data. The random effects are included linearly to the model, which simplify the expression of the response variable distribution and enables the model to take into account the within-group correlation structure. It is assumed that the random errors and the random effects jointly follow a multivariate normal distribution. Relate to the nonparametric function, it is deal with the P-splines smoothing technique. The methodology to obtain the parameters estimates is penalized maximum likelihood method. The random effects may be obtained by using the Empirical Bayes method. The goodness of the model and identification of potencial influent observation is verified with the local influence method and a residual analysis. The pharmacokinetic data set, in which the anti-asthmatic drug theophylline was administered to 12 subjects and serum concentrations were taken at 11 time points over the 25 hours (after being administered), was re-analysed with the proposed model, exemplifying its uses and properties. / Dados correlacionados com estrutura não linear são comuns em bioestatística, estudos farmacocinéticos e longitudinais. Modelos mistos não lineares são ferramentas úteis para se analisar esses tipos de problemas. Nesta dissertação, propõe-se uma generalização desses modelos, chamada de modelo misto semiparamétrico parcialmente não linear (MMSPNL), com uma função não paramétrica para se modelar a média da variável resposta. Assume-se que a média da variável de interesse é explicada por uma função não linear, que depende de parâmetros de efeitos fixos e variáveis explicativas, e por uma função não paramétrica. Tal função não paramétrica possui grande flexibilidade, permitindo uma melhor adequação à forma funcional que subjaz aos dados. Os efeitos aleatórios são incluídos linearmente ao modelo, o que simplifica a expressão da distribuição da variável resposta e permite considerar a estrutura de correlação intra grupo. É assumido que os erros aleatórios e efeitos aleatórios conjuntamente seguem uma distribuição normal multivariada. Em relação a função não paramétrica, utiliza-se a técnica de suavização com P-splines. A metodologia para se obterem as estimativas dos parâmetros é o método de máxima verossimilhança penalizada. Os efeitos aleatórios podem ser obtidos usando-se o método de Bayes empírico. A qualidade do modelo e a identificação de observações aberrantes é verificada pelo método de influência local e por análise de resíduos. O conjunto de dados farmacocinéticos, em que o antiasmático theophylline foi administrado a 12 sujeitos e concentrações séricas foram tomadas em 11 instantes de tempo durante as 25 horas (após ser administrado), foi reanalisado com o modelo proposto, exemplificando seu uso e propriedades.
338

Inferência em modelos de regressão com erros de medição sob enfoque estrutural para observações replicadas

Tomaya, Lorena Yanet Cáceres 10 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1 6069.pdf: 3171774 bytes, checksum: a737da63d3ddeb0d44dfc38839337d42 (MD5) Previous issue date: 2014-03-10 / Financiadora de Estudos e Projetos / The usual regression model fits data under the assumption that the explanatory variable is measured without error. However, in many situations the explanatory variable is observed with measurement errors. In these cases, measurement error models are recommended. We study a structural measurement error model for replicated observations. Estimation of parameters of the proposed models was obtained by the maximum likelihood and maximum pseudolikelihood methods. The behavior of the estimators was assessed in a simulation study with different numbers of replicates. Moreover, we proposed the likelihood ratio test, Wald test, score test, gradient test, Neyman's C test and pseudolikelihood ratio test in order to test hypotheses of interest related to the parameters. The proposed test statistics are assessed through a simulation study. Finally, the model was fitted to a real data set comprising measurements of concentrations of chemical elements in samples of Egyptian pottery. The computational implementation was developed in R language. / Um dos procedimentos usuais para estudar uma relação entre variáveis é análise de regressão. O modelo de regressão usual ajusta os dados sob a suposição de que as variáveis explicativas são medidas sem erros. Porém, em diversas situações as variáveis explicativas apresentam erros de medição. Nestes casos são utilizados os modelos com erros de medição. Neste trabalho estudamos um modelo estrutural com erros de medição para observações replicadas. A estimação dos parâmetros dos modelos propostos foi efetuada pelos métodos de máxima verossimilhança e de máxima pseudoverossimilhança. O comportamento dos estimadores de alguns parâmetros foi analisado por meio de simulações para diferentes números de réplicas. Além disso, são propostos o teste da razão de verossimilhanças, o teste de Wald, o teste escore, o teste gradiente, o teste C de Neyman e o teste da razão de pseudoverossimilhanças com o objetivo de testar algumas hipóteses de interesse relacionadas aos parâmetros. As estatísticas propostas são avaliadas por meio de simulações. Finalmente, o modelo foi ajustado a um conjunto de dados reais referentes a medições de concentrações de elementos químicos em amostras de cerâmicas egípcias. A implementação computacional foi desenvolvida em linguagem R.
339

Estimação do tamanho populacional a partir de um modelo de captura-recaptura com heterogeneidade

Pezzott, George Lucas Moraes 14 March 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1 6083.pdf: 1151427 bytes, checksum: 24c39bb02ef8c214a3e10c3cc5bae9ef (MD5) Previous issue date: 2014-03-14 / Financiadora de Estudos e Projetos / In this work, we consider the estimation of the number of errors in a software from a closed population. The process of estimating the population size is based on the capture-recapture method which consists of examining the software, in parallel, by a number of reviewers. The probabilistic model adopted accommodates situations in which reviewers are independent and homogeneous (equally efficient), and each error is an element that is part of a disjoint partition in relation to its detection probability. We propose an iterative process to obtain maximum likelihood estimates in which the EM algorithm is used to the nuisance parameters estimation. The estimates of population parameters were also obtained under the Bayesian approach, in which Monte Carlo on Markov Chains (MCMC) simulations through Gibbs sampling algorithm with insertion of latent variables were used on the conditional posterior distributions. The two approaches were applied to simulated data and in two real data sets from the literature. / Neste trabalho, consideramos a estimação do número de erros em um software provenientes de uma população fechada. O processo de estimação do tamanho populacional é baseado no método de captura-recaptura, que consiste em examinar o software, em paralelo, por certo número de revisores. O modelo probabilístico adotado acomoda situações em que os revisores são independentes e homogêneos (igualmente eficientes) e que cada erro é um elemento que faz parte de uma partição disjunta quanto à sua probabilidade de detecção. Propomos um processo iterativo para obtenção das estimativas de máxima verossimilhança em que utilizamos o algoritmo EM na estimação dos parâmetros perturbadores. As estimativas dos parâmetros populacionais também foram obtidas sob o enfoque Bayesiano, onde utilizamos simulações de Monte Carlo em Cadeias de Markov (MCMC) através do algoritmo Gibbs sampling com a inserção de variáveis latentes nas distribuições condicionais a posteriori. As duas abordagens foram aplicadas em dados simulados e em dois conjuntos de dados reais da literatura.
340

Distribuição de Poisson bivariada aplicada à previsão de resultados esportivos

Silva, Wesley Bertoli da 23 April 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:10Z (GMT). No. of bitstreams: 1 6128.pdf: 965623 bytes, checksum: 08d957ba051c6348918f8348a857eff7 (MD5) Previous issue date: 2014-04-23 / Financiadora de Estudos e Projetos / The modelling of paired counts data is a topic that has been frequently discussed in several threads of research. In particular, we can cite bivariate counts, such as the analysis of sports scores. As a result, in this work we present the bivariate Poisson distribution to modelling positively correlated scores. The possible independence between counts is also addressed through the double Poisson model, which arises as a special case of the bivariate Poisson model. The main characteristics and properties of these models are presented and a simulation study is conducted to evaluate the behavior of the estimates for different sample sizes. Considering the possibility of modeling parameters by insertion of predictor variables, we present the structure of the bivariate Poisson regression model as a general case as well as the structure of an effects model for application in sports data. Particularly, in this work we will consider applications to Brazilian Championship Serie A 2012 data, in which the effects will be estimated by double Poisson and bivariate Poisson models. Once obtained the fits, the probabilities of scores occurence are estimated and then we obtain forecasts for the outcomes. In order to obtain more accurate forecasts, we present the weighted likelihood method from which it will be possible to quantify the relevance of the data according to the time they were observed. / A modelagem de dados provenientes de contagens pareadas e um típico que vem sendo frequentemente abordado em diversos segmentos de pesquisa. Em particular, podemos citar os casos em que as contagens de interesse são bivariadas, como por exemplo na analise de placares esportivos. Em virtude disso, neste trabalho apresentamos a distribuição Poisson bivariada para os casos em que as contagens de interesse sao positivamente correlacionadas. A possível independencia entre as contagens tambem e abordada por meio do modelo Poisson duplo, que surge como caso particular do modelo Poisson bivariado. As principais características e propriedades desses modelos são apresentadas e um estudo de simulação é realizado, visando avaliar o comportamento das estimativas para diferentes tamanhos amostrais. Considerando a possibilidade de se modelar os parâmetros por meio da inserçao de variáveis preditoras, apresentamos a estrutura do modelo de regressão Poisson bivariado como caso geral, bem como a estrutura de um modelo de efeitos para aplicação a dados esportivos. Particularmente, neste trabalho vamos considerar aplicações aos dados da Serie A do Campeonato Brasileiro de 2012, na qual os efeitos serão estimados por meio dos modelos Poisson duplo e Poisson bivariado. Uma vez obtidos os ajustes, estimam-se as probabilidades de ocorrência dos placares e, a partir destas, obtemos previsões para as partidas de interesse. Com o intuito de se obter previsões mais acuradas para as partidas, apresentamos o metodo da verossimilhança ponderada, a partir do qual seria possível quantificar a relevância dos dados em função do tempo em que estes foram observados.

Page generated in 0.0661 seconds