• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 13
  • Tagged with
  • 371
  • 371
  • 358
  • 358
  • 358
  • 130
  • 86
  • 71
  • 66
  • 66
  • 66
  • 60
  • 50
  • 48
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Modelagem estatística para a determinação de resultados de dados esportivos.

Suzuki, Adriano Kamimura 27 June 2007 (has links)
Made available in DSpace on 2016-06-02T20:05:59Z (GMT). No. of bitstreams: 1 DissAKS.pdf: 566811 bytes, checksum: b01be331b665ab0824c5ab32218e4354 (MD5) Previous issue date: 2007-06-27 / Financiadora de Estudos e Projetos / The basic result of a soccer game is the final scoreboard, which can be seen as a bivariate random vector. Theoretically and based on existent literature we can argue that the number of marked gols by a team in a game obeys a (univariate) Poisson distribution. Thus, the Bivariate Poisson distributions are studied, in special for the class "of Holgate" (1964). Using as information the recent results of the teams, whose confrontation we want to model, several methods were used for parameters estimation of the Bivariate Poisson class "of Holgate". The idea is to use procedures that supply the probabilities of occurrence of placares, so that thus the probability of the occurrence of a certain result (team home´s victory, draw or defeat) can be calculated properly. The parameters of Bivariate Poisson distribution "of Holgate" are assumed to have a dependence factors, such as attack, defense and field, that possibly explain the numbers of goals. / O resultado básico de uma partida de futebol é o seu placar …nal, que pode ser visto como um vetor aleatório bivariado. Teoricamente e baseando-se na literatura existente podemos argumentar que o número de gols marcados por um time em uma dada partida obedeça a uma distribuição (univariada) de Poisson. Assim, são estudadas as distribuições de Poisson Bivariadas, com destaque para a classe "de Holgate" (1964). Utilizando como informações os resultados recentes dos times, cujo confronto se queira modelar, foram utilizados vários métodos para a estimação de parâmetros da densidade da classe Poisson Bivariada "de Holgate". A idéia é considerar procedimentos que forneçam as probabilidades de ocorrência de placares, para que assim a probabilidade da ocorrência de um determinado resultado (vitória do time mandante, empate ou derrota) possa ser obtido. Os parâmetros da distribuição de Poisson Bivariada "de Holgate" são assumidos terem dependência de fatores, tais como ataque, defesa e campo, que possivelmente explicam os números de gols feitos.
222

Modelos de sobrevivência de longa-duração : uma abordagem unificada

Iritani, Mateus Rodrigues 13 June 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:01Z (GMT). No. of bitstreams: 1 1988.pdf: 463519 bytes, checksum: ca45424706e2fdb08c40f42f1f560364 (MD5) Previous issue date: 2008-06-13 / Financiadora de Estudos e Projetos / In survival analysis some studies show a meaningful cure rate after treatment followup, so considering standard survival models can not be appropriate. In this work is extended the long-term survival model proposed by Chen, Ibrahim and Sinha (1999) via generating function of a real sequence introduced by Feller (1967). This new formulation is the uni_cation of the long-term survival models proposed by Rodrigues el al. (2008). Also, as in Rodrigues el al. (2008) it is shown that the long-term survival generating function satis_es the proportional hazard property if only if the number of competing causes related to the occurence of a event of interest follows a Poisson distribution. A real data set is considered to illustrate this approach. / Em análise de sobrevivência, determinados estudos caracterizam-se por apresentar uma fração significativa de sobreviventes, ou seja, pacientes em tratamento que não apresentaram o evento de interesse, mesmo após um longo período de acompanhamento. Assim considerar modelos de sobrevivência usuais, que assumem que a função de sobrevivência converge para zero quando a variável tempo tende a infinito, pode não ser adequado. Nesse trabalho é apresentado uma extensão do modelo proposto por Chen, Ibrahim e Sinha (1999), usando a função geradora de uma sequência de números reais introduzida por Feller (1967). Essa extensão possibilitou o desenvolvimento de uma teoria unificada para os modelos de sobrevivência de longa-duração, Rodrigues et al. (2008). Mostra-se que modelos já existentes na literatura são considerados casos particulares da teoria unificada, por exemplo, o modelo de Berkson & Gage (1952). Também tem-se em Rodrigues et al. (2008), que a função geradora de longa-duração satisfaz a propriedade de risco proporcional se, e somente se, o número de causas competitivas relacionadas a ocorrência do evento de interesse segue uma distribuição de Poisson. Como ilutração utiliza-se um conjunto de dados reais.
223

Modelos de séries temporais com coeficientes variando no tempo

Souza, Leandro Teixeira Lopes de 26 February 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2524.pdf: 3173626 bytes, checksum: 444d75f97bd088459e470db31df717a5 (MD5) Previous issue date: 2009-02-26 / Financiadora de Estudos e Projetos / In this work they are presented extensions of Auto Regressive and Auto Regressive Conditional Heteroscedasticity models with coefficients varying in time. These coefficients have been used as models for non stationary real time series, specially for financial series. The objective of this work is to present the models and the techniques involved in estimating time-varying coefficients, moreover, it is made an introduction to financial modeling and some suggestions in order to facilitate implementation and use of models with time-varying coefficients. The simulation studies and the application on real data showed that the models have great potential to be exploited in the analysis of non-stationary series. The suggestions in confidence band and forecasting for the Auto regressive models with time-varying coefficients enable the use of models in financial data and other series that show a non-stationary characteristic. The modified algorithm for estimation of ARCH models varying in time was to increase the rate of convergence. The creation of a method for forecasting for ARCH models require a deeper study, although the algorithm has shown promising results in simulation study, giving some evidences that it can be applied in real situation. Finally, the contributions in the creation of functions for a free software that facilitate the use and the analysis of the models studied and the use of the proposed methods. / No presente trabalho são apresentadas extensões dos modelos Auto Regressivo e Auto Regressivo Condicionalmente Heteroscedasticos com coeficientes variando ao longo do tempo. Estes têm sido utilizados como modelos para séries temporais reais não estacionárias, em especial as séries financeiras. O objetivo desse trabalho é apresentar os modelos e as técnicas envolvidas para estimar esses coeficientes que variam no tempo, além disso, é feito uma introdução a modelagem financeira e algumas sugestões para facilitar a aplicação e utilização dos modelos com coeficientes variando no tempo. Os estudos de simulação e a aplicação em dados reais mostraram que os modelos têm um grande potencial a ser explorados na análise de séries não estacionárias. As sugestões de banda de confiança e previsão para os modelos Auto Regressivos com coeficientes variando no tempo viabilizam a utilização dos modelos em dados financeiros e outras séries que apresentam uma característica de não estacionariedade. As modificações no algoritmo de estimação dos modelos ARCH variando no tempo foram para aumentar a taxa de convergência. A criação de um método para previsão dos modelos ARCH necessitam de um estudo mais profundo, porém o algoritmo mostrou resultados promissores no estudo de simulação, dando alguns indícios de que pode ser aplicada na prática. Por fim, as contribuições na criação de funções para um software livre que facilitam a utilização e a análise dos modelos estudados bem como a utilização dos métodos propostos.
224

Modelos de regressão logística clássica, Bayesiana e redes neurais para Credit Scoring

Mendonça, Tiago Silva 15 February 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2410.pdf: 5430269 bytes, checksum: 6eb0e35f94b3108e492df5a93a5b0c34 (MD5) Previous issue date: 2008-02-15 / Important advances have been achieved in the granting of credit, however, the problem of identifying good customers for the granting of credit does not provide a definitive solution. Several techniques were presented and are being developed, each presents its characteristics, advantages and disadvantages as to their discrimination power, robustness, ease of implementation and possibility of interpretation. This work presents three techniques for the classification of defaults in models of Credit Score, Classical Logistic Regression, Bayesian Logistic Regression with no prior information and Artificial Neural Networks with a few different architectures. The main objective of the study is to compare the performance of these techniques in the identification of customers default. For this, four metrics were used for comparison of models: predictive capacity, ROC Curve, Statistics of Kolmogorov Smirnov and capacity of hit models. Two data bases were used, an artificial bank and a real bank. The database was constructed artificially based on an article by Breiman that generates the explanatory variables from a multivariate normal distribution and the actual database used is a problem with Credit Score of a financial institution that operates in the retail Brazilian market more than twenty years. / Importantes avanços vêm sendo conquistados na área de concessão de crédito, não obstante, o problema de identificação de bons clientes para a concessão de crédito não apresenta uma solução definitiva. Diversas técnicas foram apresentadas e vêm sendo desenvolvidas, cada uma apresenta suas características, com vantagens e desvantagens no tocante ao seu poder de discriminação, robustez, facilidade de implementação e possibilidade de interpretação. Este trabalho apresenta três técnicas para a classificação de inadimplência em modelos de Credit Score, Regressão Logística Clássica, Regressão Logística Bayesiana com priori não informativa e Redes Neurais Artificiais com algumas diferentes arquiteturas. O objetivo principal do trabalho é comparar o desempenho destas técnicas na identificação de clientes inadimplentes. Para isto, Foram utilizadas quatro métricas para a comparação dos modelos: Capacidade Preditiva, Curva ROC, Estatística de Kolmogorov Smirnov e a Capacidade de Acerto dos modelos. Dois bancos de dados foram utilizados, um banco artificial e um banco real. O banco de dados artificial foi construído baseado em um artigo de Breiman que gera as variáveis explicativas a partir de uma distribuição normal multivariada e o banco de dados real utilizado trata-se de um problema de Credit Score de uma instituição financeira que atua no mercado varejista brasileiro há mais de vinte anos.
225

Uma nova abordagem para análise de dependência bivariada

Marchi, Vitor Alex Alves de 23 April 2010 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 3023.pdf: 2559668 bytes, checksum: 9cf8ca3c2627a6f2d69856b231e8a0a4 (MD5) Previous issue date: 2010-04-23 / Financiadora de Estudos e Projetos / In this dissertation we describe and implement procedures for nonparametric estimation of copulas and Sibuya function, and also procedures for bivariate analysis of dependence based on the behavior of their contours plot. Besisdes, we describe and implement the chiplot procedure and as well as a procedure for analising bivariate dependence in presence of censoring in the sample. Particularly, we propose a way to use it in a local correlation analysis. The performance of the proposed procedures are illustrated and evaluated in cases of very simple correlation, but also in a more complex correlation schemes. / Nesta dissertação descrevemos e implementamos procedimentos para estimação paramétrica da cópula e da função de Sibuya, e também procedimentos para análise de dependência bivariada, baseados no comportamento das suas curvas de nível. Também, descrevemos e implementamos o procedimento chi-plot e um procedimento para a análise de dependência bivariada com presença de censura na amostra. Particularmente, propomos formas de usá-los em análise de correlação local. O desempenho dos procedimentos propostos são ilustrados e avaliados em casos de estruturas de correlação simples, mas também em esquemas de correlação mais complexa.
226

Algumas extensões da distribuição Birnbaum-Saunders: uma abordagem Bayesiana

Cahui, Edwin Chaiña 09 January 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 4066.pdf: 4916301 bytes, checksum: c7a302cd5524ce8da164d4b95e1521a2 (MD5) Previous issue date: 2012-01-09 / The Birnbaum-Saunders Distribution is based on an physical damage that produces the cumulative fatigue materials, This fatigue was identified as an important cause of failure in engineering structures. Recently, this model has been applied in other areas such as health sciences, environmental measures, forestry, demographic, financial, among others. Due to it s importance several distributions have been proposed to describe the behavior of fatigue resistance. However there is not an argument about which is more effective for the analysis of data from fatigue. A major problem to choose a statistical distribution, is that often several models fit the data well in the central, but, however, the extremes of distribution raise questions about the decision to select some of their models. The lack of data at the extremes distribution is justified to consider other arguments like the use of a specific statistical distribution, and thus reject other models. In this work we study some extensions of the distribution Birnbaum-Saunders with a mixture of normal scale, in which the procedure will for obtaining inferences will be considered from a Bayesian perspective based on the methods Monte Carlo Markov Chain (MCMC). to detect possible observations influential in the models considered, we used the Bayesian method of analysis influence in each case based on the Kullback-Leibler divergence. Moreover, the geometric Birnbaum-Saunders model is proposed , for data survival. / A distribuição Birnbaum-Saunders (BS) está baseada em um argumento físico de dano cumulativo que produz a fadiga de materiais. Esta fadiga foi identificada como uma importante causa de falhas em estruturas de engenharia. Nos últimos tempos, este modelo tem sido aplicado em outras áreas, tais como: ciências da saúde, ambientais, florestais, demográficas, financeiras, entre outras. Devido a sua importância, várias distribuições têm sido propostas para descrever o comportamento da resistência à fadiga. Entretanto não há um argumento sobre qual modelo é mais efetivo para a análise dos dados de fadiga. Um dos principais problemas para escolher uma distribuição estatística, é que frequentemente vários modelos ajustam os dados bem na parte central, porém, no entanto, os extremos da distribuição colocam em dúvida a decisão para selecionar alguns dos modelos propostos. A falta de dados nos extremos da distribuição justifica considerar outros argumentos como o uso de um modelo estatístico específico, e assim rejeitar outros modelos. Neste trabalho estudamos algumas extensões da distribuição Birnbaum-Saunders com mistura de escala normal, no qual procedimento para obtenção de inferências sera considerado sob uma perspectiva Bayesiana baseada em Métodos de Monte Carlo via Cadeias de Markov (MCMC). Para detectar possíveis observações influentes nos modelos considerados, foi usado o método Bayesiano de análise de influência caso a caso, baseado na divergência de Kullback-Leibler. além disso, é proposto o modelo geométrico Birnbaum-Saunders, para dados de sobrevivência.
227

Modelagem de eventos raros: um estudo comparativo

Scacabarozi, Fernanda Nanci 16 January 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 4139.pdf: 2492387 bytes, checksum: d478498a0d367106a7ad8dfe2a681cf3 (MD5) Previous issue date: 2012-01-16 / Financiadora de Estudos e Projetos / In some situations, in various areas of knowledge, the response variable of interest has dichotomous distribution extremely unbalanced. In the _nancial market is the common interest in determining the probability that each customer will commit a fraudulent action, and the proportion of customers fraudsters is extremely small. In health there is interest in determining the probability that a particular person will present some epidemiological infection that a_ects only a small fraction of the population. However, there are studies that show that the usual logistic regression model, widely used in the modeling of binary data, does not produce good results when it is built using databases extremely unbalanced. In the literature, we _nd some proposals for adjusting models them that take into account this characteristic, such as KZ estimators suggested by King and Zeng (2001) for the logistic regression model applied to databases with events rare. We present this methodology and a simulation study to verify the quality of these estimators. Other proposals in the literature are limited logit model suggested by Cramer (2004) that upper limit to the probability of success and the generalized logit model suggested by Stukel (1988) which has two shape parameters and works better than the usual logit model in situations that the probability curve is not symmetrical around the point 1 2 . In this paper we present some simulations to verify the advantages of the use of these models. Palavras-chave: model logit model limited, generalized logit model, logit model with response of origin, KZ estimators, measures forecasts. / Em algumas situa_c~oes, nas mais diversas _areas do conhecimento, a vari_avel resposta de interesse possui distribui_c~ao dicot^omica extremamente desbalanceada. No mercado _nanceiro _e comum o interesse em determinar a probabilidade de que cada cliente venha a cometer uma a_c~ao fraudulenta, sendo que a propor_c~ao de clientes fraudadores _e extremamente pequena. Na _area da sa_ude existe o interesse em determinar a probabilidade de que uma determinada pessoa venha a apresentar alguma infec_c~ao epidemiol_ogica que atinge apenas uma diminuta parcela da popula_c~ao. No entanto, existem estudos que revelam que o modelo de regress~ao log__stica usual, amplamente utilizado na modelagem de dados bin_arios, n~ao produz bons resultados quando este _e constru__do utilizando bases de dados extremamente desbalanceadas. Na literatura, encontramos algumas propostas para o ajuste de modelos que levam em conta esta caracter__stica, tal como os estimadores KZ sugeridos por King e Zeng (2001) para o modelo de regress~ao log__stica aplicado em bases de dados com eventos raros. Neste trabalho apresentamos esta metodologia e um estudo de simula_c~ao para veri_car a qualidade destes estimadores. Outras propostas encontradas na literatura s~ao o modelo logito limitado sugerido por Cramer (2004) que limita superiormente a probabilidade de sucesso e o modelo logito generalizado sugerido por Stukel (1988) que apresenta dois par^ametros de forma e funciona melhor que o modelo logito usual nas situa_c~oes em que a curva de probabilidade n~ao _e sim_etrica em torno do ponto 1 2 . Neste trabalho apresentamos algumas simula_c~oes para veri_car as vantagens do usos destes modelos.
228

Uma avaliação de métodos de previsão aplicados à grandes quantidades de séries temporais univariadas

Pellegrini, Tiago Ribeiro 06 December 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1 4757.pdf: 552745 bytes, checksum: 4f9bf1ad04dfca4e80bbfdf36c909f6f (MD5) Previous issue date: 2012-12-06 / Financiadora de Estudos e Projetos / Time series forecasting is probably one of the most primordial interests on economics and econometrics, and the literature on this subject is extremely vast. Due to technological growth in recent decades, large amounts of time series are daily collected; which, in a first moment, it requires forecasts according a fixed horizon; and on the second moment the forecasts must be constantly updated, making it impractical to human interaction. Towards this direction, computational procedures that are able to model and return accurate forecasts are required in several research areas. The search for models with high predictive power is an issue that has resulted in a large number of publications in the area of forecasting models. We propose to do a theorical and applied study of forecasting methods applied to multiple univariate time series. The study was based on exponential smoothing via state space approach, automatic ARIMA methods and the generalized Theta method. Each model and method were applied in large data bases of univariate time series and the forecast errors were evaluated. We also propose an approach to estimate the Theta coefficients, as well as a redefinition of the method regarding the number of decomposition lines, extrapolation methods and a combining approach. / A previsão de séries temporais é provavelmente um dos interesses mais primordiais na área de economia e econometria, e a literatura referente a este assunto é extremamente vasta. Devido ao crescimento tecnológico nas últimas décadas, diariamente são geradas e disponibilizadas grandes quantidades de séries temporais; que em um primeiro momento, requerem previsões de acordo com um horizonte fixado; e no segundo momento as previsões precisam ser constantemente atualizadas, tornando pouco prática a interação humana. Desta forma, procedimentos computacionais que modelem e posteriormente retornem previsões acuradas são exigidos em diversas áreas do conhecimento. A busca por modelos com alto poder de preditivo é uma questão que tem resultado em grande quantidade de publicações na área de modelos para previsão. Neste trabalho, propõe-se um estudo teórico e aplicado de métodos de previsão aplicado à múltiplas séries temporais univariadas. O estudo foi baseado em modelos de alisamento exponencial via espaço de estados, método ARIMA automático e o método Theta generalizado. Cada modelo e método foi aplicado em grandes bases de séries temporais univariadas e avaliado o resultado em relação aos erros de previsão. Também foi proposta uma abordagem para estimação dos coeficientes Theta, assim como redefinição do método em relação a quantidade de linhas para decomposição, métodos de extrapolação e combinação das linhas para previsão.
229

Modelo de regressão de valor extremo para dados agrupados

Santo, Jonatas Silva do Espirito 11 March 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1 5034.pdf: 832896 bytes, checksum: 2e9dd202302339e95fd416a410d6eb7e (MD5) Previous issue date: 2013-03-11 / Financiadora de Estudos e Projetos / One of the distributions used to model extremal events is the type I extremevalue distribution (Gumbel distribution). The usual extreme-value regression model requires independent observations. In this work, using generalized linear model (Mc-Cullagh e Nelder, 1989) and generalized estimating equations (Liang e Zeger, 1986), we developed the extreme-value regression model when there are independent clusters formed by dependent variables. The behavior of parameter estimators of the proposed model is studied through Monte Carlo simulations. / A distribuição valor extremo tipo I, também conhecida como distribuição Gumbel, é uma das distribuições utilizadas para a modelagem de eventos extremos. Os modelos existentes de regressão valor extremo supõem que as observações sejam independentes, inviabilizando o uso desses modelos quando existe dependência entre as observações. Nesta dissertação, utilizando modelos lineares generalizados (McCullagh e Nelder, 1989) e equações de estimação generalizadas (Liang e Zeger, 1986), desenvolvemos o modelo de regress~ao valor extremo para o caso em que h a grupos independentes formados por respostas dependentes. O comportamento dos estimadoresdos parâmetros do modelo proposto é avaliada através de simulações Monte Carlo.
230

Intervalos de confiança para dados com presença de eventos recorrentes e censuras.

Faria, Rodrigo 23 May 2003 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1 DissRF.pdf: 61430 bytes, checksum: 98abe5764051c2697adcbd0c9cfcd965 (MD5) Previous issue date: 2003-05-23 / In survival analysis and reliability is common that the population units in study presents recurrence events and censoring ages, besides, is possible to exist a cost related to each event that happens. The objectives of this dissertation consists in display a methodology that makes possible the direct obtaining of confidence intervals baseds in asymptotic theory for nonparametric estimates to the mean cumulative number or cost events per unit. Some simulation studies are also showed and the objectives are check if there is some sample size's influence in the asymptotics confidence interval's precision. One of the great advantages from the methodology presented in this dissertation is the validity for it’s application in several areas of the knowledge. There's two examples considered here. One of them consists in coming data from engineering. This example contains a ‡eet of machines in analysis. The interest is to obtain punctual estimates with the respective confidence intervals for the mean cumulative number and cost repairs per machine. The other example comes from the medical area and it treats of a study accomplished with two groups of patients with bladder can- cer, each one submitted in a di¤erent treatment type. The application of the methodology in this example seeks the obtaining of confidence intervals for the mean cumulative number of tumors per patient and gain estimates that compare these two di¤erents treatments informing, statistically, which presents better results. / Em análise de sobrevivência e confiabilidade, é comum que as unidades populacionais em estudo apresentem eventos recorrentes e presença de censuras, sendo possível a atribuição de um custo relacionado a cada evento que ocorra. Os objetivos deste trabalho consistem na apresentação de uma metodologia que possibilita a obtenção direta de estimativas intervalares não-paramétricas, baseadas na teoria assintótica, para o número ou custo médio de eventos acumulados por unidade. São também realizados alguns estudos de simulação que verificam a influência do tamanho da amostra na precisão dos intervalos de confiança assintóticos obtidos. Uma das grandes vantagens da metodologia estudada, e apresentada neste trabalho, é a possibilidade de sua aplicação em diversas áreas do conhecimento. Dois exemplos são considerados. Um deles consiste em dados provenientes da área de engenharia, no qual um conjunto de motores é analisado. Neste, o interesse é obter estimativas pontuais com os respectivos intervalos de confiança para o número e custo médio de reparos acumulados por motor. O outro exemplo provém da área médica e trata de um estudo realizado com dois grupos de pacientes com câncer de bexiga, cada qual submetido a um diferente tipo de tratamento. A aplicação da metodologia neste exemplo visa, além da obtenção de intervalos de confiança para o número médio de tumores acumulados por paciente, também obter estimativas que levem à comparação dos dois tratamentos, no sentido de informar estatisticamente qual deles apresenta melhores resultados.

Page generated in 0.0243 seconds