Spelling suggestions: "subject:"estatisticamente,""
291 |
Algumas extensões da distribuição Birnbaum-Saunders: uma abordagem BayesianaCahui, Edwin Chaiña 09 January 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1
4066.pdf: 4916301 bytes, checksum: c7a302cd5524ce8da164d4b95e1521a2 (MD5)
Previous issue date: 2012-01-09 / The Birnbaum-Saunders Distribution is based on an physical damage that produces the cumulative fatigue materials, This fatigue was identified as an important cause of failure in engineering structures. Recently, this model has been applied in other areas such as health sciences, environmental measures, forestry, demographic, financial, among others. Due to it s importance several distributions have been proposed to describe the behavior of fatigue resistance. However there is not an argument about which is more effective for the analysis of data from fatigue. A major problem to choose a statistical distribution, is that often several models fit the data well in the central, but, however, the extremes of distribution raise questions about the decision to select some of their models. The lack of data at the extremes distribution is justified to consider other arguments like the use of a specific statistical distribution, and thus reject other models. In this work we study some extensions of the distribution Birnbaum-Saunders with a mixture of normal scale, in which the procedure will for obtaining inferences will be considered from a Bayesian perspective based on the methods Monte Carlo Markov Chain (MCMC). to detect possible observations influential in the models considered, we used the Bayesian method of analysis influence in each case based on the Kullback-Leibler divergence. Moreover, the geometric Birnbaum-Saunders model is proposed , for data survival. / A distribuição Birnbaum-Saunders (BS) está baseada em um argumento físico de dano cumulativo que produz a fadiga de materiais. Esta fadiga foi identificada como uma importante causa de falhas em estruturas de engenharia. Nos últimos tempos, este modelo tem sido aplicado em outras áreas, tais como: ciências da saúde, ambientais, florestais, demográficas, financeiras, entre outras. Devido a sua importância, várias distribuições têm sido propostas para descrever o comportamento da resistência à fadiga. Entretanto não há um argumento sobre qual modelo é mais efetivo para a análise dos dados de fadiga. Um dos principais problemas para escolher uma distribuição estatística, é que frequentemente vários modelos ajustam os dados bem na parte central, porém, no entanto, os extremos da distribuição colocam em dúvida a decisão para selecionar alguns dos modelos propostos. A falta de dados nos extremos da distribuição justifica considerar outros argumentos como o uso de um modelo estatístico específico, e assim rejeitar outros modelos. Neste trabalho estudamos algumas extensões da distribuição Birnbaum-Saunders com mistura de escala normal, no qual procedimento para obtenção de inferências sera considerado sob uma perspectiva Bayesiana baseada em Métodos de Monte Carlo via Cadeias de Markov (MCMC). Para detectar possíveis observações influentes nos modelos considerados, foi usado o método Bayesiano de análise de influência caso a caso, baseado na divergência de Kullback-Leibler. além disso, é proposto o modelo geométrico Birnbaum-Saunders, para dados de sobrevivência.
|
292 |
Uma avaliação de métodos de previsão aplicados à grandes quantidades de séries temporais univariadasPellegrini, Tiago Ribeiro 06 December 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1
4757.pdf: 552745 bytes, checksum: 4f9bf1ad04dfca4e80bbfdf36c909f6f (MD5)
Previous issue date: 2012-12-06 / Financiadora de Estudos e Projetos / Time series forecasting is probably one of the most primordial interests on economics and econometrics, and the literature on this subject is extremely vast. Due to technological growth in recent decades, large amounts of time series are daily collected; which, in a first moment, it requires forecasts according a fixed horizon; and on the second moment the forecasts must be constantly updated, making it impractical to human interaction. Towards this direction, computational procedures that are able to model and return accurate forecasts are required in several research areas. The search for models with high predictive power is an issue that has resulted in a large number of publications in the area of forecasting models. We propose to do a theorical and applied study of forecasting methods applied to multiple univariate time series. The study was based on exponential smoothing via state space approach, automatic ARIMA methods and the generalized Theta method. Each model and method were applied in large data bases of univariate time series and the forecast errors were evaluated. We also propose an approach to estimate the Theta coefficients, as well as a redefinition of the method regarding the number of decomposition lines, extrapolation methods and a combining approach. / A previsão de séries temporais é provavelmente um dos interesses mais primordiais na área de economia e econometria, e a literatura referente a este assunto é extremamente vasta. Devido ao crescimento tecnológico nas últimas décadas, diariamente são geradas e disponibilizadas grandes quantidades de séries temporais; que em um primeiro momento, requerem previsões de acordo com um horizonte fixado; e no segundo momento as previsões precisam ser constantemente atualizadas, tornando pouco prática a interação humana. Desta forma, procedimentos computacionais que modelem e posteriormente retornem previsões acuradas são exigidos em diversas áreas do conhecimento. A busca por modelos com alto poder de preditivo é uma questão que tem resultado em grande quantidade de publicações na área de modelos para previsão. Neste trabalho, propõe-se um estudo teórico e aplicado de métodos de previsão aplicado à múltiplas séries temporais univariadas. O estudo foi baseado em modelos de alisamento exponencial via espaço de estados, método ARIMA automático e o método Theta generalizado. Cada modelo e método foi aplicado em grandes bases de séries temporais univariadas e avaliado o resultado em relação aos erros de previsão. Também foi proposta uma abordagem para estimação dos coeficientes Theta, assim como redefinição do método em relação a quantidade de linhas para decomposição, métodos de extrapolação e combinação das linhas para previsão.
|
293 |
Modelo de regressão de valor extremo para dados agrupadosSanto, Jonatas Silva do Espirito 11 March 2013 (has links)
Made available in DSpace on 2016-06-02T20:06:07Z (GMT). No. of bitstreams: 1
5034.pdf: 832896 bytes, checksum: 2e9dd202302339e95fd416a410d6eb7e (MD5)
Previous issue date: 2013-03-11 / Financiadora de Estudos e Projetos / One of the distributions used to model extremal events is the type I extremevalue distribution (Gumbel distribution). The usual extreme-value regression model requires independent observations. In this work, using generalized linear model (Mc-Cullagh e Nelder, 1989) and generalized estimating equations (Liang e Zeger, 1986), we developed the extreme-value regression model when there are independent clusters formed by dependent variables. The behavior of parameter estimators of the proposed model is studied through Monte Carlo simulations. / A distribuição valor extremo tipo I, também conhecida como distribuição Gumbel, é uma das distribuições utilizadas para a modelagem de eventos extremos. Os modelos existentes de regressão valor extremo supõem que as observações sejam independentes, inviabilizando o uso desses modelos quando existe dependência entre as observações. Nesta dissertação, utilizando modelos lineares generalizados (McCullagh e Nelder, 1989) e equações de estimação generalizadas (Liang e Zeger, 1986), desenvolvemos o modelo de regress~ao valor extremo para o caso em que h a grupos independentes formados por respostas dependentes. O comportamento dos estimadoresdos parâmetros do modelo proposto é avaliada através de simulações Monte Carlo.
|
294 |
Intervalos de confiança para dados com presença de eventos recorrentes e censuras.Faria, Rodrigo 23 May 2003 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1
DissRF.pdf: 61430 bytes, checksum: 98abe5764051c2697adcbd0c9cfcd965 (MD5)
Previous issue date: 2003-05-23 / In survival analysis and reliability is common that the population units in study presents
recurrence events and censoring ages, besides, is possible to exist a cost related to each event
that happens. The objectives of this dissertation consists in display a methodology that
makes possible the direct obtaining of confidence intervals baseds in asymptotic theory for
nonparametric estimates to the mean cumulative number or cost events per unit. Some
simulation studies are also showed and the objectives are check if there is some sample size's
influence in the asymptotics confidence interval's precision. One of the great advantages
from the methodology presented in this dissertation is the validity for it’s application in
several areas of the knowledge. There's two examples considered here. One of them consists
in coming data from engineering. This example contains a ‡eet of machines in analysis. The
interest is to obtain punctual estimates with the respective confidence intervals for the mean
cumulative number and cost repairs per machine. The other example comes from the medical
area and it treats of a study accomplished with two groups of patients with bladder can-
cer, each one submitted in a di¤erent treatment type. The application of the methodology
in this example seeks the obtaining of confidence intervals for the mean cumulative number of
tumors per patient and gain estimates that compare these two di¤erents treatments
informing, statistically, which presents better results. / Em análise de sobrevivência e confiabilidade, é comum que as unidades populacionais em
estudo apresentem eventos recorrentes e presença de censuras, sendo possível a atribuição
de um custo relacionado a cada evento que ocorra.
Os objetivos deste trabalho consistem na apresentação de uma metodologia que
possibilita a obtenção direta de estimativas intervalares não-paramétricas, baseadas na
teoria assintótica, para o número ou custo médio de eventos acumulados por unidade. São
também realizados alguns estudos de simulação que verificam a influência do tamanho da
amostra na precisão dos intervalos de confiança assintóticos obtidos. Uma das grandes
vantagens da metodologia estudada, e apresentada neste trabalho, é a possibilidade de sua
aplicação em diversas áreas do conhecimento. Dois exemplos são considerados. Um deles
consiste em dados provenientes da área de engenharia, no qual um conjunto de motores é
analisado. Neste, o interesse é obter estimativas pontuais com os respectivos
intervalos de confiança para o número e custo médio de reparos acumulados por motor.
O outro exemplo provém da área médica e trata de um estudo realizado com dois grupos de
pacientes com câncer de bexiga, cada qual submetido a um diferente tipo de tratamento.
A aplicação da metodologia neste exemplo visa, além da obtenção de intervalos de confiança
para o número médio de tumores acumulados por paciente, também obter estimativas que
levem à comparação dos dois tratamentos, no sentido de informar estatisticamente qual deles
apresenta melhores resultados.
|
295 |
Risco operacional: o cálculo do capital regulatório usando dependênciaGonçalves, Débora Delbem 16 January 2014 (has links)
Made available in DSpace on 2016-06-02T20:06:09Z (GMT). No. of bitstreams: 1
5715.pdf: 2528313 bytes, checksum: 746d913fa84ee6f5f9d8b191ad1d8cce (MD5)
Previous issue date: 2014-01-16 / Financiadora de Estudos e Projetos / In this paper we propose a new method for the calculation of regulatory capital required for operational risk. This method is based on some important assumptions for calculation of this capital, for instance, expert opinion, dependence between loss variables considering the joint probability associated to two loss events. The copula theory is applied to determine this joint probability. Furthermore, we present two more methods, sum method proposed by Basel II Accord (2004) and non-perfect correlation method proposed by Frachot et al. (2004). Finally, we perform a simulation studies in order to compare all the methods presented in this dissertation. / Neste trabalho propomos um novo método para o cálculo do capital regulatório para o risco operacional. O método proposto é utilizado para calcular o capital regulatório para duas classes de risco e é baseado em alguns pressupostos considerados importantes no cálculo deste capital. Entre esses pressupostos se destacam a opinião de especialistas e a captação de dependência entre as variáveis perdas considerando a probabilidade dos eventos de perdas ocorrerem conjuntamente. Essa probabilidade é captada via cópula. Além disso, apresentamos mais dois métodos, o do somatório, proposto pelo Acordo de Basileia II (2004), e o da correlação não-perfeita, proposto por Frachot et al. (2004). Finalmente, realizamos um estudo de simulação com o objetivo de comparar os capitais regulatórios totais calculados em cada método.
|
296 |
Um enfoque bayesiano do modelo de captura-recaptura na presença de covariáveis.Paula, Marcelo de 22 February 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1
DissMP.pdf: 748309 bytes, checksum: b6a638a5f9ec09f6622480b42f13d699 (MD5)
Previous issue date: 2006-02-22 / Financiadora de Estudos e Projetos / This work has as main objective to insert covariates in the capture probability of the multiple capture-recapture method for closed animal population. Factors like climate, seasons of the year, animal size, could a¤ect the animal capture probability. We revise the methodology concepts, we make a study about the posteriori parameters sensibility, we present new parameters for the capture probability in specific situations and we insert covariates in the model used by Castledine (1981) through bayesian methods. The bayesian analysis was made through several studies of stochastic simulation through MCMC (Monte Carlo Markov Chain) with simulated and real data to obtain the population size posteriori results. / Este trabalho tem como objetivo principal a inserção de covariáveis nas probabilidades de captura do método de captura-recaptura múltipla para população fechada. No
caso de população animal, por exemplo, fatores como clima, época do ano, tamanho do animal, podem afetar a probabilidade de captura do animal. Revisamos os conceitos da
metodologia, fazemos um breve estudo sobre a sensibilidade das estimativas a posteriori em relação a escolha dos hiperparâmetros, apresentamos uma reparametrização para a
probabilidade de captura em situações específicas e, motivados nessa reparametrização, inserimos covariáveis no modelo proposto por Castledine (1981) por meio de métodos
bayesianos. A análise bayesiana foi feita através de vários estudos de simulação estocástica via MCMC (Monte Carlo Markov Chain) com dados simulados e reais para obter os
resultados a posteriori do tamanho populacional.
|
297 |
Métodos estatísticos aplicados à análise da expressão gênica.Saraiva, Erlandson Ferreira 23 February 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1
DissEFS.pdf: 1135537 bytes, checksum: b92ac0d09924bd51723ad77018da04de (MD5)
Previous issue date: 2006-02-23 / Financiadora de Estudos e Projetos / The technology of the DNA-Arrays is a tool used to identify and to compare levels of expression of a great number of genes or fragments of genes, in di¤erent conditions.
With this comparison, it is possible to identify genes possibly causing illnesses of genetic origin (cancer for example). Great amounts of numerical data (related the measures of
levels of expression of the genes) are generated and statistical methods are important for analysis of this data with objective to identify the genes that present evidences for
di¤erent levels of expression. The objective of our research is to develop and to describe methods statistical, capable of identifing genes that present evidences for di¤erent levels
of expression. We describe the test t, considered for Baldi and Long (2001) and consider three others methods. The first method considered is based on the use of parametric
Bayes inference and the methods for selection of models, Bayes factor and DIC; the second method is based an semi-parametric bayesian inference, model of mixtures of
Dirichlet processes. The third method is based on the use of a model with infinite mixtures of distributions that applied the analysis of the genica expression determines groups of
similar levels of expression. / A tecnologia dos arranjos de DNA (DNA-array) é uma ferramenta utilizada para identificar e comparar níveis de expressão de um grande número de genes ou fragmentos de genes simultaneamente, em condições diferentes. Com esta comparação, é possível determinar possíveis genes causadores de doenças de origem genética (por exemplo, o câncer). Nestes experimentos, grandes quantidades de dados numéricos (relacionados às medidas de níveis de expressão dos genes) são gerados e métodos estatísticos são im- portantes para análise dos dados, com objetivo de identificar os genes que apresentam evidências para níveis de expressão diferentes. O objetivo de nossa pesquisa é comparar o desempenho e desenvolver métodos estatísticos, capazes de identificar genes que apresentam evidências para níveis de expressão diferentes, quando comparamos situações de interesse (tratamentos) com uma situação de controle. Para isto, descrevemos o teste t, proposto por Baldi e Long (2001) e propomos três métodos para identificar genes com evidências para níveis de expressão diferentes. O primeiro método proposto é baseado na utilização da inferência bayesiana paramétrica e dos métodos de seleção de modelos, fator de Bayes e DIC; o segundo método é baseado na inferência bayesiana semi-paramétrica conhecida como modelo de misturas de processos Dirichlet; e o terceiro método é baseado na utilização de um modelo com mistura infinita de distribuições, que aplicado à análise da expressão gênica determina grupos de níveis de expressão gênica similares, baseados nos efeitos de tratamento.
|
298 |
Modelos HMM com dependência de segunda ordem: aplicação em genética.Zuanetti, Daiane Aparecida 20 February 2006 (has links)
Made available in DSpace on 2016-06-02T20:06:12Z (GMT). No. of bitstreams: 1
DissDAZ.pdf: 2962567 bytes, checksum: 5c6271a67fae12d6b0160ac8ed9351a2 (MD5)
Previous issue date: 2006-02-20 / Universidade Federal de Minas Gerais / (See full text for download) / A crescente necessidade do desenvolvimento de eficientes técnicas computacionais e estatísticas para analisar a profusão de dados biológicos transformaram o modelo Markoviano oculto (HMM), caso particular das redes bayesianas ou probabilísticas, em uma alternativa interessante para analisar sequências de DNA. Uma razão do interesse no HMM é a sua flexibilidade em descrever segmentos heterogêneos da sequência através de uma mesma estrutura de dependência entre as variáveis, supostamente conhecida. No entanto, na maioria dos problemas práticos, a estrutura de dependência não é conhecida e precisa ser também estimada. A maneira mais comum para estimação de estrutra de um HMM é o uso de métodos de seleção de modelos. Outra solução é a utilização de metodologias para estimação da estrutura de uma rede probabilística. Neste trabalho, propomos o HMM de segunda ordem e seus estimadores bayesianos, definimos o fator de Bayes e o DIC para seleção do HMM mais adequado a uma sequência específica, verificamos seus desempenhos e a performance da metodologia proposta por Friedman e Koller (2003) em conjunto de dados simulados e aplicamos estas metodologias em duas sequências de DNA: o intron 7 do gene a - fetoprotein dos cimpanzés e o genoma do parasita Bacteriophage lambda, para o qual o modelo de segunda ordem é mais adequado.
|
299 |
Métodos de Monte Carlo Hamiltoniano na inferência Bayesiana não-paramétrica de valores extremosHartmann, Marcelo 09 March 2015 (has links)
Made available in DSpace on 2016-06-02T20:06:51Z (GMT). No. of bitstreams: 1
6609.pdf: 3049383 bytes, checksum: 33c7f1618f776ca50cf4694aaba80ea5 (MD5)
Previous issue date: 2015-03-09 / In this work we propose a Bayesian nonparametric approach for modeling extreme value data. We treat the location parameter _ of the generalized extreme value distribution as a random function following a Gaussian process model (Rasmussem & Williams 2006). This configuration leads to no closed-form expressions for the highdimensional posterior distribution. To tackle this problem we use the Riemannian Manifold Hamiltonian Monte Carlo algorithm which allows samples from the posterior distribution with complex form and non-usual correlation structure (Calderhead & Girolami 2011). Moreover, we propose an autoregressive time series model assuming the generalized extreme value distribution for the noise and obtained its Fisher information matrix. Throughout this work we employ some computational simulation studies to assess the performance of the algorithm in its variants and show many examples with simulated and real data-sets. / Neste trabalho propomos uma abordagem Bayesiana não-paramétrica para a modelagem de dados com comportamento extremo. Tratamos o parâmetro de locação _ da distribuição generalizada de valor extremo como uma função aleatória e assumimos um processo Gaussiano para tal função (Rasmussem & Williams 2006). Esta situação leva à intratabilidade analítica da distribuição a posteriori de alta dimensão. Para lidar com este problema fazemos uso do método Hamiltoniano de Monte Carlo em variedade Riemanniana que permite a simulação de valores da distribuição a posteriori com forma complexa e estrutura de correlação incomum (Calderhead & Girolami 2011). Além disso, propomos um modelo de série temporal autoregressivo de ordem p, assumindo a distribuição generalizada de valor extremo para o ruído e determinamos a respectiva matriz de informação de Fisher. No decorrer de todo o trabalho, estudamos a qualidade do algoritmo em suas variantes através de simulações computacionais e apresentamos vários exemplos com dados reais e simulados.
|
300 |
Família Kumaraswamy-G para analisar dados de sobrevivência de longa duraçãoEudes, Amanda Morales 25 February 2015 (has links)
Made available in DSpace on 2016-06-02T20:06:51Z (GMT). No. of bitstreams: 1
6689.pdf: 1539030 bytes, checksum: 72c7b3b07f3a78dcc9a7810fd8e09f9e (MD5)
Previous issue date: 2015-02-25 / Universidade Federal de Minas Gerais / In survival analysis is studied the time until the occurrence of a particular event of interest and in the literature, the most common approach is parametric, where the data follow a specific probability distribution. Various known distributions maybe used to accommodate failure time data, however, most of these distributions are not able to accommodate non-monotonous hazard functions. Kumaraswamy (1980) proposed a new probability distribution and, based on that, recently Cordeiro and de Castro (2011) proposed a new family of generalized distributions, the so-called Kumaraswamy generalized (Kum-G). In addition to its flexibility, this distribution may also be considered for unimodal and tub shaped hazard functions. The objective of this dissertation is to present the family of Kum-G distributions and their particular cases to analyze lifetime data of individuals at risk, considering that part of the population will never present the event of interest, and considering that covariates may influence the survival function and the cured proportion of the population. Some properties of these models will be discussed as well as appropriate estimation methods, in the classical and Bayesian approaches. Finally, applications of such models are presented to literature data sets. / Em análise de sobrevivência estuda-se o tempo até a ocorrência de um determinado evento de interesse e na literatura, uma abordagem muito utilizada é a paramétrica, em que os dados seguem uma distribuição de probabilidade. Diversas distribuições conhecidas são utilizadas para acomodar dados de tempos de falha, porém, grande parte destas distribuições não é capaz de acomodar funções de risco não monótonas. Kumaraswamy (1980) propôs uma nova distribuição de probabilidade e, baseada nela, mais recentemente Cordeiro e de Castro (2011) propuseram uma nova família de distribuições generalizadas, a Kumaraswamy generalizada (Kum-G). Esta distribuição, além de ser flexível, contém distribuições com funções de risco unimodal e em forma de banheira. O objetivo deste trabalho é apresentar a família de distribuições Kum-G e seus casos particulares para analisar dados de tempo de vida de indivíduos em risco, considerando que uma parcela da população nunca apresentarão evento de interesse, além de considerarmos que covariáveis influenciem na função de sobrevivência e na proporção de curados da população. Algumas propriedades destes modelos serão abordadas, bem como métodos adequados de estimação, tanto na abordagem clássica quanto na bayesiana. Por fim, são apresentadas aplicações de tais modelos a conjuntos de dados existentes na literatura.
|
Page generated in 0.075 seconds