Spelling suggestions: "subject:"bootstrap ( estatística)"" "subject:"gbootstrap ( estatística)""
1 |
Testes de significancia repetidos em analise de sobrevivenciaBereta, Estela Maris Pereira 10 September 2002 (has links)
Orientador: Cicilia Yuko Wada / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-02T17:21:03Z (GMT). No. of bitstreams: 1
Bereta_EstelaMarisPereira_M.pdf: 3559262 bytes, checksum: b02e47ad288f193e308201bd8f880fdf (MD5)
Previous issue date: 2002 / Resumo: Este trabalho tem como objetivo principal elaborar uma exposição detalhada da teoria de testes de significância repetidos, sob o ponto de vista do nível real de teste, com particular ênfase nos testes não-paramétricos usados na área de análise de sobrevivência. Além disso, pretendese apresentar uma estatística de teste, baseada na integração de uma diferença ponderada dos estimadores de Kaplan-Meier, para comparar funções de sobrevivência em dois grupos com a finalidade de disseminar o seu conhecimento e mostrar sua aplicação em problemas práticos.Inicialmente é feita uma revisão dos conceitos básicos da análise de sobrevivência e dos testes não-paramétricos usados neste contexto. Em seguida, são apresentados os fundamentos da teoria de testes de significância repetidos, desenvolvida a partir dos anos 60 para testes de hipóteses repetidos sobre a média de uma variável Y com distribuição normal (Armitage et al (1969), Pocock (1977), O'Brien & Fleming (1979), Lan & DeMets (1983». Após esta revisão, são apresentadas as modificações propostas para adaptar essas técnicas para o caso de variáveis de resposta não imediatas e/ou censuradas, com distribuição assintótica conjunta normal multivariada. No final, é apresentada uma proposta para realização de um teste de significância repetido, utilizando reamostragem da estatística Weighted Kaplan-Meier (WKM) (Pepe e FIeming, 1989) e Log-rank em cada uma das análises. Um estudo por simulação desse procedimento por reamostragem foi feito / Abstract: The main objective of this work is to elaborate a detailed exposition of the theory of repeated significance tests, with particular emphasis on non parametric tests used in Survival Analysis. A second objective is to study and use in applications the somehow new Weighted Kaplan Meier statistic that was created to compare survival in two populations. This statistics is an integrated weighted difference of Kaplan Meier estimates of survival curves in two groups. In the first chapter, a revision of basic definitions and tests used in Survival Analysis is made. After, the principles of the theory of repeated significance tests, developed around 1969 for comparison of means of a response variables Y with Normal distribution in two populations are presented (Armitage et al (1969), Pocock (1977), O'Brien & Fleming (1979), Lan & DeMets (1983)). Then, at Chapter 3, the results for non immediate or censored response variables with an asymptotic normal distribution are presented. Finally, a resampling procedure for making a repeated significance test using the Weighted Kaplan Meier (Pepe & Fleming, 1989). and log rank statistics at each interim analysis is proposed. A study by simulation of this procedure is presented. / Mestrado / Mestre em Estatística
|
2 |
Aplicação do metodo Bootstrap em diagnosticos de colinearidade : resultados experimentaisBechelli, Ana Paula Pellegrino 19 December 1994 (has links)
Orientador: Hermann Gerhard Rohrer / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica , Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-19T21:36:55Z (GMT). No. of bitstreams: 1
Bechelli_AnaPaulaPellegrino_M.pdf: 1938101 bytes, checksum: 7fdedfa6f48cb541d60e310641f5c5a3 (MD5)
Previous issue date: 1994 / Resumo: Não informado. / Abstract: Not informed. / Mestrado / Mestre em Estatística
|
3 |
Aplicação do metodo Bootstrap na estimação da variancia do estimador de razãoBiscola, Jair 20 March 1985 (has links)
Orientador: Sebastião de Amorim / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-14T11:51:51Z (GMT). No. of bitstreams: 1
Biscola_Jair_M.pdf: 1002661 bytes, checksum: 9dd032a468ddb40c9d7092c33c7d6d07 (MD5)
Previous issue date: 1985 / Resumo: Não informado. / Abstract: Not informed. / Mestrado / Mestre em Estatística
|
4 |
O metodo Bootstrap e aplicações a regressão multiplaSilva, Damião Nobrega da 20 March 1995 (has links)
Orientador: Gabriela Stangenhaus / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-20T01:15:10Z (GMT). No. of bitstreams: 1
Silva_DamiaoNobregada_M.pdf: 2683132 bytes, checksum: 205a0f07bbedeff4e84f86e420cb584d (MD5)
Previous issue date: 1995 / Resumo: Neste trabalho será apresentada uma descrição básica de tópicos importantes do método Bootstrap (Efron, 1979a) para serem aplicados em problemas de Inferência Estatística cujas soluções analíticas são complicadas ou desconhecidas. Este texto é dirigido não só para estudantes de pós-graduação em Estatística, mas também para alunos de Bacharelado em Estatística que tenham cursado disciplinas básicas de Probabilidade e Inferência. É vista, inicialmente, a implementação do método para estimar variâncias, tendenciosidades e construção de intervalos de confiança. Em seguida, esta metodologia é implementada em problemas de análise de regressão múltipla utilizando critérios de estimação como: mínimos quadrados, norma LI e outros métodos robustos. Finalmente, é apresentada uma aplicação com dados de um experimento químico em bases de Schiff, que é um problema de regressão linear com restrição nos parâmetros, para mostrar a versatilidade do método em problemas mais complicados. / Abstract: Not informed. / Mestrado / Mestre em Estatística
|
5 |
Avaliação da distribuição bootstrap na análise dos riscos em cronogramas de projetosRosa, Rubens José January 2017 (has links)
Orientador : Prof. Dr. José Simão de Paula Pinto / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Sociais Aplicadas, Programa de Pós-Graduação em Ciência, Gestão e Tecnologia da Informação. Defesa: Curitiba, 13/02/2017 / Inclui referências : f. 117-119 / Resumo: A análise de risco em cronogramas é um fator crítico para o sucesso do planejamento e execução de projetos. Uma das formas de realizá-la é por meio da simulação Monte Carlo, atribuindo distribuições de probabilidades à duração das atividades do cronograma e simulando a execução do projeto várias vezes. O problema é que isso aumenta a carga de trabalho para o gerente do projeto e o obriga a ter conhecimentos em estatística. Para buscar resolver esse problema, esta pesquisa foi elaborada para demonstrar que a distribuição bootstrap pode ser utilizada na análise dos riscos em cronogramas de projetos, porque não seria necessário definir outras distribuições de probabilidades nem estimar seus parâmetros para executar a simulação Monte Carlo. Este estudo foi realizado por meio da análise de correlação entre a distribuição bootstrap e a distribuição triangular em uma amostra de 4.100 projetos fictícios nas mais diversas estruturas. Os resultados mostram que existe correlação entre as duas distribuições e chegou-se à conclusão de que a distribuição bootstrap (bootstrap-rate) pode ser utilizada na análise dos riscos em cronograma de projetos. Palavras-chave: bootstrap-rate; simulação Monte Carlo; análise de risco; cronograma; gerenciamento de projetos; bootstrap. / Abstract: Risk analysis in schedules is a critical factor for the success of project planning and execution. One way to do this is using the Monte Carlo simulation, assigning probability distributions to the duration of the schedule activities and simulating the execution of the project several times. The problem is that this increases the workload for the project manager and compels him to have knowledge in statistics. In order to solve this problem, this research was designed to demonstrate that the bootstrap distribution can be used in risk analysis in project schedules, because it would not be necessary to define other probability distributions nor to estimate its parameters for Monte Carlo simulation. This study was carried out through a correlation analysis between the bootstrap distribution and the triangular distribution in a sample of 4,100 fictitious projects in the most diverse structures. The results show that there is a correlation between the two distributions and it was concluded that the bootstrap-rate distribution can be used in the analysis of risks in a project schedule. Keywords: bootstrap-rate; Monte Carlo simulation; schedule; risk analysis; project management; bootstrap.
|
6 |
Metodologia gráfica para dados de eventos recorrentes via bootstrap. / Recurrent events; Bootstrap; Asymptotic theory; Coverage probabilityAnacleto Junior, Osvaldo 05 January 2005 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1
DissOAJ.pdf: 355178 bytes, checksum: 9e8e8eedffffb70dab1d4b56a2ee5d45 (MD5)
Previous issue date: 2005-01-05 / Financiadora de Estudos e Projetos / Experiments related to recurrent events provide information about the number of events,
time to their ocurrence and their costs. Nelson (1995) presents a methodology to obtain
confidence intervals for the cost and the number of cumulative events. Apart from this,
it is possible to construct confidence intervals via computer-intensive methods, where
the bootstrap is a particular case. In this dissertation we present these two procedures
and make a comparison, checking the coverage probability and the sample size influence
in the precision of the intervals provided by the two methods. One of the advantages
of the methodology presented in this dissertation is the possibility for its application in
several areas and its easy computational implementation. An example from engineering
illustrates the methodology. / Experimentos com dados de eventos recorrentes fornecem informações sobre o número
de eventos, o tempo até a ocorrência do evento e custos dos mesmos. Um exemplo consiste
em dados relacionados à garantia de equipamentos manufaturados, onde o objetivo básico
é estimar o custo médio acumulado e o número médio acumulado de eventos. Nelson
(1995) propõe uma metodologia para obtenção de intervalos de confiança para o custo e o
número médio acumulado de eventos baseada na teoria assintótica. Além desta metodologia,
é possível obter intervalos de confiança via métodos computacionalmente intensivos,
em particular, bootstrap. O objetivo deste trabalho é apresentar estes dois métodos, assim
como realizar uma comparação dos mesmos a partir da verificação da probabilidade
de cobertura e a influência do tamanho da amostra na precisão dos intervalos de confi-
ança construídos a partir dos dois procedimentos apresentados. Dentre as vantagens da
metodologia aqui apresentada, é a possibilidade de sua aplicação em diversas áreas do
conhecimento, assim como sua facilidade de implementação computacional. Um exemplo,
proveniente da área de engenharia, é apresentado.
|
7 |
Reamostragem bootstrap em amostragem por conjuntos ordenados e intervalos de confiança não paramétricos para a média.Taconeli, Cesar Augusto 27 January 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:11Z (GMT). No. of bitstreams: 1
DissCAT.pdf: 1246450 bytes, checksum: 08bdf53e7efc64e4dcca7835dee4b601 (MD5)
Previous issue date: 2005-01-27 / Financiadora de Estudos e Projetos / Ranked set sampling is an efficient and practice way to obtain more precise estimative
when the sample size is small because of the high cost or difficulties to measure the interest
variable. Using rough and cheap qualitative or quantitative information, the sample units are
ranked before their effective measurement.
In 1952, McIntyre introduced the ranked set sample design to estimate the average yields
from plots of cropland, using the ranked set sample mean, X . Cesario and Barreto (2003) have
shown a parametric version of bootstrap confidence intervals for normal distribution mean.
Because of the restriction of small sample size, the distributional assumption may not be
reasonable, producing no liable estimates. So the study and proposition of precise interval
estimators of the population mean could be relevant and are the main interest of this work.
Using resampling methods, we propose in this work an extension of bootstrap resampling
for ranked set sampling. A simulation study is conduced to the properties of single random
sample bootstrap confidence intervals and the similar using our version for ranked set sampling.
The analysis of the simulation study have shown the gain of precision for using the ranked set
sampling bootstrap confidence intervals in the population mean. / A amostragem por conjuntos ordenados é uma alternativa prática e eficiente no que
concerne à obtenção de estimativas mais precisas frente à impossibilidade de extração de uma
amostra numerosa, seja devido a dificuldades na mensuração da variável de interesse ou a um
elevado custo inerente a obtenção de tais medidas. A aplicação deste delineamento amostral
torna-se viável caso seja possível ordenar amostras extraídas aleatoriamente de maneira eficiente,
de acordo com o valor da variável de interesse, sem de fato medi-las, mas baseado apenas em um
critério pré-estabelecido, que pode ser alguma variável concomitante altamente correlacionada ou
mesmo mediante algum julgamento pessoal.
Introduzida por McIntyre (1952), a amostragem por conjuntos ordenados propicia a
estimação de diversos parâmetros com um relevante ganho em termos de precisão. Um estimador
para a média populacional é a média da amostra por conjuntos ordenados ( X ), proposto por
McIntyre com aplicações, inicialmente, na estimação da produção média de pastagens. Cesário e
Barreto (2003) apresentam uma alternativa paramétrica na obtenção de intervalos de confiança
bootstrap para a média de populações com distribuição normal via amostragem por conjuntos
ordenados.
Dada a restrição quanto à seleção de grandes amostras, a suposição de alguma distribuição
para a variável de interesse muitas vezes não é razoável, gerando estimativas pouco confiáveis.
Neste contexto, o estudo e a proposição de estimadores intervalares não paramétricos para a
média, elaborados a partir de um esquema de seleção de amostras capaz de gerar estimativas
precisas sob circunstâncias adversas, como é a amostragem por conjuntos ordenados, mostra-se
altamente relevante, sendo o objeto de estudo deste trabalho.
Os intervalos de confiança analisados são obtidos através de um esquema original de reamostragem
bootstrap, fundamentado em amostragem por conjuntos ordenados, seguindo
algoritmos propostos neste trabalho. A análise das propriedades destes intervalos foi realizada a
partir de um amplo estudo via simulação, que evidenciou uma significativa melhora das
estimativas propostas, quando comparado àquelas convencionais, baseadas em amostragem
aleatória simples, especialmente em relação à precisão de tais estimativas.
|
8 |
Algoritmos de estimação para Cadeias de Markov de alcance variavel : aplicações a detecção do ritmo em textos escritos / Estimation of algorithms for variable length Markov chains : applications in the detection of rhythm in written textsMatta, David Henriques da 25 March 2008 (has links)
Orientador: Nancy Lopes Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-10T20:09:07Z (GMT). No. of bitstreams: 1
Matta_DavidHenriquesda_M.pdf: 974440 bytes, checksum: 6d2fc35e3a33e3e3bbee24baf377bfdb (MD5)
Previous issue date: 2008 / Resumo: No presente trabalho, direcionamos nossos estudos à questão de se encontrar evidências estatísticas na detecção de ritmos em textos escritos, apresentando para isso ferramentas probabilísticas que nos permitam discriminar textos brasileiros e portugueses. Para alcançarmos tais objetivos, abordamos alguns resultados teóricos e práticos em modelagem, reamostragem e estimação das cadeias de Markov de alcance variável. Sendo que na parte de reamostragem, propomos um novo método para conjuntos de dados com um ponto de renovação / Abstract: In this project, we focus our studies on the question of finding statistical evidences in detecting rhythm in written texts by presenting probabilistic tools that allow us to discriminate Brazilian and Portuguese texts. To achieve such goals, we some present theoretical and practical results in modeling, resampling and estimation of variable length Markov Chains. More over in the part, we propose a new method of resampling for data sets with a renewal point / Mestrado / Estatistica e Probabilidade / Mestre em Estatística
|
9 |
Intervalos de previsão bootstrap em modelos de volatilidade univariados / Bootstrap prediction in univariate volatility modelsTrucíos Maza, Carlos César, 1985- 07 November 2012 (has links)
Orientador: Luiz Koodi Hotta / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-20T22:42:22Z (GMT). No. of bitstreams: 1
TruciosMaza_CarlosCesar_M.pdf: 13820849 bytes, checksum: 0cc000af0d7cb7cb6ee6c05ef9f3afbd (MD5)
Previous issue date: 2012 / Resumo: Mercados financeiros têm mostrado um grande interesse em intervalos de previsão como uma medida de incerteza. Além das previsões do nível, a previsão da volatilidade é importante em várias aplicações em finanças. O modelo GARCH tem sido bastante utilizado na modelagem da volatilidade. A partir deste modelo, outros modelos foram propostos para incorporar outros fatos estilizados, como o efeito de alavancagem. Neste sentido, temos os modelos EGARCH e GJR-GARCH. Os métodos tradicionais de construção de intervalos de previsão para séries temporais geralmente assumem que os parâmetros do modelo são conhecidos e os erros normais. Quando estas suposições não são verdadeiras, o que costuma acontecer na prática, o intervalo de previsão obtido tenderá a ter uma cobertura abaixo da nominal. Nesta dissertação propomos uma adaptação do algoritmo PRR (Pascual, Romo e Ruiz) desenvolvido para obter intervalos de previsão em modelos GARCH, para obter intervalos de previsão em modelos EGARCH e GJR-GARCH. As adaptações feitas são analisadas através de experimentos Monte Carlo e verifica-se que tiveram bom desempenho apresentando valores da cobertura estimada próximos da cobertura nominal. As adaptações propostas assim como o algoritmo PRR são aplicadas para obter intervalos de previsão dos retornos e das volatilidades para a série de retornos da Ibovespa e para a série NYSE COMPOSITE(DJ) da bolsa de valores de Nova Iorque, obtendo em ambos os casos resultados satisfatórios / Abstract: Financial Markets have shown a big interest in forecast intervals (prediction intervals) as a uncertain measure. Besides the level prediction, the prediction of the volatility is very important in many financial applications. The GARCH model, has been very used in volatility modeling. From this model, other have been proposed to incorporate other stylized facts, such as the leverage effect. In this sense, we have the EGARCH and GJR-GARCH models. Traditional methods for constructing predictions intervals for time series generally assume that the model parameters are known and the erros are normal. When these assumptions are not true, that it is very often in practice, the obtained prediction interval, will tend to have a cover under the nominal. In this theses we propose an adaptation of the PRR (Pascual, Romo and Ruiz) algorithm developed to obtain prediction intervals in GARCH models, to obtain prediction intervals in EGARCH and GJR-GARCH models. These adaptations are analized through Monte-Carlo experiments and It was verified that they have a good performance showing estimated cover values close to the nominal cover. The proposed adaptations, such as the PRR algorithm are applied to obtain prediction intervals from the returns and volatilities for the Ibovespa return series and for the New York Stock Exchange NYSE COMPOSITE(DJ) series, obtaining satisfactory results in both cases / Mestrado / Estatistica / Mestre em Estatística
|
10 |
Um novo estimador exponencial por partes da curva de sobrevivência: um estudo comparativo.Moraes, Fabíola Eugênio Arrabaça 31 May 2006 (has links)
Made available in DSpace on 2016-06-02T20:05:58Z (GMT). No. of bitstreams: 1
DissFEAM.pdf: 568946 bytes, checksum: 953e676ad364fe570f94bc6a67fa2f34 (MD5)
Previous issue date: 2006-05-31 / In this work we revise the main basic concepts on survival analysis and reliability.
We present the most known nonparametric estimators of the survival function in the
presence of censured data. Their estimates are calculed and compared in an real data set
on human renal transplants. We point some problems that are not usually considered in
the structure of these estimators. As consequense of such problems we can observe possible
distortions in the estimates the direction of sub or over estimating the main characteristics
of interest. Some alternatives are pointed out for finding lesse vulnerable estimators.
Moreover, we propose a new modified piece wise exponential estimator, pointing out its
properties. / Neste trabalho, revisamos os principais conceitos básicos de análise de sobre-
vivência e confiabilidade, sob a abordagem da inferência clássica. Relacionamos os mais
conhecidos estimadores não paramétricos das funções de sobrevivência, com dados cen-
surados. Suas estimativas são calculadas e comparadas em um exemplo com dados reais de
transplantes renais humanos. Apontamos alguns problemas que, muitas vezes, deixaram
de ser considerados na estruturação destes estimadores. Como conseqüência destes pro-
blemas, citamos possíveis distorções nas estimativas, no sentido de sub ou super estimar as
principais características de interesse, e levantamos as possibilidades de se estar: expondo
a riscos desnecessários pacientes, acompanhados em estudos clínicos, ou submetendo-se
empresas a prejuízos financeiros, em estudos de fidelidade de clientes.
Além disso, propomos um novo estimador modificado do tipo exponencial por
partes, pela mudança que realizamos na taxa de risco acumulada de Kitchin nos subin-
tervalos formados pelos tempos consecutivos das ocorrências dos eventos de interesse.
Finalmente, dentro do conhecimento atualmente disponível, apontamos alternativas na
busca de correções para alguns destes problemas e realçamos a necessidade da elaboração
de estimadores menos vulneráveis a eles.
|
Page generated in 0.103 seconds