• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 1
  • Tagged with
  • 42
  • 42
  • 42
  • 25
  • 21
  • 15
  • 11
  • 11
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Uma metodologia semi-parametrica para IBNR (Incurred But Not Reported) / A semi-parametric methodology to IBNR (Incurred But Not Reported)

Nascimento, Fernando Ferraz do 17 March 2006 (has links)
Orientadores: Ronaldo Dias, Nancy Lopes Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-06T03:32:13Z (GMT). No. of bitstreams: 1 Nascimento_FernandoFerrazdo_M.pdf: 973412 bytes, checksum: 97b1cf4137bd59eb99ae987305700439 (MD5) Previous issue date: 2006 / Resumo: Neste trabalho, comparamos diversas técnicas de previsão de IBNR (Incurred But Not Reported) para dados de um triângulo Run-OjJ, desde as mais simples, como por exemplo as técnicas Chain- Ladder e a técnica da Separação, até as técnicas mais sofisticadas, considerando modelos Log-Normais ou pela distribuição Poisson Composta. Além disso, nosso trabalho enfatiza a necessidade do uso de técnicas não-paramétricas, considerando um modelo de truncamento das variáveis. Foi possível mostrar que, mesmo não tendo nenhuma informação sobre a distribuição dos dados, é possível estimar o IBNR com menor erro e variabilidade do que as técnicas usuais conhecidas. Para fazer as comparações, foram realizadas simulações de sinistros ocorrendo através de um Processo de Poisson não homogêneo, e com dependência no tempo de relato e valor do sinistro. A medida de comparação utilizada foi o Erro Quadrático Médio (EQM) entre os valores simulados e os valores previstos por cada técnica. A abordagem paramétrica, quando os dados provém de uma distribuição Poisson Composta, apresentou o menor EQM dentre todas as técnicas. Entretanto, se não há informação sobre a distribuição dos dados, a técnica de Mista de truncamento foi a melhor entre as não-paramétricas / Abstract: We compare several forecast techniques for IBNR(Incurred But Not Reported) from a Run-Off triangle data, since the most simple techniques like Chain-Ladder and Separation Technique, to the more complex using Log-Normal models and Compound Poisson distribution. Therefore, exist the necessity of the use of Nonparametric techniques, using a model that consider variable Truncation. It was possible shown that, when we don't have any information about the data, it's possible estimate de IBNR forecasting with less mistake and variability than the usual techniques. For make the forecasting, we used claims simulations occurring by a nonhomogeneous Poisson process and with dependence entry the time to report and value paid for one claim. The measure of comparison used was the Mean Square Error (MSE) of simulated values and forecasting values for each technique. The parametric boarding when the data come from a Compound Poisson distribution, was the best MSE entry all techniques. However, when we don't have any information about the data, the Truncation Technique was the best of the nonparametric techniques / Mestrado / Mestre em Estatística
22

Estimação não-parametrica para função de covariancia de processos gaussianos espaciais / Nonparametric estimation for covariance function of spatial gaussian processes

Gomes, José Clelto Barros 13 August 2018 (has links)
Orientador: Ronaldo Dias / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-13T14:28:48Z (GMT). No. of bitstreams: 1 Gomes_JoseCleltoBarros_M.pdf: 1798618 bytes, checksum: db671b29b83f0321e8dbc03c5af42cde (MD5) Previous issue date: 2009 / Resumo: O desafio na modelagem de processos espaciais está na descrição da estrutura de covariância do fenômeno sob estudo. Um estimador não-paramétrico da função de covariância foi construído de forma a usar combinações lineares de funções B-splines. Estas bases são usadas com muita frequência na literatura graças ao seu suporte compacto e a computação tão rápida quanto a habilidade de criar aproximações suaves e apropriadas. Verificouse que a função de covariância estimada era definida positiva por meio do teorema de Bochner. Para a estimação da função de covariância foi implementado um algoritmo que fornece um procedimento completamente automático baseado no número de funções bases. Então foram realizados estudos numéricos que evidenciaram que assintoticamente o procedimento é consistente, enquanto que para pequenas amostras deve-se considerar as restrições das funções de covariância. As funções de covariâncias usadas na estimação foram as de exponencial potência, gaussiana, cúbica, esférica, quadrática racional, ondular e família de Matérn. Foram estimadas ainda covariâncias encaixadas. Simulações foram realizadas também a fim de verificar o comportamento da distribuição da afinidade. As estimativas apresentaram-se satisfatórias / Abstract: The challenge in modeling of spatials processes is in description of the framework of covariance of the phenomenon about study. The estimation of covariance functions was done using a nonparametric linear combinations of basis functions B-splines. These bases are used frequently in literature thanks to its compact support and fast computing as the ability to create smooth and appropriate approaches There was positive definiteness of the estimator proposed by the Bochner's theorem. For the estimation of the covariance functions was implemented an algorithm that provides a fully automated procedure based on the number of basis functions. Then numerical studies were performed that showed that the procedure is consistent assynthotically. While for small samples should consider the restrictions of the covariance functions, so the process of optimization was non-linear optimization with restrictions. The following covariance functions were used in estimating: powered exponential, Gaussian, cubic, spherical, rational quadratic and Matérn family. Nested covariance funtions still were estimated. Simulations were also performed to verify the behavior of affinity and affinity partial, which measures how good is the true function of the estimated function. Estimates showed satisfactory / Mestrado / Mestre em Estatística
23

Analise do desempenho dos alunos da UNICAMP do vestibular a conclusão do curso utilizando U-Estatisticas / Analysis of the students performance at UNICAMP from entrance to conclusion using U-Statistics

Maia, Rafael Pimentel, 1983- 27 March 2008 (has links)
Orientador: Hildete Prisco Pinheiro / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-10T18:03:10Z (GMT). No. of bitstreams: 1 Maia_RafaelPimentel_M.pdf: 1076568 bytes, checksum: b09cf45158c8c66c120c29b2addafe8c (MD5) Previous issue date: 2008 / Resumo: O objetivo deste trabalho é propor novas metodologias para avaliar o desempenho dos alunos da UNICAMP, do ingresso à conclusão do curso. O conjunto de dados disponível foi obtido a partir dos questionários Sócio-Culturais aplicados pela Comissão Permanente de Vestibulares (COMVEST) na inscrição do vestibular e informações acadêmicas fornecidas pela Diretoria Acadêmica (DAC) da UNICAMP. Estes se referem às informações de todos os alunos ingressantes nos anos de 1997 a 2000. São propostas duas metodologias, uma com base na variável denominada "ganho relativo" sugerido por Dachs e Maia (2006) e a segunda utilizando as notas de todas as disciplinas cursadas pelos alunos durante a graduação. Essas novas metodologias baseiam-se em medidas de diversidades propostas por Rao (1982) e na utilização de U-Estatísticas. São propostos testes de homogeneidade para avaliar se existe diferença no desempenho entre alunos de grupos distintos (alunos oriundos de escola pública ou privada, por exemplo). Aspectos teóricos de U-Estatística e medidas de diversidade também são apresentados. Para a primeira metodologia foram feitas duas abordagens: paramétrica e não paramétrica, enquanto que para a segunda, apenas a abordagem não paramétrica foi explorada. Na abordagem paramétrica as estimativas são feitas por máxima verossimilhança e na não paramétrica foi utilizado o método de re-amostragem por jackknafe para se obter as estimativas das variâncias. Todas as aplicações utilizaram os dados dos alunos ingressantes / Abstract: The main interest of this work is to propose new methods to evaluate the performances of the students at UNICAMP from admission to graduation. The data was obtained from questionnaires applied by the University Commission of admission's exam (COMVEST) during registration of the exam and academic informations provided by the Directory of Academic Studies (DAC). The data refer to information with respect to all the students enrolled in the University from 1997 to 2000. We propose two methods: one based on the variable "relative gain"(Dachs and Maia, 2006) and the other method uses information about the grades of all courses attended by the students during their undergraduate studies. These new methods are based on diversity measures proposed by Rao (1982) and the use of U-Statistics. Homogeneity tests are proposed to evaluate differences in the performance of the students according to different socio-economic groups. For the first method, we have two approaches: a parametric and a nonparametric analysis. For the second method, only a nonparametric analysis was done. In the parametric analysis, a Maximum Likelihood Estimation procedure is used and in the nonparametric analysis, resampling methods such as jackknife was used to obtain the estimates of the variances and confidence intervals. All the applications use the data of the enrolled students / Mestrado / Probabilidade e Estatistica Aplicada / Mestre em Estatística
24

Estimação e comparação de curvas de sobrevivência sob censura informativa. / Estimation and comparison of survival curves with informative censoring.

Raony Cassab Castro Cesar 10 July 2013 (has links)
A principal motivação desta dissertação é um estudo realizado pelo Instituto do Câncer do Estado de São Paulo (ICESP), envolvendo oitocentos e oito pacientes com câncer em estado avançado. Cada paciente foi acompanhado a partir da primeira admissão em uma unidade de terapia intensiva (UTI) pelo motivo de câncer, por um período de no máximo dois anos. O principal objetivo do estudo é avaliar o tempo de sobrevivência e a qualidade de vida desses pacientes através do uso de um tempo ajustado pela qualidade de vida (TAQV). Segundo Gelber et al. (1989), a combinação dessas duas informações, denominada TAQV, induz a um esquema de censura informativa; consequentemente, os métodos tradicionais de análise para dados censurados, tais como o estimador de Kaplan-Meier (Kaplan e Meier, 1958) e o teste de log-rank (Peto e Peto, 1972), tornam-se inapropriados. Visando sanar essa deficiência, Zhao e Tsiatis (1997) e Zhao e Tsiatis (1999) propuseram novos estimadores para a função de sobrevivência e, em Zhao e Tsiatis (2001), foi desenvolvido um teste análogo ao teste log-rank para comparar duas funções de sobrevivência. Todos os métodos considerados levam em conta a ocorrência de censura informativa. Neste trabalho avaliamos criticamente esses métodos, aplicando-os para estimar e testar curvas de sobrevivência associadas ao TAQV no estudo do ICESP. Por fim, utilizamos um método empírico, baseado na técnica de reamostragem bootstrap, a m de propor uma generalização do teste de Zhao e Tsiatis para mais do que dois grupos. / The motivation for this research is related to a study undertaken at the Cancer Institute at São Paulo (ICESP), which comprises the follow up of eight hundred and eight patients with advanced cancer. The patients are followed up from the first admission to the intensive care unit (ICU) for a period up to two years. The main objective is to evaluate the quality-adjusted lifetime (QAL). According to Gelber et al. (1989), the combination of both this information leads to informative censoring; therefore, traditional methods of survival analisys, such as the Kaplan-Meier estimator (Kaplan and Meier, 1958) and log-rank test (Peto and Peto, 1972) become inappropriate. For these reasons, Zhao and Tsiatis (1997) and Zhao and Tsiatis (1999) proposed new estimators for the survival function, and Zhao and Tsiatis (2001) developed a test similar to the log-rank test to compare two survival functions. In this dissertation we critically evaluate and summarize these methods, and employ then in the estimation and hypotheses testing to compare survival curves derived for QAL, the proposed methods to estimate and test survival functions under informative censoring. We also propose a empirical method, based on the bootstrap resampling method, to compare more than two groups, extending the proposed test by Zhao and Tsiatis.
25

Análise de curvas funcionais agregadas com efeitos aleatórios / Analysis of aggregated functional curves with random effect

Lenzi, Amanda, 1988- 22 August 2018 (has links)
Orientador: Nancy Lopes Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-22T12:21:05Z (GMT). No. of bitstreams: 1 Lenzi_Amanda_M.pdf: 1978923 bytes, checksum: 093900c4de8727a9c79d6afdfb0e3bd4 (MD5) Previous issue date: 2013 / Resumo: Neste trabalho tratamos de um problema de dados funcionais agregados, isto é, combinações lineares de curvas aleatórias que não podem ser observadas individualmente. A análise de curvas de carga de transformadores elétricos em linha de distribuição é uma situação onde tais dados são encontrados. O conjunto de dados consiste de diversas curvas agregadas; assumimos que cada curva individual é a realização de um processo Gaussiano com curva média que é modelada através da expansão em bases B-splines. Além disso, assumimos que os coeficientes também são desconhecidos e temos somente uma estimativa de tais números. Nosso objetivo é utilizar os valores aproximados desses coeficientes, além das curvas agregadas, para estimar o valor real dos coeficientes, a curva típica de cada subpopulação e parâmetros de variância. Para este fim, diferentemente de trabalhos anteriores sobre o tema, propomos a utilização de um modelo de efeitos aleatórios / Abstract: In this paper, we deal with a problem of aggregated functional data, i.e. linear combinations of random curves, which cannot be seen individually. The analysis of load curves of electrical transformers in the distribution line is a situation where those data are found. The data set consists of several aggregated curves; we assume that each individual curve is the realization of a Gaussian process with the mean curve modeled through the expansion in B-splines basis. Furthermore, we assume that the coefficients are also unknown and we have only an estimate of such numbers. Our goal is to use the approximate coefficients and the aggregated curve data to estimate the true coefficients, the typical curve of each subpopulation and variance parameters. For this purpose, unlike previous works on the subject, we propose using a random effects model / Mestrado / Estatistica / Mestra em Estatística
26

Abordagem não-paramétrica para cálculo do tamanho da amostra com base em questionários ou escalas de avaliação na área de saúde / Non-parametric approach for calculation of sample size based on questionnaires or scales of assessment in the health care

Couto Junior, Euro de Barros 01 October 2009 (has links)
Este texto sugere sobre como calcular um tamanho de amostra com base no uso de um instrumento de coleta de dados formado por itens categóricos. Os argumentos para esta sugestão estão embasados nas teorias da Combinatória e da Paraconsistência. O propósito é sugerir um procedimento de cálculo simples e prático para obter um tamanho de amostra aceitável para coletar informações, organizá-las e analisar dados de uma aplicação de um instrumento de coleta de dados médicos baseado, exclusivamente, em itens discretos (itens categóricos), ou seja, cada item do instrumento é considerado como uma variável não-paramétrica com um número finito de categorias. Na Área de Saúde, é muito comum usar instrumentos para levantamento com base nesse tipo de itens: protocolos clínicos, registros hospitalares, questionários, escalas e outras ferramentas para inquirição consideram uma sequência organizada de itens categóricos. Uma fórmula para o cálculo do tamanho da amostra foi proposta para tamanhos de população desconhecidos e um ajuste dessa fórmula foi proposto para populações de tamanho conhecido. Pôde-se verificar, com exemplos práticos, a possibilidade de uso de ambas as fórmulas, o que permitiu considerar a praticidade de uso nos casos em que se tem disponível pouca ou nenhuma informação sobre a população de onde a amostra será coletada. / This text suggests how to calculate a sample size based on the use of a data collection instrument consisting of categorical items. The arguments for this suggestion are based on theories of Combinatorics and Paraconsistency. The purpose is to suggest a practical and simple calculation procedure to obtain an acceptable sample size to collect information, organize it and analyze data from an application of an instrument for collecting medical data, based exclusively on discrete items (categorical items), i.e., each item of the instrument is considered as a non-parametric variable with finite number of categories. In the health care it is very common to use survey instruments on the basis of such items: clinical protocols, hospital registers, questionnaires, scales and other tools for hearing consider a sequence of items organized categorically. A formula for calculating the sample size was proposed for a population of unknown size, and an adjusted formula has been proposed for population of known size. It was seen, with practical examples, the possibility of using both formulas, allowing to consider the practicality of the use in cases that have little or no information available about the population from which the sample is collected
27

Algoritmos não-paramétricos para detecção de pontos de mudança em séries temporais de alta frequência / Non-parametric change-point detection algorithms for high-frequency time series

Cardoso, Vitor Mendes 05 July 2018 (has links)
A área de estudos econométricos visando prever o comportamento dos mercados financeiros aparece cada vez mais como uma área de pesquisas dinâmica e abrangente. Dentro deste universo, podemos de maneira geral separar os modelos desenvolvidos em paramétricos e não paramétricos. O presente trabalho tem como objetivo investigar técnicas não-paramétricas derivadas do CUSUM, ferramenta gráfica que se utiliza do conceito de soma acumulada originalmente desenvolvida para controles de produção e de qualidade. As técnicas são utilizadas na modelagem de uma série cambial (USD/EUR) de alta frequência com diversos pontos de negociação dentro de um mesmo dia / The area of econometric studies to predict the behavior of financial markets increasingly proves itself as a dynamic and comprehensive research area. Within this universe, we can generally separate the models developed in parametric and non-parametric. The present work aims to investigate non-parametric techniques derived from CUSUM, a graphical tool that uses the cumulative sum concept originally developed for production and quality controls. The techniques are used in the modeling of a high frequency exchange series (USD/EUR) with several trading points within the same day
28

Abordagem não-paramétrica para cálculo do tamanho da amostra com base em questionários ou escalas de avaliação na área de saúde / Non-parametric approach for calculation of sample size based on questionnaires or scales of assessment in the health care

Euro de Barros Couto Junior 01 October 2009 (has links)
Este texto sugere sobre como calcular um tamanho de amostra com base no uso de um instrumento de coleta de dados formado por itens categóricos. Os argumentos para esta sugestão estão embasados nas teorias da Combinatória e da Paraconsistência. O propósito é sugerir um procedimento de cálculo simples e prático para obter um tamanho de amostra aceitável para coletar informações, organizá-las e analisar dados de uma aplicação de um instrumento de coleta de dados médicos baseado, exclusivamente, em itens discretos (itens categóricos), ou seja, cada item do instrumento é considerado como uma variável não-paramétrica com um número finito de categorias. Na Área de Saúde, é muito comum usar instrumentos para levantamento com base nesse tipo de itens: protocolos clínicos, registros hospitalares, questionários, escalas e outras ferramentas para inquirição consideram uma sequência organizada de itens categóricos. Uma fórmula para o cálculo do tamanho da amostra foi proposta para tamanhos de população desconhecidos e um ajuste dessa fórmula foi proposto para populações de tamanho conhecido. Pôde-se verificar, com exemplos práticos, a possibilidade de uso de ambas as fórmulas, o que permitiu considerar a praticidade de uso nos casos em que se tem disponível pouca ou nenhuma informação sobre a população de onde a amostra será coletada. / This text suggests how to calculate a sample size based on the use of a data collection instrument consisting of categorical items. The arguments for this suggestion are based on theories of Combinatorics and Paraconsistency. The purpose is to suggest a practical and simple calculation procedure to obtain an acceptable sample size to collect information, organize it and analyze data from an application of an instrument for collecting medical data, based exclusively on discrete items (categorical items), i.e., each item of the instrument is considered as a non-parametric variable with finite number of categories. In the health care it is very common to use survey instruments on the basis of such items: clinical protocols, hospital registers, questionnaires, scales and other tools for hearing consider a sequence of items organized categorically. A formula for calculating the sample size was proposed for a population of unknown size, and an adjusted formula has been proposed for population of known size. It was seen, with practical examples, the possibility of using both formulas, allowing to consider the practicality of the use in cases that have little or no information available about the population from which the sample is collected
29

Algoritmos não-paramétricos para detecção de pontos de mudança em séries temporais de alta frequência / Non-parametric change-point detection algorithms for high-frequency time series

Vitor Mendes Cardoso 05 July 2018 (has links)
A área de estudos econométricos visando prever o comportamento dos mercados financeiros aparece cada vez mais como uma área de pesquisas dinâmica e abrangente. Dentro deste universo, podemos de maneira geral separar os modelos desenvolvidos em paramétricos e não paramétricos. O presente trabalho tem como objetivo investigar técnicas não-paramétricas derivadas do CUSUM, ferramenta gráfica que se utiliza do conceito de soma acumulada originalmente desenvolvida para controles de produção e de qualidade. As técnicas são utilizadas na modelagem de uma série cambial (USD/EUR) de alta frequência com diversos pontos de negociação dentro de um mesmo dia / The area of econometric studies to predict the behavior of financial markets increasingly proves itself as a dynamic and comprehensive research area. Within this universe, we can generally separate the models developed in parametric and non-parametric. The present work aims to investigate non-parametric techniques derived from CUSUM, a graphical tool that uses the cumulative sum concept originally developed for production and quality controls. The techniques are used in the modeling of a high frequency exchange series (USD/EUR) with several trading points within the same day
30

Obtenção dos níveis de significância para os testes de Kruskal-Wallis, Friedman e comparações múltiplas não-paramétricas. / Obtaining significance levels for Kruskal-Wallis, Friedman and nonparametric multiple comparisons tests.

Pontes, Antonio Carlos Fonseca 29 June 2000 (has links)
Uma das principais dificuldades encontradas pelos pesquisadores na utilização da Estatística Experimental Não-Paramétrica é a obtenção de resultados confiáveis. Os testes mais utilizados para os delineamentos com um fator de classificação simples inteiramente casualizados e blocos casualizados são o de Kruskal-Wallis e o de Friedman, respectivamente. As tabelas disponíveis para estes testes são pouco abrangentes, fazendo com que o pesquisador seja obrigado a recorrer a aproximações. Estas aproximações diferem dependendo do autor a ser consultado, podendo levar a resultados contraditórios. Além disso, tais tabelas não consideram empates, mesmo no caso de pequenas amostras. No caso de comparações múltiplas isto é mais evidente ainda, em especial quando ocorrem empates ou ainda, nos delineamentos inteiramente casualizados onde se tem número diferente de repetições entre tratamentos. Nota-se ainda que os softwares mais utilizados em geral recorrem a aproximações para fornecer os níveis de significância, além de não apresentarem resultados para as comparações múltiplas. Assim, o objetivo deste trabalho é apresentar um programa, em linguagem C, que realiza os testes de Kruskal-Wallis, de Friedman e de comparações múltiplas entre todos os tratamentos (bilateral) e entre os tratamentos e o controle (uni e bilateral) considerando todas as configurações sistemáticas de postos ou com 1.000.000 de configurações aleatórias, dependendo do número total de permutações possíveis. Dois níveis de significância são apresentados: o DW ou MaxDif , baseado na comparação com a diferença máxima dentro de cada configuração e o Geral, baseado na comparação com todas as diferenças em cada configuração. Os valores do nível de significância Geral assemelham-se aos fornecidos pela aproximação normal. Os resultados obtidos através da utilização do programa mostram, ainda, que os testes utilizando as permutações aleatórias podem ser bons substitutos nos casos em que o número de permutações sistemáticas é muito grande, já que os níveis de probabilidade são bastante próximos. / One of the most difficulties for the researchers in using Nonparametric Methods is to obtain reliable results. Kruskal-Wallis and Friedman tests are the most used for one-way layout and for randomized blocks, respectively. Tables available for these tests are not too wild, so the research must use approximate values. These approximations are different, depending on the author and the results can be not similar. Furthermore, these tables do not taking account tied observations, even in the case of small sample. For multiple comparisons, this is more evident, specially when tied observations occur or the number of replications is different. Many softwares like SAS, STATISTICA, S-Plus, MINITAB, etc., use approximation in order to get the significance levels and they do not present results for multiple comparisons. Thus, the aim of this work is to present a routine in C language that runs Kruskal-Wallis, Friedman and multiple comparisons among all treatments (bi-tailed) and between treatment and control (uni and bi-tailed), considering all the systematic configurations of the ranks or with more than 1,000,000 random ones, depending on the total of possible permutations. Two levels of significance are presented: DW or MaxDif, based on the comparison of the maximum difference within each configuration and the Geral, based on the comparison of all differences for each configuration. The Geral values of the significance level are very similar for the normal approximation. The obtaining results through this routine show that, the tests using random permutations can be nice substitutes for the case of the number of systematic permutations is too large, once the levels of probability are very near.

Page generated in 0.0756 seconds