• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 1
  • Tagged with
  • 42
  • 42
  • 42
  • 25
  • 21
  • 15
  • 11
  • 11
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimação de maxima verossimilhança não parametrica pelos metodos de grenander e de maxima verossimilhança penalizada

Gimenez, Patricia Cristina 20 September 1993 (has links)
Orientador: Mauro S. de F. Marques / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da computação / Made available in DSpace on 2018-07-18T17:44:43Z (GMT). No. of bitstreams: 1 Gimenez_PatriciaCristina_M.pdf: 1409115 bytes, checksum: df8651d1a27512366efcdd40292cc87d (MD5) Previous issue date: 1993 / Resumo: Não informado. / Abstract: Not informed. / Mestrado / Mestre em Estatística
2

Estimação não paramétrica da distribuição do tempo de falha para dados de status corrente com erros de classificação

Maia, Augusto de Araújo 19 June 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015. / Submitted by Guimaraes Jacqueline (jacqueline.guimaraes@bce.unb.br) on 2015-11-24T12:03:15Z No. of bitstreams: 1 2015_Augusto de Araujo Maia.pdf: 1007754 bytes, checksum: 3a3856c6d37f380aa371684a8aba396b (MD5) / Approved for entry into archive by Marília Freitas(marilia@bce.unb.br) on 2016-01-25T15:37:11Z (GMT) No. of bitstreams: 1 2015_Augusto de Araujo Maia.pdf: 1007754 bytes, checksum: 3a3856c6d37f380aa371684a8aba396b (MD5) / Made available in DSpace on 2016-01-25T15:37:11Z (GMT). No. of bitstreams: 1 2015_Augusto de Araujo Maia.pdf: 1007754 bytes, checksum: 3a3856c6d37f380aa371684a8aba396b (MD5) / Neste estudo, avaliamos o desempenho de um método para correção do estimador não paramétrico de máxima verossimilhança da distribuição do tempo de falha para dados de status corrente com erros de classificação. Tais erros são devidos à sensibilidade e à especificidade do teste clínico utilizado para determinação da presença da doença de interesse no instante de observação. O método estudado reduz substancialmente o vício quando comparado com o estimador não corrigido. O mesmo se observou para a versão suavizada do estimador corrigido via núcleo-estimador. / We studied the performance of a method proposed to correct the nonparametric maximum likelihood estimator of the distribution function of failure time for current status data with misclassifications caused by sensitivity and specificity of the clinical test. The corrected estimator reduced substantially the bias compared to the original estimator. The same was observed for the smoothed version of the corrected estimator.
3

Seleção adaptativa de funções de base em analise de dados funcionais via penalização estocastica

Anselmo, Cezar Augusto de Freitas 03 July 2003 (has links)
Orientador: Ronaldo Dias / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T14:21:44Z (GMT). No. of bitstreams: 1 Anselmo_CezarAugustodeFreitas_M.pdf: 3167948 bytes, checksum: 4ec23d7c787f78baf83977c03723f6c3 (MD5) Previous issue date: 2003 / Resumo: A área da análise não-paramétrica de dados responsável pelos casos em que esses se constituem de uma coleção de curvas é denominada Análise de Dados Funcionais. O crescente interesse nesse estudo tem motivado o surgimento de pesquisas nessa direção. Esse trabalho propõe um novo método em Análise de Dados Funcionais. Os dados (Xai=l..m consistem de um conjunto de m curvas inter-relacionadas que, individualmente, podem ser consideradas como combinação linear de funções apropriadamente escolhidas e que geram uma base para o espaço de funções para as curvas em questão. Dessa fonna, a técnica de mínimos quadrados penalizados é utilizada conjuntamente com o conceito de penalização estocástica, onde se introduz uma variável aleatória Bemoulli associada a cada coeficiente da expansão linear. A explicação por considerar o problema como funcional ao invés de multivariado reside na suposição de que Xi é alguma função bem comportada e na possibilidade de estimar funcionais, como derivadas e integrais. Questões como custo computacional e plausibilidade das suposições do modelo em geral foram de interesse primário. As simulações iniciais foram feitas através do software R (http://cran.r-project.org) e posterionnente, por motivos de comparação e velocidade, foi realizada sua implementação em Ox (http://www.nuff.ox.ac.uk/users/Doomik). Através delas, utilizou-se uma variante do algoritmo SEM para estimação dos parâmetros do modelo. Em todas as simulações esteve implícito que o argumento sobre o qual são feitas as medidas, t, é unidimensional e que as curvas são registradas e alinhadas em algum sentido, de modo que propriedades importantes de cada curva ocorram aproximadamente sobre os mesmos valores de t. O método mostrou-se adaptativo, de maneira que capturou as nuances importantes de cada curva, conseguindo resumi-Ias na estimativa final que, nas simulações, demonstrou ser uma excelente aproximação da curva verdadeira. Adicionalmente, os algoritmos produzidos perfizeram um custo computacional relativamente baixo quando utilizados nas simulações do modelo / Abstract: The subject of nonparametric data analysis that deals with curve-shaped data is named Functional Data Analysis. This sub-area of nonparametrics has attracted an increasing interest of many researchers. In this work we present a new method in Functional Data Analysis. The data (Xi)i=l..m consist of a collection of m curves interrelated that, individually, can be considered as a linear combination of functions appropriately chosen. These functions generate a basis to function space where one believes the curves live. In this way, penalized minimum squares method is jointly used with the idea of stochastic penalization by inserting a Bemoulli random variable linked to each coefficient of the curves linear expansion. The reason to consider this problem as functional instead multivariate lies on supposition that Xi is a smooth function. Computational aspects and plausibility of suppositions were of primary interest. First simulations were performed in R software (http://cran.r-project.org). By reasons of comparison and velocity, we also implemented a version in Ox (http://www.nuff.ox.ac.uk/users/Doomik). We implemented a variant version of SEM algorithm to calculate parameters estimates. All the simulations regarded that independent variable, t, is unidimensional and the curves are registered and aligned in some sense, assuring the curves features occur about the same t value. The simulations results show that the method is adaptive, able to recover important features of curves and the final curve estimate can be shown to be an excellent approximation to the true curve. In addition, the idealized algorithms achieved a relatively low computational cost in simulations of the model / Mestrado / Estatistica / Mestre em Estatística
4

Distancia de matusita e comparação de duas amostras

Villanueva Rojas, Oscar 12 September 1984 (has links)
Orientador: Jose Antonio Cordeiro / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-17T00:27:55Z (GMT). No. of bitstreams: 1 VillanuevaRojas_Oscar_M.pdf: 1222307 bytes, checksum: 253624851090b21ceac7582fb124fa28 (MD5) Previous issue date: 1984 / Resumo: Não informado. / Abstract: Not informed. / Mestrado / Mestre em Estatística
5

Seleção genômica não paramétrica via distância genética entre subpopulações / Non-parametric genomic selection via genetic distance between subpopulations

Lima, Leísa Pires 15 February 2017 (has links)
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2017-05-25T17:27:15Z No. of bitstreams: 1 texto completo.pdf: 886003 bytes, checksum: c69002eae8113ea24d4bedd4735dda69 (MD5) / Made available in DSpace on 2017-05-25T17:27:15Z (GMT). No. of bitstreams: 1 texto completo.pdf: 886003 bytes, checksum: c69002eae8113ea24d4bedd4735dda69 (MD5) Previous issue date: 2017-02-15 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A seleção genômica ampla (Genome Wide Selection – GWS) consiste na análise de um grande número de marcadores SNPs (Single Nucleotide Polymorphisms) amplamente distribuídos no genoma. As principais metodologias propostas e utilizadas na GWS se dividem em metodologias paramétricas, semi-paramétricas ou metodologias de redução de dimensionalidade. Dessa forma, um dos objetivos desse trabalho foi avaliar metodologias não paramétricas, denominadas Delta-p e Regressão Categórica Tripla (TCR), além de compará-las com métodos tradicionalmente aplicados a GWS, tais como G-BLUP (Genomic Best Linear Unbiased Predictor) e BLASSO (Bayesian Least Absolute Shrinkage and Selection Operator). O primeiro capítulo deste trabalho consiste em uma revisão de literatura sobre a GWS apresentando sua definição e importância no melhoramento genético, abordando sobre o desenvolvimento dos métodos propostos e avaliados e também retratando sobre o processo de validação utilizado para a comparação das metodologias. No segundo capítulo, foi proposto e analisado o método Delta-p e um índice de seleção, denominado índice Delta-p/G-BLUP que combina os valores genômicos provenientes do método G-BLUP com os valores genômicos estimados via Delta-p. Sob o contexto Bayesiano, foi incorporado ao LASSO Bayesiano, por meio de uma distribuição a priori altamente informativa, os valores genômicos estimados via G-BLUP, essa abordagem foi denominada método Bayes Híbrido. Para avaliar a eficiência dos métodos estatísticos, no que se refere à estimação dos valores genômicos aditivos e devidos à dominância, foram utilizados dados simulados, sendo estabelecidos oito cenários (dois níveis de herdabilidade × duas arquiteturas genéticas × ausência de dominância e dominância completa) sendo cada cenário simulado dez vezes. Os resultados do segundo capítulo indicaram que o índice Delta-p/G-BLUP e o Bayes Híbrido se mostraram eficientes para predição dos valores genômicos podendo ser usados vantajosamente na GWS. Ademais, no terceiro capítulo, foi avaliada a eficiência do método TCR em comparação com os métodos G-BLUP e BLASSO utilizando quatro cenários (dois níveis de herdabilidade × modelo infinitesimal × ausência de dominância e dominância completa) sendo cada cenário simulado dez vezes. Os resultados indicaram que o método TCR mostrou-se adequado para a estimação dos componentes de variação genômica e da herdabilidade. Em vista disso, uma metodologia baseada em uma modificação do método G-BLUP, denominada TCR/G-BLUP, foi proposta e consiste em estimar a herdabilidade via TCR e fixá-la nas equações de modelos mistos do método G-BLUP. A eficiência dos métodos G- BLUP e TCR/G-BLUP foram comparadas utilizando dados reais, seis caracteristicas avaliadas em mandioca (Manihot esculenta). O experimento foi instalado segundo um delineamento em blocos casualizados com três repetições e 10 plantas por parcela. Os resultados indicaram que o método TCR/G-BLUP foi capaz de aumentar a acurácia e fornecer valores genômicos não viesados se comparados ao método G-BLUP, sendo, portanto recomendado para a aplicação na GWS. / The genomic wide selection (GWS) consists in analyzing of a large number of single nucleotide polymorphisms (SNPs) markers widely distributed in the genome. The main methodologies proposed and used in GWS are divided into parametric methodologies, semi-parametric methodologies or dimensionality reduction methodologies. Thus, one of the objectives of this work was to evaluate non- parametric methodologies, called Delta-p and Triple Categorical Regression (TCR), and to compare them with methods traditionally applied to GWS, such as G-BLUP (Genomic Best Linear Unbiased Predictor) and Bayesian LASSO (Bayesian Least Absolute Shrinkage and Selection Operator). The first chapter of this work consists of a literature review about GWS presenting its definition and importance in genetic improvement, discussing the development of the proposed and evaluated methods and also describing the validation process used to compare the methodologies. In the second chapter, were proposed and analyzed the Delta-p method and a selection index, called the Delta-p / G-BLUP index, combining the genomic values derived from the G-BLUP method with the estimated genomic values via Delta-p. Under the Bayesian context, it was incorporated into the Bayesian LASSO, by means of a highly informative a priori distribution, the genomic values estimated by G-BLUP, this approach was called the Hybrid Bayes method. In order to evaluate the efficiency of the statistical methods, in the estimation of the additive and dominance genomic values, simulated data were used, being established eight scenarios (two levels of heritability × two genetic architectures × absence of dominance and complete dominance) each scenario being simulated ten times. The results of the second chapter indicated that the Delta-p/G-BLUP index and the Hybrid Bayes proved to be efficient for predicting the genomic values and could be advantageously used in GWS. In addition, in the third chapter, the efficiency of the TCR method was evaluated in comparison to the G-BLUP and BLASSO methods using four scenarios (two levels of heritability × infinitesimal model × absence of dominance and complete dominance), each scenario being simulated ten times. The results indicated that the TCR method proved adequate for the estimation of the components of genotype variation and heritability. Therefore, a methodology based on a modification of the G-BLUP method, called TCR/G-BLUP, was proposed and consists of estimating the heritability by means of TCR and fixing it in the mixed model equations of the G-BLUP method. The efficiency of the G-BLUP and TCR/G-BLUP methods were compared using real data, six characteristics evaluated in cassava (Manihot esculenta). The experiment was installed according to a randomized block design with three replicates and 10 plants per plot. The results indicated that the TCR / G-BLUP method was able to increase accuracy and provide non-biased genomic values when compared to the G-BLUP method and is therefore recommended for GWS application.
6

Comparação de testes de adequabilidadede ajuste em distribuições multinomiais

Monteiro, Andre Jalles 25 August 1995 (has links)
Orientador: Euclydes Custodio de Lima Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-21T05:41:00Z (GMT). No. of bitstreams: 1 Monteiro_AndreJalles_M.pdf: 2209365 bytes, checksum: 6e6e4af787d65ece511e47190a0edf57 (MD5) Previous issue date: 1995 / Resumo: Não informado / Abstract: Not informed / Mestrado / Mestre em Estatística
7

Estimação não-parametrica de volatilidade em modelos continuos

El-Dash, Neale Ahmed 02 August 2018 (has links)
Orientador : Aluisio Pinheiro / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-02T06:02:58Z (GMT). No. of bitstreams: 1 El-Dash_NealeAhmed._M.pdf: 2575997 bytes, checksum: 088bd55723061fd5478c77bdc1e8eedf (MD5) Previous issue date: 2002 / Mestrado / Mestre em Estatística
8

Estimação não parametrica aplicada a problemas de classificação via Bagging e Boosting

Rubesam, Alexandre 27 February 2004 (has links)
Orientador: Ronaldo Dias / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T20:17:33Z (GMT). No. of bitstreams: 1 Rubesam_Alexandre_M.pdf: 3561307 bytes, checksum: 136856548e218dc25a0ba4ee178b63a7 (MD5) Previous issue date: 2004 / Resumo: Alguns dos métodos mais modernos e bem sucedidos de classificação são bagging, boosting e SVM (Support Vector M achines ). B agging funciona combinando classificadores ajustados em amostras bootstrap dos dados; boosting funciona aplicando-se seqüencialmente um algoritmo de classificação a versões reponderadas do conjunto de dados de treinamento, dando maior peso às observações classificadas erroneamente no passo anterior, e SVM é um método que transforma os dados originais de maneira não linear para um espaço de dimensão maior, e procura um hiperplano separador neste espaço transformado. N este trabalho estudamos os métodos descritos acima, e propusemos dois métodos de classificação, um baseado em regressão não paramétrica por Hsplines (também proposto aqui) e boosting, e outro que é uma modificação de um algoritmo de boosting baseado no algoritmo MARS. Os métodos foram aplicados em dados simulados e em dados reais / Abstract: Some of the most modern and well succeeded classification methods are bagging, boosting and SVM (Support Vector Machines). Bagging combines classifiers fitted to bootstrap samples of the training data; boosting sequentially applies a classification algorithm to reweighted versions of the training data, increasing in each step the weights of the observations that were misclassified in the previous step, and SVM is a method that transforms the data in a nonlinear way to a space of greater dimension than that of the original data, and searches for a separating hyperplane in this transformed space. In this work we have studied the methods described above. We propose two classification methods: one of them is based on a nonparametric regression method via H-splines (also proposed here) and boosting, and the other is a modification of a boosting algorithm, based on the MARS algorithm. The methods were applied to both simulated and real data / Mestrado / Mestre em Estatística
9

Estudo comparativo entre os metodos de Rosenblatt-Parzen e Grenander na estimação de densidades

Lucambio Pérez, Fernando 01 June 1998 (has links)
Orientador: Mauro S. de Freitas Marques / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-23T18:30:25Z (GMT). No. of bitstreams: 1 LucambioPerez_Fernando_M.pdf: 5153199 bytes, checksum: 18886850360fae84b50bc873bd73950d (MD5) Previous issue date: 1998 / Resumo: Desde 1890 diferentes formas de estimar uma função densidade de probabilidade têm sido propostas. Uma destas é devida a Pearson entre 1890 e 1900, e é obtida como solução de uma equação diferencial (Johnson, N. & Kotz, S., 1988). A partir de 1956 os métodos de estimação de funções de densidade de probabilidade não paramétricos têm-se consolidado como uma alternativa sofisticada ao tratamento tradicional de estudar conjuntos de dados. Esta alternativa. baseia-se na possibilidade de analisar os dados sem assumir um comportamento distribucional específico. Sobre o problema da estimação de funções de densidade de probabilidade trata o Capítulo I desta dissertação. Descrevemos também de maneira resumida algumas das propostas para obter estes estimadores e definimos propriedades estatísticas que serão estudadas nas diferentes situações consideradas. O Capítulo 11 dedica-se ao estudo de duas propostas de estimadores da função de densidade. O primeiro estimador estudado é o de Rosenblatt-Parzen. As primeiras idéias deste estimador devem-se a Rosenblatt (1956), idéias posteriormente generalizadas por Parzen (1962), obtendose o atualmente conhecido como estimador de Rosenblatt-Parzen ou "kernel". A seguir estuda-se um caso particular do estimador proposto por Grenander (1981). O estimador obtido segundo esta metodologia é conhecido como estimador de Grenander ou "sieves" de convolução. Geman & Hwang (1982) mostraram a forma do estimador de Grenander quando a densi~ade gaussiana é utilizada, na convolução, como a função núcleo. No Capítulo 111 estudamos d~mo obter a forma do estimador "sieves" de convolução em situações mais gerais de duas maneiras diferentes. Uma destas maneiras é uma generalização das idéias de Geman & Hwang (19,8'2) e a outra utiliza o modelo de dados incompletos. Estes resultados constituem a proposta teórica mais importante. Como a forma dos estimadores de Grenander obtidos através de convoluções pode ser vista como um modelo de mistura finita de densidades, realizamos no Capítulo IV um estudo do algoritmo EM para o caso particular destes modelos. Nele, apresentamos a teoria geral dos modelos de mistura de densidade e provamos que é possível utilizar o algoritmo EM na estimação de densidades segundo a proposta de Grenander no caso de convoluções, exemplificando este algoritmo quando é utilizada na convolução a densidade gaussiana. Finalmente, comparamos a performance do estimador de Grenander em relação ao estimador de Rosenblatt-Parzen, através de dados simulados para diferentes funções de densidade. Este estudo constitui o Capítulo V / Abstract: Not informed / Mestrado / Mestre em Estatística
10

Análise de variância multivariada com a utilização de testes não -paramétricos e componentes principais baseados em matrizes de postos. / Multivariate analysis of variance using nonparametric tests and principal components based on rank matrices.

Pontes, Antonio Carlos Fonseca 19 July 2005 (has links)
Métodos não-paramétricos têm aplicação ampla na análise de dados, tendo em vista que não são limitados pela necessidade de imposição de distribuições populacionais específicas. O caráter multivariado de dados provenientes de estudos nas ciências do comportamento, ecológicos, experimentos agrícolas e muitos outros tipos, e o crescimento contínuo da tecnologia computacional, têm levado a um crescente interesse no uso de métodos multivariados não-paramétricos. A aplicação da análise de variância multivariada não-paramétrica é pouco inacessível ao pesquisador, exceto através de métodos aproximados baseados nos valores assintóticos da estatística de teste. Portanto, este trabalho tem por objetivo apresentar uma rotina na linguagem C que realiza testes baseados numa extensão multivariada do teste univariado de Kruskal- Wallis, usando a técnica das permutações. Para pequenas amostras, todas as configurações de tratamentos são obtidas para o cálculo do valor-p. Para grandes amostras, um número fixo de configurações aleatórias é usado, obtendo assim valores de significância aproximados. Além disso, um teste alternativo é apresentado com o uso de componentes principais baseados nas matrizes de postos. / Nonparametric methods have especially broad applications in the analysis of data since they are not bound by restrictions on the population distribution. The multivariate character of behavioural, ecological, agricultural and many other types of data and the continued improvement in computer technology have led to a sharp interest in the use of nonparametric multivariate methods in data analysis. The application of nonparametric multivariate analysis is inaccessible to applied research, except by approximation methods based on asymptotic values of the test statistic. Thus, this work aims to presenting a routine in the C language that runs multivariate tests based on a multivariate extension of the univariate Kruskal-Wallis test, using permutation technique. For small samples, all possible treatment configurations are used in order to obtain the p-value. For large samples, a fixed number of random configurations are used, obtaining an approximated significance values. In addition, another alternative test is presented using principal components based on rank matrices.

Page generated in 0.1277 seconds