• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 882
  • 40
  • 38
  • 37
  • 36
  • 33
  • 27
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 920
  • 397
  • 391
  • 391
  • 375
  • 187
  • 172
  • 164
  • 151
  • 123
  • 113
  • 111
  • 108
  • 84
  • 81
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
591

Métodos de agrupamento na análise de dados de expressão gênica

Rodrigues, Fabiene Silva 16 February 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2596.pdf: 1631367 bytes, checksum: 90f2d842a935f1dd50bf587a33f6a2cb (MD5) Previous issue date: 2009-02-16 / The clustering techniques have frequently been used in literature to the analyse data in several fields of application. The main objective of this work is to study such techniques. There is a large number of clustering techniques in literature. In this work we concentrate on Self Organizing Map (SOM), k-means, k-medoids and Expectation- Maximization (EM) algorithms. These algorithms are applied to gene expression data. The analisys of gene expression, among other possibilities, identifies which genes are differently expressed in synthesis of proteins associated to normal and sick tissues. The purpose is to do a comparing of these metods, sticking out advantages and disadvantages of such. The metods were tested for simulation and after we apply them to a real data set. / As técnicas de agrupamento (clustering) vêm sendo utilizadas com freqüência na literatura para a solução de vários problemas de aplicações práticas em diversas áreas do conhecimento. O principal objetivo deste trabalho é estudar tais técnicas. Mais especificamente, estudamos os algoritmos Self Organizing Map (SOM), k-means, k-medoids, Expectation-Maximization (EM). Estes algoritmos foram aplicados a dados de expressão gênica. A análise de expressão gênica visa, entre outras possibilidades, a identificação de quais genes estão diferentemente expressos na sintetização de proteínas associados a tecidos normais e doentes. O objetivo deste trabalho é comparar estes métodos no que se refere à eficiência dos mesmos na identificação de grupos de elementos similares, ressaltando vantagens e desvantagens de cada um. Os métodos foram testados por simulação e depois aplicamos as metodologias a um conjunto de dados reais.
592

Regiões de incerteza para a curva ROC em testes diagnósticos

Vaz, Janaina Cândida Lopes 03 March 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2711.pdf: 1912872 bytes, checksum: 297e56759e248cb7127eae6094c0d821 (MD5) Previous issue date: 2009-03-03 / Financiadora de Estudos e Projetos / Diagnostic tests are methods capable of indicating the presence or absence of a disease, with a probability of error. The performance of a diagnostic test can be verified by some indicator, as: the specificity, the sensitivity and the ROC curve. A graph of the specificity complement versus sensitivity is called as ROC curve. The ROC curve demonstrates the test s ability to discriminate the different disease diagnosis, therefore it is a graphical tool that is used to assess the performance of a test. We define three types of confidence regions around the ROC curve: the punctual, the regional and the global. In some instances, depending on the clinical needs, the decision is taken under an specific region of the ROC curve. We review some procedures for estimating confidence region for the ROC curve and we propose two new methods (optimized averages and averages thresholds optimized) to estimating that region. We use the bootstrap method to search for a confidence region around the ROC curve. Using numerical examples, we apply the methods an compare their performance. / Testes diagnósticos são métodos capazes de indicar a presença ou ausência de uma doença, com uma probabilidade de erro. O desempenho de um teste diagnóstico pode ser verificado por algum indicador, como: a especificidade, a sensibilidade e a curva ROC. Um gráfico do complemento da especificidade versus sensibilidade é chamado de curva ROC. A curva ROC demonstra a habilidade do teste em discriminar os diferentes diagnósticos da doença, logo é uma ferramenta gráfica que serve para avaliar o desempenho de um teste. Definimos três tipos de regiões de confiança em torno da curva ROC: as pontuais, as regionais e as globais. Em algumas situações, de acordo com a necessidade do clínico, uma decisão é tomada sobre uma determinada região específica da curva ROC. Revisamos alguns procedimentos para estimar a região de confiança para a curva ROC e propomos dois novos métodos (médias otimizadas e médias limiares otimizadas) para estimar essa região. Usamos o método bootstrap para buscar uma região de confiança em torno da curva ROC. Usando exemplos numéricos, aplicamos os métodos para comparar seus desempenhos.
593

Eliminação de parâmetros perturbadores na estimação de tamanhos populacionais

Festucci, Ana Claudia 15 January 2010 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 2751.pdf: 886213 bytes, checksum: 2f07f7329a7f25f1759ddb5d7a6edd66 (MD5) Previous issue date: 2010-01-15 / Financiadora de Estudos e Projetos / In this study, we used the capture-recapture procedure to estimate the size of a closed population. We analysed three di_erent statistics models. For each one of these models we determined - through several methods of eliminating nuisance parameters - the likelihood function and the pro_le, conditional, uniform integrated, Je_reys integrated and generalized integrated likelihood functions of the population size, except for the last model where we determined a function that is analogous to the conditional likelihood function, called integrated restricted likelihood function. In each instance we determined the respectives maximum likelihood estimates, the empirical con_dence intervals and the empirical mean squared errors of the estimates for the population size and we studied, using simulated data, the performances of the models. / Nesta dissertação utilizamos o processo de captura-recaptura para estimar o tamanho de uma população fechada. Analisamos três modelos estatísticos diferentes e, para cada um deles, através de diversas metodologias de eliminação de parâmetros perturbadores, determinamos as funções de verossimilhança e de verossimilhança perfilada, condicional, integrada uniforme, integrada de Jeffreys e integrada generalizada do tamanho populacional, com exceção do último modelo onde determinamos uma função análoga à função de verossimilhança condicional, denominada função de verossimilhança restrita integrada. Em cada capítulo determinamos as respectivas estimativas de máxima verossimilhança e construímos intervalos de confiança empíricos para o tamanho populacional, bem como determinamos os erros quadráticos médios empíricos das estimativas e estudamos, através de dados simulados, as performances dos modelos.
594

Modelo logístico generalizado dependente do tempo com fragilidade

Milani, Eder Angelo 11 February 2011 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 3437.pdf: 1348932 bytes, checksum: d4b8cd2d1775831eeea609373f32648d (MD5) Previous issue date: 2011-02-11 / Universidade Federal de Minas Gerais / Several authors have preferred to model survival data in the presence of covariates through the hazard function, a fact related to its interpretation. The hazard function describes as the instantaneous average of failure changes over time. In this context, one of the most used models is the Cox s model (1972), in which the basic supposition for its use is that the ratio of the failure rates, of any two individuals, are proportional. However, experiments show that there are survival data which can not be accommodated by the Cox s model. This fact has been determinant in the developing of several types of non-proporcional hazard models. Among them we mention the accelerated failure model (Prentice, 1978), the hybrid hazard model (Etezadi-Amoli and Ciampi, 1987) and the extended hybrid hazard models (Louzada-Neto, 1997 and 1999). Mackenzie (1996) proposed a parametric family of non-proportional hazard model called generalized time-dependent logistic model - GTDL. This model is based on the generalization of the standard logistic function for the time-dependent form and is motivated in part by considering the timeeffect in its setting and, in part by the need to consider parametric structure. The frailty model (Vaupel et al., 1979, Tomazella, 2003, Tomazella et al., 2004) is characterized by the use of a random effect, ie, an unobservable random variable, which represents information that or could not or were not collected, such as, environmental and genetics factors, or yet information that, for some reason, were not considered in the planning. The frailty variable is introduced in the modeling of the hazard function, with the objective of control the unobservable heterogeneity of the units under study, including the dependence of the units that share the same hazard factors. In this work we considered an extension of the GTDL model using the frailty model as an alternative to model data which does not have a proportional hazard structure. From a classical perspective, we did a simulation study and an application with real data. We also used a Bayesian approach to a real data set. / Vários autores têm preferido modelar dados de sobrevivência na presença de covariáveis por meio da função de risco, fato este relacionado à sua interpretação. A função de risco descreve como a taxa instantânea de falha se modifica com o passar do tempo. Neste contexto, um dos modelos mais utilizados é o modelo de Cox (1972) sendo que a suposição básica para o seu uso é que a razão das taxas de falhas, de dois quaisquer indivíduos, sejam proporcionais. Contudo, experiências mostram que existem dados de sobrevivência que não podem ser acomodados pelo modelos de Cox. Este fato tem sido determinante no desenvolvimento de vários tipos de modelos de risco não proporcional. Entre eles podemos citar o modelo de falha acelerado (Prentice, 1978), o modelo de risco híbrido (Etezadi-Amoli e Ciampi, 1987) e os modelos de risco híbrido estendido (Louzada- Neto, 1997 e 1999). Mackenzie (1996) propôs uma nova família paramétrica de modelo de risco não proporcional intitulado modelo de risco logístico generalizado dependente do tempo (Generalized time-dependent logistic model-GTDL). Este modelo é baseado na generalização da função logística padrão para a forma dependente do tempo e é motivado em parte por considerar o efeito do tempo em seu ajuste e, em parte pela necessidade de considerar estrutura paramétrica. O modelo de fragilidade (Vaupel et al., 1979, Tomazella, 2003, Tomazella et al., 2004) é caracterizado pela utilização de um efeito aleatório, ou seja, de uma variável aleatória não observável, que representa as informações que não podem ou não foram observadas, como por exemplo, fatores ambientais e genéticos, ou ainda informações que, por algum motivo, não foram consideradas no planejamento. A variável de fragilidade é introduzida na modelagem da função de risco, com o objetivo de controlar a heterogeneidade não observável das unidades em estudo, inclusive a dependência das unidades que compartilham os mesmos fatores de risco. Neste trabalho consideramos uma extensão do modelo GTDL utilizando o modelo de fragilidade como uma alternativa para ii modelar dados que não tem uma estrutura de risco proporcional. Sob uma perspectiva Clássica, fizemos um estudo de simulação e uma aplicação com dados reais. Também utilizamos a abordagem Bayesiana para um conjunto de dados reais.
595

Modelos de sobrevivência com fração de cura usando um termo de fragilidade e tempo de vida Weibull modificada generalizada

Calsavara, Vinicius Fernando 24 February 2011 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 3451.pdf: 871063 bytes, checksum: 8af58118f0d60c000ca46f5d8bfda544 (MD5) Previous issue date: 2011-02-24 / In survival analysis, some studies are characterized by having a significant fraction of units that will never suffer the event of interest, even if accompanied by a long period of time. For the analysis of long-term data, we approach the standard mixture model by Berkson & Gage, where we assume the generalized modified Weibull distribution for the lifetime of individuals at risk. This model includes several classes of models as special cases, allowing its use to discriminate models. The standard mixture model implicitly assume that those individuals experiencing the event of interest possess homogeneous risk. Alternatively, we consider the standard mixture model with a frailty term in order to quantify the unobservable heterogeneity among individuals. This model is characterized by the inclusion of a unobservable random variable, which represents information that can not or have not been observed. We assume multiplicative frailty with a gamma distribution. For the lifetime of individuals at risk, we assume the Weibull distribution, obtaining the frailty Weibull standard mixture model. For both models, we realized simulation studies with the purpose of analyzing the frequentists properties of estimation procedures. Applications to real data set showed the applicability of the proposed models in which parameter estimates were determined using the approaches of maximum likelihood and Bayesian. / Em análise de sobrevivência determinados estudos caracterizam-se por apresentar uma fração significativa de unidades que nunca apresentarão o evento de interesse, mesmo se acompanhados por um longo período de tempo. Para a análise de dados com longa duração, abordamos o modelo de mistura padrão de Berkson & Gage supondo que os tempos de vida dos indivíduos em risco seguem distribuição Weibull modificada generalizada. Este modelo engloba diversas classes de modelos como casos particulares, propiciando o uso deste para discriminar modelos. O modelo abordado assume implicitamente que todos os indivíduos que falharam possuem risco homogêneo. Alternativamente, consideramos o modelo de mistura padrão com um termo de fragilidade com o objetivo de quantificar a heterogeneidade não observável entre os indivíduos. Este modelo é caracterizado pela inclusão de uma variável aleatória não observável, que representa as informações que não podem ou que não foram observadas. Assumimos que a fragilidade atua de forma multiplicativa com distribuição gama. Para os tempos de vida dos indivíduos em risco consideramos a distribuição Weibull, obtendo o modelo de mistura padrão Weibull com fragilidade. Para os dois modelos realizamos estudos de simulação com o objetivo de analisar as propriedades frequentistas dos processos de estimação. Aplicações a conjunto de dados reais mostraram a aplicabilidade dos modelos propostos, em que a estimação dos parâmetros foram determinadas através das abordagens de máxima verossimilhança e Bayesiana.
596

Abordagem clássica e bayesiana para os modelos de séries temporais da família GARMA com aplicações para dados contínuos

Cascone, Marcos Henrique 24 March 2011 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 3603.pdf: 602959 bytes, checksum: 3078931e73ff3d01b4122cbac2c7f0a0 (MD5) Previous issue date: 2011-03-24 / Financiadora de Estudos e Projetos / In this work, the aim was to analyze in the classic and bayesian context, the GARMA model with three different continuous distributions: Gaussian, Inverse Gaussian and Gamma. We analyzed the performance and the goodness of fit of the three models, as well as the performance of the coverage percentile. In the classic analyze we consider the maximum likelihood estimator and by simulation study, we verified the consistency, the bias and de mean square error of the models. To the bayesian approach we proposed a non-informative prior distribution for the parameters of the model, resulting in a posterior distribution, which we found the bayesian estimatives for the parameters. This study still was not found in the literature. So, we can observe that the bayesian inference showed a good quality in the analysis of the serie, which can be comprove with the last section of this work. This, consist in the analyze of a real data set corresponding in the rate of tuberculosis cases in metropolitan area of Sao Paulo. The results show that, either the classical and bayesian approach, are good alternatives to describe the behavior of the real time serie. / Neste trabalho, o objetivo foi analisar no contexto clássico e bayesiano, o modelo GARMA com três distribuições contínuas: Gaussiana (Normal), Inversa Gaussiana e Gama, e também o desempenho e a qualidade do ajuste dos modelos de interesse, bem como o desempenho dos percentis de cobertura para eles. Para o estudo clássico foi considerado os estimadores de máxima verossimilhança e por meio de simulação verificou-se a consistência, o viés e o erro quadrático médio dos mesmos. Para a abordagem bayesiana é proposta uma distribuição a priori não informativa para os parâmetros dos modelos resultando em uma distribuição a posteriori, o qual a partir daí pode-se encontrar as estimativas bayesianas para os parâmetros, sendo que este estudo ainda não foi encontrado na literatura. Com isso pode-se observar que a inferência bayesiana mostrou boa eficiência no processo de análise da série, o que pode ser comprovado também com a última etapa do trabalho. Esta, consiste na análise de um conjunto de dados reais correspondente a taxa de casos de tuberculose na região metropolitana de São Paulo. Os resultados mostram que, tanto o estudo clássico quanto o bayesiano, são capazes de descrever bem o comportamento da série.
597

Estimação Bayesiana do tamanho de uma população de diabéticos através de listas de pacientes

Missiagia, Juliano Gallina 25 February 2005 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 4034.pdf: 873658 bytes, checksum: 8c8e2d629291b4edab052dd0ee734f94 (MD5) Previous issue date: 2005-02-25 / Financiadora de Estudos e Projetos / In this work, a bayesian methodology is shown to estimate the size of a diabethic-su¤ering population through lists containing information data of patients. The applied methodology is analogous of capture-recaptures in animal population. We assume correct the registers of relative information to the patients as well as we take in account correct and incorrect registers of the information. In case the supposed registers are correct, the methodology is developed for two or more lists and the Bayes estimate is determined for the size of a population. In a second model, the occurrency of correct and incorrect registers are considered, presenting a two-stage estimation method for the model parameters using two lists. For both models there are results with simulated and real examples. / Nesta dissertação apresentamos uma metodologia bayesiana para estimar o tamanho de uma população de diabéticos através de listas contendo informações sobre dados dos indivíduos. A metodologia aplicada é análoga a de captura-recaptura em população animal. Supomos corretos os registros de informações relativas aos pacientes assim como levamos em consideração registros corretos e incorretos das informações. No caso da suposição dos registros serem corretos, a metodologia é desenvolvida para duas ou mais listas e determinamos estimativas de Bayes para o tamanho populacional. Em um segundo modelo, consideramos a ocorrência de registros corretos e incorretos dos dados relativos aos pacientes, e apresentamos um método de estimação em dois estágios para os parâmetros do modelo utilizando duas listas. Para ambos os modelos, apresentamos resultados com exemplos simulados e reais.
598

Introdução ao controle estatístico de processo on-line

Silva, Paulo Henrique Ferreira da 07 April 2011 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 4182.pdf: 2255930 bytes, checksum: 7da65af2bc4550af129f4ceaea0a8eb1 (MD5) Previous issue date: 2011-04-07 / Financiadora de Estudos e Projetos / Neste trabalho são apresentadas algumas ferramentas do Controle Estatístico de Processos (CEP), que podem ser usadas no monitoramento de sistemas produtivos ao longo do tempo, bem como a sua aplicação em conjuntos de dados artificiais, que fazem parte de contextos reais. O estudo sobre essas ferramentas estatísticas está distribuído de tal maneira que são abordados durante o trabalho: a teoria das ferramentas estudadas, os diferentes contextos em que podem ser aplicadas e a sua implementação on-line, utilizando recursos computacionais de softwares livres. A aplicação no sistema on-line é realizada de tal modo que viabiliza a praticidade e eficácia na geração de gráficos para o CEP e de índices que refletem a capacidade do processo. É apresentada também uma sequência de passos para o uso do sistema de CEP on-line aqui proposto, tanto para situações em que se observa apenas uma medida da qualidade do processo (caso univariado), quanto para situações em que são observadas várias medidas (caso multivariado).
599

O método de máxima Lq-verossimilhança em modelos com erros de medição

Cavalieri, Jacqueline 29 February 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 4180.pdf: 1039417 bytes, checksum: d09a61a4895fb47d1c2456468800fc2f (MD5) Previous issue date: 2012-02-29 / Financiadora de Estudos e Projetos / In this work we consider a new estimator proposed by Ferrari & Yang (2010), called the maximum Lq-likelihood estimator (MLqE), to estimate the parameters of the measurement error models, in particular, the structural model. The new estimator extends the classical maximum likelihood estimator (MLE) and its based on the minimization, by means of the Kullback-Leibler (KL) divergence, of the discrepancy between a distribuiton in a family and one that modifies the true distribution by the degree of distortion q. Depending on the choice of q, the transformed distribution can diminish or emphasize the role of extreme observations, unlike the ML method that equally weights each observation. For small and moderate sample sizes, the MLqE can trade bias for precision, causing a reduction of the mean square error (MSE). The structural model has the characteristic of non-identifiability. For this reason, we must make assumptions on the parameters to overcome the non-identifiability. We perform a analytical study and a simulation study to compare MLqE and MLE. To gauge performance of the estimators, we compute measures of overall performance, bias, standard deviation, standard error, MSE, probability of coverage and length of confidence intervals. / Neste trabalho utilizaremos um novo estimador proposto por Ferrari & Yang (2010), denominado de estimador de máxima Lq-verossimilhança (EMLqV), na estimação dos parâmetros de modelos com erros de medição estruturais normais. O novo estimador é uma generalização do estimador de máxima verossimilhança (EMV) usual e sua construção baseia-se na comparação, utilizando divergência de Kullback-Leibler (KL), entre duas distribuições, a distribuição inalterada e a distribuição modificada pelo grau de distorção da função de verossimilhança (q). Conforme a escolha para q, a distribuição modificada poderá atenuar ou exaltar o papel das observações extremas, diferentemente do EMV usual que atribui os mesmos pesos a todas as observações. Na comparação entre as duas distribuições pela divergência de KL é inserida certa quantidade de viés no estimador resultante, que é controlada pelo parâmetro q. O aumento do viés do estimador MLqV pode ser compensado com a redução de sua variância, pela escolha apropriada de q. O modelo estrutural possui a característica de ser inidentificável. Para torná-lo identificável faremos suposições sobre os parâmetros do modelo, analisando cinco casos de identificabilidade do modelo. A comparação entre os métodos MLqV e MV na estimação dos parâmetros do modelo será baseada em resultados analíticos e em simulações, sendo calculadas medidas de desempenho global, viés, desvio padrão (DP), erro padrão estimado (EP), erro quadrático médio (EQM), probabilidade de cobertura e amplitude dos intervalos de confiança.
600

Comparação das distribuições α-estável, normal, t de student e Laplace assimétricas

Macerau, Walkiria Maria de Oliveira 27 January 2012 (has links)
Made available in DSpace on 2016-06-02T20:06:06Z (GMT). No. of bitstreams: 1 4185.pdf: 8236823 bytes, checksum: fc450b707396aa2c496c5373af93ef3d (MD5) Previous issue date: 2012-01-27 / Financiadora de Estudos e Projetos / Abstract The asymmetric distributions has experienced great development in recent times. They are used in modeling financial data, medical, genetics and other applications. Among these distributions, the Skew normal (Azzalini, 1985) has received more attention from researchers (Genton et al., (2001), Gupta et al., (2004) and Arellano-Valle et al., (2005)). We present a comparative study of _-stable distributions, Skew normal, Skew t de Student and Skew Laplace. The _-stable distribution is studied by Nolan (2009) and proposed by Gonzalez et al., (2009) in the context of genetic data. For some real datasets, in areas such as financial, genetics and commodities, we test which distribution best fits the data. We compare these distributions using the model selection criteria AIC and BIC. / As distribuições assimétricas tem experimentado grande desenvolvimento nos tempos recentes. Elas são utilizadas na modelagem de dados financeiros, médicos e genéticos entre outras aplicações. Dentre essas distribuições, a normal assimétrica (Azzalini, 1985) tem recebido mais atenção dos pesquisadores (Genton et al., (2001), Gupta et al., (2004) e Arellano-Valle et al., (2005)). Nesta dissertação, apresentamos um estudo comparativo das distribuições _-estável, normal , t de Student e Laplace assimétricas. A distribuição _-estável estudada por Nolan (2009) é proposta por Gonzalez et al., (2009) no contexto de dados genéticos. Neste trabalho, também apresentamos como verificar a assimetria de uma distribuição, descrevemos algumas características das distribuições assimétricas em estudo, e comparamos essas distribuições utilizando os critérios de seleção de modelos AIC e BIC..

Page generated in 0.0833 seconds