• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 358
  • 13
  • Tagged with
  • 371
  • 371
  • 358
  • 358
  • 358
  • 130
  • 86
  • 71
  • 66
  • 66
  • 66
  • 60
  • 50
  • 48
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Modelos dinâmicos de resposta binária para dados em painel

Silva, Eveliny Barroso da 06 June 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:01Z (GMT). No. of bitstreams: 1 2049.pdf: 560086 bytes, checksum: 32b955d6a93e81457f49b0418b1e9514 (MD5) Previous issue date: 2008-06-06 / Financiadora de Estudos e Projetos / A summary of the state of the art relative to regression models for binary response variable and panel data is presented in this work. Those models may include efects from several sources: specific variables of interest, heterogeneity between individuals and lagged values of the response variable. The original contributions of the author are simulation studies to compare two diferent approaches to maximum likelihood estimation of parameters of dynamic models with all three kinds of efects, and also a study of properties of such estimators in group sequential analysis, using the bootstrap methodology. Original codes were developed in R for implementation of simulation studies. The relevance of the subject and the non availability of appropriate codes in commercial software for fitting dynamic models for binary response justify the choice of the theme. / Neste trabalho é apresentado inicialmente um levantamento da literatura referente a modelos de regressão não lineares quando a variável resposta é binária e as observações são um painel de dados. Tais modelos podem incluir efeitos de várias fontes: variáveis específicas de interesse, heterogeneidade não observável dos indivíduos e valores defasados da variável resposta. A parte original do trabalho consiste nos estudos por simulação usando programação criada para esse fim no software R, visando comparar duas propostas recentes da literatura para ajustar, por máxima verossimilhança condicional, modelos dinâmicos que incluem os três tipos de efeitos mencionados. Também é original o estudo empírico, usando a metodologia de reamostragem \bootstrap", de características da distribuição conjunta dos estimadores dos parâmetros em análises intermediárias dos dados. A justificativa do trabalho é a atualidade do tema e a inexistência de programas de ajuste de modelos dinâmicos de resposta binária na maioria dos softwares comerciais.
312

Inferência do valor de mercado de lotes urbanos. Estudo de caso : município de São Carlos (SP)

Ferraudo, Guilherme Moraes 13 November 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:01Z (GMT). No. of bitstreams: 1 2197.pdf: 1979337 bytes, checksum: 0091ce4138b8a98277d9af0d5d2aa788 (MD5) Previous issue date: 2008-11-13 / Universidade Federal de Sao Carlos / In this dissertation we present a regression modelling proposal for modelling the market prices of urban batches at São Carlos city (SP), over the year of 2005. Usual regression modelling and survival techniques, with left censoring, are considered. A simulation study exames the coverage probabilities the asymptotic confidence for the parameters of the considered modelling. / Nesta disertação apresentaremos uma proposta de um modelo de equação de regressão representativa para a formação do valor de mercado dos lotes urbanos do município de São Carlos, SP, ano de 2005, visando à criação de Plantas de Valores Genéricos (PVG) utilizando as técnicas de: Modelos Lineares Usuais (erros normais e variância constante), estes amplamente utilizados, e a Análise de Sobrevivência com censura à esquerda. Após o ajuste, as duas metodologias são comparadas e testadas num estudo de simulação onde examinamos a probabilidade de cobertura de alguns parâmetros envolvidos na regressão.
313

Inferência bayesiana objetiva e freqüentista para a probabilidade de sucesso

Pires, Rubiane Maria 10 February 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2203.pdf: 1300161 bytes, checksum: 2c1f11d939eab9ab849bb04bf2363a53 (MD5) Previous issue date: 2009-02-10 / Financiadora de Estudos e Projetos / This study considers two discrete distributions based on Bernoulli trials: the Binomial and the Negative Binomial. We explore credibility and confidence intervals to estimate the probability of success of each distribution. The main goal is to analyze their performance coverage probability and average range across the parametric space. We also consider point analysis of bayesian estimators and maximum likelihood estimators, whose interest is to confirm through simulation their consistency, bias and mean square error. In this paper the Objective Bayesian Inference is applied through the noninformative Bayes-Laplace prior, Haldane prior, reference prior and least favorable prior. By analyzing the prior distributions in the minimax decision theory context we verified that the least favorable prior distribution has every other considered prior distributions as particular cases when a quadratic loss function is applied, and matches the Bayes-Laplace prior in considering the quadratic weighed loss function for the Binomial model (which was never found in literature). We used the noninformative Bayes-Laplace prior and Jeffreys prior for the Negative Binomial model. Our findings show through coverage probability, average range of bayesian intervals and point estimation that the Objective Bayesian Inference has good frequentist properties for the probability of success of Binomial and Negative Binomial models. The last stage of this study discusses the presence of correlated proportions in matched-pairs (2 × 2 table) of Bernoulli with the goal of obtaining more information in relation of the considered measures for testing the occurrence of correlated proportions. In this sense the Trinomial model and the partial likelihood function were used from the frequentist and bayesian point of view. The Full Bayesian Significance Test (FBST) was used for real data sets and was shown sensitive to parameterization, however, this study was not possible for the frequentist method since distinct methods are needed to be applied to Trinomial model and the partial likelihood function. / Neste estudo são abordadas duas distribuições discretas baseadas em ensaios de Bernoulli, a Binomial e a Binomial Negativa. São explorados intervalos de credibilidade e confiança para estimação da probabilidade de sucesso de ambas as distribuições. A principal finalidade é analisar nos contextos clássico e bayesiano o desempenho da probabilidade de cobertura e amplitude média gerada pelos intervalos de confiança e intervalos de credibilidade ao longo do espaço paramétrico. Considerou-se também a análise dos estimadores pontuais bayesianos e o estimador de máxima verossimilhança, cujo interesse é confirmar por meio de simulação a consistência e calcular o viés e o erro quadrático médio dos mesmos. A Inferência Bayesiana Objetiva é empregada neste estudo por meio das distribuições a priori não-informativas de Bayes-Laplace, de Haldane, de Jeffreys e menos favorável. Ao analisar as distribuições a priori no contexto de teoria de decisões minimax, a distribuição a priori menos favorável resgata as demais citadas ao empregar a função de perda quadrática e coincide com a distribuição a priori de Bayes-Laplace ao considerar a função de perda quadrática ponderada para o modelo Binomial, o que não foi encontrado até o momento na literatura. Para o modelo Binomial Negativa são consideradas as distribuições a priori não-informativas de Bayes-Laplace e de Jeffreys. Com os estudos desenvolvidos pôde-se observar que a Inferência Bayesiana Objetiva para a probabilidade de sucesso dos modelos Binomial e Binomial Negativa apresentou boas propriedades freqüentistas, analisadas a partir da probabilidade de cobertura e amplitude média dos intervalos bayesianos e por meio das propriedades dos estimadores pontuais. A última etapa do trabalho consiste na análise da ocorrência de proporções correlacionadas em pares de eventos de Bernoulli (tabela 2×2) com a finalidade de determinar um possível ganho de informação em relação as medidas consideradas para testar a ocorrência de proporções correlacionadas. Para tanto fez-se uso do modelo Trinomial e da função de verossimilhança parcial tanto numa abordagem clássica quanto bayesiana. Nos conjuntos de dados analisados observou-se a medida de evidência bayesiana (FBST) como sensível à parametrização, já para os métodos clássicos essa comparação não foi possível, pois métodos distintos precisam ser aplicados para o modelo Trinomial e para a função de verossimilhança parcial.
314

Especificação do tamanho da defasagem de um modelo dinâmico

Furlan, Camila Pedrozo Rodrigues 06 March 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2567.pdf: 3332442 bytes, checksum: 1e03b44e1c1f61f90b947fdca5682355 (MD5) Previous issue date: 2009-03-06 / Financiadora de Estudos e Projetos / Several techniques are proposed to determine the lag length of a dynamic regression model. However, none of them is completely satisfactory and a wrong choice could imply serious problems in the estimation of the parameters. This dissertation presents a review of the main criteria for models selection used in the classical methodology and presents a way for determining the lag length from the perspective Bayesian. A Monte Carlo simulation study is conducted to compare the performance of the significance tests, R2 adjusted, final prediction error, Akaike information criterion, Schwarz information criterion, Hannan-Quinn criterion, corrected Akaike information criterion and fractional Bayesian approach. Two estimation methods are also compared, the ordinary least squares and the Almon approach. / Na literatura, muitas técnicas são propostas para determinar o tamanho da defasagem de um modelo de regressão dinâmico. Entretanto, nenhuma delas é completamente satisfatória e escolhas erradas implicam em sérios problemas na estimação dos parâmetros. Este trabalho apresenta uma revisão dos principais critérios de seleção de modelos disponíveis na metodologia clássica, assim como aborda uma maneira de determinar o tamanho da defasagem sob a perspectiva Bayesiana. Um estudo de simulação Monte Carlo é conduzido para comparar a performance dos testes de significância, do R2 ajustado, do erro de predição final, dos critérios de informação de Akaike, Schwarz, Hannan-Quinn e Akaike corrigido e da aproximação Bayesiana fracionada. Também serão comparados os métodos de estimação de Mínimos Quadrados Ordinários e de Almon.
315

Distribuição normal assimétrica para dados de expressão gênica

Gomes, Priscila da Silva 17 April 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2390.pdf: 3256865 bytes, checksum: 7ad1acbefc5f29dddbaad3f14dbcef7c (MD5) Previous issue date: 2009-04-17 / Financiadora de Estudos e Projetos / Microarrays technologies are used to measure the expression levels of a large amount of genes or fragments of genes simultaneously in diferent situations. This technology is useful to determine genes that are responsible for genetic diseases. A common statistical methodology used to determine whether a gene g has evidences to diferent expression levels is the t-test which requires the assumption of normality for the data (Saraiva, 2006; Baldi & Long, 2001). However this assumption sometimes does not agree with the nature of the analyzed data. In this work we use the skew-normal distribution described formally by Azzalini (1985), which has the normal distribution as a particular case, in order to relax the assumption of normality. Considering a frequentist approach we made a simulation study to detect diferences between the gene expression levels in situations of control and treatment through the t-test. Another simulation was made to examine the power of the t-test when we assume an asymmetrical model for the data. Also we used the likelihood ratio test to verify the adequability of an asymmetrical model for the data. / Os microarrays são ferramentas utilizadas para medir os níveis de expressão de uma grande quantidade de genes ou fragmentos de genes simultaneamente em situações variadas. Com esta ferramenta é possível determinar possíveis genes causadores de doenças de origem genética. Uma abordagem estatística comumente utilizada para determinar se um gene g apresenta evidências para níveis de expressão diferentes consiste no teste t, que exige a suposição de normalidade aos dados (Saraiva, 2006; Baldi & Long, 2001). No entanto, esta suposição pode não condizer com a natureza dos dados analisados. Neste trabalho, será utilizada a distribuição normal assimétrica descrita formalmente por Azzalini (1985), que tem a distribuição normal como caso particular, com o intuito de flexibilizar a suposição de normalidade. Considerando a abordagem clássica, é realizado um estudo de simulação para detectar diferenças entre os níveis de expressão gênica em situações de controle e tratamento através do teste t, também é considerado um estudo de simulação para analisar o poder do teste t quando é assumido um modelo assimétrico para o conjunto de dados. Também é realizado o teste da razão de verossimilhança, para verificar se o ajuste de um modelo assimétrico aos dados é adequado.
316

Classe de distribuições série de potências inflacionadas com aplicações

Silva, Deise Deolindo 06 April 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2510.pdf: 1878422 bytes, checksum: 882e21e70271b7a106e3a27a080da004 (MD5) Previous issue date: 2009-04-06 / This work has as central theme the Inflated Modified Power Series Distributions, where the objective is to study its main properties and the applicability in the bayesian context. This class of models includes the generalized Poisson, binomial and negative binomial distributions. These probability distributions are very helpful to models discrete data with inflated values. As particular case the - zero inflated Poisson models (ZIP) is studied, where the main purpose was to verify the effectiveness of it when compared to the Poisson distribution. The same methodology was considered for the negative binomial inflated distribution, but comparing it with the Poisson, negative binomial and ZIP distributions. The Bayes factor and full bayesian significance test were considered for selecting models. / Este trabalho tem como tema central a classe de distribuições série de potências inflacionadas, em que o intuito é estudar suas principais propriedades e a aplicabilidade no contexto bayesiano. Esta classe de modelos engloba as distribuições de Poisson, binomial e binomial negativa simples e as generalizadas e, por isso é muito aplicada na modelagem de dados discretos com valores excessivos. Como caso particular propôs-se explorar a distribuição de Poisson zero inflacionada (ZIP), em que o objetivo principal foi verificar a eficácia de sua modelagem quando comparada à distribuição de Poisson. A mesma metodologia foi considerada para a distribuição binomial negativa inflacionada, mas comparando-a com as distribuições de Poisson, binomial negativa e ZIP. Como critérios formais para seleção de modelos foram considerados o fator de Bayes e o teste de significância completamente bayesiano.
317

Métodos de agrupamento na análise de dados de expressão gênica

Rodrigues, Fabiene Silva 16 February 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2596.pdf: 1631367 bytes, checksum: 90f2d842a935f1dd50bf587a33f6a2cb (MD5) Previous issue date: 2009-02-16 / The clustering techniques have frequently been used in literature to the analyse data in several fields of application. The main objective of this work is to study such techniques. There is a large number of clustering techniques in literature. In this work we concentrate on Self Organizing Map (SOM), k-means, k-medoids and Expectation- Maximization (EM) algorithms. These algorithms are applied to gene expression data. The analisys of gene expression, among other possibilities, identifies which genes are differently expressed in synthesis of proteins associated to normal and sick tissues. The purpose is to do a comparing of these metods, sticking out advantages and disadvantages of such. The metods were tested for simulation and after we apply them to a real data set. / As técnicas de agrupamento (clustering) vêm sendo utilizadas com freqüência na literatura para a solução de vários problemas de aplicações práticas em diversas áreas do conhecimento. O principal objetivo deste trabalho é estudar tais técnicas. Mais especificamente, estudamos os algoritmos Self Organizing Map (SOM), k-means, k-medoids, Expectation-Maximization (EM). Estes algoritmos foram aplicados a dados de expressão gênica. A análise de expressão gênica visa, entre outras possibilidades, a identificação de quais genes estão diferentemente expressos na sintetização de proteínas associados a tecidos normais e doentes. O objetivo deste trabalho é comparar estes métodos no que se refere à eficiência dos mesmos na identificação de grupos de elementos similares, ressaltando vantagens e desvantagens de cada um. Os métodos foram testados por simulação e depois aplicamos as metodologias a um conjunto de dados reais.
318

Regiões de incerteza para a curva ROC em testes diagnósticos

Vaz, Janaina Cândida Lopes 03 March 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2711.pdf: 1912872 bytes, checksum: 297e56759e248cb7127eae6094c0d821 (MD5) Previous issue date: 2009-03-03 / Financiadora de Estudos e Projetos / Diagnostic tests are methods capable of indicating the presence or absence of a disease, with a probability of error. The performance of a diagnostic test can be verified by some indicator, as: the specificity, the sensitivity and the ROC curve. A graph of the specificity complement versus sensitivity is called as ROC curve. The ROC curve demonstrates the test s ability to discriminate the different disease diagnosis, therefore it is a graphical tool that is used to assess the performance of a test. We define three types of confidence regions around the ROC curve: the punctual, the regional and the global. In some instances, depending on the clinical needs, the decision is taken under an specific region of the ROC curve. We review some procedures for estimating confidence region for the ROC curve and we propose two new methods (optimized averages and averages thresholds optimized) to estimating that region. We use the bootstrap method to search for a confidence region around the ROC curve. Using numerical examples, we apply the methods an compare their performance. / Testes diagnósticos são métodos capazes de indicar a presença ou ausência de uma doença, com uma probabilidade de erro. O desempenho de um teste diagnóstico pode ser verificado por algum indicador, como: a especificidade, a sensibilidade e a curva ROC. Um gráfico do complemento da especificidade versus sensibilidade é chamado de curva ROC. A curva ROC demonstra a habilidade do teste em discriminar os diferentes diagnósticos da doença, logo é uma ferramenta gráfica que serve para avaliar o desempenho de um teste. Definimos três tipos de regiões de confiança em torno da curva ROC: as pontuais, as regionais e as globais. Em algumas situações, de acordo com a necessidade do clínico, uma decisão é tomada sobre uma determinada região específica da curva ROC. Revisamos alguns procedimentos para estimar a região de confiança para a curva ROC e propomos dois novos métodos (médias otimizadas e médias limiares otimizadas) para estimar essa região. Usamos o método bootstrap para buscar uma região de confiança em torno da curva ROC. Usando exemplos numéricos, aplicamos os métodos para comparar seus desempenhos.
319

Eliminação de parâmetros perturbadores na estimação de tamanhos populacionais

Festucci, Ana Claudia 15 January 2010 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 2751.pdf: 886213 bytes, checksum: 2f07f7329a7f25f1759ddb5d7a6edd66 (MD5) Previous issue date: 2010-01-15 / Financiadora de Estudos e Projetos / In this study, we used the capture-recapture procedure to estimate the size of a closed population. We analysed three di_erent statistics models. For each one of these models we determined - through several methods of eliminating nuisance parameters - the likelihood function and the pro_le, conditional, uniform integrated, Je_reys integrated and generalized integrated likelihood functions of the population size, except for the last model where we determined a function that is analogous to the conditional likelihood function, called integrated restricted likelihood function. In each instance we determined the respectives maximum likelihood estimates, the empirical con_dence intervals and the empirical mean squared errors of the estimates for the population size and we studied, using simulated data, the performances of the models. / Nesta dissertação utilizamos o processo de captura-recaptura para estimar o tamanho de uma população fechada. Analisamos três modelos estatísticos diferentes e, para cada um deles, através de diversas metodologias de eliminação de parâmetros perturbadores, determinamos as funções de verossimilhança e de verossimilhança perfilada, condicional, integrada uniforme, integrada de Jeffreys e integrada generalizada do tamanho populacional, com exceção do último modelo onde determinamos uma função análoga à função de verossimilhança condicional, denominada função de verossimilhança restrita integrada. Em cada capítulo determinamos as respectivas estimativas de máxima verossimilhança e construímos intervalos de confiança empíricos para o tamanho populacional, bem como determinamos os erros quadráticos médios empíricos das estimativas e estudamos, através de dados simulados, as performances dos modelos.
320

Modelo logístico generalizado dependente do tempo com fragilidade

Milani, Eder Angelo 11 February 2011 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 3437.pdf: 1348932 bytes, checksum: d4b8cd2d1775831eeea609373f32648d (MD5) Previous issue date: 2011-02-11 / Universidade Federal de Minas Gerais / Several authors have preferred to model survival data in the presence of covariates through the hazard function, a fact related to its interpretation. The hazard function describes as the instantaneous average of failure changes over time. In this context, one of the most used models is the Cox s model (1972), in which the basic supposition for its use is that the ratio of the failure rates, of any two individuals, are proportional. However, experiments show that there are survival data which can not be accommodated by the Cox s model. This fact has been determinant in the developing of several types of non-proporcional hazard models. Among them we mention the accelerated failure model (Prentice, 1978), the hybrid hazard model (Etezadi-Amoli and Ciampi, 1987) and the extended hybrid hazard models (Louzada-Neto, 1997 and 1999). Mackenzie (1996) proposed a parametric family of non-proportional hazard model called generalized time-dependent logistic model - GTDL. This model is based on the generalization of the standard logistic function for the time-dependent form and is motivated in part by considering the timeeffect in its setting and, in part by the need to consider parametric structure. The frailty model (Vaupel et al., 1979, Tomazella, 2003, Tomazella et al., 2004) is characterized by the use of a random effect, ie, an unobservable random variable, which represents information that or could not or were not collected, such as, environmental and genetics factors, or yet information that, for some reason, were not considered in the planning. The frailty variable is introduced in the modeling of the hazard function, with the objective of control the unobservable heterogeneity of the units under study, including the dependence of the units that share the same hazard factors. In this work we considered an extension of the GTDL model using the frailty model as an alternative to model data which does not have a proportional hazard structure. From a classical perspective, we did a simulation study and an application with real data. We also used a Bayesian approach to a real data set. / Vários autores têm preferido modelar dados de sobrevivência na presença de covariáveis por meio da função de risco, fato este relacionado à sua interpretação. A função de risco descreve como a taxa instantânea de falha se modifica com o passar do tempo. Neste contexto, um dos modelos mais utilizados é o modelo de Cox (1972) sendo que a suposição básica para o seu uso é que a razão das taxas de falhas, de dois quaisquer indivíduos, sejam proporcionais. Contudo, experiências mostram que existem dados de sobrevivência que não podem ser acomodados pelo modelos de Cox. Este fato tem sido determinante no desenvolvimento de vários tipos de modelos de risco não proporcional. Entre eles podemos citar o modelo de falha acelerado (Prentice, 1978), o modelo de risco híbrido (Etezadi-Amoli e Ciampi, 1987) e os modelos de risco híbrido estendido (Louzada- Neto, 1997 e 1999). Mackenzie (1996) propôs uma nova família paramétrica de modelo de risco não proporcional intitulado modelo de risco logístico generalizado dependente do tempo (Generalized time-dependent logistic model-GTDL). Este modelo é baseado na generalização da função logística padrão para a forma dependente do tempo e é motivado em parte por considerar o efeito do tempo em seu ajuste e, em parte pela necessidade de considerar estrutura paramétrica. O modelo de fragilidade (Vaupel et al., 1979, Tomazella, 2003, Tomazella et al., 2004) é caracterizado pela utilização de um efeito aleatório, ou seja, de uma variável aleatória não observável, que representa as informações que não podem ou não foram observadas, como por exemplo, fatores ambientais e genéticos, ou ainda informações que, por algum motivo, não foram consideradas no planejamento. A variável de fragilidade é introduzida na modelagem da função de risco, com o objetivo de controlar a heterogeneidade não observável das unidades em estudo, inclusive a dependência das unidades que compartilham os mesmos fatores de risco. Neste trabalho consideramos uma extensão do modelo GTDL utilizando o modelo de fragilidade como uma alternativa para ii modelar dados que não tem uma estrutura de risco proporcional. Sob uma perspectiva Clássica, fizemos um estudo de simulação e uma aplicação com dados reais. Também utilizamos a abordagem Bayesiana para um conjunto de dados reais.

Page generated in 0.0458 seconds