• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 145
  • 1
  • Tagged with
  • 146
  • 146
  • 145
  • 145
  • 145
  • 68
  • 66
  • 47
  • 44
  • 41
  • 33
  • 29
  • 29
  • 28
  • 28
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Um modelo de risco proporcional dependente do tempo

Parreira, Daniela Ribeiro Martins 30 March 2007 (has links)
Made available in DSpace on 2016-06-02T20:06:00Z (GMT). No. of bitstreams: 1 1662.pdf: 571364 bytes, checksum: 6091268473b4a7cb920748fd364c2a99 (MD5) Previous issue date: 2007-03-30 / Survival data analysis models is used to study experimental data where, normally, the variable "answer"is the time passed until an event of interest. Many authors do prefer modeling survival data, in the presence of co-variables, by using a hazard function - which is related with its interpretation. The Cox model (1972) - most commonly used by the authors - is applicable when the fail rates are proportional. This model is very flexible and used in the survival analysis. It can be easily extended to, for example, incorporate the time-dependent co-variables. In the present work we propose a proportional risk model which incorporates a time-dependent parameter named "time-dependent proportional risk model". / A análise de sobrevivência tem por objetivo estudar dados de experimento em que a variável resposta é o tempo até a ocorrência de um evento de interesse. Vários autores têm preferido modelar dados de sobrevivência na presença de covariáveis por meio da função de risco, fato este relacionado à sua interpretação. Ela descreve como a probabilidade instantânea de falha se modifca com o passar do tempo. Nesse contexto, um dos modelos mais utilizados é o modelo de Cox (Cox, 1972), onde a suposição básica para o seu uso é que as taxas de falhas sejam proporcionais. O modelo de riscos proporcionais de Cox é bastante flexível e extensivamente usado em análise de sobrevivência. Ele pode ser facilmente estendido para incorporar, por exemplo, o efeito de covariáveis dependentes do tempo. Neste estudo, propõe-se um modelo de risco proporcional, que incorpora um parâmetro dependente do tempo, denominado modelo de risco proporcional dependente do tempo. Uma análise clássica baseada nas propriedades assintóticas dos estimadores de máxima verossimilhança dos parâmetros envolvidos é desenvolvida, bem como um estudo de simulação via técnicas de reamostragem para estimação intervalar e testes de hipóteses dos parâmetros do modelo. É estudado o custo de estimar o efeito da covariável quando o parâmetro que mede o efeito do tempo é considerado na modelagem. E, finalizando, apresentamos uma abordagem do ponto de vista Bayesiano.
102

Modelos dinâmicos de resposta binária para dados em painel

Silva, Eveliny Barroso da 06 June 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:01Z (GMT). No. of bitstreams: 1 2049.pdf: 560086 bytes, checksum: 32b955d6a93e81457f49b0418b1e9514 (MD5) Previous issue date: 2008-06-06 / Financiadora de Estudos e Projetos / A summary of the state of the art relative to regression models for binary response variable and panel data is presented in this work. Those models may include efects from several sources: specific variables of interest, heterogeneity between individuals and lagged values of the response variable. The original contributions of the author are simulation studies to compare two diferent approaches to maximum likelihood estimation of parameters of dynamic models with all three kinds of efects, and also a study of properties of such estimators in group sequential analysis, using the bootstrap methodology. Original codes were developed in R for implementation of simulation studies. The relevance of the subject and the non availability of appropriate codes in commercial software for fitting dynamic models for binary response justify the choice of the theme. / Neste trabalho é apresentado inicialmente um levantamento da literatura referente a modelos de regressão não lineares quando a variável resposta é binária e as observações são um painel de dados. Tais modelos podem incluir efeitos de várias fontes: variáveis específicas de interesse, heterogeneidade não observável dos indivíduos e valores defasados da variável resposta. A parte original do trabalho consiste nos estudos por simulação usando programação criada para esse fim no software R, visando comparar duas propostas recentes da literatura para ajustar, por máxima verossimilhança condicional, modelos dinâmicos que incluem os três tipos de efeitos mencionados. Também é original o estudo empírico, usando a metodologia de reamostragem \bootstrap", de características da distribuição conjunta dos estimadores dos parâmetros em análises intermediárias dos dados. A justificativa do trabalho é a atualidade do tema e a inexistência de programas de ajuste de modelos dinâmicos de resposta binária na maioria dos softwares comerciais.
103

Inferência do valor de mercado de lotes urbanos. Estudo de caso : município de São Carlos (SP)

Ferraudo, Guilherme Moraes 13 November 2008 (has links)
Made available in DSpace on 2016-06-02T20:06:01Z (GMT). No. of bitstreams: 1 2197.pdf: 1979337 bytes, checksum: 0091ce4138b8a98277d9af0d5d2aa788 (MD5) Previous issue date: 2008-11-13 / Universidade Federal de Sao Carlos / In this dissertation we present a regression modelling proposal for modelling the market prices of urban batches at São Carlos city (SP), over the year of 2005. Usual regression modelling and survival techniques, with left censoring, are considered. A simulation study exames the coverage probabilities the asymptotic confidence for the parameters of the considered modelling. / Nesta disertação apresentaremos uma proposta de um modelo de equação de regressão representativa para a formação do valor de mercado dos lotes urbanos do município de São Carlos, SP, ano de 2005, visando à criação de Plantas de Valores Genéricos (PVG) utilizando as técnicas de: Modelos Lineares Usuais (erros normais e variância constante), estes amplamente utilizados, e a Análise de Sobrevivência com censura à esquerda. Após o ajuste, as duas metodologias são comparadas e testadas num estudo de simulação onde examinamos a probabilidade de cobertura de alguns parâmetros envolvidos na regressão.
104

Inferência bayesiana objetiva e freqüentista para a probabilidade de sucesso

Pires, Rubiane Maria 10 February 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2203.pdf: 1300161 bytes, checksum: 2c1f11d939eab9ab849bb04bf2363a53 (MD5) Previous issue date: 2009-02-10 / Financiadora de Estudos e Projetos / This study considers two discrete distributions based on Bernoulli trials: the Binomial and the Negative Binomial. We explore credibility and confidence intervals to estimate the probability of success of each distribution. The main goal is to analyze their performance coverage probability and average range across the parametric space. We also consider point analysis of bayesian estimators and maximum likelihood estimators, whose interest is to confirm through simulation their consistency, bias and mean square error. In this paper the Objective Bayesian Inference is applied through the noninformative Bayes-Laplace prior, Haldane prior, reference prior and least favorable prior. By analyzing the prior distributions in the minimax decision theory context we verified that the least favorable prior distribution has every other considered prior distributions as particular cases when a quadratic loss function is applied, and matches the Bayes-Laplace prior in considering the quadratic weighed loss function for the Binomial model (which was never found in literature). We used the noninformative Bayes-Laplace prior and Jeffreys prior for the Negative Binomial model. Our findings show through coverage probability, average range of bayesian intervals and point estimation that the Objective Bayesian Inference has good frequentist properties for the probability of success of Binomial and Negative Binomial models. The last stage of this study discusses the presence of correlated proportions in matched-pairs (2 × 2 table) of Bernoulli with the goal of obtaining more information in relation of the considered measures for testing the occurrence of correlated proportions. In this sense the Trinomial model and the partial likelihood function were used from the frequentist and bayesian point of view. The Full Bayesian Significance Test (FBST) was used for real data sets and was shown sensitive to parameterization, however, this study was not possible for the frequentist method since distinct methods are needed to be applied to Trinomial model and the partial likelihood function. / Neste estudo são abordadas duas distribuições discretas baseadas em ensaios de Bernoulli, a Binomial e a Binomial Negativa. São explorados intervalos de credibilidade e confiança para estimação da probabilidade de sucesso de ambas as distribuições. A principal finalidade é analisar nos contextos clássico e bayesiano o desempenho da probabilidade de cobertura e amplitude média gerada pelos intervalos de confiança e intervalos de credibilidade ao longo do espaço paramétrico. Considerou-se também a análise dos estimadores pontuais bayesianos e o estimador de máxima verossimilhança, cujo interesse é confirmar por meio de simulação a consistência e calcular o viés e o erro quadrático médio dos mesmos. A Inferência Bayesiana Objetiva é empregada neste estudo por meio das distribuições a priori não-informativas de Bayes-Laplace, de Haldane, de Jeffreys e menos favorável. Ao analisar as distribuições a priori no contexto de teoria de decisões minimax, a distribuição a priori menos favorável resgata as demais citadas ao empregar a função de perda quadrática e coincide com a distribuição a priori de Bayes-Laplace ao considerar a função de perda quadrática ponderada para o modelo Binomial, o que não foi encontrado até o momento na literatura. Para o modelo Binomial Negativa são consideradas as distribuições a priori não-informativas de Bayes-Laplace e de Jeffreys. Com os estudos desenvolvidos pôde-se observar que a Inferência Bayesiana Objetiva para a probabilidade de sucesso dos modelos Binomial e Binomial Negativa apresentou boas propriedades freqüentistas, analisadas a partir da probabilidade de cobertura e amplitude média dos intervalos bayesianos e por meio das propriedades dos estimadores pontuais. A última etapa do trabalho consiste na análise da ocorrência de proporções correlacionadas em pares de eventos de Bernoulli (tabela 2×2) com a finalidade de determinar um possível ganho de informação em relação as medidas consideradas para testar a ocorrência de proporções correlacionadas. Para tanto fez-se uso do modelo Trinomial e da função de verossimilhança parcial tanto numa abordagem clássica quanto bayesiana. Nos conjuntos de dados analisados observou-se a medida de evidência bayesiana (FBST) como sensível à parametrização, já para os métodos clássicos essa comparação não foi possível, pois métodos distintos precisam ser aplicados para o modelo Trinomial e para a função de verossimilhança parcial.
105

Especificação do tamanho da defasagem de um modelo dinâmico

Furlan, Camila Pedrozo Rodrigues 06 March 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2567.pdf: 3332442 bytes, checksum: 1e03b44e1c1f61f90b947fdca5682355 (MD5) Previous issue date: 2009-03-06 / Financiadora de Estudos e Projetos / Several techniques are proposed to determine the lag length of a dynamic regression model. However, none of them is completely satisfactory and a wrong choice could imply serious problems in the estimation of the parameters. This dissertation presents a review of the main criteria for models selection used in the classical methodology and presents a way for determining the lag length from the perspective Bayesian. A Monte Carlo simulation study is conducted to compare the performance of the significance tests, R2 adjusted, final prediction error, Akaike information criterion, Schwarz information criterion, Hannan-Quinn criterion, corrected Akaike information criterion and fractional Bayesian approach. Two estimation methods are also compared, the ordinary least squares and the Almon approach. / Na literatura, muitas técnicas são propostas para determinar o tamanho da defasagem de um modelo de regressão dinâmico. Entretanto, nenhuma delas é completamente satisfatória e escolhas erradas implicam em sérios problemas na estimação dos parâmetros. Este trabalho apresenta uma revisão dos principais critérios de seleção de modelos disponíveis na metodologia clássica, assim como aborda uma maneira de determinar o tamanho da defasagem sob a perspectiva Bayesiana. Um estudo de simulação Monte Carlo é conduzido para comparar a performance dos testes de significância, do R2 ajustado, do erro de predição final, dos critérios de informação de Akaike, Schwarz, Hannan-Quinn e Akaike corrigido e da aproximação Bayesiana fracionada. Também serão comparados os métodos de estimação de Mínimos Quadrados Ordinários e de Almon.
106

Distribuição normal assimétrica para dados de expressão gênica

Gomes, Priscila da Silva 17 April 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:02Z (GMT). No. of bitstreams: 1 2390.pdf: 3256865 bytes, checksum: 7ad1acbefc5f29dddbaad3f14dbcef7c (MD5) Previous issue date: 2009-04-17 / Financiadora de Estudos e Projetos / Microarrays technologies are used to measure the expression levels of a large amount of genes or fragments of genes simultaneously in diferent situations. This technology is useful to determine genes that are responsible for genetic diseases. A common statistical methodology used to determine whether a gene g has evidences to diferent expression levels is the t-test which requires the assumption of normality for the data (Saraiva, 2006; Baldi & Long, 2001). However this assumption sometimes does not agree with the nature of the analyzed data. In this work we use the skew-normal distribution described formally by Azzalini (1985), which has the normal distribution as a particular case, in order to relax the assumption of normality. Considering a frequentist approach we made a simulation study to detect diferences between the gene expression levels in situations of control and treatment through the t-test. Another simulation was made to examine the power of the t-test when we assume an asymmetrical model for the data. Also we used the likelihood ratio test to verify the adequability of an asymmetrical model for the data. / Os microarrays são ferramentas utilizadas para medir os níveis de expressão de uma grande quantidade de genes ou fragmentos de genes simultaneamente em situações variadas. Com esta ferramenta é possível determinar possíveis genes causadores de doenças de origem genética. Uma abordagem estatística comumente utilizada para determinar se um gene g apresenta evidências para níveis de expressão diferentes consiste no teste t, que exige a suposição de normalidade aos dados (Saraiva, 2006; Baldi & Long, 2001). No entanto, esta suposição pode não condizer com a natureza dos dados analisados. Neste trabalho, será utilizada a distribuição normal assimétrica descrita formalmente por Azzalini (1985), que tem a distribuição normal como caso particular, com o intuito de flexibilizar a suposição de normalidade. Considerando a abordagem clássica, é realizado um estudo de simulação para detectar diferenças entre os níveis de expressão gênica em situações de controle e tratamento através do teste t, também é considerado um estudo de simulação para analisar o poder do teste t quando é assumido um modelo assimétrico para o conjunto de dados. Também é realizado o teste da razão de verossimilhança, para verificar se o ajuste de um modelo assimétrico aos dados é adequado.
107

Classe de distribuições série de potências inflacionadas com aplicações

Silva, Deise Deolindo 06 April 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2510.pdf: 1878422 bytes, checksum: 882e21e70271b7a106e3a27a080da004 (MD5) Previous issue date: 2009-04-06 / This work has as central theme the Inflated Modified Power Series Distributions, where the objective is to study its main properties and the applicability in the bayesian context. This class of models includes the generalized Poisson, binomial and negative binomial distributions. These probability distributions are very helpful to models discrete data with inflated values. As particular case the - zero inflated Poisson models (ZIP) is studied, where the main purpose was to verify the effectiveness of it when compared to the Poisson distribution. The same methodology was considered for the negative binomial inflated distribution, but comparing it with the Poisson, negative binomial and ZIP distributions. The Bayes factor and full bayesian significance test were considered for selecting models. / Este trabalho tem como tema central a classe de distribuições série de potências inflacionadas, em que o intuito é estudar suas principais propriedades e a aplicabilidade no contexto bayesiano. Esta classe de modelos engloba as distribuições de Poisson, binomial e binomial negativa simples e as generalizadas e, por isso é muito aplicada na modelagem de dados discretos com valores excessivos. Como caso particular propôs-se explorar a distribuição de Poisson zero inflacionada (ZIP), em que o objetivo principal foi verificar a eficácia de sua modelagem quando comparada à distribuição de Poisson. A mesma metodologia foi considerada para a distribuição binomial negativa inflacionada, mas comparando-a com as distribuições de Poisson, binomial negativa e ZIP. Como critérios formais para seleção de modelos foram considerados o fator de Bayes e o teste de significância completamente bayesiano.
108

Métodos de agrupamento na análise de dados de expressão gênica

Rodrigues, Fabiene Silva 16 February 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2596.pdf: 1631367 bytes, checksum: 90f2d842a935f1dd50bf587a33f6a2cb (MD5) Previous issue date: 2009-02-16 / The clustering techniques have frequently been used in literature to the analyse data in several fields of application. The main objective of this work is to study such techniques. There is a large number of clustering techniques in literature. In this work we concentrate on Self Organizing Map (SOM), k-means, k-medoids and Expectation- Maximization (EM) algorithms. These algorithms are applied to gene expression data. The analisys of gene expression, among other possibilities, identifies which genes are differently expressed in synthesis of proteins associated to normal and sick tissues. The purpose is to do a comparing of these metods, sticking out advantages and disadvantages of such. The metods were tested for simulation and after we apply them to a real data set. / As técnicas de agrupamento (clustering) vêm sendo utilizadas com freqüência na literatura para a solução de vários problemas de aplicações práticas em diversas áreas do conhecimento. O principal objetivo deste trabalho é estudar tais técnicas. Mais especificamente, estudamos os algoritmos Self Organizing Map (SOM), k-means, k-medoids, Expectation-Maximization (EM). Estes algoritmos foram aplicados a dados de expressão gênica. A análise de expressão gênica visa, entre outras possibilidades, a identificação de quais genes estão diferentemente expressos na sintetização de proteínas associados a tecidos normais e doentes. O objetivo deste trabalho é comparar estes métodos no que se refere à eficiência dos mesmos na identificação de grupos de elementos similares, ressaltando vantagens e desvantagens de cada um. Os métodos foram testados por simulação e depois aplicamos as metodologias a um conjunto de dados reais.
109

Regiões de incerteza para a curva ROC em testes diagnósticos

Vaz, Janaina Cândida Lopes 03 March 2009 (has links)
Made available in DSpace on 2016-06-02T20:06:03Z (GMT). No. of bitstreams: 1 2711.pdf: 1912872 bytes, checksum: 297e56759e248cb7127eae6094c0d821 (MD5) Previous issue date: 2009-03-03 / Financiadora de Estudos e Projetos / Diagnostic tests are methods capable of indicating the presence or absence of a disease, with a probability of error. The performance of a diagnostic test can be verified by some indicator, as: the specificity, the sensitivity and the ROC curve. A graph of the specificity complement versus sensitivity is called as ROC curve. The ROC curve demonstrates the test s ability to discriminate the different disease diagnosis, therefore it is a graphical tool that is used to assess the performance of a test. We define three types of confidence regions around the ROC curve: the punctual, the regional and the global. In some instances, depending on the clinical needs, the decision is taken under an specific region of the ROC curve. We review some procedures for estimating confidence region for the ROC curve and we propose two new methods (optimized averages and averages thresholds optimized) to estimating that region. We use the bootstrap method to search for a confidence region around the ROC curve. Using numerical examples, we apply the methods an compare their performance. / Testes diagnósticos são métodos capazes de indicar a presença ou ausência de uma doença, com uma probabilidade de erro. O desempenho de um teste diagnóstico pode ser verificado por algum indicador, como: a especificidade, a sensibilidade e a curva ROC. Um gráfico do complemento da especificidade versus sensibilidade é chamado de curva ROC. A curva ROC demonstra a habilidade do teste em discriminar os diferentes diagnósticos da doença, logo é uma ferramenta gráfica que serve para avaliar o desempenho de um teste. Definimos três tipos de regiões de confiança em torno da curva ROC: as pontuais, as regionais e as globais. Em algumas situações, de acordo com a necessidade do clínico, uma decisão é tomada sobre uma determinada região específica da curva ROC. Revisamos alguns procedimentos para estimar a região de confiança para a curva ROC e propomos dois novos métodos (médias otimizadas e médias limiares otimizadas) para estimar essa região. Usamos o método bootstrap para buscar uma região de confiança em torno da curva ROC. Usando exemplos numéricos, aplicamos os métodos para comparar seus desempenhos.
110

Eliminação de parâmetros perturbadores na estimação de tamanhos populacionais

Festucci, Ana Claudia 15 January 2010 (has links)
Made available in DSpace on 2016-06-02T20:06:04Z (GMT). No. of bitstreams: 1 2751.pdf: 886213 bytes, checksum: 2f07f7329a7f25f1759ddb5d7a6edd66 (MD5) Previous issue date: 2010-01-15 / Financiadora de Estudos e Projetos / In this study, we used the capture-recapture procedure to estimate the size of a closed population. We analysed three di_erent statistics models. For each one of these models we determined - through several methods of eliminating nuisance parameters - the likelihood function and the pro_le, conditional, uniform integrated, Je_reys integrated and generalized integrated likelihood functions of the population size, except for the last model where we determined a function that is analogous to the conditional likelihood function, called integrated restricted likelihood function. In each instance we determined the respectives maximum likelihood estimates, the empirical con_dence intervals and the empirical mean squared errors of the estimates for the population size and we studied, using simulated data, the performances of the models. / Nesta dissertação utilizamos o processo de captura-recaptura para estimar o tamanho de uma população fechada. Analisamos três modelos estatísticos diferentes e, para cada um deles, através de diversas metodologias de eliminação de parâmetros perturbadores, determinamos as funções de verossimilhança e de verossimilhança perfilada, condicional, integrada uniforme, integrada de Jeffreys e integrada generalizada do tamanho populacional, com exceção do último modelo onde determinamos uma função análoga à função de verossimilhança condicional, denominada função de verossimilhança restrita integrada. Em cada capítulo determinamos as respectivas estimativas de máxima verossimilhança e construímos intervalos de confiança empíricos para o tamanho populacional, bem como determinamos os erros quadráticos médios empíricos das estimativas e estudamos, através de dados simulados, as performances dos modelos.

Page generated in 0.0287 seconds