• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 7
  • Tagged with
  • 31
  • 29
  • 25
  • 17
  • 17
  • 15
  • 12
  • 11
  • 10
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Detectando má especificação em regressão beta

Oliveira, José Sérgio Casé de 31 January 2013 (has links)
Submitted by Danielle Karla Martins Silva (danielle.martins@ufpe.br) on 2015-03-12T12:34:22Z No. of bitstreams: 2 José Sérgio Casé de Oliveira.pdf: 1717088 bytes, checksum: 91394789d8ecc6a45d75afc3abd4503c (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T12:34:22Z (GMT). No. of bitstreams: 2 José Sérgio Casé de Oliveira.pdf: 1717088 bytes, checksum: 91394789d8ecc6a45d75afc3abd4503c (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013 / CAPES / Esta dissertação tem por objetivo avaliar o poder do teste de má especificação proposto por Cribari-Neto & Lima (2007) em vários cenários que configuram má especificação do modelo de regressão beta, em particular: função de ligação incorreta, presença de outlier na amostra, omissão de variável regressora importante, estimação com dispersão constante quando o modelo verdadeiro possui dispersão variável (e vice-versa) e má especificação da distribuição da variável resposta. O desempenho do teste foi avaliado em modelos de regressão beta com dispersão fixa e variável. Adicionalmente, introduzimos um outro teste de má especificação, o qual também teve seu poder avaliado em diversos cenários de má especificação. O poder do teste proposto foi comparado ao do teste proposto por Cribari-Neto & Lima (2007). Os desempenhos dos testes em amostras finitas foram avaliados numericamente por meio de simulações de Monte Carlo. Por fim, apresentamos algumas aplicações com dados reais.
12

Refinamento de Inferências nas Distribuições Gaussiana Inversa Triparamétrica, Pareto Generalizada e Lomax

PIRES, Juliana Freitas 02 1900 (has links)
Submitted by Etelvina Domingos (etelvina.domingos@ufpe.br) on 2015-03-12T18:30:37Z No. of bitstreams: 2 TESE Juliana Freitas Pires.pdf: 2036830 bytes, checksum: 9cf767526859054ed6878742b0a6047f (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T18:30:37Z (GMT). No. of bitstreams: 2 TESE Juliana Freitas Pires.pdf: 2036830 bytes, checksum: 9cf767526859054ed6878742b0a6047f (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2014-02 / Nesta tese, tratamos de refinamentos de inferências para as distribuições gaussiana inversa triparamétrica, Pareto generalizada e Lomax. Duas linhas de pesquisa são abordadas. A primeira, referente ao Capítulo 2, trata da derivação de expressões analíticas para os vieses dos estimadores de máxima verossimilhança dos parâmetros da distribuição gaussiana inversa triparamétrica, possibilitando a obtenção de estimadores corrigidos, que, em princípio, são mais precisos que os não corrigidos. Estimadores com vieses corrigidos por bootstrap são também considerados. Adicionalmente, apresentamos diferentes tipos de intervalos de confiança. A segunda linha de pesquisa, referente aos Capítulos 3 e 4, aborda a derivação de ajustes para a função de verossimilhança perfilada das distribuições Pareto generalizada e Lomax, respectivamente, com o objetivo de melhorar a qualidade das inferências (estimadores de máxima verossimilhança e testes de hipóteses) acerca do parâmetro de forma dessas distribuições, considerando os demais parâmetros como parâmetros de perturbação. Adicionalmente, consideramos o teste da razão de verossimilhanças bootstrap. Os desempenhos dos estimadores e testes de hipóteses baseados nos refinamentos propostos foram avaliados numericamente e comparados às suas contrapartidas usuais através de estudos de simulação de Monte Carlo. Por fim, a utilidade dos refinamentos foi ilustrada através de aplicações a conjuntos de dados reais.
13

Modelagem e Inferência em Regressão Beta

Mariano Bayer, Fábio 31 January 2011 (has links)
Made available in DSpace on 2014-06-12T18:01:37Z (GMT). No. of bitstreams: 2 arquivo6698_1.pdf: 1066555 bytes, checksum: db4d02aef759ceeda67e4d16ca74b282 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2011 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Esta tese aborda aspectos de modelagem e inferência em regressão beta, mais especificamente melhoramentos do teste de razão da verossimilhanças e proposição e investigação de critérios de seleção de modelos. O modelo de regressão beta foi proposto por Ferrari e Cribari-Neto [2004. Beta regression for modeling rates and proportions. J. Appl. Statist. 31, 799 815] para modelar variáveis contínuas no intervalo (0;1), como taxas e proporções. No primeiro capítulo, abordamos o problema de inferência em pequenas amostras. Focamos no melhoramento do teste da razão de verossimilhanças. Consideramos correções de segunda ordem para a estatística da razão de verossimilhanças em regressão beta em duas abordagens. Determinamos, por meio de uma abordagem matricial, o fator de correção de Bartlett e também uma correção de Bartlett Bootstrap. Comparamos os testes baseados nas estatísticas corrigidas com o teste da razão de verossimilhanças usual e com o teste que utiliza o ajuste de Skovgaard, que já está proposto na literatura. Os resultados numéricos evidenciam que as correções de Bartlett são mais acuradas do que a estatística não corrigida e do que o ajuste de Skovgaard. No segundo e terceiro capítulos, expandimos o modelo de regressão beta proposto por Ferrari e Cribari-Neto, considerando um modelo que assume que o parâmetro de dispersão, assim como o parâmetro de média, varia ao longo das observações e pode ser modelado por meio de uma estrutura de regressão. Com isso, surge o problema da seleção de variáveis, tanto para a estrutura da média quanto para a da dispersão. Esse assunto é tratado em dois capítulos independentes e auto-contidos, porém, ambos relacionados. No Capítulo 2 propomos critérios de seleção para modelos com dispersão variável e investigamos, por meio de simulação de Monte Carlo, os desempenhos destes e de outros critérios de seleção em amostras de tamanho finito. Percebemos que o processo de seleção conjunta de regressores para a média e para a dispersão não é uma boa prática e propomos um esquema de seleção em duas etapas. A seleção de modelos com o esquema proposto, além de requerer um menor custo computacional, apresentou melhor desempenho do que o método usual de seleção. Dentre os critérios investigados encontra-se o critério de informação de Akaike (AIC). O AIC é, sem dúvida, o critério mais conhecido e aplicado em diferentes classes de modelos. Baseados no AIC diversos critérios têm sido propostos, dentre eles o SIC, o HQ e o AICc. Com o objetivo de estimar o valor esperado da log-verossimilhança, que é uma medida de discrepância entre o modelo verdadeiro e o modelo candidato estimado, Akaike obtém o AIC como uma correção assintótica para a log-verossimilhança esperada. No entanto, em pequenas amostras, ou quando o número de parâmetros do modelo é grande relativamente ao tamanho amostral, o AIC se torna viesado e tende a selecionar modelos com alta dimensionalidade. Ao considerarmos uma estrutura de regressão também para o parâmetro de dispersão introduzimos um maior número de parâmetros a serem estimados no modelo. Isso pode diminuir o desempenho dos critérios de seleção quando o tamanho amostral é pequeno ou moderado. Para contornar esse problema propomos no Capítulo 3 novos critérios de seleção para serem usados em pequenas amostras, denominados bootstrap likelihood quasi-CV (BQCV) e sua modificação 632QCV. Comparamos os desempenhos dos critérios propostos, do AIC e de suas diversas variações que utilizam log-verossimilhança bootstrap por meio de um extensivo estudo de simulação. Os resultados numéricos evidenciam o bom desempenho dos critérios propostos
14

Aperfeiçoamento de testes nos modelos séries de potência não-lineares generalizados

do Carmo Soares de Lima, Maria 31 January 2012 (has links)
Made available in DSpace on 2014-06-12T18:06:35Z (GMT). No. of bitstreams: 2 arquivo9497_1.pdf: 506400 bytes, checksum: e9f5ea43d7905d4b2ce5b74712cf8183 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2012 / Conselho Nacional de Desenvolvimento Científico e Tecnológico / Essa dissertação tem dois objetivos. O primeiro consiste na obtenção de um fator de correção tipo-Bartlett para a estatística escore nos modelos em série de potência não-lineares generalizados. O segundo é comparar o desempenho dos testes baseados nas seguintes estatísticas, a saber: escore e suas versões corrigidas, razão de verossimilhanças e suas versões corrigidas e a gradiente, no que tange ao tamanho e ao poder. Finalmente apresentamos uma aplicação a dados reais
15

APERFEIÇOAMENTO DE TESTES NOS MODELOS SÉRIES DE POTÊNCIA NÃO-LINEARES GENERALIZADOS

Lima, Maria do Carmo Soares de 02 1900 (has links)
Submitted by Etelvina Domingos (etelvina.domingos@ufpe.br) on 2015-03-05T17:36:58Z No. of bitstreams: 2 ML.pdf: 506400 bytes, checksum: e9f5ea43d7905d4b2ce5b74712cf8183 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-05T17:36:58Z (GMT). No. of bitstreams: 2 ML.pdf: 506400 bytes, checksum: e9f5ea43d7905d4b2ce5b74712cf8183 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2012-02 / CNPq / Essa dissertação tem dois objetivos. O primeiro consiste na obtenção de um fator de correção tipo-Bartlett para a estatística escore nos modelos em série de potência não-lineares generalizados. O segundo é comparar o desempenho dos testes baseados nas seguintes estatísticas, a saber: escore e suas versões corrigidas, razão de verossimilhanças e suas versões corrigidas e a gradiente, no que tange ao tamanho e ao poder. Finalmente apresentamos uma aplicação a dados reais.
16

Diagnóstico no modelo de regressão logística ordinal / Diagnostic of ordinal logistic regression model

Moura, Marina Calais de Freitas 11 June 2019 (has links)
Os modelos de regressão logística ordinais são usados para descrever a relação entre uma variável resposta categórica ordinal e uma ou mais variáveis explanatórias. Uma vez ajustado o modelo de regressão, se faz necessário verificar a qualidade do ajuste do modelo. As estatísticas qui-quadrado de Pearson e da razão de verossimilhanças não são adequadas para acessar a qualidade do ajuste do modelo de regressão logística ordinal quando variáveis contínuas estão presentes no modelo. Para este caso, foram propostos os testes de Lipsitz, a versão ordinal do teste de Hosmer-Lemeshow e os testes qui-quadrado e razão de verossimilhanças de Pulkistenis-Robinson. Nesta dissertação é feita uma revisão das técnicas de diagnóstico disponíveis para os Modelos logito cumulativo, Modelos logito categorias adjacentes e Modelos logito razão contínua, bem como uma aplicação a fim de investigar a relação entre a perda auditiva, o equilíbrio e aspectos emocionais nos idosos. / Ordinal regression models are used to describe the relationship between an ordered categorical response variable and one or more explanatory variables which could be discrete or continuous. Once the regression model has been fitted, it is necessary to check the goodness-of-fit of the model. The Pearson and likelihood-ratio statistics are not adequate for assessing goodness-of-fit in ordinal logistic regression model with continuous explanatory variables. For this case, the Lipsitz test, the ordinal version of the Hosmer-Lemeshow test and Pulkstenis-Robinson chi-square and likelihood ratio tests were proposed. This dissertation aims to review the diagnostic techniques available for the cumulative logit models, categories adjacent logit models and continuous ratio logistic models. In addition, an application was developed in order to investigate the relationship between hearing loss, balance and emotional aspects in the elderly.
17

Métodos de seleção de pontos de corte em análise de sobrevivência / Cutpoints selection methods in survival analysis

Eugenio, Gisele Cristine 05 June 2017 (has links)
Este trabalho visa apresentar métodos de categorização de variáveis explicativas contínuas em Análise de Sobrevivência. Do ponto de vista clínico, agrupar pacientes em grupos de risco distintos é importante para agilizar tomadas de decisões; entretanto, perda de informação e outros problemas estatísticos podem ocorrer. Portanto, métodos para seleção de pontos de corte e correção dos possíveis problemas gerados pela categorização são criticamente avaliados. Para a aplicação e comparação dos métodos são utilizados dados do Instituto do Coração do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (InCor - FMUSP), em que a variável fração de ejeção é dicotomizada e tricotomizada. / This dissertation aims to present methods of categorization for continuous variables in Survival Analysis. From a clinical point of view, grouping patients into distinct risk groups is important for accelerating decision-making; however, loss of information and other statistical problems may occur. Therefore, methods for selecting cutpoints and correcting problems generated by categorization are critically evaluated. For the application and comparison of the methods, the dataset from Heart Institute - University of Sao Paulo Medical School (InCor FMUSP) is used, in which the variable ejection fraction is dichotomized and trichotomized.
18

Modelos lineares mistos para dados longitudinais em ensaio fatorial com tratamento adicional / Mixed linear models for longitudinal data in a factorial experiment with additional treatment

Rocha, Gilson Silvério da 09 October 2015 (has links)
Em experimentos agronômicos são comuns ensaios planejados para estudar determinadas culturas por meio de múltiplas mensurações realizadas na mesma unidade amostral ao longo do tempo, espaço, profundidade entre outros. Essa forma com que as mensurações são coletadas geram conjuntos de dados que são chamados de dados longitudinais. Nesse contexto, é de extrema importância a utilização de metodologias estatísticas que sejam capazes de identificar possíveis padrões de variação e correlação entre as mensurações. A possibilidade de inclusão de efeitos aleatórios e de modelagem das estruturas de covariâncias tornou a metodologia de modelos lineares mistos uma das ferramentas mais apropriadas para a realização desse tipo de análise. Entretanto, apesar de todo o desenvolvimento teórico e computacional, a utilização dessa metodologia em delineamentos mais complexos envolvendo dados longitudinais e tratamentos adicionais, como os utilizados na área de forragicultura, ainda é passível de estudos. Este trabalho envolveu o uso do diagrama de Hasse e da estratégia top-down na construção de modelos lineares mistos no estudo de cortes sucessivos de forragem provenientes de um experimento de adubação com boro em alfafa (Medicago sativa L.) realizado no campo experimental da Embrapa Pecuária Sudeste. Primeiramente, considerou-se uma abordagem qualitativa para todos os fatores de estudo e devido à complexidade do delineamento experimental optou-se pela construção do diagrama de Hasse. A incorporação de efeitos aleatórios e seleção de estruturas de covariâncias para os resíduos foram realizadas com base no teste da razão de verossimilhanças calculado a partir de parâmetros estimados pelo método da máxima verossimilhança restrita e nos critérios de informação de Akaike (AIC), Akaike corrigido (AICc) e bayesiano (BIC). Os efeitos fixos foram testados por meio do teste Wald-F e, devido aos efeitos significativos das fontes de variação associadas ao fator longitudinal, desenvolveu-se um estudo de regressão. A construção do diagrama de Hasse foi fundamental para a compreensão e visualização simbólica do relacionamento de todos os fatores presentes no estudo, permitindo a decomposição das fontes de variação e de seus graus de liberdade, garantindo que todos os testes fossem realizados corretamente. A inclusão de efeito aleatório associado à unidade experimental foi essencial para a modelagem do comportamento de cada unidade e a estrutura de componentes de variância com heterogeneidade, incorporada aos resíduos, foi capaz de modelar eficientemente a heterogeneidade de variâncias presente nos diferentes cortes da cultura da alfafa. A verificação do ajuste foi realizada por meio de gráficos de diagnósticos de resíduos. O estudo de regressão permitiu avaliar a produtividade de matéria seca da parte aérea da planta (kg ha-1) de cortes consecutivos da cultura da alfafa, envolvendo a comparação de adubações com diferentes fontes e doses de boro. Os melhores resultados de produtividade foram observados para a combinação da fonte ulexita com as doses 3, 6 e 9 kg ha-1 de boro. / Assays aimed at studying some crops through multiple measurements performed in the same sample unit along time, space, depth etc. have been frequently adopted in agronomical experiments. This type of measurement originates a dataset named longitudinal data, in which the use of statistical procedures capable of identifying possible standards of variation and correlation among measurements has great importance. The possibility of including random effects and modeling of covariance structures makes the methodology of mixed linear models one of the most appropriate tools to perform this type of analysis. However, despite of all theoretical and computational development, the use of such methodology in more complex designs involving longitudinal data and additional treatments, such as those used in forage crops, still needs to be studied. The present work covered the use of the Hasse diagram and the top-down strategy in the building of mixed linear models for the study of successive cuts from an experiment involving boron fertilization in alfalfa (Medicago sativa L.) carried out in the field area of Embrapa Southeast Livestock. First, we considered a qualitative approach for all study factors and we chose the Hasse diagram building due to the model complexity. The inclusion of random effects and selection of covariance structures for residues were performed based on the likelihood ratio test, calculated based on parameters estimated through the restricted maximum likelihood method, the Akaike\'s Information Criterion (AIC), the Akaike\'s information criterion corrected (AICc) and the Bayesian Information Criterion (BIC). The fixed effects were analyzed through the Wald-F test and we performed a regression study due to the significant effects of the variation sources associated with the longitudinal factor. The Hasse diagram building was essential for understanding and symbolic displaying regarding the relation among all factors present in the study, thus allowing variation sources and their degrees of freedom to be decomposed, assuring that all tests were correctly performed. The inclusion of random effect associated with the sample unit was essential for modeling the behavior of each unity. Furthermore, the structure of variance components with heterogeneity, added to the residues, was capable of modeling efficiently the heterogeneity of variances present in the different cuts of alfalfa plants. The fit was checked by residual diagnostic plots. The regression study allowed us to evaluate the productivity of shoot dry matter (kg ha-1) related to successive cuts of alfalfa plants, involving the comparison of fertilization with different boron sources and doses. We observed the best productivity in the combination of the source ulexite with the doses 3, 6 and 9 kg ha-1 boron.
19

Ajustes para o teste da razão de verossimilhanças em modelos de regressão beta / Adjusted likelihood ratio statistics in beta regression models

Pinheiro, Eliane Cantinho 23 March 2009 (has links)
O presente trabalho considera o problema de fazer inferência com acurácia para pequenas amostras, tomando por base a estatística da razão de verossimilhanças em modelos de regressão beta. Estes, por sua vez, são úteis para modelar proporções contínuas que são afetadas por variáveis independentes. Deduzem-se as estatísticas da razão de verossimilhanças ajustadas de Skovgaard (Scandinavian Journal of Statistics 28 (2001) 3-32) nesta classe de modelos. Os termos do ajuste, que têm uma forma simples e compacta, podem ser implementados em um software estatístico. São feitas simulações de Monte Carlo para mostrar que a inferência baseada nas estatísticas ajustadas propostas é mais confiável do que a inferência usual baseada na estatística da razão de verossimilhanças. Aplicam-se os resultados a um conjunto real de dados. / We consider the issue of performing accurate small-sample likelihood-based inference in beta regression models, which are useful for modeling continuous proportions that are affected by independent variables. We derive Skovgaards (Scandinavian Journal of Statistics 28 (2001) 3-32) adjusted likelihood ratio statistics in this class of models. We show that the adjustment terms have simple compact form that can be easily implemented from standard statistical software. We presentMonte Carlo simulations showing that inference based on the adjusted statistics we propose is more reliable than that based on the usual likelihood ratio statistic. A real data example is presented.
20

Ajustes para o teste da razão de verossimilhanças em modelos de regressão beta / Adjusted likelihood ratio statistics in beta regression models

Eliane Cantinho Pinheiro 23 March 2009 (has links)
O presente trabalho considera o problema de fazer inferência com acurácia para pequenas amostras, tomando por base a estatística da razão de verossimilhanças em modelos de regressão beta. Estes, por sua vez, são úteis para modelar proporções contínuas que são afetadas por variáveis independentes. Deduzem-se as estatísticas da razão de verossimilhanças ajustadas de Skovgaard (Scandinavian Journal of Statistics 28 (2001) 3-32) nesta classe de modelos. Os termos do ajuste, que têm uma forma simples e compacta, podem ser implementados em um software estatístico. São feitas simulações de Monte Carlo para mostrar que a inferência baseada nas estatísticas ajustadas propostas é mais confiável do que a inferência usual baseada na estatística da razão de verossimilhanças. Aplicam-se os resultados a um conjunto real de dados. / We consider the issue of performing accurate small-sample likelihood-based inference in beta regression models, which are useful for modeling continuous proportions that are affected by independent variables. We derive Skovgaards (Scandinavian Journal of Statistics 28 (2001) 3-32) adjusted likelihood ratio statistics in this class of models. We show that the adjustment terms have simple compact form that can be easily implemented from standard statistical software. We presentMonte Carlo simulations showing that inference based on the adjusted statistics we propose is more reliable than that based on the usual likelihood ratio statistic. A real data example is presented.

Page generated in 0.0617 seconds