• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 96
  • 5
  • 2
  • Tagged with
  • 108
  • 108
  • 28
  • 20
  • 19
  • 17
  • 17
  • 17
  • 17
  • 15
  • 14
  • 10
  • 10
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimação da função de distribuição conjunta para dados com censura intervalar bivariados

Eirado, Marcos Paulo da Rocha 28 June 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatistica, 2010. / Submitted by wiliam de oliveira aguiar (wiliam@bce.unb.br) on 2011-06-21T18:10:41Z No. of bitstreams: 1 2010_MarcosPaulodaRochaEirado.pdf: 3358975 bytes, checksum: 41e3555e1d17533b57159715f884444e (MD5) / Approved for entry into archive by Eveline Gonçalves(eveline@bce.unb.br) on 2011-06-22T12:08:00Z (GMT) No. of bitstreams: 1 2010_MarcosPaulodaRochaEirado.pdf: 3358975 bytes, checksum: 41e3555e1d17533b57159715f884444e (MD5) / Made available in DSpace on 2011-06-22T12:08:00Z (GMT). No. of bitstreams: 1 2010_MarcosPaulodaRochaEirado.pdf: 3358975 bytes, checksum: 41e3555e1d17533b57159715f884444e (MD5) / Estudamos dois métodos diferentes para estimar a função de distribuição H de um vetor aleatório (X,Y) com censura intervalar em ambas as variáveis. No primeiro, usamos o algoritmo proposto por Maathuis (2005) para obter o estimador não paramétrico de máxima verossimilhança (ENPMV) bivariado de H e, depois, suavizamo-no com o núcleo estimador bivariado. No segundo método, combinamos os ENPMV's das marginais, suavizados pelo núcleo estimador, com um modelo de cópula para obtermos uma estimativa suave de H. Por fim, fazemos a comparação desses métodos em relação a vício, variância e EQM. _________________________________________________________________________________ ABSTRACT / We study two different methods to estimate the joint distribution function H of a bivariate interval censored random vector (X,Y). In the first one, we use the algorithm proposed by Maathuis (2005) to get the bivariate nonparametric maximum likelihood estimator (NPMLE) of H and, then, smooth it with a bivariate kernel estimator. In the second approach, we combine the kernel smoothed NPMLE estimator of the marginal distributions with copulas to get a kernel smoothed estimate of H. After that, we compare these estimates using bias, variance and MSE as criteria.
2

O modelo hierárquico Poisson-Gama sob distribuições a priori não-informativas

Schmitt, Fernando Oscar 26 July 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2013. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2013-10-31T12:49:18Z No. of bitstreams: 1 2013_FernandoOscarSchmitt.pdf: 423867 bytes, checksum: a7467a03c78b6ccedbb199e6944bab3b (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-11-01T14:04:58Z (GMT) No. of bitstreams: 1 2013_FernandoOscarSchmitt.pdf: 423867 bytes, checksum: a7467a03c78b6ccedbb199e6944bab3b (MD5) / Made available in DSpace on 2013-11-01T14:04:58Z (GMT). No. of bitstreams: 1 2013_FernandoOscarSchmitt.pdf: 423867 bytes, checksum: a7467a03c78b6ccedbb199e6944bab3b (MD5) / Na presente dissertação são apresentados, como contribuições originais, uma família de densidades a priori para o modelo hierárquico Poisson-Gama bem como resultados acerca de condições necessárias e suficientes para a propriedade das correspondentes densidades a posteriori e para a existência de momentos das variáveis latentes. A família introduzida inclui como casos especiais as densidades de Jeffreys e outras utilizadas na literatura. A questão da convergência ou divergência das distribuições a posteriori associadas é respondida completamente. As densidades a priori de Jeffreys são formuladas em termos de funções hipergeométricas generalizadas, e é apresentado um código em "R" para simulação de amostras da distribuição a posteriori por meio do algoritmo Metropolis Adaptivo. ______________________________________________________________________________ ABSTRACT / The present study proposes a new family of prior distributions for the Poisson- Gamma hierachical model, as well as new results regarding necessary and su cient conditions for propriety of the corresponding posteriors and nite-ness of moments of latent variables. The proposed family includes Je reys' densities and others commonly used in the literature. The conditions for propriety or impropriety of the corresponding posteriors are treated in full detail. Je reys' priors are expressed in terms of generalized hypergeometric functions, and code in "R" is presented for drawing samples from the posterior distribution using the Adaptive Metropolis algorithm.
3

Duas caracterizações da distribuição geometrica atraves de estatisticas de ordem

Mingoti, Sueli Aparecida 17 July 2018 (has links)
Orientador : Pushpa Narayan Rathie / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação / Made available in DSpace on 2018-07-17T05:15:47Z (GMT). No. of bitstreams: 1 Mingoti_SueliAparecida_M.pdf: 871845 bytes, checksum: 687528309836cac392a593a1545ccfcd (MD5) Previous issue date: 1982 / Resumo: A proposta desta tese é a apresentação de duas novas caracterizações da distribuição geométrica, atravês de estatísticas de ordem e da propriedade de regressão constante. Para isso, consideraremos, iniciamrente, uma amostra aleatória de tananho n, n = 2 , de uma variável aleatória discreta, não degenerada, que assume apenas os valores inteiros, não negativos, bem como suas correspondentes estatísticas de ordem, isto é, Yl = Y2 = ... = Yn. (Continua...). / Abstract: In this thesis, we present two new characterizations of geometric distribution by using the order statistics and constant regression property. For this purpose, we consider a randam samp1e of size n, n = 2, drawn from the distribution of a discrete random variab1e with the set of possib1e va1ues of which as { 0,1,2,... } and their corresponding order statistics as Yl = Y2 = ... = Yn. (Continua...). / Mestrado / Mestre em Estatística
4

Testes de similaridade na distância de Mallows-Wasserstein ponderada para distribuições de cauda pesada

Lopes, Luciene Pinheiro 29 March 2012 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Matemática, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-09-19T12:24:14Z No. of bitstreams: 1 2012_LucilenePinheiroLopes.pdf: 427802 bytes, checksum: a3f866fad9b71c5b2602c25fe65113d9 (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-09-25T15:21:16Z (GMT) No. of bitstreams: 1 2012_LucilenePinheiroLopes.pdf: 427802 bytes, checksum: a3f866fad9b71c5b2602c25fe65113d9 (MD5) / Made available in DSpace on 2012-09-25T15:21:16Z (GMT). No. of bitstreams: 1 2012_LucilenePinheiroLopes.pdf: 427802 bytes, checksum: a3f866fad9b71c5b2602c25fe65113d9 (MD5) / Neste trabalho propomos testes não-paramétricos para classes de distribuições de cauda pesada, que incluem as _-estáveis e as extremais de Fréchet. As estatísticas apresentadas, funcionais do processo quantil empírico, permitem testar a pertinência da distribuição F _a família de escala-locação gerada por uma distribuição de cauda pesada G, F 2 GG, bem como a "-similaridade, d(F; GG) _ ", em que d é uma métrica apropriada. Mediante o uso da distância Mallows-Wasserstein ponderada, determinamos, sob a hipótese nula, as distribuições assintóticas e mostramos que essas distribuições são os correspondentes funcionais das pontes Brownianas. Os resultados constituem uma extensão de similares, baseados na distância Wasserstein, aplicáveis a distribuições com segundo momento finito. _______________________________________________________________________________________ ABSTRACT / In this work we derive the asymptotic null distribution of weighted quantile correlation tests statistics for the Fréchet family and the stable laws. This extends previous results for light-tailed distributions and is achieved by considering a special class of weight functions along with the use of weighted Mallows-Wasserstein distance. The test statistics for the location-scale family GG, generated by a heavy-tailed distribution G, when analyzed in the context of similarity of the distributions, shows that the distance between trimmed distributions according to the weight function is efficient in measuring the dissimilarity between heavy-tailed distributions.
5

Estimação da função quantílica para dados com censura intervalar

Silva, André Luís 02 June 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2010. / Submitted by Jaqueline Ferreira de Souza (jaquefs.braz@gmail.com) on 2011-06-06T22:05:31Z No. of bitstreams: 1 2010_AndreLuisSilva.pdf: 849776 bytes, checksum: 863a343745f3ca4ee038bc6191082d3b (MD5) / Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2011-06-06T22:06:43Z (GMT) No. of bitstreams: 1 2010_AndreLuisSilva.pdf: 849776 bytes, checksum: 863a343745f3ca4ee038bc6191082d3b (MD5) / Made available in DSpace on 2011-06-06T22:06:43Z (GMT). No. of bitstreams: 1 2010_AndreLuisSilva.pdf: 849776 bytes, checksum: 863a343745f3ca4ee038bc6191082d3b (MD5) / Este trabalho propõe estimar a função quantílica na presença de censura intervalar, com especial atenção aos quantis mais baixos. Para tanto, inicialmente adota-se a abordagem não-paramétrica para obter o estimador de máxima verossimilhança da função de sobrevivência, mediante o emprego da teoria da regressão isotônica. Utiliza-se o Núcleo Estimador para suavizar a estimativa de máxima verossimilhança, por intermédio de vários métodos de obtenção do parâmetro ótimo de suavização. Por fim, estima-se a função quantílica e compara-se o vício e a variabilidade das estimativas para diferentes tamanhos de amostra e padrões de intervalos de censura. _____________________________________________________________________________ ABSTRACT / In this work, we study the estimation of the quantile function, especially for small quantiles. For that, we used the nonparametric maximum likelihood estimator (NPMLE) of the survival function, which is obtained using the theory of isotonic regression. We used kernel smoothing for the NPMLE with different methods to obtain the bandwidth. We compared the bias and variance of the estimators for different sample sizes and interval censoring patterns.
6

Distribuição de perda agregada no modelo CreditRisk+ : análise comparativa do algoritmo recursivo de Panjer e o Método de Aproximações Ponto de Sela

Maranhão, André Nunes 27 September 2010 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2010. / Submitted by Shayane Marques Zica (marquacizh@uol.com.br) on 2011-06-29T17:43:44Z No. of bitstreams: 1 2010_AndreNunesMaranhaoParcial.pdf: 1151779 bytes, checksum: 962fa15a7e706a519406a44bae316e73 (MD5) / Approved for entry into archive by Guilherme Lourenço Machado(gui.admin@gmail.com) on 2011-07-01T16:15:36Z (GMT) No. of bitstreams: 1 2010_AndreNunesMaranhaoParcial.pdf: 1151779 bytes, checksum: 962fa15a7e706a519406a44bae316e73 (MD5) / Made available in DSpace on 2011-07-01T16:15:36Z (GMT). No. of bitstreams: 1 2010_AndreNunesMaranhaoParcial.pdf: 1151779 bytes, checksum: 962fa15a7e706a519406a44bae316e73 (MD5) / O modelo CreditRisk+ vem se difundindo rapidamente na indústria bancária em especial nos mercados em que os demais modelos de estimação da distribuição de perda agregada possuem restrições de implementação. Essa metodologia apresenta resultados satisfatórios e suas características parcimoniosas coincidem com os componentes avaliados pelo Acordo de Basiléia. Sua metodologia original estima a distribuição de perda agregada e todas as demais medidas de risco de crédito resultantes dessa distribuição por meio de um algoritmo recursivo (conhecido como recursividade de Panjer) evitando dessa forma o uso das simulações de Monte Carlo. Neste estudo, o modelo CreditRisk+ será detalhadamente apresentado, sendo evidenciadas suas principais fragilidades de implementação sob condições reais de uma carteira de crédito. Utilizando uma base de dados reais de uma carteira com dezesseis milhões de clientes, são demonstrados os efeitos de tais fragilidades e testadas algumas alternativas para contorná-las. Contudo, a mais adequada alternativa para tratamento dessas fragilidades recorre ao uso da metodologia conhecida como aproximações ponto de sela, que utiliza a função geradora de cumulantes para estimar de maneira computacionalmente eficiente e acurada as medidas de risco de crédito da carteira. Como principais resultados temos que o cálculo das medidas de risco de crédito da carteira, por meio da metodologia de aproximações ponto de sela, em termos de performance de tempo de processamento é extremamente mais rápido do que as estimativas através do algoritmo recursivo de Panjer. Em termos de acurácia, a metodologia de aproximações ponto de sela não requer qualquer tipo de discretização dos valores monetários dos empréstimos dos clientes, fonte de várias fragilidades e instabilidade numérica do modelo original. A verificação dos resultados do modelo básico por meio do comportamento da cauda da distribuição de perda agregada comprova o acúmulo de erro numérico do algoritmo de recursividade de Panjer. _______________________________________________________________________________ ABSTRACT / The CreditRisk+ model has been increasingly used in the banking industry. This methodology has yielded satisfactory results mainly in markets where implementing other aggregate-loss distribution estimation models is difficult. Its parsimonious features coincide with the components assessed by the Basel Agreement. Its original methodology estimates the aggregate-loss distribution and all other credit-risk measures resulting from this distribution through a recursive algorithm (known as Panjer recursion), thereby avoiding the use of Monte Carlo simulations. In this paper, the CreditRisk+ model will be described in detail and its main implementation weaknesses under real conditions of a credit portfolio will be highlighted. Using a real database of a sixteen-million client credit portfolio, the effects of such weaknesses are demonstrated and some alternatives to deal with them are tested. However, the most appropriate way to address these weaknesses requires using the socalled saddlepoint approximation methodology, which uses the cumulant-generating function to assess the portfolio credit-risk measures in a computationally effective and accurate fashion. The main results were that, in terms of processing-time performance, calculating the portfolio credit-risk measures through the saddlepoint approximation methodology is extremely faster than estimating it through the Panjer recursive algorithm. With regard to accuracy, the saddlepoint approximation methodology does not require any discretization of monetary amounts of client loans, which is a source of several weaknesses and numerical instability in the original model. Furthermore, checking the basic model results through the behavior of the aggregate-loss distribution tail confirms the numerical error accumulation of the Panjer recursive algorithm.
7

Ensaios em teoria da decisão

Barbosa, Luís Fernando Brands 10 April 2013 (has links)
Tese (doutorado)—Universidade de Brasília, Faculdade de Economia, Administração, Contabilidade e Ciências da Informação e Documentação, Departamento de Economia, 2013. / Submitted by Jaqueline Ferreira de Souza (jaquefs.braz@gmail.com) on 2013-09-26T12:26:55Z No. of bitstreams: 1 2013_LuisFernandoBrandsBarbosa.pdf: 451474 bytes, checksum: 7f43fea45eca1c46163e42f88c815fef (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-09-26T13:04:01Z (GMT) No. of bitstreams: 1 2013_LuisFernandoBrandsBarbosa.pdf: 451474 bytes, checksum: 7f43fea45eca1c46163e42f88c815fef (MD5) / Made available in DSpace on 2013-09-26T13:04:01Z (GMT). No. of bitstreams: 1 2013_LuisFernandoBrandsBarbosa.pdf: 451474 bytes, checksum: 7f43fea45eca1c46163e42f88c815fef (MD5) / Neste trabalho são abordados dois temas relacionados à teoria da decisão individual. O primeiro tema, é abordado em duas partes deste trabalho. Na Parte II, denominada Teoria da P(R)eferência Revelada com Aspirações, apresentamos a modelagem do comportamento de um agente que executa suas escolhas do seguinte modo. Dado um problema de escolha, o agente elege uma aspiração que deseja de atingir. No caso em que sua aspiração não pode ser alcançada, ele identi.ca um ponto de referência, a alternativa factível que é mais semelhante possível à sua aspiração, e que pode enviesar seu comportamento de escolha ao atrair sua atenção para uma certa região do conjunto de alternativas. Na Parte III, denominada Teoria da P(R)eferência Revelada com Aspirações, aplicamos este modelo aos seguintes tópicos: equilíbrio geral em economias de troca pura e equilíbrio de Nash em jogos com .nitos agentes. O outro tema é abordado na Parte IV, chamada de Nota à "Equivalent Comparisons of Information Channels". Nela desenvolvemos o modo adequado de utilizar o arcabouço apresentado por Dekel, Lipman e Rustichini (2001) para representar preferências ex ante sobre canais de informação cujas peças são conhecidas ex post.
8

Estimação de índices-padrão por bootstrap : um estudo de caso aplicado ao setor de transporte rodoviário interestadual de passageiros

Caixeta, Aloisio Gomes 31 July 2013 (has links)
Dissertação (mestrado)—Universidade de Brasília, Programa de Pós-Graduação Stricto Sensu em Regulação e Gestão de Negócios, 2013. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2014-01-29T12:51:15Z No. of bitstreams: 1 2013_AloisioGomesCaixeta.pdf: 1005191 bytes, checksum: 7c8a97a916bf455a4a5cadf35bcd6835 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2014-02-13T11:01:34Z (GMT) No. of bitstreams: 1 2013_AloisioGomesCaixeta.pdf: 1005191 bytes, checksum: 7c8a97a916bf455a4a5cadf35bcd6835 (MD5) / Made available in DSpace on 2014-02-13T11:01:34Z (GMT). No. of bitstreams: 1 2013_AloisioGomesCaixeta.pdf: 1005191 bytes, checksum: 7c8a97a916bf455a4a5cadf35bcd6835 (MD5) / A Agência Nacional e Transportes Terrestres tem responsabilidade sobre o acompanhamento da condição de continuidade da prestação do serviço público adequado por parte das empresas reguladas. O uso de índices clássicos de análise de balanços é uma importante ferramenta para acompanhamento da situação econômica e financeira do setor regulado. O objetivo de estudo do presente trabalho é estimar os índices-padrão do setor de transporte rodoviário interestadual de passageiros por meio da técnica estatística de bootstrap percentil, de forma que seja possível a classificação das empresas mesmo sem o conhecimento dos índices do setor. Para a aplicação do método, foram calculados os intervalos de confiança dos índices padrões de liquidez e estrutura do setor com base nos quartis de uma amostra de 122 empresas, com dados do ano de 2011, gerando quatro classes de classificação: deficiente, razoável, satisfatório e bom. Concluiu-se que a utilização dos índices-padrão calculados por intervalos de confiança bootstrap podem ser de grande valia para a contabilidade regulatória, pois servem de alerta para saúde do equilíbrio econômico-financeiro das empresas do setor, de forma a assegurar a prestação adequada do serviço regulado. _______________________________________________________________________________________ ABSTRACT / The National Ground Transportation Agency has responsibility for monitoring the condition of continuity of public service by the regulated companies. The use of classics indices balance sheet analysis is an important tool for monitoring the economic and financial situation of regulated sector. The objective of this paper is estimate the standards financial ratios for interstate bus passenger sector by percentile bootstrap statistical technique, so is possible to rank the companies even without the knowledge of the sector indices. To implement the method, we calculated the confidence intervals of the standards ratios of liquidity and solvency based on the quartiles of a sample of 122 companies, with data from the year 2011, generating four classes classification: poor, fair, satisfactory and good. It was concluded that the use of standard financial ratios calculated by bootstrap confidence intervals can be of great value to the regulatory accounting, because they serve to alert the economicfinancial health of the regulated sector, to ensure the provision of adequate regulated service.
9

Correção de alta ordem de estimadores de máxima verossimilhança

Oliveira Júnior, Waldemar Araújo de Santa Cruz 31 January 2013 (has links)
Submitted by Danielle Karla Martins Silva (danielle.martins@ufpe.br) on 2015-03-12T14:08:56Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese_biblioteca.pdf: 1306560 bytes, checksum: a4f1323796c4496a50645b68fc10c450 (MD5) / Made available in DSpace on 2015-03-12T14:08:56Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese_biblioteca.pdf: 1306560 bytes, checksum: a4f1323796c4496a50645b68fc10c450 (MD5) Previous issue date: 2013 / A técnica de estimação por máxima verossimilhança é uma das metodologias mais utilizadas na área de Estatística. Em determinados modelos, esta técnica produz um estimador viesado ou assintoticamente não-viesado. No último caso, a ordem de magnitude dos vieses desses estimadores é em geral O(n−1) e seu desvio padrão na ordem de O(n−1=2). Por esse motivo, esses vieses não são levados em conta em amostras de tamanho grande. Porém, em pequenas amostras esse viés na estima- ção pode ter um signi cado importante. Assim, o estudo sobre diminuir o viés do estimador de máxima verossimilhança torna-se bastante relevante em diversas áreas, tais como, medicina, farmácia, biologia, entre outras, que necessitam de precisão e ao mesmo tempo trabalham com amostras pequenas. Durante décadas, muitos artigos foram publicados na área de correção de viés, utilizando diversos tipos de modelos e técnicas de estimação. Neste trabalho, propomos uma técnica de correção de viés baseada em uma sequência de translações da função escore, de forma que a primeira translação é exatamente a que David Firth propôs, ver [18]. Para isso, usamos inicialmente a expansão de Taylor do estimador de máxima verossimilhança para realizar a primeira translação, o zero desta função transladada é o estimador θ∗ 0, que é o estimador proposto por Firth. Com a expansão de Taylor deste estimador, realizamos outra translação na função escore já transladada, encontrando o estimador θ∗ 1. Sob determinadas condições de regularidade, o viés deste novo estimador tem ordem de magnitude O(n−3). Repetindo esse processo k-vezes, obtemos um estimador cujo viés tem ordem de magnitude O(n−k), para k = 1, 2, . . . . Realizamos várias simulações de Monte Carlo em uma grande variedade de situações e de modelos estatísticos. No caso uniparamétrico, comparamos o desempenho do estimador θ∗ 1 com o estimador de máxima verossimilhança bθ, com θ∗ 0, com bθ1 visto na equação 2.18 e com o estimador eθ2 proposto por Ferrari et al [17], que pode ser visto na equação 2.19. No caso biparamétrico, comparamos o estimador θ∗ 1 com os estimadores bθ e θ∗ 2. Os resultados das simulações mostram que esses estimadores, cuja proposta é de corrigir viés, são competitivos entre si, mas há uma leve superioridade dos estimadores θ∗ 1 e eθ2. No caso biparamétrico é mais evidente a superioridade do estimador θ∗ 1, para n pequeno.
10

Teste de razão de verossimilhanças Bootstrap e técnicas de diagnóstico em modelos em séries de potências não-lineares generalizados

FORERO, Sébastien Lozano 25 June 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-16T17:11:02Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) SébastienLozano_Mestrad.pdf: 855650 bytes, checksum: c3ce2f2482d9450aef7d2e6264b3f0e3 (MD5) / Made available in DSpace on 2016-02-16T17:11:02Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) SébastienLozano_Mestrad.pdf: 855650 bytes, checksum: c3ce2f2482d9450aef7d2e6264b3f0e3 (MD5) Previous issue date: 2015-06-25 / FACEPE / Os Modelos em Série de Potência não-Lineares Generalizados (MSPNLGs), introduzidos em Cordeiro et al. (2009), são apresentados como uma alternativa para a análise de regressão de dados de contagem, generalizando os modelos tradicionais, como o Consul, Poisson generalizada, binomial negativa generalizada, entre outros. Nesta dissertação, versões modificadas (via Bartlett (1937) e Rocke (1989)) das estatísticas da razão de verosimilhanças e razão de verossimilhanças bootstrap, respectivamente, são apresentadas para testes de hipóteses nesta classe de modelos. Simulações de Monte Carlo mostram que os testes baseados nas versões modificadas das estatísticas da razão de verossimilhanças e razão de verossimilhanças bootstrap exibem melhores desempenhos em amostras finitas, superando os testes originais (sem correção). Além disso, técnicas de diagnóstico são propostas para os MSPNLGs, a saber: resíduos, alavancagem generalizada, influência global, e influência local. Finalmente, um conjunto de dados reais é utilizando para avaliar as metodologias desenvolvidas tanto em técnicas de diagnóstico como em aperfeiçoamento de testes. / The Power Series Generalized nonlinear Models (PSGNLMs), introduced in Cordeiro et al. (2009), are presented as a prominent option to deal with counting regression models, generalizing well known models as the Consul, the generalized Poisson and the generalized negative binomial, among others. In this work, modified versions (via Bartlett (1937) and Rocke (1989)) of the likelihood ratio and bootstrap likelihood ratio test statistics, respectively, are presented for hypothesis testing in this class of models. Monte Carlo simulations show that tests based on modified versions of the likelihood test statistic exhibit better performance in finite samples, exceeding the original tests (uncorrected). Furthermore, diagnostic techniques are proposed for the MSPNLGs, namely: residuals, generalized leverage, global influence, and local influence. Finally, a real data set is used in order to assess the developed techniques in both areas, influence diagnostic and hypothesis testing.

Page generated in 0.0225 seconds