1 |
Inferência paramétrica e não-paramétrica em análise de sobrevivência / not availableChalita, Liciana Vaz de Arruda Silveira 24 February 1992 (has links)
Análise de sobrevivência consiste em um conjunto de técnicas paramétricas e não-paramétricas que são aplicadas a variáveis positivas, tais como, tempo de falha de um componente físico, tempo de vida de unidades, etc. As informações que se tem sobre esta variável podem ser incompletas. Neste caso, diz-se que os dados são censurados e seria interessante considerar essas observações na análise. O objetivo deste trabalho é fazer uma compilação das técnicas mais utilizadas em análise de sobrevivência considerando também dados incompletos com o intuito de aplicação na área agronômica. No entanto, na área agrária os experimentos ainda não são conduzidos para serem analisados como dados de sobrevivência. Acredita-se que seja por falta de informação dos pesquisadores nesta linha. Devido a este fato, simulou-se dois conjuntos de dados com existência de censura com a finalidade de exemplificar a utilização dos métodos apresentados para a estimação da função de sobrevivência e testes paramétricos e não-paramétricos para verificação da diferença de duas populações. Calculou-se também a eficiência assintótica do modelo paramétrico em relação ao não-paramétrico. Concluiu-se que as técnicas de análise de sobrevivência se mostraram simples, apesar de seu desenvolvimento teórico ser complicado, sendo perfeitamente viável sua aplicação em dados de experimentos agronômicos ou f1orestais. / not available
|
2 |
Inferência estatística e a prática econômica no Brasil : os (ab)usos dos testes de significânciaCinelli, Carlos Leonardo Kulnig 22 June 2012 (has links)
Dissertação (mestrado)—Universidade de Brasília, Programa de Pós-Graduação em Economia, 2012. / Submitted by Alaíde Gonçalves dos Santos (alaide@unb.br) on 2012-09-19T14:42:49Z
No. of bitstreams: 1
2012_CarlosLeonardoKulnigCinelli.pdf: 1723079 bytes, checksum: 2edf63e5f73ee2b5e5f3f784193df9ec (MD5) / Approved for entry into archive by Leandro Silva Borges(leandroborges@bce.unb.br) on 2012-09-19T19:12:29Z (GMT) No. of bitstreams: 1
2012_CarlosLeonardoKulnigCinelli.pdf: 1723079 bytes, checksum: 2edf63e5f73ee2b5e5f3f784193df9ec (MD5) / Made available in DSpace on 2012-09-19T19:12:29Z (GMT). No. of bitstreams: 1
2012_CarlosLeonardoKulnigCinelli.pdf: 1723079 bytes, checksum: 2edf63e5f73ee2b5e5f3f784193df9ec (MD5) / Esta dissertação trata da confusão entre significância estatística e significância econômica nos trabalhos econométricos aplicados. O capítulo teórico resgata alguns tópicos pertinentes ao entendimento da confusão entre significância estatística e significância econômica, expondo as principais diferenças entre os métodos de Fisher, Neyman-Pearson e Bayesianos para testes de hipótese. Além disso, discute-se a ideia do p-valor como medida de evidência e trabalham-se, por fim, as noções de erro real e erro amostral, bem como a distinção entre diferença estatística e diferença substantiva. O capítulo empírico resgata a literatura acerca do tema especificamente para a área da economia, com as evidências verificadas em outros países, como para os Estados Unidos – McCloskey e Ziliak (1996), Ziliak e McCloskey (2004a, 2008a) – ou a Alemanha – Kramer (2011): 70 a 79% dos artigos da American Economic Review nos anos 80 e 90, respectivamente, bem como entre 56 a 85% dos artigos da German Economic Review confundiram significância estatística com significância econômica. Em seguida, quantificamos o problema no Brasil, tomando como amostra todos os 94 artigos publicados na Revista Brasileira de Economia entre 2008 a 2011, dos quais 67 que utilizaram testes de significância foram detidamente analisados. Como principais resultados temos que: 64% dos artigos confundiram significância estatística com significância econômica; mais de 80% dos artigos ignoraram o poder dos testes utilizados; 97% dos artigos não discutiram o nível de significância adotado; 74% não demonstraram preocupação com a especificação ou adequação estatística do modelo; 40% não apresentaram estatísticas descritivas; mais da metade não discutiu o tamanho de seus coeficientes ou a conversa científica em torno da grandeza do parâmetro, entre outros números. _______________________________________________________________________________________ ABSTRACT / This dissertation deals with the confusion between statistical significance and economic significance in applied econometrics. The theoretical chapter brings some topics necessary to the understanding of the confusion between statistical and economic significance, outlining the main differences between Fisherian, Classical and Bayesian methods. In addition, we discuss the interpretation of the p-value as a measure of evidence and the notion of real error versus sampling error as well as the distinction between statistical and substantive difference. The empirical chapter discusses the literature about the subject specifically in economics. We show the evidence found in other countries like the United States - McCloskey and Ziliak (1996), Ziliak and McCloskey (2004a, 2008a) - and Germany - Kramer (2011): 70 and 79% of the papers published in the American Economic Review, in the 80‟s and the 90‟s, respectively, and between 56 to 85% of the papers published in the German economic Review conflate statistical and economic significance. We, then, quantify the problem in Brazil, taking a sample of all 94 papers published in Revista Brasileira de Economia, between 2008 and 2011, and carefully analyzing all 67 that used significance tests. Among other numbers, the main results are: 64% of them confused statistical significance with economic significance; more than 80% ignored the power of the tests; 97% did not discuss the significance level; 74% showed no concern about specification or statistical adequacy; 40% did not present descriptive statistics; more than half did not discuss the size of the coefficients; also more than half did not discuss the scientific conversation within which a coefficient would be judged large or small.
|
3 |
Inferência paramétrica e não-paramétrica em análise de sobrevivência / not availableLiciana Vaz de Arruda Silveira Chalita 24 February 1992 (has links)
Análise de sobrevivência consiste em um conjunto de técnicas paramétricas e não-paramétricas que são aplicadas a variáveis positivas, tais como, tempo de falha de um componente físico, tempo de vida de unidades, etc. As informações que se tem sobre esta variável podem ser incompletas. Neste caso, diz-se que os dados são censurados e seria interessante considerar essas observações na análise. O objetivo deste trabalho é fazer uma compilação das técnicas mais utilizadas em análise de sobrevivência considerando também dados incompletos com o intuito de aplicação na área agronômica. No entanto, na área agrária os experimentos ainda não são conduzidos para serem analisados como dados de sobrevivência. Acredita-se que seja por falta de informação dos pesquisadores nesta linha. Devido a este fato, simulou-se dois conjuntos de dados com existência de censura com a finalidade de exemplificar a utilização dos métodos apresentados para a estimação da função de sobrevivência e testes paramétricos e não-paramétricos para verificação da diferença de duas populações. Calculou-se também a eficiência assintótica do modelo paramétrico em relação ao não-paramétrico. Concluiu-se que as técnicas de análise de sobrevivência se mostraram simples, apesar de seu desenvolvimento teórico ser complicado, sendo perfeitamente viável sua aplicação em dados de experimentos agronômicos ou f1orestais. / not available
|
4 |
Aplicação de técnicas de descobrimento de conhecimento em bases de dados e de inteligência artificial em avaliação de imóveisGonzalez, Marco Aurelio Stumpf January 2002 (has links)
A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.
|
5 |
Aplicação de técnicas de descobrimento de conhecimento em bases de dados e de inteligência artificial em avaliação de imóveisGonzalez, Marco Aurelio Stumpf January 2002 (has links)
A comparação de dados de mercado é o método mais empregado em avaliação de imóveis. Este método fundamenta-se na coleta, análise e modelagem de dados do mercado imobiliário. Porém os dados freqüentemente contêm erros e imprecisões, além das dificuldades de seleção de casos e atributos relevantes, problemas que em geral são solucionados subjetivamente. Os modelos hedônicos de preços têm sido empregados, associados com a análise de regressão múltipla, mas existem alguns problemas que afetam a precisão das estimativas. Esta Tese investigou a utilização de técnicas alternativas para desenvolver as funções de preparação dos dados e desenvolvimento de modelos preditivos, explorando as áreas de descobrimento de conhecimento e inteligência artificial. Foi proposta uma nova abordagem para as avaliações, consistindo da formação de uma base de dados, ampla e previamente preparada, com a aplicação de um conjunto de técnicas para seleção de casos e para geração de modelos preditivos. Na fase de preparação dos dados foram utilizados as técnicas de regressão e redes neurais para a seleção de informação relevante, e o algoritmo de vizinhança próxima para estimação de valores para dados com erros ou omissões. O desenvolvimento de modelos preditivos incluiu as técnicas de regressão com superficies de resposta, modelos aditivos generalizados ajustados com algoritmos genéticos, regras extraídas de redes neurais usando lógica difusa e sistemas de regras difusas obtidos com algoritmos genéticos, os quais foram comparados com a abordagem tradicional de regressão múltipla Esta abordagem foi testada através do desenvolvimento de um estudo empírico, utilizando dados fornecidos pela Prefeitura Municipal de Porto Alegre. Foram desenvolvidos três formatos de avaliação, com modelos para análise de mercado, avaliação em massa e avaliação individual. Os resultados indicaram o aperfeiçoamento da base de dados na fase de preparação e o equilíbrio das técnicas preditivas, com um pequeno incremento de precisão, em relação à regressão múltipla.Os modelos foram similares, em termos de formato e precisão, com o melhor desempenho sendo atingido com os sistemas de regras difusas.
|
6 |
Estimação clássica e bayesiana para dados em painelReinaldo, Luciana Moura 30 June 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2017. / Submitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-08-09T16:59:56Z
No. of bitstreams: 1
2017_LucianaMouraReinaldo.pdf: 2070623 bytes, checksum: 699f92bb8bd9d6292a427abe2ab42ee9 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-09-13T22:28:40Z (GMT) No. of bitstreams: 1
2017_LucianaMouraReinaldo.pdf: 2070623 bytes, checksum: 699f92bb8bd9d6292a427abe2ab42ee9 (MD5) / Made available in DSpace on 2017-09-13T22:28:40Z (GMT). No. of bitstreams: 1
2017_LucianaMouraReinaldo.pdf: 2070623 bytes, checksum: 699f92bb8bd9d6292a427abe2ab42ee9 (MD5)
Previous issue date: 2017-09-13 / Estudos das mais diversas áreas de conhecimento utilizam várias metodologias de análises de dados quantitativos para verificar tendências e evoluções no comportamento de unidades de observação. Nesse sentido, a utilização de modelos que envolvam dados provenientes de várias unidades experimentais ao longo do tempo vem crescendo gradativamente na pesquisa científica. A metodologia de dados em painel permite a análise longitudinal de diversas unidades de observação em um único painel, possibilitando a identificação de padrões e a própria evolução das unidades de observação. Esse trabalho tem por objetivo sistematizar o conhecimento das estratégias de inferência relacionadas aos dados em painel, com o intuito de proporcionar uma linguagem clara e acessível àqueles que, embora não sendo econometristas, necessitam se apropriar dos métodos de análise dos dados em painel para aplicá-los na sua prática de pesquisa. Para facilitar a compreensão dos métodos, foram apresentados alguns exemplos implementados em um software gratuito, R, um ambiente de cálculos estatísticos, utilizando conjuntos de dados contidos nesse software e uma base de dados reais aplicando tanto a abordagem de inferência clássica quanto a abordagem de inferência bayesiana. / Studies of the most diverse areas of knowledge use several methodologies of quantitative data analysis to verify trends and evolutions in the behavior of observation units. In this sense, the use of models involving data from several experimental units over time has been growing gradually in scientific research. The panel data methodology allows the longitudinal analysis of several units of observation in a single panel, allowing the identification of patterns and the evolution of observation units themselves. This work aims to systematize the knowledge of inference strategies related to panel data, with the aim of providing a clear and accessible language to those who, although not being econometricians, need to appropriate the methods of panel data analysis to apply them in their research practice. To facilitate the comprehension of the method, we have presented some examples implemented in a free software, R, a environment for statistical computing, from datasets contained in this software and a real database using as much the classical approach as the bayesian inference approach.
|
7 |
Uma estatística scan espacial bayesiana para dados com excesso de zerosFernandes, Lucas Barbosa 28 May 2015 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015. / Submitted by Patrícia Nunes da Silva (patricia@bce.unb.br) on 2015-10-27T18:42:49Z
No. of bitstreams: 1
2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2015-10-29T13:34:03Z (GMT) No. of bitstreams: 1
2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / Made available in DSpace on 2015-10-29T13:34:03Z (GMT). No. of bitstreams: 1
2015_LucasBarbosaFernandes_parcial.pdf: 1190939 bytes, checksum: aa155f545cc8a1e5ab63d052e169e2a9 (MD5) / A análise e detecção de conglomerados (ou clusters) espaciais se mostra de grande utilidade para subsidiar decisões em áreas de saúde e segurança, por exemplo. O método Scan Circular de Kulldorff, um dos mais difundidos para detecção de conglomerados espaciais, recebeu extensões que permitem um melhor desempenho na presença de um grande número de zeros, além de uma abordagem Bayesiana, que possui vantagens computacionais e em termos de incorporação de informações à priori. Este trabalho apresenta adaptações dos trabalhos de Kulldorff (1997), Cançado et al. (2014) e Neill et al. (2006), com as estatísticas Scan Binomial, Scan ZIB, Scan ZIB-EM e Scan Beta-Binomial, e propõe as estatísticas Scan ZIBB e Scan ZIBB-Gibbs, que utilizam a abordagem bayesiana em dados com excesso de zeros. Os métodos são comparados com dados simulados e aplicados ao estudo de casos de Febre Hemorrágica do Dengue (FHD) no estado do Rio de Janeiro (2011). São obtidos resultados positivos para os métodos propostos. / The analysis and detection of spacial cluster are useful for support decisions on many areas, like health and public security. Kulldorff’s Circular Scan method, one of the most known and used, received extensions for better performance on prob- lems that include a great presence of zeros and a bayesian approach, which presents computational advantages and allows the incorporation of prior information. This work presents a review and an adaptation of the works of Kulldorff (1997), Cançado et al. (2014) and Neill et al. (2006) (Scan Binomial, Scan ZIB, Scan ZIB-EM and Scan Beta-Binomial statistics) and proposes the Scan ZIBB and Scan ZIBB-Gibbs statistics, using the Bayesian approach for zero-inflated data. The methods are com- pared with simulated data and applied to the study of cases of Dengue Hemorrhagic Fever (FHD) in the state of Rio de Janeiro (2011). The proposed methods exhibit good results.
|
8 |
Teoria da resposta ao item em processo de decisãoAraujo, Joacy Victor Maia 30 April 2014 (has links)
Dissertação (mestrado)—Universidade de Brasília, Departamento de Estatística, 2014. / Submitted by Ana Cristina Barbosa da Silva (annabds@hotmail.com) on 2014-12-03T16:33:43Z
No. of bitstreams: 1
2014_JoacyVictorMaiaAraujo.pdf: 4068255 bytes, checksum: ab847f51071ed43331416cf2146e9558 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2014-12-04T19:36:41Z (GMT) No. of bitstreams: 1
2014_JoacyVictorMaiaAraujo.pdf: 4068255 bytes, checksum: ab847f51071ed43331416cf2146e9558 (MD5) / Made available in DSpace on 2014-12-04T19:36:41Z (GMT). No. of bitstreams: 1
2014_JoacyVictorMaiaAraujo.pdf: 4068255 bytes, checksum: ab847f51071ed43331416cf2146e9558 (MD5) / O trabalho consiste na construção de uma metodologia voltada ao processo de escolha de carreira pelo aspirante ao serviço público. Parte do trabalho reside na construção de simulados realizados por Testagem Adaptativa Computadorizada, fundamentados pela Teoria da Resposta ao Item. Outra parte consiste em inferir os parâmetros das distribuições de resultados dos diversos concursos. Essa inferência é particularmente desafiadora, pois só existe informação pública dos aprovados, ou seja, da parte direita da distribuição. Finalmente, cruzaram-se os resultados dos simulados padronizados com os resultados reais dos concursos. Calcularam-se as probabilidades do resultado do concursando estar dentro da zona de aprovação nas diversas carreiras. Essas probabilidades poderão ser ranqueadas de forma a direcionar o candidato à área de maior chance de sucesso, considerando também o valor esperado, calculado em função da remuneração dos cargos. ___________________________________________________________________________________ ABSTRACT / This work consists of constructing a methodology focused on the career choice for aspiring to public service process. Part of it involves the construction of Computerized Adaptive Testing, grounded by Item Response Theory. Another part is to infer the parameters of the distributions of results of various competitions. This inference is particularly challenging because there is only public information of approved candidates, i.e., the right tail of distribution. Finally, simulated pro_ciencies were crossed to actual results of contests. The odds of the outcome of candidate to be within the approval zone in the various careers were calculated. These probabilities were ranked in order to direct the candidate to the area of greatest chance of success, considering also the expected value, calculated according to the compensation of positions.
|
9 |
Aplicação do teste kens para detecção de outliers em fluxo ótico.MACÊDO, Samuel Victor Medeiros de 01 March 2013 (has links)
Submitted by Luiz Felipe Barbosa (luiz.fbabreu2@ufpe.br) on 2015-03-12T15:05:33Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertaçao Samuel de Macedo.pdf: 2955084 bytes, checksum: 24bf75ae0c8a9d0a76c2baf6850ac907 (MD5) / Approved for entry into archive by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-03-13T12:59:08Z (GMT) No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertaçao Samuel de Macedo.pdf: 2955084 bytes, checksum: 24bf75ae0c8a9d0a76c2baf6850ac907 (MD5) / Made available in DSpace on 2015-03-13T12:59:08Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertaçao Samuel de Macedo.pdf: 2955084 bytes, checksum: 24bf75ae0c8a9d0a76c2baf6850ac907 (MD5)
Previous issue date: 2013-03-01 / CNPQ
Petrobrás
CHESF / A área de reconstrução 3D tem sido bastante explorada, principalmente nos últimos
anos, com a popularização de ferramentas para visualizar objetos tridimensionais. A
busca por algoritmos e cientes que tornem o pipeline de reconstrução 3D mais e ciente
é alvo de várias pesquisas universitárias e patentes tanto na indústria como na academia.
Atualmente, alguns problemas existentes para reconstrução de malhas que possuem elevado
número de pontos utilizando o pipeline de reconstrução [40] ainda persistem, mesmo
aplicando apenas algumas restrições. Estes problemas são causados pela exigência de elevado
poder computacional exigido pelas técnicas usuais. Dentre essas técnicas estão o
rastreamento de pontos em imagens (feature tracking ) [49] e a geração e avaliação de
várias hipóteses de pose de câmera para encontrar a técnica que melhor se adequa à cena
em questão [37].
A reconstrução 3D pode ser bastante útil em diversas áreas como: realidade aumentada
sem marcadores, para a manipulação de objetos virtuais que interagem sicamente
com o mundo real e o tratamento de oclusão de objetos virtuais por objetos reais. Diante
da problemática e da diversidade de aplicações, alterações no pipeline de reconstrução
3D que o tornem mais rápido e e ciente são interessantes tanto para a área de visão
computacional quanto para a indústria.
No contexto desta problemática, esta dissertação propõe uma metodologia para otimiza-
ção do pipeline de reconstrução 3D explorando os conceitos de inferência estatística, mais
precisamente a área de teste de hipótese. O teste kens é um teste de hipótese estatístico
desenvolvido nesta dissertação para veri car a suavidade de uma trajetória. Este
teste será aplicado aos caminhos das features uma vez que o rastreamento das mesmas
é feito utilizando uxo ótico. Apesar de não ser provado matematicamente que features
inliers percorrem caminhos suaves, este trabalho mostra indícios de uma relação
entre suavidade e inliers, pois com a retirada das features que apresentaram caminhos
não suaves a qualidade da reconstrução 3D apresentou resultados melhores.
Esta dissertação de mestrado descreve todo o ferramental teórico necessário para
entendimento do pipeline de reconstrução 3D e do teste kens. A utilização da técnica em
dois cenários será apresentada: sendo um cenário sintético e o outro real.
|
10 |
Inference and diagnostics in spatial modelsDE BASTIANI, Fernanda 22 February 2016 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-07-08T18:44:40Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE Fernanda De Bastiani.pdf: 4258341 bytes, checksum: 8f146a8d3dfa9d213e65c7506719ad53 (MD5) / Made available in DSpace on 2016-07-08T18:44:40Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE Fernanda De Bastiani.pdf: 4258341 bytes, checksum: 8f146a8d3dfa9d213e65c7506719ad53 (MD5)
Previous issue date: 2016-02-22 / FACEPE / In this work, we present inference and diagnostics in spatial models. Firstly, we extend the Gaussian spatial linear model for the elliptical spatial linear models, and present the local influence methodology to assess the sensitivity of the maximum likelihood estimators to small perturbations in the data and/or the spatial linear model assumptions. Secondly, we consider the Gaussian spatial linear models with repetitions. We obtain in matrix notation a Bartlett correction factor for the profiled likelihood ratio statistic. We also present inference approach to estimate the smooth parameter from the Mat´ern family class of models. The maximum likelihood estimators are obtained, and an explicit expression for the Fisher information matrix is also presented, even when the smooth parameter for Mat´ern class of covariance structure is estimated. We present local and global influence diagnostics techniques to assess the influence of observations on Gaussian spatial linear models with repetitions. We review concepts of Cook’s distance and generalized leverage and extend it. For local influence we consider two different approach and for both we consider appropriated perturbation in the response variable and case weight perturbation. Finally, we describe the modeling and fitting of Markov random field spatial components within the generalized additive models for locations scale and shape framework. This allows modeling any or all of the parameters of the distribution for the response variable using explanatory variables and spatial effects. We present some simulations and real data sets illustrate the methodology. / Neste trabalho, apresentamos inferência e diagnósticos para modelos espaciais. Inicialmente,
os modelos espaciais lineares Gaussianos são estendidos para os modelos espaciais
lineares elípticos, e desenvolve-se a metodologia de influência local para avaliar a sensibilidade
dos estimadores de máxima verossimilhança para pequenas perturbações nos dados
e/ou nos pressupostos do modelo. Posteriormente, considera-se os modelos espaciais lineares
Gaussianos com repetições. Para estes modelos obteve-se em notação matricial
um fator de correção de Bartlett para a estatística da razão de verossimilhanças perfiladas. E também realizada inferência para estimar o parâmetro de suavização da classe
de modelos da família Matérn. Os estimadores de máxima verossimilhança são obtidos,
e uma expressão explícita para a matriz de informação de Fisher e apresentada, mesmo
quando o parâmetro de suavização da classe de modelos da família Matérn da estrutura
de covariância _e estimado. Desenvolve-se técnicas de diagnósticos de influência local e
global para avaliar a influência de observações em modelos espaciais lineares Gaussianos
com repetições. Os conceitos de distância de Cook e alavanca generalizada são revisados
e estendidos para estes modelos. Para influência local são consideradas perturbações
apropriadas na variável resposta e ponderação de casos. Finalmente, é descrita a modelagem
para os componentes espaciais dos campos aleatórios Markovianos nos modelos
aditivos generalizados de locação escala e forma. Isto permite modelar qualquer ou todos
os parâmetros da distribuição para a variável resposta utilizando as variáveis explanatórias
e efeitos espaciais. Alguns estudos de simulações são apresentados e as metodologias são
ilustradas com conjuntos de dados reais.
|
Page generated in 0.044 seconds