Spelling suggestions: "subject:"máxima verossimilhança"" "subject:"máximas verossimilhança""
31 |
Distribuições das classes Kumaraswamy generalizada e exponenciada: propriedades e aplicações / Distributions of the generalized Kumaraswamy and exponentiated classes: properties and applicationsAntonio Carlos Ricardo Braga Junior 04 April 2013 (has links)
Recentemente, Cordeiro e de Castro (2011) apresentaram uma classe generalizada baseada na distribuição Kumaraswamy (Kw-G). Essa classe de distribuições modela as formas de risco crescente, decrescente, unimodal e forma de U ou de banheira. Uma importante distribuição pertencente a essa classe é a distribuição Kumaraswamy Weibull modificada (KwMW) proposta por Cordeiro; Ortega e Silva (2013). Com isso foi utilizada essa distribuição para o desenvolvimento de algumas novas propriedades e análise bayesiana. Além disso, foi desenvolvida uma nova distribuição de probabilidade a partir da distribuição gama generalizada geométrica (GGG) que foi denominada de gama generalizada geométrica exponenciada (GGGE). Para a nova distribuição GGGE foram calculados os momentos, a função geradora de momentos, os desvios médios, a confiabilidade e as estatísticas de ordem. Desenvolveu-se o modelo de regressão log-gama generalizada geométrica exponenciada. Para a estimação dos parâmetros, foram utilizados os métodos de máxima verossimilhança e bayesiano e, finalmente, para ilustrar a aplicação da nova distribuição foi analisado um conjunto de dados reais. / Recently, Cordeiro and de Castro (2011) showed a generalized class based on the Kumaraswamy distribution (Kw-G). This class of models has crescent risk forms, decrescent, unimodal and U or bathtub form. An important distribution belonging to this class the Kumaraswamy modified Weibull distribution (KwMW), proposed by Cordeiro; Ortega e Silva (2013). Thus this distribution was used to develop some new properties and bayesian analysis. Furthermore, we develop a new probability distribution from the generalized gamma geometric distribution (GGG) which it is called generalized gamma geometric exponentiated (GGGE) distribution. For the new distribution we calculate the moments, moment generating function, mean deviation, reliability and order statistics. We define a log-generalized gamma geometric exponentiated regression model. The methods used to estimate the model parameters are: maximum likelihood and bayesian. Finally, we illustrate the potentiality of the new distribution by means of an application to a real data set.
|
32 |
New Extended Lifetime DistributionsPAIXÃO, Ana Carla Percontini da 31 January 2014 (has links)
Submitted by Etelvina Domingos (etelvina.domingos@ufpe.br) on 2015-03-12T18:21:25Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE Ana Carla Percontini da Paixão.pdf: 2309750 bytes, checksum: 1f4caced5454dee673c1e41705168ad0 (MD5) / Made available in DSpace on 2015-03-12T18:21:26Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
TESE Ana Carla Percontini da Paixão.pdf: 2309750 bytes, checksum: 1f4caced5454dee673c1e41705168ad0 (MD5)
Previous issue date: 2014 / Este trabalho está dividido em quatro capítulos independentes. Nos Capítulos 2 e 3 propomos
extensões para a distribuição Weibull. A primeira delas, com cinco parâmetros, é uma
composição das distribuições beta e Weibull Poisson. Essa nova distribuição tem como submodelos
algumas importantes distribuições descritas na literatura e outras ainda não discutidas
tais como: bata exponencial Poisson, Weibull Poisson exponencializada, Rayleigh Poisson exponencializada,
beta Weibull, Weibull, exponencial, entre outras. Obtemos algumas propriedades
matemáticas tais como momentos ordinários e incompletos, estatísticas de ordem e seus momentos
e entropia de Rényi. Usamos o método da máxima verossimilhança para obter estimativas
dos parâmetros. A potencialidade desse novo modelo é mostrada por meio de um conjunto de
dados reais. A segunda extensão, com quatro parâmetros, é uma composição das distribuições
Poisson generalizada e Weibull, tendo a Poisson generalizada exponencial, a Rayleigh Poisson,
Weibull Poisson e Weibull como alguns de seus sub-modelos. Várias propriedades matemáticas
foram investigadas, incluíndo expressões explícitas para os momentos ordinários e incompletos,
desvios médios, função quantílica, curvas de Bonferroni e Lorentz, con abilidade e as entropias
de Rényi e Shannon. Estatísticas de ordem e seus momentos são investigados. A estimativa de
parâmetros é feita pelo método da máxima verossimilhança e é obtida a matriz de informação
obsevada. Uma aplicação a um conjunto de dados reais mostra a utilidade do novo modelo. Nos
dois últimos capítulos propomos duas novas classes de distribuições. No Capítulo 4 apresentamos
a família G- Binomial Negativa com dois parâmetros extras. Essa nova família inclui como caso
especial um modelo bastante popular, a Weibull binomial negativa, discutida por Rodrigues et
al.(Advances and Applications in Statistics 22 (2011), 25-55.) Algumas propriedades matemáticas
da nova classe são estudadas, incluindo momentos e função geradora. O método de máxima
verossimilhança é utilizado para obter estimativas dos parâmetros. A utilidade da nova classe
é mostrada através de um exemplo com conjuntos de dados reais. No Capítulo 5 apresentamos
a classe Zeta-G com um parâmetro extra e algumas nova distribuições desta classe. Obtemos
expressões explícitas para a função quantílica, momentos ordinários e incompletos, dois tipos de
entropia, con abilidade e momentos das estatísticas de ordem. Usamos o método da máxima
verossimilhança para estimar os parâmetros e a utilidade da nova classe é exempli cada com um
conjunto de dados reais.
|
33 |
Refinamento de inferências na distribuição Birnbaum-Saunders generalizada com núcleos normal e t de Student sob censura tipo IIBARRETO, Larissa Santana 31 January 2013 (has links)
Submitted by Danielle Karla Martins Silva (danielle.martins@ufpe.br) on 2015-03-13T12:46:16Z
No. of bitstreams: 2
tese_larissa_final.pdf: 2339402 bytes, checksum: e15b164d91df893043954285fcb9f7e0 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T12:46:16Z (GMT). No. of bitstreams: 2
tese_larissa_final.pdf: 2339402 bytes, checksum: e15b164d91df893043954285fcb9f7e0 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2013 / CAPES / Frequentemente temos interesse em realizar inferências, em um determinado modelo, envolvendo
apenas alguns dos seus parâmetros. Tais inferências podem ser feitas através da função de
verossimilhança perfilada. Contudo, alguns problemas podem surgir quando tratamos a função
de verossimilhança perfilada como uma verossimilhança genuína. Com o objetivo de solucionar
estes problemas, vários pesquisadores, dentre eles Barndorff-Nielsen (1983, 1994) e Cox & Reid
(1987, 1992), propuseram modificações à função de verossimilhança perfilada.
O principal objetivo deste trabalho é utilizar a verossimilhança perfilada e seus ajustes propostos
por Barndorff-Nielsen (1983,1994) e Cox & Reid (1987,1992) no aperfeiçoamento de inferências
para a distribuição Birnbaum-Saunders generalizada com núcleos normal e t de Student,
na presença, ou não, de censura tipo II. Mais precisamente obtemos os estimadores de máxima
verossimilhança relacionados às funções de verossimilhança perfilada e perfiladas ajustadas; calculamos
os intervalos de confiança do tipo assintótico, bootstrap percentil, bootstrap BCa e
bootstrap-t e também apresentamos os testes da razão de verossimilhanças ajustados, o teste
bootstrap paramétrico e o teste gradiente. Através de simulações de Monte Carlo avaliamos
os desempenhos dos testes e dos estimadores pontuais e intervalares propostos. Os resultados
evidenciam que tanto os testes quanto os estimadores baseados nas versões modificadas da verossimilhança
perfilada possuem desempenho superior em pequenas amostras quando comparados
com suas contrapartidas não modificadas. Adicionalmente, apresentamos alguns exemplos práticos
para ilustrar tudo o que foi desenvolvido.
|
34 |
Identi cação de Pontos In uentes em uma Amostra da Distribuição de WatsonBARROS, Cristiany de Moura 26 February 2014 (has links)
Submitted by Etelvina Domingos (etelvina.domingos@ufpe.br) on 2015-03-12T19:21:17Z
No. of bitstreams: 2
DISSERTAÇÃO Cristiany de Moura Barros.pdf: 2719487 bytes, checksum: e9cac5b971a42a4ca3a64646f5f61563 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T19:21:17Z (GMT). No. of bitstreams: 2
DISSERTAÇÃO Cristiany de Moura Barros.pdf: 2719487 bytes, checksum: e9cac5b971a42a4ca3a64646f5f61563 (MD5)
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Previous issue date: 2014-02-26 / CAPES / A análise estatística na esfera unitária é mais complexa do que se possa imaginar:
a concepção elegante dos modelos probabilísticos é simples, porém usá-los na prática,
muitas vezes se torna mais difícil. Esta di culdade normalmente decorre da normaliza
ção complicada das constantes associadas com distribuições direcionais. No entanto,
devido à respectiva capacidade poderosa de modelagem, distribuições esféricas continuam
encontrando inúmeras aplicações. A distribuição direcional fundamental é a distribuição
Von-Mises-Fisher, cujo os modelos para dados concentrados em torno de uma média. Mas
para os dados que tem uma estrutura adicional, essa distribuição pode não ser adequada:
em particular para os dados axialmente simétricos é mais conveniente abordarmos a distribui
ção de Watson (1965), que é o foco desta dissertação.
Na distribuição de Watson, são utilizados métodos tais como: ponto de corte para dist
ância proposto por Cook (1977), teste de outlier para discordância proposto por Fisher
et al. (1985), quantil de uma qui-quadrado proposto por Cook (1977) e distância geod
ésica. As contribuições dessa dissertação são: a derivação da distância de Cook, o uso
da distância geodésica para detecção de outliers e um método de calculo do ponto de corte.
|
35 |
Nova generalização para a classe Beta-G de distribuições de probabilidadeSOUZA, Glaucia Tadu de 04 March 2016 (has links)
Submitted by Mario BC (mario@bc.ufrpe.br) on 2016-08-01T12:23:27Z
No. of bitstreams: 1
Glaucia Tadu de Souza.pdf: 877784 bytes, checksum: ccbab2806d7ec089da4ec4976e11ce8e (MD5) / Made available in DSpace on 2016-08-01T12:23:27Z (GMT). No. of bitstreams: 1
Glaucia Tadu de Souza.pdf: 877784 bytes, checksum: ccbab2806d7ec089da4ec4976e11ce8e (MD5)
Previous issue date: 2016-03-04 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / We propose a new generator of continuous distributions with three extra parameters
called the Beta ( (1 − G), (1 − )G + ), which generalizes the Beta-G class. Some special
cases are presented. The new density function can be expressed as a difference of linear
combinations of exponentiated densities based on the same baseline distribution. Various
structural properties of the new class, which hold for any baseline model, are derived
including explicit expressions for the moments of order n, the moment generating function,
the characteristic function, central moments of order n, the general coefficient, the mean
deviations, residual life function, reverse life function and order statistics. We discuss
estimation of the model parameters by maximum likelihood and provide an application to
a real data set. / Propusemos um novo gerador de distribuições contínuas com três parâmetros adicionais chamado Beta ( (1−G), (1− )G+ ), que generaliza a classe Beta-G. Alguns casos especiais são apresentados. A nova função densidade pode ser expressa como uma diferença de combinações lineares de densidades exponencializadas através da mesma distribuição-base. Várias propriedades estruturais da nova classe, as quais valem para qualquer distribuiçãobase são derivadas, incluindo expressões explicitas para os momentos de ordem n, função geradora de momentos, função característica, momentos centrais de ordem n, coeficiente geral, desvios médios, função de vida residual, função de vida reversa e estatísticas de
ordem. Discutimos a estimação dos parâmetros do modelo através do método de máxima verossimilhança e fornecemos uma aplicação a um conjunto de dados reais.
|
36 |
Estimação de maxima verossimilhança para processo de nascimento puro espaço-temporal com dados parcialmente observados / Maximum likelihood estimation for space-time pu birth process with missing dataGoto, Daniela Bento Fonsechi 09 October 2008 (has links)
Orientador: Nancy Lopes Garcia / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-11T16:45:43Z (GMT). No. of bitstreams: 1
Goto_DanielaBentoFonsechi_M.pdf: 3513260 bytes, checksum: ff6f9e35005ad9015007d1f51ee722c1 (MD5)
Previous issue date: 2008 / Resumo: O objetivo desta dissertação é estudar estimação de máxima verossimilhança para processos de nascimento puro espacial para dois diferentes tipos de amostragem: a) quando há observação permanente em um intervalo [0, T]; b) quando o processo é observado após um tempo T fixo. No caso b) não se conhece o tempo de nascimento dos pontos, somente sua localização (dados faltantes). A função de verossimilhança pode ser escrita para o processo de nascimento puro não homogêneo em um conjunto compacto através do método da projeção descrito por Garcia and Kurtz (2008), como projeção da função de verossimilhança. A verossimilhança projetada pode ser interpretada como uma esperança e métodos de Monte Carlo podem ser utilizados para estimar os parâmetros. Resultados sobre convergência quase-certa e em distribuição são obtidos para a aproximação do estimador de máxima verossimilhança. Estudos de simulação mostram que as aproximações são adequadas. / Abstract: The goal of this work is to study the maximum likelihood estimation of a spatial pure birth process under two different sampling schemes: a) permanent observation in a fixed time interval [0, T]; b) observation of the process only after a fixed time T. Under scheme b) we don't know the birth times, we have a problem of missing variables. We can write the likelihood function for the nonhomogeneous pure birth process on a compact set through the method of projection described by Garcia and Kurtz (2008), as the projection of the likelihood function. The fact that the projected likelihood can be interpreted as an expectation suggests that Monte Carlo methods can be used to compute estimators. Results of convergence almost surely and in distribution are obtained for the aproximants to the maximum likelihood estimator. Simulation studies show that the approximants are appropriate. / Mestrado / Inferencia em Processos Estocasticos / Mestre em Estatística
|
37 |
Análise comparativa de algoritmos de classificação digital não-supervisionada, no mapeamento do uso e cobertura do solo / not availableCiro Koiti Matsukuma 24 April 2002 (has links)
O objetivo deste trabalho foi comparar as classificações obtidas por meio de algoritmos de classificação não supervisionada e supervisionada, aplicados a uma região com paisagem complexa, dentro da bacia do rio Corumbataí, SP. Foram utilizados os algoritmos de Máxima Verossimilhança, no software ENVI, e CLUSTER, o ISOCLUST e o MAXSET no software Idrisi o. A imagem multiespectral utilizada foi do satélite SPOT. A área de estudo abrangeu os municípios de Piracicaba, Rio Claro, Itirapina, Analândia, Corumbataí, Charqueada e Ipeúna. Foram observadas várias categorias e classificadas, dentre elas, as seguintes: cana-de-açúcar, pasto, vegetação nativa, solo exposto, reflorestamento e área urbana. Após o reconhecimento em campo das categorias, procedeu-se à classificação utilizando-se os algoritmos Foram observadas várias categorias e classificadas, dentre elas, as seguintes: cana-de-açúcar, pasto, vegetação nativa, solo exposto, reflorestamento e área urbana. Após o reconhecimento em campo das categorias, procedeu-se à classificação utilizando-se os algoritmos CLUSTER, ISOCLUST E MAXSET, dos quais o que apresentou melhores resultados foi o ISOCLUST, sendo, portanto, o mais recomendado para utilização por ser eficiente e demandar menor tempo para obter-se a classificação final da vegetação / not available
|
38 |
Otimização dos algoritmos univariados e bivariados aplicados à identificação de elétrons no experimento ATLASCosta, Igor Abritta 22 February 2016 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-04-25T19:24:06Z
No. of bitstreams: 1
igorabrittacosta.pdf: 36138806 bytes, checksum: 83ce158c21ddf862f92969367375d57e (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-04-26T12:25:25Z (GMT) No. of bitstreams: 1
igorabrittacosta.pdf: 36138806 bytes, checksum: 83ce158c21ddf862f92969367375d57e (MD5) / Made available in DSpace on 2017-04-26T12:25:25Z (GMT). No. of bitstreams: 1
igorabrittacosta.pdf: 36138806 bytes, checksum: 83ce158c21ddf862f92969367375d57e (MD5)
Previous issue date: 2016-02-22 / A identificação de elétrons é de fundamental importância para os grupos de física do experimento ATLAS, devido à presença destes no processo final de decaimento de partículas de interesse. Nesse ambiente de física de partículas, a probabilidade de ocorrência de elétrons relevantes aos estudos propostos são baixíssimas em relação às partículas que formam o ruído de fundo, exigindo dos grupos de performance do ATLAS algoritmos com índices de eficiência de detecção dos sinais de interesse e rejeição de ruído de fundo cada vez melhores. Nessa dissertação, os métodos aplicados na identificação de elétrons no experimento ATLAS serão revisados e possíveis otimizações serão avaliadas a partir dos dados produzidos pelo ATLAS. Concentrado no contexto offline, o trabalho reproduz o método baseado em verossimilhança e propõe uma melhoria com o uso da técnica multivariada conhecida como MKDE (do inglês, Multivariate Kernel Density Estimation), capaz de mitigar o erro inserido na consideração de dependência entre as variáveis discriminantes inserida pelo método de Likelihood atualmente em uso pelo ATLAS. Inicialmente, este trabalho se propõe a implementar o método de verossimilhança em uso, que se baseia em densidade univariadas usadas na reconstrução da densidade conjunta das variáveis discriminantes, e a estudar o impacto de possíveis parâmetros relacionados à implementação do algoritmo de estimação de densidades univariadas. Este método será então comparado com o método padrão do ATLAS conhecido como e/γ. Em uma segunda etapa, a implementação do MKDE é inserida através de uma comparação direta com o método univariado. / The electron identification is of fundamental importance for the ATLAS physics groups due to the presence of these in the final process of interest particles decay. In particle physics environment, the occurrence probability of relevant electrons to the proposed studies are very low compared to particles considered background, requiring ATLAS performance groups algorithms with identification efficiency index and background rejection each time better. In this dissertation, the methods applied in the electron identification in ATLAS experiment will be reviewed and possible optimizations will be evaluated from the data produced by the ATLAS experiment. Concentrated in the offline context, the work reproduces the method based on Likelihood and proposes an improvement with the use of multivariate technique known as MKDE (Multivariate Kernel Density Estimation), capable of mitigate the error inserted in consideration of dependence between discriminating variables entered by the method Likelihood currently in use by ATLAS. Initially, this work proposes to implement the method Likelihood in use, which is based on univariate density used in the reconstruction of the joint density of the discriminant variables, and to study the possible impact of parameters related to the implementation of univariate densities estimation algorithm. This method is then compared with the ATLAS standard method known as e/γ. In a second step the implementation of the MKDE is inserted through a direct comparison to the univariate method.
|
39 |
Regressão beta inflacionada: inferência e aplicaçõesLiberal Pereira, Tarciana 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T18:00:43Z (GMT). No. of bitstreams: 2
arquivo3277_1.pdf: 3600667 bytes, checksum: 8b1d84b63549e2b9401b94059a7e4ef5 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nesta tese são abordadas aplicações e inferências em modelos de regressão beta inflacionados
tanto sob dispersão fixa quanto sob dispersão variável. Na primeira parte da tese, realizamos
uma análise das eficiências administrativas dos municípios do estado de São Paulo com base
em modelos de regressão beta e beta inflacionado com efeitos espaciais. Adicionalmente, uma
comparação com os resultados obtidos a partir do modelo de regressão linear e com inferência
realizada via quasi-verossimilhança é apresentada. O modelo de regressão beta inflacionado
se mostrou mais adequado para explicar os escores de eficiência média dos municípios. Na
segunda parte, a partir do teste RESET (Ramsey, 1969), desenvolvemos testes de erro de especificação
para modelos de regressão beta inflacionados tanto sob dispersão fixa quanto sob
dispersão variável. Em particular, nós propomos duas variantes do teste. Na primeira variante,
nós apenas adicionamos variáveis de teste para o submodelo da média ao passo que na segunda
variante, variáveis de teste são adicionadas em todos os submodelos. Nós consideramos diversos
erros de especificação em nossa avaliação numérica: não-linearidade negligenciada, função
de ligação incorreta, variáveis omitidas, correlação espacial negligenciada e dispersão variável
não modelada. Os resultados de um estudo de Monte Carlo mostraram que nosso teste de especificação
tipicamente apresenta bons poderes em amostras de tamanho pequeno a moderado,
exceto quando a correlação espacial é negligenciada. Neste caso, tamanhos amostrais maiores
são necessários para obter bons poderes. Por fim, na terceira parte, desenvolvemos novos ajustes
para as estatísticas da razão de verossimilhanças usual e sinalizada em modelos de regressão
beta inflacionados a partir da proposta de Skovgaard (2001). Os ajustes são de fácil obtenção
pois só requerem cumulantes até segunda ordem da função de log-verossimilhança. Evidências
obtidas a partir de um estudo de Monte Carlo mostraram que os testes propostos apresentaram
melhores desempenhos do que os testes não modificados em pequenas amostras
|
40 |
Regressão beta inflacionada: inferência e aplicaçõesLiberal Pereira, Tarciana 31 January 2010 (has links)
Made available in DSpace on 2014-06-12T18:01:22Z (GMT). No. of bitstreams: 2
arquivo627_1.pdf: 3577022 bytes, checksum: f669c9c8cef361b6e4c3e78bf57c21a9 (MD5)
license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5)
Previous issue date: 2010 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nesta tese são abordadas aplicações e inferências em modelos de regressão beta inflacionados
tanto sob dispersão fixa quanto sob dispersão variável. Na primeira parte da tese, realizamos
uma análise das eficiências administrativas dos municípios do estado de São Paulo com base
em modelos de regressão beta e beta inflacionado com efeitos espaciais. Adicionalmente, uma
comparação com os resultados obtidos a partir do modelo de regressão linear e com inferência
realizada via quasi-verossimilhança é apresentada. O modelo de regressão beta inflacionado
se mostrou mais adequado para explicar os escores de eficiência média dos municípios. Na
segunda parte, a partir do teste RESET (Ramsey, 1969), desenvolvemos testes de erro de especificação
para modelos de regressão beta inflacionados tanto sob dispersão fixa quanto sob
dispersão variável. Em particular, nós propomos duas variantes do teste. Na primeira variante,
nós apenas adicionamos variáveis de teste para o submodelo da média ao passo que na segunda
variante, variáveis de teste são adicionadas em todos os submodelos. Nós consideramos diversos
erros de especificação em nossa avaliação numérica: não-linearidade negligenciada, função
de ligação incorreta, variáveis omitidas, correlação espacial negligenciada e dispersão variável
não modelada. Os resultados de um estudo de Monte Carlo mostraram que nosso teste de especificação
tipicamente apresenta bons poderes em amostras de tamanho pequeno a moderado,
exceto quando a correlação espacial é negligenciada. Neste caso, tamanhos amostrais maiores
são necessários para obter bons poderes. Por fim, na terceira parte, desenvolvemos novos ajustes
para as estatísticas da razão de verossimilhanças usual e sinalizada em modelos de regressão
beta inflacionados a partir da proposta de Skovgaard (2001). Os ajustes são de fácil obtenção
pois só requerem cumulantes até segunda ordem da função de log-verossimilhança. Evidências
obtidas a partir de um estudo de Monte Carlo mostraram que os testes propostos apresentaram
melhores desempenhos do que os testes não modificados em pequenas amostras
|
Page generated in 0.0772 seconds