• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 121
  • 8
  • 7
  • Tagged with
  • 136
  • 136
  • 97
  • 92
  • 46
  • 37
  • 35
  • 29
  • 29
  • 28
  • 25
  • 25
  • 19
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Aperfeiçoamento de métodos estatísticos em modelos de regressão da família exponencial / Further statistical methods in regression models of the exponential family

Alexsandro Bezerra Cavalcanti 03 August 2009 (has links)
Neste trabalho, desenvolvemos três tópicos relacionados a modelos de regressão da família exponencial. No primeiro tópico, obtivemos a matriz de covariância assintótica de ordem $n^$, onde $n$ é o tamanho da amostra, dos estimadores de máxima verossimilhança corrigidos pelo viés de ordem $n^$ em modelos lineares generalizados, considerando o parâmetro de precisão conhecido. No segundo tópico calculamos o coeficiente de assimetria assintótico de ordem n^{-1/2} para a distribuição dos estimadores de máxima verossimilhança dos parâmetros que modelam a média e dos parâmetros de precisão e dispersão em modelos não-lineares da família exponencial, considerando o parâmetro de dispersão desconhecido, porém o mesmo para todas as observações. Finalmente, obtivemos fatores de correção tipo-Bartlett para o teste escore em modelos não-lineares da família exponencial, considerando covariáveis para modelar o parâmetro de dispersão. Avaliamos os resultados obtidos nos três tópicos desenvolvidos por meio de estudos de simulação de Monte Carlo / In this work, we develop three topics related to the exponential family nonlinear regression. First, we obtain the asymptotic covariance matrix of order $n^$, where $n$ is the sample size, for the maximum likelihood estimators corrected by the bias of order $n^$ in generalized linear models, considering the precision parameter known. Second, we calculate an asymptotic formula of order $n^{-1/2}$ for the skewness of the distribution of the maximum likelihood estimators of the mean parameters and of the precision and dispersion parameters in exponential family nonlinear models considering that the dispersion parameter is the same although unknown for all observations. Finally, we obtain Bartlett-type correction factors for the score test in exponential family nonlinear models assuming that the precision parameter is modelled by covariates. Monte Carlo simulation studies are developed to evaluate the results obtained in the three topics.
122

Estimação e teste de hipótese baseados em verossimilhanças perfiladas / "Point estimation and hypothesis test based on profile likelihoods"

Michel Ferreira da Silva 20 May 2005 (has links)
Tratar a função de verossimilhança perfilada como uma verossimilhança genuína pode levar a alguns problemas, como, por exemplo, inconsistência e ineficiência dos estimadores de máxima verossimilhança. Outro problema comum refere-se à aproximação usual da distribuição da estatística da razão de verossimilhanças pela distribuição qui-quadrado, que, dependendo da quantidade de parâmetros de perturbação, pode ser muito pobre. Desta forma, torna-se importante obter ajustes para tal função. Vários pesquisadores, incluindo Barndorff-Nielsen (1983,1994), Cox e Reid (1987,1992), McCullagh e Tibshirani (1990) e Stern (1997), propuseram modificações à função de verossimilhança perfilada. Tais ajustes consistem na incorporação de um termo à verossimilhança perfilada anteriormente à estimação e têm o efeito de diminuir os vieses da função escore e da informação. Este trabalho faz uma revisão desses ajustes e das aproximações para o ajuste de Barndorff-Nielsen (1983,1994) descritas em Severini (2000a). São apresentadas suas derivações, bem como suas propriedades. Para ilustrar suas aplicações, são derivados tais ajustes no contexto da família exponencial biparamétrica. Resultados de simulações de Monte Carlo são apresentados a fim de avaliar os desempenhos dos estimadores de máxima verossimilhança e dos testes da razão de verossimilhanças baseados em tais funções. Também são apresentadas aplicações dessas funções de verossimilhança em modelos não pertencentes à família exponencial biparamétrica, mais precisamente, na família de distribuições GA0(alfa,gama,L), usada para modelar dados de imagens de radar, e no modelo de Weibull, muito usado em aplicações da área da engenharia denominada confiabilidade, considerando dados completos e censurados. Aqui também foram obtidos resultados numéricos a fim de avaliar a qualidade dos ajustes sobre a verossimilhança perfilada, analogamente às simulações realizadas para a família exponencial biparamétrica. Vale mencionar que, no caso da família de distribuições GA0(alfa,gama,L), foi avaliada a aproximação da distribuição da estatística da razão de verossimilhanças sinalizada pela distribuição normal padrão. Além disso, no caso do modelo de Weibull, vale destacar que foram derivados resultados distribucionais relativos aos estimadores de máxima verossimilhança e às estatísticas da razão de verossimilhanças para dados completos e censurados, apresentados em apêndice. / The profile likelihood function is not genuine likelihood function, and profile maximum likelihood estimators are typically inefficient and inconsistent. Additionally, the null distribution of the likelihood ratio test statistic can be poorly approximated by the asymptotic chi-squared distribution in finite samples when there are nuisance parameters. It is thus important to obtain adjustments to the likelihood function. Several authors, including Barndorff-Nielsen (1983,1994), Cox and Reid (1987,1992), McCullagh and Tibshirani (1990) and Stern (1997), have proposed modifications to the profile likelihood function. They are defined in a such a way to reduce the score and information biases. In this dissertation, we review several profile likelihood adjustments and also approximations to the adjustments proposed by Barndorff-Nielsen (1983,1994), also described in Severini (2000a). We present derivations and the main properties of the different adjustments. We also obtain adjustments for likelihood-based inference in the two-parameter exponential family. Numerical results on estimation and testing are provided. We also consider models that do not belong to the two-parameter exponential family: the GA0(alfa,gama,L) family, which is commonly used to model image radar data, and the Weibull model, which is useful for reliability studies, the latter under both noncensored and censored data. Again, extensive numerical results are provided. It is noteworthy that, in the context of the GA0(alfa,gama,L) model, we have evaluated the approximation of the null distribution of the signalized likelihood ratio statistic by the standard normal distribution. Additionally, we have obtained distributional results for the Weibull case concerning the maximum likelihood estimators and the likelihood ratio statistic both for noncensored and censored data.
123

Métodos de estimação de parâmetros em modelos geoestatísticos com diferentes estruturas de covariâncias: uma aplicação ao teor de cálcio no solo. / Parameter estimation methods in geostatistic models with different covariance structures: an application to the calcium content in the soil.

Maria Cristina Neves de Oliveira 17 March 2003 (has links)
A compreensão da dependência espacial das propriedades do solo vem sendo cada vez mais requerida por pesquisadores que objetivam melhorar a interpretação dos resultados de experimentos de campo fornecendo, assim, subsídios para novas pesquisas a custos reduzidos. Em geral, variáveis como, por exemplo, o teor de cálcio no solo, estudado neste trabalho, apresentam grande variabilidade impossibilitando, na maioria das vezes, a detecção de reais diferenças estatísticas entre os efeitos de tratamentos. A consideração de amostras georreferenciadas é uma abordagem importante na análise de dados desta natureza, uma vez que amostras mais próximas são mais similares do que as mais distantes e, assim, cada realização desta variável contém informação de sua vizinhança. Neste trabalho, métodos geoestatísticos que baseiam-se na modelagem da dependência espacial, nas pressuposições Gaussianas e nos estimadores de máxima verossimilhança são utilizados para analisar e interpretar a variabilidade do teor de cálcio no solo, resultado de um experimento realizado na Fazenda Angra localizada no Estado do Rio de Janeiro. A área experimental foi dividida em três regiões em função dos diferentes períodos de adubação realizadas. Neste estudo foram utilizados dados do teor de cálcio obtidos das camadas 0-20cm e 20-40cm do solo, de acordo com as coordenadas norte e leste. Modelos lineares mistos, apropriados para estudar dados com esta característica, e que permitem a utilização de diferentes estruturas de covariâncias e a incorporação da região e tendência linear das coordenadas foram usados. As estruturas de covariâncias utilizadas foram: a exponencial e a Matérn. Para estimar e avaliar a variabilidade dos parâmetros utilizaram-se os métodos de máxima verossimilhança, máxima verossimilhança restrita e o perfil de verossimilhança. A identificação da dependência e a predição foram realizadas por meio de variogramas e mapas de krigagem. Além disso, a seleção do modelo adequado foi feita pelo critério de informação de Akaike e o teste da razão de verossimilhanças. Observou-se, quando utilizado o método de máxima verossimilhança, o melhor modelo foi aquele com a covariável região e, com o método de máxima verossimilhança restrita, o modelo com a covariável região e tendência linear nas coordenadas (modelo 2). Com o teor de cálcio, na camada 0-20cm e considerando-se a estrutura de covariância exponencial foram obtidas as menores variâncias nugget e a maior variância espacial (sill – nugget). Com o método de máxima verossimilhança e com o modelo 2 foram observadas variâncias de predição mais precisas. Por meio do perfil de verossimilhança pode-se observar menor variabilidade dos parâmetros dos variogramas ajustados com o modelo 2. Utilizando-se vários modelos e estruturas de covariâncias, deve-se ser criterioso, pois a precisão das estimativas, depende do tamanho da amostra e da especificação do modelo para a média. Os resultados obtidos foram analisados, com a subrotina geoR desenvolvida por Ribeiro Junior & Diggle (2000), e por meio dela pode-se obter estimativas confiáveis para os parâmetros dos diferentes modelos estimados. / The understanding of the spatial dependence of the properties of the soil becomes more and more required by researchers that attempt to improve the interpretation of the results of field experiments supplying subsidies for new researches at reduced costs. In general, variables as, for example, the calcium content in the soil, studied in this work, present great variability disabling, most of the time, the detection of real statistical differences among the treatment effects. The consideration of georeferenced samples is an important approach in the analysis of data of this nature, because closer samples are more similar than the most distant ones and, thus, each realization of this variable contains information of its neighborhood. In this work, geostatistics methods that are based on the modeling of the spatial dependence, under the Gaussian assumptions and the maximum likelihood estimators, are used to analyze and to interpret the variability of calcium content in the soil, obtained from an experiment carried on at Fazenda Angra, located in Rio de Janeiro, Brazil. The experimental area was divided in three areas depending on the different periods of fertilization. In this study, data of the calcium soil content from the layers 0-20cm and 20-40cm, were used, according to the north and east coordinates. Mixed linear models, ideal to study data with this characteristic, and that allow the use of different covariance structures, and the incorporation of the region and linear tendency of the coordinates, were used. The covariance structures were: the exponential and the Matérn. Maximum likelihood, maximum restricted likelihood and the profile of likelihood methods were used to estimate and to evaluate the variability of the parameters. The identification of the dependence and the prediction were realized using variograms and krigging maps. Besides, the selection of the appropriate model was made through the Akaike information criterion and the likelihood ratio test. It was observed that when maximum likelihood method was used the most appropriate model was that with the region covariate and, with the maximum restricted likelihood method, the best model was the one with the region covariate and linear tendency in the coordinates (model 2). With the calcium content, in the layer 0-20cm and considering the exponential covariance structure, the smallest nugget variances and the largest spatial variance (sill - nugget) were obtained. With the maximum likelihood method and with the model 2 more precise prediction variances were observed. Through the profile of likelihood method, smaller variability of the adjusted variogram parameters can be observed with the model 2. With several models and covariance structures being used, one should be very critical, because the precision of the estimates depends on the size of the sample and on the specification of the model for the average. The obtained results were analyzed, with the subroutine geoR developed by Ribeiro Junior & Diggle (2000), and through this subroutine, reliable estimates for the parameters of the different estimated models can be obtained.
124

Modelos de regressão beta inflacionados / Inflated beta regression models

Raydonal Ospina Martinez 04 April 2008 (has links)
Nos últimos anos têm sido desenvolvidos modelos de regressão beta, que têm uma variedade de aplicações práticas como, por exemplo, a modelagem de taxas, razões ou proporções. No entanto, é comum que dados na forma de proporções apresentem zeros e/ou uns, o que não permite admitir que os dados provêm de uma distribuição contínua. Nesta tese, são propostas, distribuições de mistura entre uma distribuição beta e uma distribuição de Bernoulli, degenerada em zero e degenerada em um para modelar dados observados nos intervalos [0, 1], [0, 1) e (0, 1], respectivamente. As distribuições propostas são inflacionadas no sentido de que a massa de probabilidade em zero e/ou um excede o que é permitido pela distribuição beta. Propriedades dessas distribuições são estudadas, métodos de estimação por máxima verossimilhança e momentos condicionais são comparados. Aplicações a vários conjuntos de dados reais são examinadas. Desenvolvemos também modelos de regressão beta inflacionados assumindo que a distribuição da variável resposta é beta inflacionada. Estudamos estimação por máxima verossimilhança. Derivamos expressões em forma fechada para o vetor escore, a matriz de informação de Fisher e sua inversa. Discutimos estimação intervalar para diferentes quantidades populacionais (parâmetros de regressão, parâmetro de precisão) e testes de hipóteses assintóticos. Derivamos expressões para o viés de segunda ordem dos estimadores de máxima verossimilhança dos parâmetros, possibilitando a obtenção de estimadores corrigidos que são mais precisos que os não corrigidos em amostras finitas. Finalmente, desenvolvemos técnicas de diagnóstico para os modelos de regressão beta inflacionados, sendo adotado o método de influência local baseado na curvatura normal conforme. Ilustramos a teoria desenvolvida em um conjuntos de dados reais. / The last years have seen new developments in the theory of beta regression models, which are useful for modelling random variables that assume values in the standard unit interval such as proportions, rates and fractions. In many situations, the dependent variable contains zeros and/or ones. In such cases, continuous distributions are not suitable for modeling this kind of data. In this thesis we propose mixed continuous-discrete distributions to model data observed on the intervals [0, 1],[0, 1) and (0, 1]. The proposed distributions are inflated beta distributions in the sense that the probability mass at 0 and/or 1 exceeds what is expected for the beta distribution. Properties of the inflated beta distributions are given. Estimation based on maximum likelihood and conditional moments is discussed and compared. Empirical applications using real data set are provided. Further, we develop inflated beta regression models in which the underlying assumption is that the response follows an inflated beta law. Estimation is performed by maximum likelihood. We provide closed-form expressions for the score function, Fishers information matrix and its inverse. Interval estimation for different population quantities (such as regression parameters, precision parameter, mean response) is discussed and tests of hypotheses on the regression parameters can be performed using asymptotic tests. We also derive the second order biases of the maximum likelihood estimators and use them to define bias-adjusted estimators. The numerical results show that bias reduction can be effective in finite samples. We also develop a set of diagnostic techniques that can be employed to identify departures from the postulated model and influential observations. To that end, we adopt the local influence approach based in the conformal normal curvature. Finally, we consider empirical examples to illustrate the theory developed.
125

Ajuste e seleção de modelos na descrição de comunidades arbóreas: estrutura, diversidade e padrões espaciais / Model fit and selection in the description of tree communities: structure, diversity and spatial patterns

Renato Augusto Ferreira de Lima 15 August 2013 (has links)
A descrição de padrões, i.e., tendências ou arranjos não aleatórios em comunidades, possui um longo histórico em ecologia vegetal. Comumente, a estrutura e diversidade de comunidades vegetais são descritas a partir de sua distribuição em classes de tamanho (SDD), distribuição espacial (SSD) e de sua distribuição abundância de espécies (SAD). Isto porque há um pressuposto de que padrões existentes nestes descritores de comunidades são assinaturas de processos fundamentais na sua organização e funcionamento. Assim, a descrição de padrões é com frequência o primeiro passo para gerar ou testar hipóteses sobre esses processos que regulam a estrutura e diversidade de comunidades. Organizada em diferentes capítulos, esta tese teve como objetivo central descrever e comparar padrões em diferentes comunidades arbóreas Neotropicais, buscando gerar hipóteses sobre os processos que regulam sua organização e funcionamento. Para tanto, buscou-se utilizar uma abordagem de inferência baseada no ajuste e seleção de modelos, que foi realizado usando máxima verossimilhança estatística. Em todos os capítulos, os dados sobre as comunidades arbóreas são oriundos de diferentes parcelas florestais permanentes, quatro delas com 10,24 hectares, localizadas no Brasil, e outra com 50 hectares, localizada no Panamá. Além da introdução geral sobre os conceitos e técnicas utilizadas nesta tese (Capítulo 1), foram avaliados e comparados: (i) os descritores básicos da estrutura florestal (i.e. abundância, área basal e riqueza de espécies por sub-parcela - Capítulo 2); (ii) a SAD e como ela varia com o aumento da escala e tamanho amostral (Capítulo 3); (iii) a SDD e como ela se relaciona com a demografia das espécies (Capítulo 4.1 e 4.2); e, por fim, (iv) a SSD e como ela varia entre parcelas permanentes (Capítulo 5). Apenas a relação entre a SDD e a demografia das espécies foi realizada como os dados da parcela panamenha, enquanto que os demais capítulos se referem as quatro parcelas brasileiras. Cada capítulo utilizou métodos e modelos probabilísticos distintos para a descrição e comparação das variáveis de interesse. O Capítulo 2 mostrou que os descritores básicos florestais foram muito diferentes entre as quatro parcelas brasileiras. Estes descritores foram raramente normais nas escalas estudadas e as diferenças entre as parcelas foram mais evidentes quando a variância é considerada, fornecendo informações extras sobre os processos geradores de variabilidade dentro das parcelas. O Capítulo 3 mostrou que a mudança no formato da SAD com o aumento da escala é predominantemente um efeito indireto do tamanho da amostra. Assim, pode haver um efeito de escala, mas esse efeito é pequeno e parece depender do grau de similaridade de espécies entre amostras. No capítulo 4.1, foi necessária uma combinação de quatro diferentes distribuições de probabilidade para descrever a ampla gama de SDD, visto que os modelos candidatos raramente foram adequados para a maioria das espécies. No capítulo 4.2, verificou-se que o crescimento e recrutamento determinam o formato da SDD, o que não aconteceu com a mortalidade. No geral, curvas decrescentes de crescimento por diâmetro (i.e., maior crescimento juvenil) levaram à SDD menos íngremes, enquanto que taxas altas de recrutamento estiveram relacionadas à SDD mais íngremes. Apesar das previsões da teoria de equilíbrio demográfico terem apresentado relações positivas com as SDD observadas, houve muita variação, fazendo com que as previsões fossem pouco confiáveis. No capítulo 5, confirmou-se que a grande maioria das espécies se distribui de maneira agregada no espaço. No entanto, as parcelas apresentaram diferentes padrões de intensidade e tamanho de agregação. As diferenças nestes padrões entre parcelas foram, em geral, similares àquelas encontradas ao comparar populações de uma mesma espécie entre parcelas. Assim, as parcelas permanentes brasileiras apresentaram padrões bem distintos umas das outras, tanto em termos de estrutura quanto de diversidade de espécies, padrões estes que provavelmente foram determinados pelas condições ambientais as quais estas comunidades estão sujeitas. Diferentes padrões também foram encontrados em relação à distribuição espacial das espécies (i.e. frequência, intensidade e tamanho de agregação). Contudo, os resultados sugeriram que estes padrões estiveram mais ligados a heterogeneidade ambiental interna das parcelas do que com condições de clima e solo as quais estas comunidades estão sujeitas. Por outro lado, os padrões de distribuição espacial das espécies parecem ter influenciado os padrões de diversidade das comunidades. Não houve, entretanto, um número suficiente de parcelas sob as diferentes combinações de condições ambientais para testar estas sugestões ou para fazer generalizações para cada formação florestal, sendo necessário o confronto destas sugestões com outros estudos realizados em condições similares. Já na parcela panamenha, foi confirmada a expectativa teórica de que distribuições diamétricas refletem a demografia das espécies, em especial os padrões de crescimento e recrutamento. Mas, houve grande variação entre as espécies, dificultando a inferência precisa de padrões demográficos passados das espécies a partir de SDD atuais. Por fim, a abordagem analítica baseada no ajuste e seleção de modelos por máxima foi uma alternativa viável, flexível e apropriada, principalmente em relação à comparação simultânea de diferentes modelos e à busca de processos por trás dos padrões encontrados. Apesar de algumas limitações de cunho operacional, a abordagem baseado em modelos é uma alternativa adequada para a descrição de comunidades arbóreas, podendo ser utilizada de maneira consorciada com outras abordagens (e.g. testes de hipóteses) para descrever padrões e para gerar ou testar hipóteses sobre esses processos fundamentais que regulam a estrutura e diversidade destas comunidades. / Pattern description - search for trends or non-random arrangements in communities, has a long history in plant ecology. Commonly, the structure and diversity of plant communities are described based on their size class distribution (SDD), spatial distribution (SSD) and species abundance distribution (SAD). This is because there is an underlying assumption that the existing patterns in these community descriptors are signatures of key processes determining their organization and functioning. Thus, pattern description is often the first step to generate or test hypotheses about the processes governing community structure and diversity. Organized in different chapters, the main goal of this thesis was to describe and compare different patterns in Neotropical tree communities and to generate hypotheses about the processes that regulate them. To do so we used an approach based on model selection, which was performed using maximum likelihood. In all chapters the data on tree communities came from different permanent forest plots, four of them of 10.24 ha located in Brazil and another 50 ha located in Panama. In addition to the general introduction of key concepts and techniques used along the thesis (Chapter 1), it was evaluated and compared: (i) the basic forest descriptors (i.e. abundance, basal area and species richness per subplot - Chapter 2), (ii) the SAD and how it varies with increasing sample size and scale (Chapter 3), (iii) the SDD and how it relates to species demography (Chapter 4.1 and 4.2) and, finally, (iv) the SSD and how it varies between plots (Chapter 5). Only the relationship between SDD and species demography o was performed using the Panama plot data, while the remaining chapters relate the four Brazilian plots. Each chapter used different methods and probabilistic models for the description and comparison of the variables of interest. In Chapter 2, it was found that basic forest descriptors were very different between the four Brazilian plots. These descriptors were rarely normal at the studied scales and differences between plots were more evident when variance is accounted for, which seems to provide information on processes generating within-plot variability. Chapter 3 showed that the change in shape of the SAD due to increasing scale is predominantly an indirect effect of sample size. Thus, there may be an effect of the scale, but this effect is minor and seems to depend on the degree of species turnover between samples. In Chapter 4.1, it was shown that the combination of four different probability distributions was necessary to describe the wide range of SDD, since models were rarely appropriate for the majority of tree species. In Chapter 4.2, it was found that growth and recruitment, but not mortality, shape the SDD. On average, decreasing growth-diameter curves (i.e. higher juvenile growth) were associated to less steep SDD, whereas high recruitment rates were related to steeper SDD. Although the predictions of demographic equilibrium theory were positively related to the observed SDD, there was lots of variation, making predictions quite unreliable. In Chapter 5, it was confirmed that the great majority of species had clumped spatial distributions. However, the results of intensity and size of clumps showed that the patterns of aggregation were different among plots. Species shared between two plots generally showed patterns of spatial distribution that matched the patterns found for individual plots. Therefore, the Brazilian plots presented very distinct patterns, both in terms of structure and species diversity, which were most probably determined by the environmental conditions to which these communities are subjected. Different patterns among plots were also found in respect to species spatial distribution (i.e. frequency, intensity and size of aggregation). However, the results suggested that these patterns were more connected to within-plot environmental heterogeneity than with climate and soil conditions. On the other hand, the spatial distribution of the species seems to have influenced the patterns of diversity of communities. There was not, however, a sufficient number of plots under different combinations of environmental conditions to test these suggestions or to make generalizations for each forest type, being necessary to confront these suggestions with other studies conducted in similar conditions. In the Panamanian plot, it was confirmed the theoretical expectation that diameter distributions reflect the demographics of the species, in particular the patterns of growth and recruitment. But there was great variability among species, making it difficult to infer past demographic patterns from current SDD. Finally, the analytical approach based on model fit and selection by maximum likelihood was a viable, flexible and appropriate approach, particularly in respect to the simultaneous comparison of different models and to the search for mechanisms underlying patterns. Despite some more operational limitations, the model-based approach is an appropriate alternative for the description of tree communities and can be jointly used with other approaches (e.g. hypothesis testing) for pattern description and to generate and test hypotheses on the fundamental processes that determine the structure and diversity of these communities.
126

Reconstrução de energia em calorímetros operando em alta luminosidade usando estimadores de máxima verossimilhança / Reconstrution of energy in calorimeters operating in high brigthness enviroments using maximum likelihood estimators

Paschoalin, Thiago Campos 15 March 2016 (has links)
Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2016-08-12T11:54:08Z No. of bitstreams: 1 thiagocampospaschoalin.pdf: 3743029 bytes, checksum: f4b20678855edee77ec6c63903785d60 (MD5) / Rejected by Adriana Oliveira (adriana.oliveira@ufjf.edu.br), reason: Isabela, verifique que no resumo há algumas palavras unidas. on 2016-08-15T13:06:32Z (GMT) / Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2016-08-15T13:57:16Z No. of bitstreams: 1 thiagocampospaschoalin.pdf: 3743029 bytes, checksum: f4b20678855edee77ec6c63903785d60 (MD5) / Rejected by Adriana Oliveira (adriana.oliveira@ufjf.edu.br), reason: separar palavras no resumo e palavras-chave on 2016-08-16T11:34:37Z (GMT) / Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2016-12-19T13:07:02Z No. of bitstreams: 1 thiagocampospaschoalin.pdf: 3743029 bytes, checksum: f4b20678855edee77ec6c63903785d60 (MD5) / Rejected by Adriana Oliveira (adriana.oliveira@ufjf.edu.br), reason: Consertar palavras unidas no resumo on 2017-02-03T12:27:10Z (GMT) / Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2017-02-03T12:51:52Z No. of bitstreams: 1 thiagocampospaschoalin.pdf: 3743029 bytes, checksum: f4b20678855edee77ec6c63903785d60 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-02-03T12:54:15Z (GMT) No. of bitstreams: 1 thiagocampospaschoalin.pdf: 3743029 bytes, checksum: f4b20678855edee77ec6c63903785d60 (MD5) / Made available in DSpace on 2017-02-03T12:54:15Z (GMT). No. of bitstreams: 1 thiagocampospaschoalin.pdf: 3743029 bytes, checksum: f4b20678855edee77ec6c63903785d60 (MD5) Previous issue date: 2016-03-15 / Esta dissertação apresenta técnicas de processamento de sinais a fim de realizar a Estimação da energia, utilizando calorimetria de altas energias. O CERN, um dos mais importantes centros de pesquisa de física de partículas, possui o acelerador de partículas LHC, onde está inserido o ATLAS. O TileCal, importante calorímetro integrante do ATLAS, possui diversos canais de leitura, operando com altas taxas de eventos. A reconstrução da energia das partículas que interagem com este calorímetro é realizada através da estimação da amplitude do sinal gerado nos canais do mesmo. Por este motivo, a modelagem correta do ruído é importante para se desenvolver técnicas de estimação eficientes. Com o aumento da luminosidade (número de partículas que incidem no detector por unidade de tempo) no TileCal, altera-se o modelo do ruído, o que faz com que as técnicas de estimação utilizadas anteriormente apresentem uma queda de desempenho. Com a modelagem deste novo ruído como sendo uma Distribuição Lognormal, torna possível o desenvolvimento de uma nova técnica de estimação utilizando Estimadores de Máxima Verossimilhança (do inglês Maximum Likelihood Estimator MLE), aprimorando a estimação dos parâmetros e levando à uma reconstrução da energia do sinal de forma mais correta. Uma nova forma de análise da qualidade da estimação é também apresentada, se mostrando bastante eficiente e útil em ambientes de alta luminosidade. A comparação entre o método utilizado pelo CERN e o novo método desenvolvido mostrou que a solução proposta é superior em desempenho, sendo adequado o seu uso no novo cenário de alta luminosidade no qual o TileCal estará sujeito a partir de 2018. / This paper presents signal processing techniques that performs signal detection and energy estimation using calorimetry high energies. The CERN, one of the most important physics particles research center, has the LHC, that contains the ATLAS. The TileCal, important device of the ATLAS calorimeter, is the component that involves a lot of parallel channels working, involving high event rates. The reconstruction of the signal energy that interact with this calorimeter is performed through estimation of the amplitude of signal generated by this calorimter. So, accurate noise modeling is important to develop efficient estimation techniques. With high brightness in TileCal, the noise model modifies, which leads a performance drop of estimation techniques used previously. Modelling this new noise as a lognormal distribution allows the development of a new estimation technique using the MLE (Maximum Like lihood Estimation), improving parameter sestimation and leading to a more accurately reconstruction of the signal energy. A new method to analise the estimation quality is presented, wich is very effective and useful in high brightness enviroment conditions. The comparison between the method used by CERN and the new method developed revealed that the proposed solution is superior and is suitable to use in this kind of ambient that TileCal will be working from 2018.
127

Estimação via EM e diagnóstico em modelos misturas assimétricas com regressão

Louredo, Graciliano Márcio Santos 26 February 2018 (has links)
Submitted by Geandra Rodrigues (geandrar@gmail.com) on 2018-04-10T15:11:39Z No. of bitstreams: 1 gracilianomarciosantoslouredo.pdf: 1813142 bytes, checksum: b79d02006212c4f63d6836c9a417d4bc (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2018-04-11T15:25:36Z (GMT) No. of bitstreams: 1 gracilianomarciosantoslouredo.pdf: 1813142 bytes, checksum: b79d02006212c4f63d6836c9a417d4bc (MD5) / Made available in DSpace on 2018-04-11T15:25:36Z (GMT). No. of bitstreams: 1 gracilianomarciosantoslouredo.pdf: 1813142 bytes, checksum: b79d02006212c4f63d6836c9a417d4bc (MD5) Previous issue date: 2018-02-26 / FAPEMIG - Fundação de Amparo à Pesquisa do Estado de Minas Gerais / O objetivo deste trabalho é apresentar algumas contribuições para a melhoria do processo de estimação por máxima verossimilhança via algoritmo EM em modelos misturas assimétricas com regressão, além de realizar neles a análise de influência local e global. Essas contribuições, em geral de natureza computacional, visam à resolução de problemas comuns na modelagem estatística de maneira mais eficiente. Dentre elas está a substituição de métodos utilizados nas versões dos algoritmos GEM por outras que reduzem o problema aproximadamente a um algoritmo EM clássico nos principais exemplos das distribuições misturas de escala assimétricas de normais. Após a execução do processo de estimação, discutiremos ainda as principais técnicas existentes para o diagnóstico de pontos influentes com as adaptações necessárias aos modelos em foco. Desejamos com tal abordagem acrescentar ao tratamento dessa classe de modelos estatísticos a análise de regressão nas distribuições mais recentes na literatura. Também esperamos abrir caminho para o uso de técnicas similares em outras classes de modelos. / The objective of this work is to present some contributions to improvement the process of maximum likelihood estimation via the EM algorithm in skew mixtures models with regression, as well as to execute in them the global and local influence analysis. These contributions, usually with computational nature, aim to solving common problems in statistical modeling more efficiently. Among them is the replacement of used methods in the versions of the GEM algorithm by other techniques that reduce the problem approximately to a classic EM algorithm in the main examples of skew scale mixtures of normals distributions. After performing the estimation process, we will also discuss the main existing techniques for the diagnosis of influential points with the necessaries adaptations to the models in focus. We wish with this approach to add for the treatment of this statistical model class the regression analysis in the most recent distributions in the literature. We too hope to paving the way for use of similar techniques in other models classes.
128

MELHORAMENTOS INFERENCIAIS NO MODELO BETA-SKEW-T-EGARCH / INFERENTIAL IMPROVEMENTS OF BETA-SKEW-T-EGARCH MODEL

Muller, Fernanda Maria 25 February 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The Beta-Skew-t-EGARCH model was recently proposed in literature to model the volatility of financial returns. The inferences over the model parameters are based on the maximum likelihood method. The maximum likelihood estimators present good asymptotic properties; however, in finite sample sizes they can be considerably biased. Monte Carlo simulations were used to evaluate the finite sample performance of point estimators. Numerical results indicated that the maximum likelihood estimators of some parameters are biased in sample sizes smaller than 3,000. Thus, bootstrap bias correction procedures were considered to obtain more accurate estimators in small samples. Better quality of forecasts was observed when the model with bias-corrected estimators was considered. In addition, we propose a likelihood ratio test to assist in the selection of the Beta-Skew-t-EGARCH model with one or two volatility components. The numerical evaluation of the two-component test showed distorted null rejection rates in sample sizes smaller than or equal to 1,000. To improve the performance of the proposed test in small samples, the bootstrap-based likelihood ratio test and the bootstrap Bartlett correction were considered. The bootstrap-based test exhibited the closest null rejection rates to the nominal values. The evaluation results of the two-component tests showed their practical usefulness. Finally, an application to the log-returns of the German stock index of the proposed methods was presented. / O modelo Beta-Skew-t-EGARCH foi recentemente proposto para modelar a volatilidade de retornos financeiros. A estimação dos parâmetros do modelo é feita via máxima verossimilhança. Esses estimadores possuem boas propriedades assintóticas, mas em amostras de tamanho finito eles podem ser consideravelmente viesados. Com a finalidade de avaliar as propriedades dos estimadores, em amostras de tamanho finito, realizou-se um estudo de simulações de Monte Carlo. Os resultados numéricos indicam que os estimadores de máxima verossimilhança de alguns parâmetros do modelo são viesados em amostras de tamanho inferior a 3000. Para obter estimadores pontuais mais acurados foram consideradas correções de viés via o método bootstrap. Verificou-se que os estimadores corrigidos apresentaram menor viés relativo percentual. Também foi observada melhor qualidade das previsões quando o modelo com estimadores corrigidos são considerados. Para auxiliar na seleção entre o modelo Beta-Skew-t-EGARCH com um ou dois componentes de volatilidade foi apresentado um teste da razão de verossimilhanças. A avaliação numérica do teste de dois componentes proposto demonstrou taxas de rejeição nula distorcidas em tamanhos amostrais menores ou iguais a 1000. Para melhorar o desempenho do teste foram consideradas a correção bootstrap e a correção de Bartlett bootstrap. Os resultados numéricos indicam a utilidade prática dos testes de dois componentes propostos. O teste bootstrap exibiu taxas de rejeição nula mais próximas dos valores nominais. Ao final do trabalho foi realizada uma aplicação dos testes de dois componentes e do modelo Beta-Skew-t-EGARCH, bem como suas versões corrigidas, a dados do índice de mercado da Alemanha.
129

Estudo sobre algumas famílias de distribuições de probabilidades generalizadas. / Study on some families of generalized probability distributions.

SANTOS, Rosilda Sousa. 06 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-06T14:18:54Z No. of bitstreams: 1 ROSILDA SOUSA SANTOS - DISSERTAÇÃO PPGMAT 2012..pdf: 864926 bytes, checksum: 9d85b58c8bca6174ef968354411068a1 (MD5) / Made available in DSpace on 2018-08-06T14:18:54Z (GMT). No. of bitstreams: 1 ROSILDA SOUSA SANTOS - DISSERTAÇÃO PPGMAT 2012..pdf: 864926 bytes, checksum: 9d85b58c8bca6174ef968354411068a1 (MD5) Previous issue date: 2012-09 / Capes / A proposta desta dissertação está relacionada com o estudo das principais famílias de distribuições de probabilidade generalizadas. Particularmente, estudamos as distribuições Beta Pareto, Beta Exponencial Generalizada, Beta Weibull Modificada, Beta Fréchet e a Kw-G. Para cada uma delas foram obtidas expressões para as funções densidades de probabilidade, funcões de distribuição acumuladas, funções de taxa de falha, funções geratrizes de momentos, bem como foram obtidos os estimadores dos parâmetros pelo método da máxima verossimilhança. Finalmente, para cada distribuição foram feitas aplicações com dados reais. / The purpose of this dissertation is to study the main families of generalized probability distributions. Particularly we study the distributions Beta Pareto, generalized Beta Exponential, Beta Modified Weibull, Beta Fréchet and Kw-G. For each one of these distributions we obtain expressions for the probability density function, cumulative distribution function, hazard function and moment generating function as well as parameter estimates by the method of maximum likelihood. Finally, we make real data applications for each one of the studied distributions.
130

Eliminação de parâmetros perturbadores em um modelo de captura-recaptura

Salasar, Luis Ernesto Bueno 18 November 2011 (has links)
Made available in DSpace on 2016-06-02T20:04:51Z (GMT). No. of bitstreams: 1 4032.pdf: 1016886 bytes, checksum: 6e1eb83f197a88332f8951b054c1f01a (MD5) Previous issue date: 2011-11-18 / Financiadora de Estudos e Projetos / The capture-recapture process, largely used in the estimation of the number of elements of animal population, is also applied to other branches of knowledge like Epidemiology, Linguistics, Software reliability, Ecology, among others. One of the _rst applications of this method was done by Laplace in 1783, with aim at estimate the number of inhabitants of France. Later, Carl G. J. Petersen in 1889 and Lincoln in 1930 applied the same estimator in the context of animal populations. This estimator has being known in literature as _Lincoln-Petersen_ estimator. In the mid-twentieth century several researchers dedicated themselves to the formulation of statistical models appropriated for the estimation of population size, which caused a substantial increase in the amount of theoretical and applied works on the subject. The capture-recapture models are constructed under certain assumptions relating to the population, the sampling procedure and the experimental conditions. The main assumption that distinguishes models concerns the change in the number of individuals in the population during the period of the experiment. Models that allow for births, deaths or migration are called open population models, while models that does not allow for these events to occur are called closed population models. In this work, the goal is to characterize likelihood functions obtained by applying methods of elimination of nuissance parameters in the case of closed population models. Based on these likelihood functions, we discuss methods for point and interval estimation of the population size. The estimation methods are illustrated on a real data-set and their frequentist properties are analised via Monte Carlo simulation. / O processo de captura-recaptura, amplamente utilizado na estimação do número de elementos de uma população de animais, é também aplicado a outras áreas do conhecimento como Epidemiologia, Linguística, Con_abilidade de Software, Ecologia, entre outras. Uma das primeiras aplicações deste método foi feita por Laplace em 1783, com o objetivo de estimar o número de habitantes da França. Posteriormente, Carl G. J. Petersen em 1889 e Lincoln em 1930 utilizaram o mesmo estimador no contexto de popula ções de animais. Este estimador _cou conhecido na literatura como o estimador de _Lincoln-Petersen_. Em meados do século XX muitos pesquisadores se dedicaram à formula ção de modelos estatísticos adequados à estimação do tamanho populacional, o que causou um aumento substancial da quantidade de trabalhos teóricos e aplicados sobre o tema. Os modelos de captura-recaptura são construídos sob certas hipóteses relativas à população, ao processo de amostragem e às condições experimentais. A principal hipótese que diferencia os modelos diz respeito à mudança do número de indivíduos da popula- ção durante o período do experimento. Os modelos que permitem que haja nascimentos, mortes ou migração são chamados de modelos para população aberta, enquanto que os modelos em que tais eventos não são permitidos são chamados de modelos para popula- ção fechada. Neste trabalho, o objetivo é caracterizar o comportamento de funções de verossimilhança obtidas por meio da utilização de métodos de eliminação de parâmetros perturbadores, no caso de modelos para população fechada. Baseado nestas funções de verossimilhança, discutimos métodos de estimação pontual e intervalar para o tamanho populacional. Os métodos de estimação são ilustrados através de um conjunto de dados reais e suas propriedades frequentistas são analisadas via simulação de Monte Carlo.

Page generated in 0.1629 seconds