• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2346
  • 74
  • 49
  • 43
  • 43
  • 40
  • 36
  • 36
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 1
  • Tagged with
  • 2498
  • 728
  • 538
  • 510
  • 313
  • 304
  • 294
  • 263
  • 262
  • 255
  • 239
  • 233
  • 217
  • 210
  • 181
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Alguns aspectos de sistemas finitos em mecânica estatística / Some aspects of finite systems in statistical mechanics

Roberto Henrique Schonmann 09 March 1982 (has links)
Estudamos alguns aspectos da Mecânica Estatística de sistemas com número finito de partículas. Com exceção do capítulo 1 este número de partículas é da ordem N = 108 ?, onde ? é a dimensão do sistema. Não calculamos apenas funções termodinâmicas, mas procuramos determinar conjuntos de configurações cuja probabilidade de ocorrência no Ensemble Canônico a dada temperatura seja próxima de 1. A partir daí, algumas funções termodinâmicas como calor específico e pressão são calculadas. Desenvolvemos técnicas para determinar estes conjuntos de configurações de grande probabilidade e tratamos em maior detalhe os seguintes modelos: a) gás de rede com potencial atrativo de primeiros vizinhos em 1 dimensão e baixa densidade (N3 << V, N = número de partículas, V = número de sítios na rede). b) um modelo semelhante ao \"Modelo da Gota\" de Fisher, em que partículas numa caixa podem se unir em aglomerados que se movem livremente na caixa sem graus internos de liberdade. Consideramos o modelo em 1 dimensão. c) O mesmo modelo (b) modificando o critério de distinguibilidade. d) O modelo (b) com graus de liberdade internos aos aglomerados. e) O modelo (b) num campo gravitacional uniforme. f) O modelo ferromagnético de Ising em qualquer dimensão com campo magnético externo e condições periódicas ou livres de contorno e em 1 dimensão sem campo externo e com um spin fixo e um extremo de rede. Estudamos ainda o modelo (b) no Ensemble Grã-Canônico e comparamos os resultados neste ensemble fixando o número médio de partículas com os resultados no Ensemble Canônico. / We study some aspects of the Statistical Machanics of systems with finite number of particles. With exception of chapter 1 this number of particles is of the order N = 108 ?, where ? is the dimensions f the system. We don\'t restrict ourselves to the calculation of thermo dynamical functions, instead we look for sets of configurations whose probability of occurrence in the Canonical Ensemble at given temperature is near to 1. This permits us to calculate some thermo dynamical functions like the specific heat and the pressure. Techniques to determine these sets of configurations of great probability are developed and we treat in great detail of the following models: a) A lattice gas with attractive nearest neighbor potential in 1 dimension and low density (N3 << V, N = number of particles, V = number of sites). b) A model similar to Fisher\'s \"Droplet Model\" in which particles inside a box can form clusters which move freely in the box without internal degrees of freedom. We consider the model in 1 dimension. c) The same model (b) with the distinguibility criterium modified. d) The model (b) with internal to the clusters degrees of freedom. e) The model (b) in a uniform gravitational field. f) The ferromagnetic Ising model in any dimension with external field and periodic or free boundary conditions, and in 1 dimension without external field and with one spin fixed in the value +1 in one extreme of the lattice. We study also the model (b) in the Grand-Canonical Ensemble and compare the results in this ensemble fixed the mean number of particles with the results in the Canonical Ensemble.
112

Mecânica estatística e dinâmica das fases de sólitons no 4He líquido. / Statistical mechanics and dynamics of phase solitons in liquid 4 He.

Luiz Roberto Evangelista 14 September 1988 (has links)
Apresenta-se uma teoria microscópica para as fases do hélio líquido baseada na existência de sólitons planares no fluido. O trabalho adota a interpretação de London para o gás de Bose-Einstein. E segue principalmente, o trabalho pioneiro de Ventura, que é também uma extensão, para condensados não uniformes, da Teoria de Bogoliubov para a superfluidez. Esta abordagem tem, no sóliton, sua principal faceta e na nuvem térmica e no segundo campo condensado suas principais novidades. A nuvem térmica é constituída por excitações térmicas ligadas ao sóliton. Assumimos, num primeiro momento, e como hipótese central, que a densidade da nuvem térmica é proporcional ao buraco do sóliton. Duas dinâmicas, então, são desenvolvidas: o campo médio, que dá origem ao fluído normal e a dinâmica da nuvem térmica. Essas duas dinâmicas são compatibilizadas e, por autoconsistência, desenvolve-se a Mecânica Estatística dos sólitons, no líquido. Os resultados obtidos estão em bom acordo com os resultados experimentais conhecidos. Há um calor específico com uma divergência tipo em T = 2.1 K e um gap térmico efetivo na região T = 6 - 9 K, que concorda com o gap obtido experimentalmente por espalhamento de nêutrons. A teoria é, rigorosamente, microscópica e foi aperfeiçoada, num segundo momento, com a descoberta do segundo campo condensado. Usando uma lagrangiana efetiva, construída a partir da primeira etapa dos cálculos, aperfeiçoou-se a teoria e a dinâmica sóliton/nuvem térmica pôde ser reproduzida de maneira mais apurada. O fenômeno central dessa abordagem é a condensação de um segundo campo clássico no menor estado de energia. As duas abordagens são equivalentes, mas a segunda é a mais correta e conduz, essencialmente, aos mesmos resultados. / A microscopic theory for the liquid phases of helium-4 is presented, based in the existence of planar solitons in the fluid. The work follows the Londons interpretation of the Bose-Einstein gas. Mainly, it follows the pioneer work of Ventura on superfluidity, which is also an extension for the non-uniform condensates, of the Bogoliubov theory in the subject. This approach has in the soliton its main feature and in the thermal clouds its main novelty. The thermal cloud is constituted by thermal excitations bounded to the soliton. We assume, at the first moment, and as central hypothesis, that the density of the thermal cloud is proportional to the soliton hole (which 1S related to the matter vacancy) in the soliton frame. Two dynamics are developed: the mean-field, that gives origin to the normal fluid and the dynamics of the thermal cloud excitations. These two dynamics are compatibilized and by self-consistency we build the Statistical Mechanics of the solitons in the liquid. The results so obtained are in good agreement with the know results of experiments. There 1S a specific heat with a -divergence at T=2.1 K, and a thermal gap in the range T=6-9 K, which agrees with the neutron sacattering gap. The theory is microscopic in all respects and is improved with the introduction of the second condensed field. Using an effective Lagrangian, we have perfected the theory and have reproduced the soliton/thermal cloud dynamics in a more accurate fashion. The central phenomena in this approach is the condensation of the second classical field in the lowest energy state. The two approaches are equivalent, but the second one is the more correct and gives, essentially, the same results.
113

Correção de alta ordem de estimadores de máxima verossimilhança

Oliveira Júnior, Waldemar Araújo de Santa Cruz 31 January 2013 (has links)
Submitted by Danielle Karla Martins Silva (danielle.martins@ufpe.br) on 2015-03-12T14:08:56Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese_biblioteca.pdf: 1306560 bytes, checksum: a4f1323796c4496a50645b68fc10c450 (MD5) / Made available in DSpace on 2015-03-12T14:08:56Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese_biblioteca.pdf: 1306560 bytes, checksum: a4f1323796c4496a50645b68fc10c450 (MD5) Previous issue date: 2013 / A técnica de estimação por máxima verossimilhança é uma das metodologias mais utilizadas na área de Estatística. Em determinados modelos, esta técnica produz um estimador viesado ou assintoticamente não-viesado. No último caso, a ordem de magnitude dos vieses desses estimadores é em geral O(n−1) e seu desvio padrão na ordem de O(n−1=2). Por esse motivo, esses vieses não são levados em conta em amostras de tamanho grande. Porém, em pequenas amostras esse viés na estima- ção pode ter um signi cado importante. Assim, o estudo sobre diminuir o viés do estimador de máxima verossimilhança torna-se bastante relevante em diversas áreas, tais como, medicina, farmácia, biologia, entre outras, que necessitam de precisão e ao mesmo tempo trabalham com amostras pequenas. Durante décadas, muitos artigos foram publicados na área de correção de viés, utilizando diversos tipos de modelos e técnicas de estimação. Neste trabalho, propomos uma técnica de correção de viés baseada em uma sequência de translações da função escore, de forma que a primeira translação é exatamente a que David Firth propôs, ver [18]. Para isso, usamos inicialmente a expansão de Taylor do estimador de máxima verossimilhança para realizar a primeira translação, o zero desta função transladada é o estimador θ∗ 0, que é o estimador proposto por Firth. Com a expansão de Taylor deste estimador, realizamos outra translação na função escore já transladada, encontrando o estimador θ∗ 1. Sob determinadas condições de regularidade, o viés deste novo estimador tem ordem de magnitude O(n−3). Repetindo esse processo k-vezes, obtemos um estimador cujo viés tem ordem de magnitude O(n−k), para k = 1, 2, . . . . Realizamos várias simulações de Monte Carlo em uma grande variedade de situações e de modelos estatísticos. No caso uniparamétrico, comparamos o desempenho do estimador θ∗ 1 com o estimador de máxima verossimilhança bθ, com θ∗ 0, com bθ1 visto na equação 2.18 e com o estimador eθ2 proposto por Ferrari et al [17], que pode ser visto na equação 2.19. No caso biparamétrico, comparamos o estimador θ∗ 1 com os estimadores bθ e θ∗ 2. Os resultados das simulações mostram que esses estimadores, cuja proposta é de corrigir viés, são competitivos entre si, mas há uma leve superioridade dos estimadores θ∗ 1 e eθ2. No caso biparamétrico é mais evidente a superioridade do estimador θ∗ 1, para n pequeno.
114

Teste de razão de verossimilhanças Bootstrap e técnicas de diagnóstico em modelos em séries de potências não-lineares generalizados

FORERO, Sébastien Lozano 25 June 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-16T17:11:02Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) SébastienLozano_Mestrad.pdf: 855650 bytes, checksum: c3ce2f2482d9450aef7d2e6264b3f0e3 (MD5) / Made available in DSpace on 2016-02-16T17:11:02Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) SébastienLozano_Mestrad.pdf: 855650 bytes, checksum: c3ce2f2482d9450aef7d2e6264b3f0e3 (MD5) Previous issue date: 2015-06-25 / FACEPE / Os Modelos em Série de Potência não-Lineares Generalizados (MSPNLGs), introduzidos em Cordeiro et al. (2009), são apresentados como uma alternativa para a análise de regressão de dados de contagem, generalizando os modelos tradicionais, como o Consul, Poisson generalizada, binomial negativa generalizada, entre outros. Nesta dissertação, versões modificadas (via Bartlett (1937) e Rocke (1989)) das estatísticas da razão de verosimilhanças e razão de verossimilhanças bootstrap, respectivamente, são apresentadas para testes de hipóteses nesta classe de modelos. Simulações de Monte Carlo mostram que os testes baseados nas versões modificadas das estatísticas da razão de verossimilhanças e razão de verossimilhanças bootstrap exibem melhores desempenhos em amostras finitas, superando os testes originais (sem correção). Além disso, técnicas de diagnóstico são propostas para os MSPNLGs, a saber: resíduos, alavancagem generalizada, influência global, e influência local. Finalmente, um conjunto de dados reais é utilizando para avaliar as metodologias desenvolvidas tanto em técnicas de diagnóstico como em aperfeiçoamento de testes. / The Power Series Generalized nonlinear Models (PSGNLMs), introduced in Cordeiro et al. (2009), are presented as a prominent option to deal with counting regression models, generalizing well known models as the Consul, the generalized Poisson and the generalized negative binomial, among others. In this work, modified versions (via Bartlett (1937) and Rocke (1989)) of the likelihood ratio and bootstrap likelihood ratio test statistics, respectively, are presented for hypothesis testing in this class of models. Monte Carlo simulations show that tests based on modified versions of the likelihood test statistic exhibit better performance in finite samples, exceeding the original tests (uncorrected). Furthermore, diagnostic techniques are proposed for the MSPNLGs, namely: residuals, generalized leverage, global influence, and local influence. Finally, a real data set is used in order to assess the developed techniques in both areas, influence diagnostic and hypothesis testing.
115

Regressão simplex não linear: inferência e diagnóstico

SILVA, Alisson de Oliveira 25 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-02-19T18:18:56Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Alisson de Oliveira Silva.pdf: 1538683 bytes, checksum: e382c50b9af1c32b274b080f54fc0d61 (MD5) / Made available in DSpace on 2016-02-19T18:18:56Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) DISSERTAÇÃO Alisson de Oliveira Silva.pdf: 1538683 bytes, checksum: e382c50b9af1c32b274b080f54fc0d61 (MD5) Previous issue date: 2015-02-25 / CMPQ / Em diversas situações práticas, sejam experimentais ou observacionais, há o interesse em investigar como um conjunto de variáveis se relaciona com percentagens, taxas ou razões. Dados restritos ao intervalo contínuo (0,1), em geral, exibem assimetria e possuem um padrão específico de heteroscedasticidade, tornando o modelo normal linear inadequado. Nesse sentido, uma classe de modelos de regressão beta foi proposta por Ferrari e Cribari–Neto (2004), em que a média da variável resposta está relacionada com um preditor linear, através de uma função de ligação, e o preditor linear envolve covariáveis e parâmetros desconhecidos. Uma alternativa competitiva à distribuição beta é o modelo simplex proposto por Barndorff–Nielsen e Jorgensen (1991). A distribuição simplex faz parte dos modelos de dispersão definidos por Jorgensen (1997) que estendem os modelos lineares generalizados. Nesta dissertação, propomos uma extensão do modelo de regressão simplex (Miyashiro, 2008), em que tanto a média da variável resposta quanto o parâmetro de precisão estão relacionados às covariáveis por meio de preditores não lineares. Apresentamos expressões em forma fechada para o vetor escore, matriz de informação de Fisher e sua inversa. Desenvolvemos técnicas de diagnósticos para o modelo de regressão simplex não linear baseadas no método de influência local (Cook, 1986), sob cinco esquemas de perturbação. Além disso, propomos um resíduo para o modelo através do processo iterativo escore de Fisher, e obtemos uma expressão matricial para a alavanca generalizada com base na definição geral apresentada por Wei et al. (1998). Aplicações a dados reais e dados simulados são apresentadas para ilustrar a teoria desenvolvida. / In many practical situations, whether experimental or observational, there is interest in investigating how a set of variables relates to percentages, rates or fractions. Restricted data to continuous interval (0.1), in general, exhibit asymmetry and have a specific pattern of heteroscedasticity, making the normal linear model inappropriate. In this sense, a class of beta regression models was proposed by Ferrari and Cribari–Neto (2004), in which the mean response is related to a linear predictor through a link function, and the linear predictor includes regressors and regression parameters. A useful alternative to the beta distribution is the simplex model proposed by Barndorff–Nielsen and Jorgensen (1991). Simplex distribution is part of the dispersion models defined by Jorgensen (1997) that extend generalized linear models. In this paper, we propose an extension of the simplex regression model (Miyashiro, 2008), in which both the mean response as the precision are related to covariates via non-linear predictors. We provide closed-form expressions for the score function, for Fisher’s information matrix and its inverse. Some diagnostic measures are introduced. We propose a new residual obtained using Fisher’s scoring iterative scheme for the estimation of the parameters that index the regression non-linear predictor to the mean response and numerically evaluate its behaviour. We also derive the appropriate matrices for assessing local influence on the parameter estimates under diferent perturbation schemes and provide closed-form to generalized leverage matrix proposed by Wei, Hu and Fung (1998). Finally, applications using real and simulated data are presented and discussed.
116

Análise estátistica das variavéis aleatórias: RTT (Round-Trip Time), tempo de processamento no Stub e tempo de processamento no Skeleton do Middleware CORBA

CARBONE, Thiago Sávio January 2005 (has links)
Made available in DSpace on 2014-06-12T16:01:03Z (GMT). No. of bitstreams: 2 arquivo7149_1.pdf: 450097 bytes, checksum: 66f4c98834d738979f5d31da7764af6a (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005 / O paradigma cliente-servidor tem sido usado na construção de aplicações para sistemas distribuídos. Adicionalmente, como os componentes implementados, usando-se de diferentes tecnologias, precisam interagir de forma colaborativa, isto torna os sistemas cliente-servidor heterogêneos; cabe então ao middleware prover, eficientemente, a interoperabilidade em tais sistemas. Este fato originou o surgimento de trabalhos de pesquisa na busca de uma modelagem matemática para analisar o comportamento de variáveis aleatórias presentes na comunicação cliente-servidor. Este trabalho apresenta, inicialmente, a análise estatística das variáveis RTT, T1 (tempo de processamento no stub) e T3 (tempo de processamento no skeleton). A seguir também é estudada a variável RTT utilizando o tipo primitivo char. Os resultados obtidos com o experimento mostraram que (i) o número de clientes e RTT são grandezas diretamente proporcionais, isto é, a medida que o número de clientes aumenta RTT também aumenta; (ii) a maior parte do tempo de processamento de RTT é gasto no tempo de processamento no stub. Constatou-se então que RTT e o tempo de processamento no stub são estatisticamente os mesmos; (iii) as variações do número de requisições (N) influenciam em RTT; (iv) RTT aumentou significativamente quando o tipo primitivo foi apenas char variando o tamanho da requisição
117

Avaliação do impacto de políticas de transferência de renda a partir de dados amostrais complexos

MIRANDA FILHO, Walmir dos Reis 13 February 2017 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2018-02-16T19:10:45Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertação - Versão Definitiva.pdf: 2091703 bytes, checksum: 7a556fe4371775865de61f0ff6cd5f02 (MD5) / Made available in DSpace on 2018-02-16T19:10:45Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Dissertação - Versão Definitiva.pdf: 2091703 bytes, checksum: 7a556fe4371775865de61f0ff6cd5f02 (MD5) Previous issue date: 2017-02-13 / Estudar os efeitos de uma política pública de transferência direta de renda ao longo do tempo é de fundamental interesse para dizer se a mesma teve ou não êxito em mudar a vida de seus beneficiários. Neste sentido, a avaliação de impacto da política no tempo de alocação para o trabalho dos beneficiários, tanto crianças quanto adultos, tem sido usada como critério para decidir sobre seu sucesso. A separação nestes dois grupos etários busca responder a duas questões importantes: se a política conseguiu reduzir o trabalho infantil e se, por outro lado, foi responsável por acomodar os adultos beneficiários. Esta avaliação pode ser feita por modelagem de regressão linear normal com uso do método de Diferença em Diferenças para a resposta de interesse (o tempo alocado para o trabalho). Logo, uma amostra de beneficiários (tratados) e não beneficiários (controles) é extraída para uma pesquisa longitudinal feita em pelo menos dois pontos distintos no tempo: um antes de aplicar a política e outro após. Porém, nem sempre os tratados e controles selecionados são comparáveis na amostra original. Para isso, é necessário parear os tratados com os controles mais próximos, dado um conjunto de características observáveis, por escores de propensão preditos por um modelo de regressão para a atribuição do tratamento (aqui, uma variável binária). Logo, os escores preditos e as observações nas covariáveis especificadas no modelo correspondente, que representam um conjunto de características observáveis, devem estar balanceados pelas duas classes na nova amostra pareada, o que é confirmado por testes de hipóteses. Ainda, ignorar características do plano amostral complexo empregado na pesquisa, como o uso de pesos amostrais desiguais, e tratar os dados como independentes e identicamente distribuídos pode enviesar a estimação do impacto pelo método de Diferença em Diferenças. Assim, a partir de dados amostrais complexos da Yemen National Social Protection Monitoring Survey, uma pesquisa longitudinal domiciliar, neste trabalho é avaliado o impacto do Social Welfare Fund para o tempo semanal de alocação para o trabalho pelo método de Diferença em Diferenças sob duas abordagens. Na primeira, o plano amostral complexo empregado é completamente ignorado. Na segunda, ele é considerado desde a etapa de pareamento até a avaliação de impacto. Ambas são aplicadas para os dois grupos etários sob estudo. Os escores são modelados por regressão logística e, após encontrar o banco pareado por eles, testesχ2 de Pearson para a hipótese nula de independência nas covariáveis e de Mann-Whitney para homogeneidade dos escores são realizados para confirmar o balanceamento. / Studying the effects of a governmental policy of direct cash transfer over time is of fundamental concern to say whether or not it has been successful in changing the lives of its beneficiaries. In this sense, the impact evaluation of the policy on the time allocation to work of its beneficiaries, both children and adults, has been used as criteria to decide on its success. The division in these two age groups seeks to answer two important questions: whether the policy has succeeded in reducing the child labor and, on the other hand, whether it has been responsible for making the adult beneficiaries lazier. This evaluation can be done by normal linear regression modelling with use of the Difference in Differences method for the response of interest (the allocated time to work). Therefore, a sample of beneficiaries (treated) and non-beneficiaries (controls) is extracted for a longitudinal survey carried out in at least two distinct points in time: one before applying the policy and the other after. However, the treated and controls that were selected are not always comparable in the original sample. For this, it is mandatory to match treated with the closest controls, given a set of observable characteristics, by propensity scores predicted by a regression model for the treatment assignment (here, a binary variable). Consequently, the predicted scores and observations in the covariates specified in the corresponding model, which represent a set of observable characteristics, should be balanced by the two classes in the new paired sample, which is confirmed by hypothesis tests. Moreover, ignoring the characteristics of the complex survey design used in the research, such as the presence of unequal sample weights, and treating the data as independent and identically distributed may bias the impact estimation by the Difference in Differences method. Thus, from a complex survey data from the Yemen National Social Protection Monitoring Survey, a longitudinal household survey, this essay assesses the impact of the Social Welfare Fund for the time allocation to work on a week by the Difference in Differences method under two approaches. In the first, the complex survey design employed is completely ignored. In the second, it is considered from the pairing step until the impact assessment. Both are applied for the two age groups under study. The scores are modelled by logistic regression, and after finding the database matched by them, Pearson’sχ2 tests for the null hypothesis of independence in the covariates and Mann-Whitney for homogeneity of the scores are performed to confirm the balance.
118

The exponentiated generalized family of continuous distributions

ANDRADE, Thiago Alexandro Nascimento de 16 January 2017 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2018-02-16T19:31:09Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Thesis-Thiago A N de Andrade Final CD.pdf: 4166902 bytes, checksum: 6f1f38e9a23a6f7d1b77f650f8a052ec (MD5) / Made available in DSpace on 2018-02-16T19:31:09Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) Thesis-Thiago A N de Andrade Final CD.pdf: 4166902 bytes, checksum: 6f1f38e9a23a6f7d1b77f650f8a052ec (MD5) Previous issue date: 2017-01-16 / CAPES / Statistical and applied researchers have shown great interest in building new extended probability models that generalize well-known distributions and are more flexible for data modeling in many fields of applications. Probably, one of the most popular ways to extend well-known models is to consider distribution generators. Aclass of univariate distributions called the exponentiated generalized (EG for short) class was recently proposed in the literature. We believe that the EG class of distributions can be widely used to generalize continuous distributions. For this reason, the present doctoral thesis presents some extended models using the EG class. For each model presented in the chapters that follow, we provide a complete mathematical treatment, simulation studies and applications to real data that illustrate the usefulness of the model sunder study. / Estatísticos e pesquisadores aplicados têm mostrado grande interesse em propor novos modelos de probabilidade estendidos que generalizam distribuições bem estabelecidas na literatura. Provavelmente, uma das formas mais populares de estender modelos bem conhecido sé considerando os chama dos geradores de distribuições. Uma classe de distribuições univariadas chamada de classe exponencializada generalizada (EG) foi proposta recentemente na literatura. Acreditamos que a classe EG de distribuições pode ser amplamente utilizada para generalizar distribuições contínuas. Por esta razão, a presente tese de doutorado apresenta alguns modelos estendidos usando a classe EG. Para cada modelo apresentado nos capítulos que se seguem, fornecemos um tratamento matemático completo, estudos de simulação e aplicações a dados reais que ilustram a utilidade dos modelos em estudo.
119

Classificadores induzidos de divergências para modelos vetoriais e para distribuição Wishart complexa: experimentos em imagens PolSAR

FERREIRA, Jodavid de Araújo 17 February 2017 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2018-05-07T19:53:49Z No. of bitstreams: 1 DISSERTAÇÃO Jodavid de Araújo Ferreira.pdf: 4344935 bytes, checksum: 01a1f82d6b0d50e3c9f8198b69f83869 (MD5) / Made available in DSpace on 2018-05-07T19:53:49Z (GMT). No. of bitstreams: 1 DISSERTAÇÃO Jodavid de Araújo Ferreira.pdf: 4344935 bytes, checksum: 01a1f82d6b0d50e3c9f8198b69f83869 (MD5) Previous issue date: 2017-02-17 / FACEPE / Dentre as técnicas de sensoriamento remoto, o sistema de radar de abertura sintética polarimétrico (Polarimetric Synthetic Aperture Radar-PolSAR) tem assumido uma posição de destaque. Isto se deve a capacidade do PolSAR em (i) operar em várias condições atmosféricas (na ausência de luz, tempo nublado, entre outros), (ii) produzir imagens em alta resolução espacial e (iii) fornecer informações sobre uma cena na perspectiva de vários canais de polarização. Entretanto dados de imagens PolSAR são fortemente contaminados por um ruído multidimensional (chamado de ruído speckle), o que dificulta sua modelagem e processamento. Em particular, pesquisas indicam que o uso dos clas-sificadores clássicos (tais como, análise discriminante linear-LDA, análise discriminante quadrática-QDA, K vizinhos mais próximos-KNN e máquina de vetores de suporte-SVM) comumente resultam em desempenhos insuficientes, o que motiva a proposta de classi-ficadores adaptados à natureza de dados PolSAR. Neste trabalho, objetiva-se construir uma coleção de classificadores para dados PolSAR com base em distâncias e divergências entre medidas de probabilidade para vetores e matrizes aleatórios. São considerados os modelos vetoriais normal, skew-normal, t-Student e skew-t e a distribuição matricial Wishart complexa escalonada (WCE). Utilizando as divergências/distâncias de Rényi, Kullback-Leibler e Jeffreys combinadas aos modelos vetoriais e matricial na elaboração de classificadores para dados de intensidade SAR multivariados e “full PolSAR” (matricial hermitiano), são propostos quatorze classificadores. Em particular, oito deles são classes de classificadores incorporadas a um processo de otimização para um parâmetro de flexibilidade (induzido da ordem da divergência de Rényi). Através de um estudo de simulação Monte Carlo, a performance dos métodos propostos é quantificada e comparada com outras obtidas pela distância de Kullback-Leibler para a distribuição normal multivariada e pelos métodos LDA, QDA, KNN e SVM. Para este fim, imagens sintéticas foram simuladas obedecendo à física de formação de imagens PolSAR. O classificador com base na divergência otimizada de Rényi para a lei WCE pode superar os demais. Finalmente, experimentos com dados reais extraídos de duas imagens PolSAR são realizados. Resultados apresentam evidências em favor dos classificadores ótimos com base na divergência de Rényi para a imagem de São Francisco com base no sensor AIRSAR (Radar de Abertura Sintética Airborne) e do classificador baseado na divergência Kullback-Leibler para a distribuição t-Student multivariada para a imagem de Foulum com base no sensor EMISAR (Electromagnetics Institute SAR). / Among the remote sensing techniques, the PolSAR (Polarimetric Synthetic Aperture Radar) system has received a prominent position. This is due to its capability in (i) operating in various weather conditions (in the light absence, cloudy scenarios, among others), (ii) producing images at high spatial resolution, and (iii) providing information on a scene from polarization channels. However, data obtained from PolSAR images are strongly contaminated by a multidimensional interference pattern (called speckle noise) and this effect hampers their modelling and processing. In particular, works have indicated the use of classic classifiers (Linear Discriminant Analysis-LDA, Quadratic Discriminant Analysis- QDA, k-Nearest Neighbour-KNN and Support Vector Machine-SVM) commonly result in bad performance, which motivates the proposal of classifiers tailored to the nature of PolSAR data. This study aims to furnish a collection of classifiers for PolSAR data based on distances and divergences between probability measures for random vectors and matrices. We consider normal, skew-normal, t-Student, skew-t vector models and the scaled complex Wishart (SCW) distribution as like probabilistic assumptions. Using the Rényi, Kullback-Leibler, and Jeffreys divergences/distances combined with the adopted vector and matrix models, we propose fourteen classifiers. In particular, eight of them are classes of classifiers equipped by an optimization procedure for the flexibility parameter (induced from the Rényi divergence order). Through a Monte Carlo simulation study, the performance of proposed methods is quantified and compared with those obtained by the Kullback-Leibler distance for multivariate normal distribution and by LDA, QDA, KNN and SVM methods. To that end, synthetic images are generated obeying the physics of PolSAR image formation. The classifier based on the optimized Rényi divergence for the SCW model may outperform all considered alternatives for synthetic data. Finally, experiments with real data from PolSAR images are considered. Results provide evidence in favor of optimal classifiers based on the Rényi divergence for the image of San Francisco based on the sensor AIRSAR (Airborne Synthetic Aperture Radar) and of the classifier in terms of the Kullback-Leibler divergence for the multivariate t-Student distribution for the image of Foulum based on the sensor EMISAR (Electromagnetics Institute SAR).
120

Ensaios sobre teoria assintótica em retornos SAR seguindo a distribuição Gama generalizada

SANTOS, Ramon Lima dos 17 February 2017 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2018-05-07T22:55:24Z No. of bitstreams: 1 DISSERTAÇÃO Ramon Lima dos Santos.pdf: 12959729 bytes, checksum: a40bfdb41592aeeac39753ee63f66232 (MD5) / Made available in DSpace on 2018-05-07T22:55:24Z (GMT). No. of bitstreams: 1 DISSERTAÇÃO Ramon Lima dos Santos.pdf: 12959729 bytes, checksum: a40bfdb41592aeeac39753ee63f66232 (MD5) Previous issue date: 2017-02-17 / CAPES / Os sistemas de radar de abertura sintética (Synthetic Aperture Radar-SAR) têm sido apresentados como ferramentas eficientes na resolução de problemas de sensoriamento remoto. Tais sistemas exibem várias vantagens. Em particular, seu funcionamento independe do horário do dia e/ou das condições atmosféricas, como também eles podem fornecer imagens em alta resolução espacial. Entretanto, as imagens SAR são contaminadas por um tipo de interferência denominada ruído speckle, dificultando o reconhecimento de padrões em tais imagens por análise visual e/ou pelo uso de métodos clássicos de processamento automático. Assim, a proposta de técnicas estatísticas especializadas (incluindo modelagem e métodos inferenciais) se torna uma importante etapa no processamento e na análise de imagens SAR. Recentemente, uma versão da distribuição gama generalizada tem sido aplicada com sucesso para descrever dados SAR em formato de intensidade. Esta dissertação apresenta inicialmente uma discussão sobre estimação por máxima verossimilhança (MV) para os parâmetros do modelo gama generalizado adaptado ao contexto de dados SAR. Adicionalmente, derivamos um teorema que permite encontrar analiticamente a matriz informação de Fisher do modelo gama generalizado. Estimadores em forma fechada são propostos (sendo um deles para o número de looks, parâmetro que descreve o efeito do ruído sobre imagens SAR) e um terceiro é definido como solução de uma equação não-linear. Em segundo lugar, propomos um método de estimação melhorado para os parâmetros da distribuição gama generalizada, derivando a expressão do viés de segunda ordem de acordo com a proposta de Cox e Snell [Journal of Royal Statistical Society. Series B (Methodological), vol. 30, no. 2, pp. 248–275, 1968]. Finalmente, objetivando definir contrastes no espaço paramétrico da lei gama generalizada, derivamos seis medidas de divergência (discrepância entre duas medidas de probabilidade) com base na medida de Kullback-Leibler simetrizada e aplicamos os conceitos de testes de hipóteses fundamentados nas propriedades assintóticas da classe de divergências estudada por Salicrú et al. [Journal of Multivariate Analysis, vol. 51, pp. 372–391, 1994]. Três dentre as medidas derivadas quantificam o erro em escolher o modelo gama quando um fenômeno é regido pela distribuição gama generalizada, ou vice-versa. Duas outras medidas calculam o contraste entre dois elementos diferentes a partir da distribuição gama generalizada ou, como caso particular, da distribuição gama. Outra quantifica o erro de escolher o modelo gama generalizado trivariado não-correlacionado quando os dados seguem o modelo Wishart complexo escalonado. Esta última quantidade pode ser utilizada como um detector de redundância para uma região SAR polarimétrica; isto é, um teste de hipótese que informa quando trabalhar com modelos marginais gama generalizado é estatisticamente similar a usar distribuições matriciais. As demais medidas são definidas ou como testes de hipóteses para duas regiões de intensidades SAR ou como medidas de bondade de ajuste entre gama e gama generalizada no mesmo contexto. Para quantificar a eficiência das novas metodologias, estudos de simulação Monte Carlo são realizados bem como vários experimentos com dados SAR reais. / Synthetic aperture radar (SAR) systems have been presented as efficient tools for remote sensing. Such systems exhibit several advantages. In particular, its operation is independent of the time of day and/or atmosphere conditions, as well as they can provides images in high spatial resolution. However, SAR images are contaminated by a type of interference called speckle noise, hindering the recognition of patterns in such images by visual analysis and/or by the use of classical automatic processing methods. Thus, the proposal of specialized statistical techniques (including modeling and inferential methods) is an important step in the processing and analysis of SAR images. Recently, a version of the generalized gamma distribution (GΓ) has been successfully applied to describe SAR data in intensity format. This dissertation presents first a discussion about estimation by maximum likelihood (ML) for the parameters of the GΓ model tailored to the SAR data context. Additionally, we derive a theorem that allows to find analytically the Fisher information matrix of the GΓ model. Furthermore, two closed-form estimators are pro-posed (being one of them for the number of looks, parameter which describes the effect of noise on SAR images) and a third which is defined as a solution of one non-linear equa-tion. Second we propose an improved estimation method for the GΓ parameters, deriving the second-order bias expression according to the proposal of Cox and Snell [Journal of Royal Statistical Society. Series B (Methodological), vol. 30, no. 2, pp. 24–275, 1968]. Fi-nally, aiming to define contrasts in the GΓ law parametric space, we derive six divergence measures (discrepancy between two probability measures) based on the Kullback-Leibler measure symmetrized and we apply the concepts of hypothesis testing based on the as-symptotic properties from the h-φ class studied by Salicrú et al. [Journal of Multivariate Analysis, vol. 51, pp. 37–391, 1994]. Three of among derived measures quantify the error in choosing the Γ model when a phenomenon is governed by the GΓ distribution, or con-versely. Two other measures compute the contrast between two different elements modeled by the GΓ or the Γ distribution. Other measure quantifies the error of choosing the un-correlated trivariate GΓ model when the data follow the scaled complex Wishart model.

Page generated in 0.0837 seconds