• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1757
  • 570
  • 451
  • 169
  • 81
  • 66
  • 62
  • 55
  • 47
  • 42
  • 38
  • 28
  • 27
  • 22
  • 21
  • Tagged with
  • 3953
  • 827
  • 734
  • 721
  • 597
  • 537
  • 533
  • 533
  • 407
  • 404
  • 365
  • 334
  • 333
  • 326
  • 316
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Contractive Markov systems

Werner, Ivan January 2004 (has links)
We introduce a theory of contractive Markov systems (CMS) which provides a unifying framework in so-called "fractal" geometry. It extends the known theory of iterated function systems (IFS) with place dependent probabilities [1][8] in a way that it also covers graph directed constructions of "fractal" sets [18]. Such systems naturally extend finite Markov chains and inherit some of their properties. In Chapter 1, we consider iterations of a Markov system and show that they preserve the essential structure of it. In Chapter 2, we show that the Markov operator defined by such a system has a unique invariant probability measure in the irreducible case and an attractive probability measure in the aperiodic case if the restrictions of the probability functions on their vertex sets are Dini-continuous and bounded away from zero, and the system satisfies a condition of a contractiveness on average. This generalizes a result from [1]. Furthermore, we show that the rate of convergence to the stationary state is exponential in the aperiodic case with constant probabilities and a compact state space. In Chapter 3, we construct a coding map for a contractive Markov system. In Chapter 4, we calculate Kolmogorov-Sinai entropy of the generalized Markov shift. In Chapter 5, we prove an ergodic theorem for Markov chains associated with the contractive Markov systems. It generalizes the ergodic theorem of Elton [8].
152

Blocos de consenso, esquemas regenerativos e estimação em tempo polinomial de longas amostras de cadeias de Markov ocultas

Camey, Suzi Alves January 2005 (has links)
Esta tese propõe duas abordagens para estimar a seqüência oculta de uma cadeia de Markov oculta: blocos de consenso e blocos de regeneração. Em ambos os casos os algoritmos resultantes dependem de um número de operações que cresce polinomialmente com o tamanho da seqüência. Na primeira abordagem, quebramos a seqüência visível em blocos e estimamos a seqüência oculta de acordo com a maioria de símbolos que enxergamos na seqüência visível. Na segunda abordagem, utilizamos a estrutura regenerativa da cadeia para decompor em blocos independentes. Obtivemos limites superiores para a probabilidade de erro de estimação com os dois métodos. Na segunda abordagem, utilizamos o método de Monte Carlo markoviano e o algoritmo de Metrópolis para construir iterativamente a seqüência de instantes de regeneração e os blocos correspondentes de estados ocultos, dada a seqüência visível da cadeia. Na demonstração dos resultados foram utilizados resultados de esquemas regenerativos, o método de Chernofi e a desigualdade de Hoefiding. Esta tese tem também uma componente computacional. Com efeito, desenvolvemos rotinas em R que implementam os diversos algoritmos propostos. Também fizemos simulações que ilustram a funcionalidade dos algoritmos. / This dissertation introduces two new approaches to the problem of the estimation of the hidden chain in a hidden Markov model. In both approaches the number of steps necessary to estimate the hidden chain increase polinomially with the size of the sample (the observable chain). In the rst approach, through consensus substrings, we split the observable chain in substrings and estimate the hidden values as the one with appears in the most of the steps of the observable substring. In the second approach, through regenerative substrings, we split the chain using its regenerative structure. In both cases we obtain upper bounds for the error probability of the algorithms. In the second approach, we use the Monte Carlo Markov chains and the Metropolis algorithm to construct iteratively the sequence of the regeneration times and the corresponding substrings of hidden states, given the observable chain. The main tools use in the proofs of the theorems were the regenerative construction of the Markov chain, Chernoff's method and Hoe ding's inequality. This dissertation has also a computational aspect. In e aspect, all the algorithms introduced here have been implemented in R and the corresponding codes are available in the appendix. We also present several simulations to illustrate the applicability of the algorithms.
153

Limite hidrodinâmico para um processo de exclusão : pontos limites das medidas empíricas

Menezes, Otávio de Macedo January 2013 (has links)
Esta dissertação trata de um teorema de limite hidrodinâmico para a densidade de partículas no processo de exclusão simples com taxa lenta no bordo. Nesse processo as partículas realizam passeios aleatórios a tempo contínuo independentes no espaço {0,1,..., N}, condicionados ao evento de que duas partículas nunca ocupam o mesmo sítio simultaneamente. Além disso, partículas podem ser injetadas ou retiradas do sistema nos sítios 0 e N, com taxas proporcionais a 1/N. O teorema do limite hidrodinâmico diz que reescalando o espaço por 1/N e o tempo por N² a evolução da densidade de partículas converge para a solução de uma equação do calor com certas condições de fronteira. Esta dissertação se concentra na caracterização dos pontos limites das medidas empíricas, um dos principais passos da demonstração. Além disso são apresentados resultados básicos de Processos de Markov relacionados ao problema do limite hidrodinâmico. / This text is about an hydrodynamic limit theorem for the particle density in the symmetric simple exclusion process with slow boundaries. In this process particles execute independent continuous time simple random walks in {0,1,...,N} conditioned to the event that at any time there is at most one particle per site. Moreover, particles can be injected or ejected from the system at sites 0 and N, with rates proportional to 1/N. The hydrodynamic limit theorem asserts that, rescaling space by 1/N and time by N², the particle density converges to the solution of a heat equation with certain boundary conditions. This text focuses on the characterization of limit points of empirical measures, a crucial step in the proof of the hydrodynamic limit. We also present some basic material on Markov Process related to the hydrodynamic limit problem.
154

Identificação de Indivíduos pela Dinâmica do Caminhar

VIEIRA, R. M. T. 19 December 2009 (has links)
Made available in DSpace on 2016-08-29T15:32:32Z (GMT). No. of bitstreams: 1 tese_2817_DissertacaoMestradoRowenaMariaTeixeiraVieira.pdf: 1225955 bytes, checksum: c745afac924a7df6d3e777767133ac88 (MD5) Previous issue date: 2009-12-19 / Os sistemas de segurança baseados em identificação de indivíduos através de características biométricas têm exigido que os programas de computador responsáveis por esta função sejam os mais confiáveis possíveis. As características biométricas como face, íris e impressão digital necessitam de recursos sofisticados e da ajuda direta do indivíduo que se deseja reconhecer. Baseado neste contexto, buscou-se uma maneira de minimizar estas exigências através da característica biométrica do caminhar. O caminhar humano é característico de cada ser humano, e este aspecto pode ser utilizado de forma favorável nos sistemas de reconhecimento. Assim, neste trabalho foi desenvolvido um sistema de reconhecimento de indivíduos pela dinâmica do caminhar, usando a abordagem holística para a composição dos vetores de características. Para tal foi usado um estimador de fundo robusto, o LMedS, para se fazer a extração das silhuetas. Após esta etapa, foram feitas algumas filtragens nas imagens, a fim de melhorar a qualidade das silhuetas capturadas, e a medida de largura destas silhuetas serviu como característica de cada classe de pessoas. Métodos de redução de dimensão como o PCA, LDA e POV foram testadas para que os vetores característicos ficassem mais representativos e para que o tempo de processamento do sistema fosse reduzido na etapa posterior. Como classificador foi utilizado o HMM, pois se pode relacionar os estados de um ciclo de caminhar aos estados presentes no HMM. Neste caso, como cada pessoa tem uma forma de caminhar específica (por exemplo, uns andam mais rápido, outros andam mais devagar), este classificador se enquadrou muito bem à proposta da pesquisa. Os resultados obtidos mostraram que a técnica da LDA é a mais satisfatória, pois foi a ferramenta de auxílio ao HMM que obteve taxas de acerto mais expressivas. Tendo em vista as tendências atuais de fusão biométrica, a forma de caminhar se mostra muito atrativa para ser utilizada em sistemas bi-modais ou mesmo isoladamente.
155

Mixtures of exponential and geometric distributions, clumped Markov models with applications to biomedical research

Tan, Jen Ning January 2010 (has links)
No description available.
156

Blocos de consenso, esquemas regenerativos e estimação em tempo polinomial de longas amostras de cadeias de Markov ocultas

Camey, Suzi Alves January 2005 (has links)
Esta tese propõe duas abordagens para estimar a seqüência oculta de uma cadeia de Markov oculta: blocos de consenso e blocos de regeneração. Em ambos os casos os algoritmos resultantes dependem de um número de operações que cresce polinomialmente com o tamanho da seqüência. Na primeira abordagem, quebramos a seqüência visível em blocos e estimamos a seqüência oculta de acordo com a maioria de símbolos que enxergamos na seqüência visível. Na segunda abordagem, utilizamos a estrutura regenerativa da cadeia para decompor em blocos independentes. Obtivemos limites superiores para a probabilidade de erro de estimação com os dois métodos. Na segunda abordagem, utilizamos o método de Monte Carlo markoviano e o algoritmo de Metrópolis para construir iterativamente a seqüência de instantes de regeneração e os blocos correspondentes de estados ocultos, dada a seqüência visível da cadeia. Na demonstração dos resultados foram utilizados resultados de esquemas regenerativos, o método de Chernofi e a desigualdade de Hoefiding. Esta tese tem também uma componente computacional. Com efeito, desenvolvemos rotinas em R que implementam os diversos algoritmos propostos. Também fizemos simulações que ilustram a funcionalidade dos algoritmos. / This dissertation introduces two new approaches to the problem of the estimation of the hidden chain in a hidden Markov model. In both approaches the number of steps necessary to estimate the hidden chain increase polinomially with the size of the sample (the observable chain). In the rst approach, through consensus substrings, we split the observable chain in substrings and estimate the hidden values as the one with appears in the most of the steps of the observable substring. In the second approach, through regenerative substrings, we split the chain using its regenerative structure. In both cases we obtain upper bounds for the error probability of the algorithms. In the second approach, we use the Monte Carlo Markov chains and the Metropolis algorithm to construct iteratively the sequence of the regeneration times and the corresponding substrings of hidden states, given the observable chain. The main tools use in the proofs of the theorems were the regenerative construction of the Markov chain, Chernoff's method and Hoe ding's inequality. This dissertation has also a computational aspect. In e aspect, all the algorithms introduced here have been implemented in R and the corresponding codes are available in the appendix. We also present several simulations to illustrate the applicability of the algorithms.
157

Limite hidrodinâmico para um processo de exclusão : pontos limites das medidas empíricas

Menezes, Otávio de Macedo January 2013 (has links)
Esta dissertação trata de um teorema de limite hidrodinâmico para a densidade de partículas no processo de exclusão simples com taxa lenta no bordo. Nesse processo as partículas realizam passeios aleatórios a tempo contínuo independentes no espaço {0,1,..., N}, condicionados ao evento de que duas partículas nunca ocupam o mesmo sítio simultaneamente. Além disso, partículas podem ser injetadas ou retiradas do sistema nos sítios 0 e N, com taxas proporcionais a 1/N. O teorema do limite hidrodinâmico diz que reescalando o espaço por 1/N e o tempo por N² a evolução da densidade de partículas converge para a solução de uma equação do calor com certas condições de fronteira. Esta dissertação se concentra na caracterização dos pontos limites das medidas empíricas, um dos principais passos da demonstração. Além disso são apresentados resultados básicos de Processos de Markov relacionados ao problema do limite hidrodinâmico. / This text is about an hydrodynamic limit theorem for the particle density in the symmetric simple exclusion process with slow boundaries. In this process particles execute independent continuous time simple random walks in {0,1,...,N} conditioned to the event that at any time there is at most one particle per site. Moreover, particles can be injected or ejected from the system at sites 0 and N, with rates proportional to 1/N. The hydrodynamic limit theorem asserts that, rescaling space by 1/N and time by N², the particle density converges to the solution of a heat equation with certain boundary conditions. This text focuses on the characterization of limit points of empirical measures, a crucial step in the proof of the hydrodynamic limit. We also present some basic material on Markov Process related to the hydrodynamic limit problem.
158

Convergência, na distância Mallows, de cadeias de Markov para distribuições estáveis

Barbosa, Euro Gama 18 June 2007 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Matematica, 2007. / Submitted by Tania Milca Carvalho Malheiros (tania@bce.unb.br) on 2013-05-10T14:54:58Z No. of bitstreams: 1 2007_EuroGamaBarbosa.pdf: 452240 bytes, checksum: a1af6d054da27b5f662399f5c2fe1736 (MD5) / Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-05-16T13:20:28Z (GMT) No. of bitstreams: 1 2007_EuroGamaBarbosa.pdf: 452240 bytes, checksum: a1af6d054da27b5f662399f5c2fe1736 (MD5) / Made available in DSpace on 2013-05-16T13:20:28Z (GMT). No. of bitstreams: 1 2007_EuroGamaBarbosa.pdf: 452240 bytes, checksum: a1af6d054da27b5f662399f5c2fe1736 (MD5) / Esta tese objetiva formular condições suficientes para aproximarmos, em distância de Mallows e, também, em distribuição, uma variável aleatória-estável, por uma soma de variáveis aleatórias (não necessariamente independentes e não necessariamente identicamente distribuídas), as quais constituem uma cadeia de Markov uniformemente ergódica. Para tanto, utilizamos conceitos e resultados dos temas Cadeias de Markov com Espaço de Estados Geral, Distância Mallows, Distribuições Estáveis, Distância de Mallows ?-mixing. ______________________________________________________________________________ ABSTRACT / This work objectives to formulate suficiente conditions to approach, in Malows Distance and in distribution, a α-stable random variable, α ∑ (1,2) for a sum of random variables(no necessarily independent nor necessarilly identical distributed) but that are ergodic uniformily Markov chain. Because of that, we use definitions and results from the topics Markov Chains with General State Sapace, Stable Law, Mallows Distance and ?-mixing.
159

Distância de Mallows para estimação da probabilidade de ruína em processos de risco clássico

Ferreira, Débora Borges January 2009 (has links)
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Matemática, 2009. / Submitted by Allan Wanick Motta (allan_wanick@hotmail.com) on 2010-03-11T18:30:06Z No. of bitstreams: 1 2009_DeboraBorgesFerreira.pdf: 608180 bytes, checksum: 712722dafc7f095ab2aad773c64e2ff9 (MD5) / Approved for entry into archive by Lucila Saraiva(lucilasaraiva1@gmail.com) on 2010-04-13T00:06:50Z (GMT) No. of bitstreams: 1 2009_DeboraBorgesFerreira.pdf: 608180 bytes, checksum: 712722dafc7f095ab2aad773c64e2ff9 (MD5) / Made available in DSpace on 2010-04-13T00:06:50Z (GMT). No. of bitstreams: 1 2009_DeboraBorgesFerreira.pdf: 608180 bytes, checksum: 712722dafc7f095ab2aad773c64e2ff9 (MD5) Previous issue date: 2009 / Neste trabalho, com o objetivo de estimar a probabilidade de ruína de processos de risco, estabelecemos várias propriedades da distância de Mallows. Provamos a representação da distância de Mallows relativa à cota superior de Fréchet de distribuições conjuntas e também condições suficientes para a equivalência entre convergência em Mallows e convergência em distribuição para estáveis. Como sub-produto, os resultados são utilizados na estimação paramétrica e não-paramétrica da probabilidade da ruína no modelo clássico de reserva de risco com indenizações de cauda pesada independentes, não necessariamente identicamente distribuídas. _______________________________________________________________________________ ABSTRACT / For Mallows distance, we establish a representation result and present sufficient conditions for its equivalence to convergence in distribution to stable laws. Applications include parametric and non-parametric estimation for the ruin probability associated to the classical reserve risk processes.
160

Análise comparativa de estimadores da ordem de cadeias de markov

Resende, Paulo Angelo Alves January 2009 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Matemática, 2009. / Submitted by Larissa Ferreira dos Angelos (ferreirangelos@gmail.com) on 2010-04-07T18:50:46Z No. of bitstreams: 1 2009_PauloAngeloAlvesResende.pdf: 340390 bytes, checksum: af9c1fec2af2d27b2f9d727b0e8c4b19 (MD5) / Approved for entry into archive by Daniel Ribeiro(daniel@bce.unb.br) on 2010-05-13T21:25:23Z (GMT) No. of bitstreams: 1 2009_PauloAngeloAlvesResende.pdf: 340390 bytes, checksum: af9c1fec2af2d27b2f9d727b0e8c4b19 (MD5) / Made available in DSpace on 2010-05-13T21:25:23Z (GMT). No. of bitstreams: 1 2009_PauloAngeloAlvesResende.pdf: 340390 bytes, checksum: af9c1fec2af2d27b2f9d727b0e8c4b19 (MD5) Previous issue date: 2009 / Neste trabalho estudamos o estimador da ordem de cadeias de Markov usando o critério EDC (Efficient Determination Criterion) com o termo de penalidade ótimo proposto por Dorea (2008). Realizamos uma análise comparativa das performances dos estimadores EDCopt, BIC e AIC, baseada nos resultados de simulações computacionais realizadas. _________________________________________________________________________________ ABSTRACT / In what follows we study and analyze the Markov chain order estimator EDC (Efficient Determination Criterion) with the penalty function proposed by Dorea (2008). We also carry out extensive numerical simulations based on EDC, BIC and AIC, aiming to a detailed comparison of their features as well as their relative performance.

Page generated in 0.0251 seconds