• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • Tagged with
  • 5
  • 5
  • 5
  • 5
  • 5
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] A STOCHASTIC MODEL FOR THE CASH FLOW OF A RETIREMENT PLAN OF A PERSON / [pt] UM MODELO ESTOCÁSTICO PARA O FLUXO DE CAIXA DE UM PLANO DE PREVIDÊNCIA DE UM INDIVÍDUO

CARLA JARDIM DIAS 30 January 2007 (has links)
[pt] O principal objetivo dessa dissertação é elaborar um modelo estocástico e implementar um simulador para a fluxo de caixa de ativos e passivos para uma simplificação de um plano de previdência privada de um único indivíduo. / [en] The main objective of this work is to propose a sthocastic model and to implement a simulator for the cash flow considering the assets and liabilities of a single person retirement plain.
2

[en] EVOLUTIONARY INFERENCE APPROACHES FOR ADAPTIVE MODELS / [pt] ABORDAGENS DE INFERÊNCIA EVOLUCIONÁRIA EM MODELOS ADAPTATIVOS

EDISON AMERICO HUARSAYA TITO 17 July 2003 (has links)
[pt] Em muitas aplicações reais de processamento de sinais, as observações do fenômeno em estudo chegam seqüencialmente no tempo. Consequentemente, a tarefa de análise destes dados envolve estimar quantidades desconhecidas em cada observação concebida do fenômeno. Na maioria destas aplicações, entretanto, algum conhecimento prévio sobre o fenômeno a ser modelado está disponível. Este conhecimento prévio permite formular modelos Bayesianos, isto é, uma distribuição a priori sobre as quantidades desconhecidas e uma função de verossimilhança relacionando estas quantidades com as observações do fenômeno. Dentro desta configuração, a inferência Bayesiana das quantidades desconhecidas é baseada na distribuição a posteriori, que é obtida através do teorema de Bayes. Infelizmente, nem sempre é possível obter uma solução analítica exata para esta distribuição a posteriori. Graças ao advento de um formidável poder computacional a baixo custo, em conjunto com os recentes desenvolvimentos na área de simulações estocásticas, este problema tem sido superado, uma vez que esta distribuição a posteriori pode ser aproximada numericamente através de uma distribuição discreta, formada por um conjunto de amostras. Neste contexto, este trabalho aborda o campo de simulações estocásticas sob a ótica da genética Mendeliana e do princípio evolucionário da sobrevivência dos mais aptos. Neste enfoque, o conjunto de amostras que aproxima a distribuição a posteriori pode ser visto como uma população de indivíduos que tentam sobreviver num ambiente Darwiniano, sendo o indivíduo mais forte, aquele que possui maior probabilidade. Com base nesta analogia, introduziu-se na área de simulações estocásticas (a) novas definições de núcleos de transição inspirados nos operadores genéticos de cruzamento e mutação e (b) novas definições para a probabilidade de aceitação, inspirados no esquema de seleção, presente nos Algoritmos Genéticos. Como contribuição deste trabalho está o estabelecimento de uma equivalência entre o teorema de Bayes e o princípio evolucionário, permitindo, assim, o desenvolvimento de um novo mecanismo de busca da solução ótima das quantidades desconhecidas, denominado de inferência evolucionária. Destacamse também: (a) o desenvolvimento do Filtro de Partículas Genéticas, que é um algoritmo de aprendizado online e (b) o Filtro Evolutivo, que é um algoritmo de aprendizado batch. Além disso, mostra-se que o Filtro Evolutivo, é em essência um Algoritmo Genético pois, além da sua capacidade de convergência a distribuições de probabilidade, o Filtro Evolutivo converge também a sua moda global. Em conseqüência, a fundamentação teórica do Filtro Evolutivo demonstra, analiticamente, a convergência dos Algoritmos Genéticos em espaços contínuos. Com base na análise teórica de convergência dos algoritmos de aprendizado baseados na inferência evolucionária e nos resultados dos experimentos numéricos, comprova-se que esta abordagem se aplica a problemas reais de processamento de sinais, uma vez que permite analisar sinais complexos caracterizados por comportamentos não-lineares, não- gaussianos e nãoestacionários. / [en] In many real-world signal processing applications, the phenomenon s observations arrive sequentially in time; consequently, the signal data analysis task involves estimating unknown quantities for each phenomenon observation. However, in most of these applications, prior knowledge about the phenomenon being modeled is available. This prior knowledge allows us to formulate a Bayesian model, which is a prior distribution for the unknown quantities and the likelihood functions relating these quantities to the observations. Within these settings, the Bayesian inference on the unknown quantities is based on the posterior distributions obtained from the Bayes theorem. Unfortunately, it is not always possible to obtain a closed-form analytical solution for this posterior distribution. By the advent of a cheap and formidable computational power, in conjunction with some recent developments in stochastic simulations, this problem has been overcome, since this posterior distribution can be obtained by numerical approximation. Within this context, this work studies the stochastic simulation field from the Mendelian genetic view, as well as the evolutionary principle of the survival of the fittest perspective. In this approach, the set of samples that approximate the posteriori distribution can be seen as a population of individuals which are trying to survival in a Darwinian environment, where the strongest individual is the one with the highest probability. Based in this analogy, we introduce into the stochastic simulation field: (a) new definitions for the transition kernel, inspired in the genetic operators of crossover and mutation and (b) new definitions for the acceptation probability, inspired in the selection scheme used in the Genetic Algorithms. The contribution of this work is the establishment of a relation between the Bayes theorem and the evolutionary principle, allowing the development of a new optimal solution search engine for the unknown quantities, called evolutionary inference. Other contributions: (a) the development of the Genetic Particle Filter, which is an evolutionary online learning algorithm and (b) the Evolution Filter, which is an evolutionary batch learning algorithm. Moreover, we show that the Evolution Filter is a Genetic algorithm, since, besides its capacity of convergence to probability distributions, it also converges to its global modal distribution. As a consequence, the theoretical foundation of the Evolution Filter demonstrates the convergence of Genetic Algorithms in continuous search space. Through the theoretical convergence analysis of the learning algorithms based on the evolutionary inference, as well as the numerical experiments results, we verify that this approach can be applied to real problems of signal processing, since it allows us to analyze complex signals characterized by non-linear, nongaussian and non-stationary behaviors.
3

[en] D-ENGINE: FRAMEWORK FOR THE RANDOM EXECUTION OF PLANS IN AGENT-BASED MODELS / [pt] D-ENGINE: FRAMEWORK PARA A EXECUÇÃO ALEATÓRIA DE PLANOS EM MODELOS BASEADOS EM AGENTES

WALDECIR VICENTE FARIA 24 May 2016 (has links)
[pt] Uma questão importante em sistemas baseados em agentes é como executar uma ação planejada de uma maneira aleatória. Saber responder esta questão é fundamental para manter o interesse do usuário em um determinado produto, não apenas porque torna a experiência menos repetitiva, mas também porque a torna mais realista. Este tipo de execução de ações pode ser aplicado principalmente em simuladores, jogos sérios ou de entretenimento que se baseiam em modelos de agentes. Algumas vezes, a aleatoriedade pode ser obtida pela simples geração de números aleatórios. Porém, quando estamos criando um produto mais complexo, é recomendável usar algum conhecimento estatístico ou estocástico para não arruinar a experiência de consumo deste produto. Neste trabalho, nós damos suporte à criação de animações e histórias dinâmicas e interativas usando um modelo arbitrário baseado em agentes. Para isto, inspirado em métodos estocásticos, nós propomos um novo framework, chamado D-Engine, que é capaz de criar um conjunto de timestamps aleatórios, mas com um comportamento esperado bem conhecido, que descrevem a execução de ações em regime de tempo discreto e a uma determinada taxa. Ao mesmo tempo em que estes timestamps nos permitem animar uma história, uma ação ou uma cena, os resultados gerados com o nosso framework podem ser usados para auxiliar outras aplicações, tais como previsões de resultado, planejamento não determinístico, mídia interativa e criação de estórias. Nesta dissertação também mostramos como criar dois aplicativos diferentes usando o framework proposto: um cenário de duelo em um jogo e um site de leilões interativo. / [en] An important question in agent-based systems is how to execute some planned action in a random way. The answer for this question is fundamental to keep the user s interest in some product, not just because it makes the experience less repetitive but also because it makes the product more realistic. This kind of action execution can be mainly applied on simulators, serious and entertainment games based on agent models. Sometimes the randomness can be reached by just generating random numbers. However, when creating a more complex product, it is recommended to use some statistical or stochastic knowledge to not ruin the product s consumption experience. In this work we try to give support to the creation of dynamic and interactive animation and story using an arbitrary model based on agents. Inspired on stochastic methods, we propose a new framework called D-Engine, which is able to create a random, but with a well-known expected behavior, set of timestamps describing the execution of an action in a discrete way following some specific rate. While these timestamps allow us to animate a story, an action or a scene, the mathematical results generated with our framework can be used to aid other applications such as result forecasting, nondeterministic planning, interactive media and storytelling. In this work we also present how to implement two different applications using our framework: a duel scenario and an interactive online auction website.
4

[en] UNCERTAINTY ANALYSIS OF 2D VECTOR FIELDS THROUGH THE HELMHOLTZ-HODGE DECOMPOSITION / [pt] ANALISE DE INCERTEZAS EM CAMPOS VETORIAIS 2D COM O USO DA DECOMPOSIÇÃO DE HELMHOLTZ-HODGE

PAULA CECCON RIBEIRO 20 March 2017 (has links)
[pt] Campos vetoriais representam um papel principal em diversas aplicações científicas. Eles são comumente gerados via simulações computacionais. Essas simulações podem ser um processo custoso, dado que em muitas vezes elas requerem alto tempo computacional. Quando pesquisadores desejam quantificar a incerteza relacionada a esse tipo de aplicação, costuma-se gerar um conjunto de realizações de campos vetoriais, o que torna o processo ainda mais custoso. A Decomposição de Helmholtz-Hodge é uma ferramenta útil para a interpretação de campos vetoriais uma vez que ela distingue componentes conservativos (livre de rotação) de componentes que preservam massa (livre de divergente). No presente trabalho, vamos explorar a aplicabilidade de tal técnica na análise de incerteza de campos vetoriais 2D. Primeiramente, apresentaremos uma abordagem utilizando a Decomposição de Helmholtz-Hodge como uma ferramenta básica na análise de conjuntos de campos vetoriais. Dado um conjunto de campos vetoriais epsilon, obtemos os conjuntos formados pelos componentes livre de rotação, livre de divergente e harmônico, aplicando a Decomposição Natural de Helmholtz- Hodge em cada campo vetorial em epsilon. Com esses conjuntos em mãos, nossa proposta não somente quantifica, por meio de análise estatística, como cada componente é pontualmente correlacionado ao conjunto de campos vetoriais original, como também permite a investigação independente da incerteza relacionado aos campos livre de rotação, livre de divergente e harmônico. Em sequência, propomos duas técnicas que em conjunto com a Decomposição de Helmholtz-Hodge geram, de forma estocástica, campos vetoriais a partir de uma única realização. Por fim, propomos também um método para sintetizar campos vetoriais a partir de um conjunto, utilizando técnicas de Redução de Dimensionalidade e Projeção Inversa. Testamos os métodos propostos tanto em campos sintéticos quanto em campos numericamente simulados. / [en] Vector field plays an essential role in a large range of scientific applications. They are commonly generated through computer simulations. Such simulations may be a costly process because they usually require high computational time. When researchers want to quantify the uncertainty in such kind of applications, usually an ensemble of vector fields realizations are generated, making the process much more expensive. The Helmholtz-Hodge Decomposition is a very useful instrument for vector field interpretation because it traditionally distinguishes conservative (rotational-free) components from mass-preserving (divergence-free) components. In this work, we are going to explore the applicability of such technique on the uncertainty analysis of 2-dimensional vector fields. First, we will present an approach of the use of the Helmholtz-Hodge Decomposition as a basic tool for the analysis of a vector field ensemble. Given a vector field ensemble epsilon, we firstly obtain the corresponding rotational-free, divergence-free and harmonic component ensembles by applying the Natural Helmholtz-Hodge Decomposition to each1 vector field in epsilon. With these ensembles in hand, our proposal not only quantifies, via a statistical analysis, how much each component ensemble is point-wisely correlated to the original vector field ensemble, but it also allows to investigate the uncertainty of rotational-free, divergence-free and harmonic components separately. Then, we propose two techniques that jointly with the Helmholtz-Hodge Decomposition stochastically generate vector fields from a single realization. Finally, we propose a method to synthesize vector fields from an ensemble, using both the Dimension Reduction and Inverse Projection techniques. We test the proposed methods with synthetic vector fields as well as with simulated vector fields.
5

[en] A BAESIAN APPROACH TO MODEL THE CONDITIONAL DEMAND OF ELETRIC ENERGY OF RESIDENTIAL CONSUMES / [pt] UMA ABORDAGEM BAYESIANA PARA OS MODELOS DE DEMANDA CONDICIONAL PARA O CONSUMO RESIDENCIAL DE ENERGIA ELÉTRICA

ANA MARIA LIMA DE FARIAS 17 March 2006 (has links)
[pt] A análise de demanda condicional (conditional demand analysis - CDA) é um método econométrico que, aplicado ao estudo do consumo residencial de energia elétrica, permite estimar a quantidade de energia consumida por diferentes aparelhos eletrodomésticos. Nessa tese, métodos bayesianos são utilizados na estimação dos modelos CDA. A restrição de não negatividade dos coeficientes de consumo de energia é incorporada ao modelo através do uso da densidade normal truncada como priori dos parâmetros. Como as densidades a posteriori resultantes também são truncadas, métodos de simulação estocástica cria cadeias de Markov são usados na estimação de tais densidades. O método desenvolvido é aplicado a um conjunto de dados fornecido pela LIGHT, uma das concessionárias de energia do estado do Rio de Janeiro, gerando as curvas de carga para diversos aparelhos. / [en] Conditional demand analysis (CDA) is an econometric method that, applied to studies of consumption of energy in the household sector, allows us to estimate the demand of energy for different appliances. In this thesis, the estimation of the CDA models is made in a Bayesian framework. The truncated normal distribution is used as a prior of the parameters, assuring their nonnegativity restrictions. Since the resulting posteriors are truncated distributions too, the Gibbs sampler is applied in the estimation of those densities. The results obtained are applied to a dataset obtained from LIGHT, one of the electricity utilities of Rio de Janeiro, in order to obtain some appliances load curves.

Page generated in 0.0473 seconds