1 |
[en] A STOCHASTIC MODEL FOR THE CASH FLOW OF A RETIREMENT PLAN OF A PERSON / [pt] UM MODELO ESTOCÁSTICO PARA O FLUXO DE CAIXA DE UM PLANO DE PREVIDÊNCIA DE UM INDIVÍDUOCARLA JARDIM DIAS 30 January 2007 (has links)
[pt] O principal objetivo dessa dissertação é elaborar um
modelo estocástico
e implementar um simulador para a fluxo de caixa de ativos
e passivos
para uma simplificação de um plano de previdência privada
de um único
indivíduo. / [en] The main objective of this work is to propose a sthocastic
model and to
implement a simulator for the cash flow considering the
assets and liabilities
of a single person retirement plain.
|
2 |
[en] EVOLUTIONARY INFERENCE APPROACHES FOR ADAPTIVE MODELS / [pt] ABORDAGENS DE INFERÊNCIA EVOLUCIONÁRIA EM MODELOS ADAPTATIVOSEDISON AMERICO HUARSAYA TITO 17 July 2003 (has links)
[pt] Em muitas aplicações reais de processamento de sinais, as
observações do fenômeno em estudo chegam seqüencialmente no
tempo. Consequentemente, a tarefa de análise destes dados
envolve estimar quantidades desconhecidas em cada
observação concebida do fenômeno.
Na maioria destas aplicações, entretanto, algum
conhecimento prévio sobre o fenômeno a ser modelado está
disponível. Este conhecimento prévio permite formular
modelos Bayesianos, isto é, uma distribuição a priori sobre
as quantidades desconhecidas e uma função de
verossimilhança relacionando estas quantidades com as
observações do fenômeno. Dentro desta configuração, a
inferência Bayesiana das quantidades desconhecidas é
baseada na distribuição a posteriori, que é obtida através
do teorema de Bayes.
Infelizmente, nem sempre é possível obter uma solução
analítica exata para esta distribuição a posteriori. Graças
ao advento de um formidável poder computacional a baixo
custo, em conjunto com os recentes desenvolvimentos na
área de simulações estocásticas, este problema tem sido
superado, uma vez que esta distribuição a posteriori pode
ser aproximada numericamente através de uma distribuição
discreta, formada por um conjunto de amostras.
Neste contexto, este trabalho aborda o campo de simulações
estocásticas sob a ótica da genética Mendeliana e do
princípio evolucionário da sobrevivência dos mais aptos.
Neste enfoque, o conjunto de amostras que aproxima a
distribuição a posteriori pode ser visto como uma população
de indivíduos que tentam sobreviver num ambiente
Darwiniano, sendo o indivíduo mais forte, aquele que
possui maior probabilidade. Com base nesta analogia,
introduziu-se na área de simulações estocásticas (a) novas
definições de núcleos de transição inspirados nos
operadores genéticos de cruzamento e mutação e (b) novas
definições para a probabilidade de aceitação, inspirados no
esquema de seleção, presente nos Algoritmos Genéticos.
Como contribuição deste trabalho está o estabelecimento de
uma equivalência entre o teorema de Bayes e o princípio
evolucionário, permitindo, assim, o desenvolvimento de um
novo mecanismo de busca da solução ótima das quantidades
desconhecidas, denominado de inferência evolucionária.
Destacamse também: (a) o desenvolvimento do Filtro de
Partículas Genéticas, que é um algoritmo de aprendizado
online e (b) o Filtro Evolutivo, que é um algoritmo de
aprendizado batch. Além disso, mostra-se que o Filtro
Evolutivo, é em essência um Algoritmo Genético pois, além
da sua capacidade de convergência a distribuições de
probabilidade, o Filtro Evolutivo converge também a sua moda
global. Em conseqüência, a fundamentação teórica do Filtro
Evolutivo demonstra, analiticamente, a convergência dos
Algoritmos Genéticos em espaços contínuos.
Com base na análise teórica de convergência dos algoritmos
de aprendizado baseados na inferência evolucionária e nos
resultados dos experimentos numéricos, comprova-se que esta
abordagem se aplica a problemas reais de processamento de
sinais, uma vez que permite analisar sinais complexos
caracterizados por comportamentos não-lineares, não-
gaussianos e nãoestacionários. / [en] In many real-world signal processing applications, the phenomenon s observations arrive sequentially in time; consequently, the signal data analysis task involves estimating unknown quantities for each phenomenon observation. However, in most of these applications, prior knowledge about the phenomenon being modeled is available. This prior knowledge allows us to formulate a Bayesian model, which is
a prior distribution for the unknown quantities and the likelihood functions relating these quantities to the
observations. Within these settings, the Bayesian inference on the unknown quantities is based on the posterior distributions obtained from the Bayes theorem. Unfortunately, it is not always possible to obtain a closed-form analytical solution for this posterior distribution. By the advent of a cheap and formidable computational power, in conjunction with some recent developments in stochastic simulations, this problem has been overcome, since this posterior distribution can be obtained by numerical approximation. Within this context, this work studies the stochastic simulation field from the Mendelian genetic view, as well
as the evolutionary principle of the survival of the fittest perspective. In this approach, the set of samples
that approximate the posteriori distribution can be seen as a population of individuals which are trying to survival in a Darwinian environment, where the strongest individual is the one with the highest probability. Based in this analogy, we introduce into the stochastic simulation field: (a) new definitions for the transition kernel, inspired in the genetic operators of crossover and mutation and (b) new definitions for the acceptation probability, inspired in the selection scheme used in the Genetic Algorithms. The contribution of this work is the establishment of a relation between the Bayes theorem and the evolutionary principle, allowing the development of a new optimal solution search engine for the unknown quantities, called evolutionary inference. Other contributions: (a) the development of the Genetic Particle Filter, which is an evolutionary online learning algorithm and (b) the Evolution Filter, which is an evolutionary batch learning algorithm. Moreover, we show that the Evolution Filter is a Genetic algorithm, since, besides its
capacity of convergence to probability distributions, it also converges to its global modal distribution. As a
consequence, the theoretical foundation of the Evolution Filter demonstrates the convergence of Genetic Algorithms in continuous search space. Through the theoretical convergence analysis of the learning algorithms based on the evolutionary inference, as well as the numerical experiments results, we verify that this approach can be applied to real problems of signal processing, since it allows us to analyze complex signals characterized by non-linear, nongaussian and non-stationary behaviors.
|
3 |
[en] D-ENGINE: FRAMEWORK FOR THE RANDOM EXECUTION OF PLANS IN AGENT-BASED MODELS / [pt] D-ENGINE: FRAMEWORK PARA A EXECUÇÃO ALEATÓRIA DE PLANOS EM MODELOS BASEADOS EM AGENTESWALDECIR VICENTE FARIA 24 May 2016 (has links)
[pt] Uma questão importante em sistemas baseados em agentes é como
executar uma ação planejada de uma maneira aleatória. Saber responder esta
questão é fundamental para manter o interesse do usuário em um determinado
produto, não apenas porque torna a experiência menos repetitiva, mas também
porque a torna mais realista. Este tipo de execução de ações pode ser aplicado
principalmente em simuladores, jogos sérios ou de entretenimento que se
baseiam em modelos de agentes. Algumas vezes, a aleatoriedade pode ser
obtida pela simples geração de números aleatórios. Porém, quando estamos
criando um produto mais complexo, é recomendável usar algum conhecimento
estatístico ou estocástico para não arruinar a experiência de consumo deste
produto. Neste trabalho, nós damos suporte à criação de animações e histórias
dinâmicas e interativas usando um modelo arbitrário baseado em agentes. Para
isto, inspirado em métodos estocásticos, nós propomos um novo framework,
chamado D-Engine, que é capaz de criar um conjunto de timestamps aleatórios,
mas com um comportamento esperado bem conhecido, que descrevem a
execução de ações em regime de tempo discreto e a uma determinada taxa. Ao
mesmo tempo em que estes timestamps nos permitem animar uma história,
uma ação ou uma cena, os resultados gerados com o nosso framework podem
ser usados para auxiliar outras aplicações, tais como previsões de resultado,
planejamento não determinístico, mídia interativa e criação de estórias. Nesta
dissertação também mostramos como criar dois aplicativos diferentes usando
o framework proposto: um cenário de duelo em um jogo e um site de leilões
interativo. / [en] An important question in agent-based systems is how to execute some
planned action in a random way. The answer for this question is fundamental
to keep the user s interest in some product, not just because it makes the
experience less repetitive but also because it makes the product more realistic.
This kind of action execution can be mainly applied on simulators, serious
and entertainment games based on agent models. Sometimes the randomness
can be reached by just generating random numbers. However, when creating a
more complex product, it is recommended to use some statistical or stochastic
knowledge to not ruin the product s consumption experience. In this work
we try to give support to the creation of dynamic and interactive animation
and story using an arbitrary model based on agents. Inspired on stochastic
methods, we propose a new framework called D-Engine, which is able to
create a random, but with a well-known expected behavior, set of timestamps
describing the execution of an action in a discrete way following some specific
rate. While these timestamps allow us to animate a story, an action or a
scene, the mathematical results generated with our framework can be used to
aid other applications such as result forecasting, nondeterministic planning,
interactive media and storytelling. In this work we also present how to
implement two different applications using our framework: a duel scenario and
an interactive online auction website.
|
4 |
[en] UNCERTAINTY ANALYSIS OF 2D VECTOR FIELDS THROUGH THE HELMHOLTZ-HODGE DECOMPOSITION / [pt] ANALISE DE INCERTEZAS EM CAMPOS VETORIAIS 2D COM O USO DA DECOMPOSIÇÃO DE HELMHOLTZ-HODGEPAULA CECCON RIBEIRO 20 March 2017 (has links)
[pt] Campos vetoriais representam um papel principal em diversas aplicações científicas. Eles são comumente gerados via simulações computacionais. Essas simulações podem ser um processo custoso, dado que em muitas vezes elas requerem alto tempo computacional. Quando pesquisadores desejam quantificar a incerteza relacionada a esse tipo de aplicação, costuma-se gerar um conjunto de realizações de campos vetoriais, o que torna o processo ainda mais custoso. A Decomposição de Helmholtz-Hodge é uma ferramenta útil para a interpretação de campos vetoriais uma vez que ela distingue componentes conservativos (livre de rotação) de componentes que preservam massa (livre de divergente). No presente trabalho, vamos
explorar a aplicabilidade de tal técnica na análise de incerteza de campos vetoriais 2D. Primeiramente, apresentaremos uma abordagem utilizando a Decomposição de Helmholtz-Hodge como uma ferramenta básica na análise de conjuntos de campos vetoriais. Dado um conjunto de campos vetoriais epsilon, obtemos os conjuntos formados pelos componentes livre de rotação, livre de divergente e harmônico, aplicando a Decomposição Natural de Helmholtz- Hodge em cada campo vetorial em epsilon. Com esses conjuntos em mãos, nossa proposta não somente quantifica, por meio de análise estatística, como cada componente é pontualmente correlacionado ao conjunto de campos vetoriais original, como também permite a investigação independente da incerteza relacionado aos campos livre de rotação, livre de divergente e harmônico. Em
sequência, propomos duas técnicas que em conjunto com a Decomposição de Helmholtz-Hodge geram, de forma estocástica, campos vetoriais a partir de uma única realização. Por fim, propomos também um método para sintetizar campos vetoriais a partir de um conjunto, utilizando técnicas de Redução de Dimensionalidade e Projeção Inversa. Testamos os métodos propostos tanto em campos sintéticos quanto em campos numericamente simulados. / [en] Vector field plays an essential role in a large range of scientific applications. They are commonly generated through computer simulations. Such simulations may be a costly process because they usually require high
computational time. When researchers want to quantify the uncertainty in such kind of applications, usually an ensemble of vector fields realizations are generated, making the process much more expensive. The Helmholtz-Hodge Decomposition is a very useful instrument for vector field interpretation
because it traditionally distinguishes conservative (rotational-free) components from mass-preserving (divergence-free) components. In this work, we are going to explore the applicability of such technique on the uncertainty analysis of 2-dimensional vector fields. First, we will present an approach of the use
of the Helmholtz-Hodge Decomposition as a basic tool for the analysis of a vector field ensemble. Given a vector field ensemble epsilon, we firstly obtain the corresponding rotational-free, divergence-free and harmonic component ensembles by applying the Natural Helmholtz-Hodge Decomposition to each1 vector field in epsilon. With these ensembles in hand, our proposal not only quantifies, via a statistical analysis, how much each component ensemble is point-wisely correlated to the original vector field ensemble, but it also allows
to investigate the uncertainty of rotational-free, divergence-free and harmonic components separately. Then, we propose two techniques that jointly with the Helmholtz-Hodge Decomposition stochastically generate vector fields from a single realization. Finally, we propose a method to synthesize vector fields from an ensemble, using both the Dimension Reduction and Inverse Projection techniques. We test the proposed methods with synthetic vector fields as well as with simulated vector fields.
|
5 |
[en] A BAESIAN APPROACH TO MODEL THE CONDITIONAL DEMAND OF ELETRIC ENERGY OF RESIDENTIAL CONSUMES / [pt] UMA ABORDAGEM BAYESIANA PARA OS MODELOS DE DEMANDA CONDICIONAL PARA O CONSUMO RESIDENCIAL DE ENERGIA ELÉTRICAANA MARIA LIMA DE FARIAS 17 March 2006 (has links)
[pt] A análise de demanda condicional (conditional demand
analysis - CDA) é um método econométrico que, aplicado ao
estudo do consumo residencial de energia elétrica, permite
estimar a quantidade de energia consumida por diferentes
aparelhos eletrodomésticos. Nessa tese, métodos bayesianos
são utilizados na estimação dos modelos CDA. A restrição
de não negatividade dos coeficientes de consumo de energia
é incorporada ao modelo através do uso da densidade normal
truncada como priori dos parâmetros. Como as densidades a
posteriori resultantes também são truncadas, métodos de
simulação estocástica cria cadeias de Markov são usados na
estimação de tais densidades. O método desenvolvido é
aplicado a um conjunto de dados fornecido pela LIGHT, uma
das concessionárias de energia do estado do Rio de
Janeiro, gerando as curvas de carga para diversos
aparelhos. / [en] Conditional demand analysis (CDA) is an econometric method
that, applied to studies of consumption of energy in the
household sector, allows us to estimate the demand of
energy for different appliances.
In this thesis, the estimation of the CDA models is made
in a Bayesian framework. The truncated normal distribution
is used as a prior of the parameters, assuring their
nonnegativity restrictions. Since the resulting
posteriors are truncated distributions too, the Gibbs
sampler is applied in the estimation of those densities.
The results obtained are applied to a dataset obtained
from LIGHT, one of the electricity utilities of Rio de
Janeiro, in order to obtain some appliances load curves.
|
Page generated in 0.0462 seconds