51 |
[en] OPTIMIZATION OF DRY COMPLETION WELLS LOCATION BASED ON GENETIC ALGORITHMS / [pt] OTIMIZAÇÃO DA LOCALIZAÇÃO DE POÇOS DE PETRÓLEO COM COMPLETAÇÃO SECA UTILIZANDO ALGORITMOS GENÉTICOSBIANCA GONCALVES MENDES 12 May 2014 (has links)
[pt] Uma das tarefas mais importantes da Engenharia de Reservatórios é definir a estratégia de produção. Isso significa estabelecer, dentre outras coisas, a configuração (quantidade, orientação, localização e tipo) e o planejamento operacional dos poços, bem como a localização da(s) plataforma(s) de produção. Assim, a definição da melhor estratégia de produção representa um problema de otimização complexo, devido ao grande número de variáveis a serem consideradas. Geralmente, todas essas etapas são executadas manualmente, demandando muito tempo e esforço por parte do especialista. A disponibilidade de uma ferramenta computacional, que possa auxiliá-lo nessa tarefa, pode ser de grande utilidade, tanto para a obtenção de respostas mais rápidas, quanto para a tomada de decisões mais acertadas. Diante disso, este trabalho propõe um modelo computacional, baseado em Algoritmos Genéticos, para otimizar a configuração dos poços juntamente com a localização de uma plataforma considerando, especificamente, poços com completação seca. A modelagem proposta considera ainda restrições técnicas e operacionais impostas pelo problema. O objetivo do processo de otimização é maximizar o valor presente líquido (VPL) do projeto, buscando soluções que aumentem o fator de recuperação do reservatório e diminuam seus custos operacionais. Para avaliar o desempenho do modelo proposto foram estudados três modelos de reservatórios, dois sintéticos e um baseado em um caso real. No modelo baseado em um caso real o resultado obtido apresentou um VPL superior a 51 por cento em relação ao caso base gerado por um especialista. / [en] One of the most important tasks of Reservoir Engineering is setting the production strategy. This means establish, among other things, the setting (quantity, orientation, location and trajectory) and the operating plan of the wells, and the location(s) of platform(s) production. Thus, the definition of the best production strategy represents a complex optimization problem due to the large number of variables to be considered. Generally, all these steps are performed manually, requiring much time and effort by the specialist. The availability of a computational tool that can assist you in this task can be very useful, both to obtain faster responses, and for making better decisions. Thus, this work proposes a computational model based on Genetic Algorithms, to optimize the configuration of the wells along with the location of a platform with specific wells with dry completion. The proposed model also considers technical and operational constraints imposed by the problem. The goal of the optimization process is to maximize the net present value (NPV) of the project, seeking solutions that increase the recovery factor of the reservoir and reduce its operating costs. To evaluate the performance of the proposed model was studied in three models reservoirs, two synthetic and one based on an real case. In the model based on a real case the result obtained showed an NPV greater than 51 per cent compared to the base case generated by a specialist.
|
52 |
[pt] ALGORITMOS GENÉTICOS APLICADOS À SOLUÇÃO DO PROBLEMA INVERSO BIOMAGNÉTICO / [en] GENETIC ALGORITHMS APPLIED TO THE SOLUTION OF THE BIOMAGNETIC INVERSE PROBLEMJOHNNY ALEXANDER BASTIDAS OTERO 09 December 2016 (has links)
[pt] Sinais bioelétricos fornecem informações importantes sobre a função fisiológica de muitos organismos vivos. Em magnetismo, denomina-se problema direto aquele em que se determina o campo magnético a partir do conhecimento da fonte de corrente que o gerou. Por outro lado, existem situações em que se deseja determinar a fonte de corrente a partir de valores de campo magnético medidos. Esse tipo de problema é usual em Biomagnetismo e é denominado problema inverso. Por exemplo, com base em medições do campo magnético cardíaco é possível inferir sobre a atividade elétrica, no tecido cardíaco, que foi responsável por sua geração. Este trabalho propõe, apresenta e discute uma nova técnica destinada a resolver o problema biomagnético inverso, por meio de algoritmos genéticos. Objetiva-se estimar a posição, a orientação e a magnitude dos dipolos de corrente equivalentes, responsáveis pela geração de mapas de campos biomagnéticos obtidos experimentalmente por meio de medições realizadas em corações isolados de coelho utilizando um sistema SQUID de 16 canais. O algoritmo busca identificar a distribuição de dipolos que melhor se ajusta aos dados experimentais, objetivando minimizar o erro entre o mapa de campo magnético medido e o obtido por meio das soluções estimadas. O conhecimento dos parâmetros dos dipolos de corrente, em diferentes instantes de tempo, permite a correta interpretação e análise da informação médica obtida a partir dos campos biomagnéticos medidos experimentalmente, auxiliando na definição de diagnósticos e orientação de abordagens terapêuticas. / [en] Bioelectric signals provide important information about the physiological function of many living organisms. In magnetism, the so-called direct problem deals with the determination of the magnetic field associated to well known current sources. On the other hand, there are situations where it is necessary to determine the current source responsible for the generation of a measured magnetic field. This type of problem is common in Biomagnetism and is called inverse problem. For example, based on cardiac magnetic field measurements it is possible to infer the electrical activity in the heart tissue, responsible for its generation. This work proposes, presents and discusses a new technique designed to solve the biomagnetic inverse problem by genetic algorithms. It is intended to estimate the position, orientation and magnitude of the equivalent current dipoles, responsible for the generation of biomagnetic field maps measured with a 16 channel SQUID system. The algorithm attempts to identify the distribution of dipoles that best fits the measured experimental data, aiming at minimizing the error between the experimental magnetic field maps and those obtained by the estimated solutions. The experimental data analyzed in this study were acquired by measurements in isolated rabbit hearts. The knowledge of parameters of current dipoles at different instants of time allows the correct interpretation and analysis of medical information obtained from the experimentally measured biomagnetic fields, providing diagnosis and guiding therapeutic procedures.
|
53 |
[en] BUILDINGS ENERGY EFFICIENCY–BUILDING OPTIMIZATION USING GENETIC ALGORITHMS / [pt] SUSTENTABILIDADE INTELIGENTE: OTIMIZAÇÃO DA EDIFICAÇÃO COM O USO DE ALGORITMOS GENÉTICOSLUCIANA MONTICELLI DE MELO 09 November 2017 (has links)
[pt] O crescente consumo de energia é preocupante, principalmente pelo uso de sistemas de condicionamento de ar e de iluminação artificial. Nas edificações modernas, os projetos arquitetônicos vêm negligenciando os fatores que proporcionam o conforto ambiental. Baseando-se nos conceitos da arquitetura sustentável,
esta dissertação propõe e modela um sistema que otimiza os parâmetros da edificação que influenciarão no consumo de energia elétrica, nos custos com a construção e na emissão de poluentes pela edificação. Propõe-se um modelo de algoritmos genéticos que, juntamente com um programa de simulação de energia, EnergyPlus, constitui o modelo evolucionário desenvolvido neste trabalho. Este modelo otimiza parâmetros como: dimensionamento de aberturas e de pédireito; orientação da edificação; condicionamento do ar; disposição de árvores no entorno da edificação; etc . O modelo evolucionário tem sua ação e eficácia testados em estudo de casos - edificações desenhadas por projetista -, em que se
alteram: espessura das paredes, altura de pé direito, largura de janelas, orientação quanto ao Norte geográfico, localização de elementos sombreantes (árvores), uso ou não de bloqueadores solares. Estes fatores influenciarão no conforto térmico da edificação e, consequentemente, no consumo elétrico dos sistemas de condicionamento de ar e de iluminação artificial, que por sua vez, influenciam os parâmetros
que se pretende otimizar. Os resultados obtidos mostram que as otimizações feitas pelo modelo evolucionário foram efetivas, minimizando o consumo de energia pelos sistemas de condicionamento de ar e de iluminação artificial em comparação com os resultados obtidos com as edificações originais fornecidas
pelo projetista. / [en] The continuous rising on energy consumption is a concerning issue, especially regarding the use of air conditioning systems and artificial lighting. In modern buildings, architectural designs are neglecting the factors that provide environmental comfort in a natural way. Based on concepts of sustainable architecture, this work proposes and models a system that optimizes the parameters of a building that influence the consumption of electricity, the costs with the building itself, and the emission of pollutants by these buildings. For this purpose a genetic algorithm model is proposed, which works together with an energy simulation program called EnergyPlus, both comprising the evolutionary model developed in this work. This model is able to optimize parameters like: dimensions of windows and ceiling height; orientation of a building; air conditioning; location of trees around a building; etc. The evolutionary model has its efficiency tested in case studies - buildings originally designed by a designer -, and the following specifications provided by the designer have been changed by the evolutionary model: wall thickness, ceiling height, windows width, building orientation, location of elements that perform shading function (trees), the use (or not) of sun blockers. These factors influence the building s heat comfort and therefore the energy consumption of air conditioning systems and artificial lighting which, in turn, influence the parameters that are meant to be optimized. The results show that the optimizations made by the evolutionary model were effective, minimizing the energy consumption for air conditioning systems and artificial light in comparison with the results obtained with the original buildings provided by the designer.
|
54 |
[pt] DESENVOLVIMENTO DE UM SISTEMA AUTOMATIZADO, BASEADO NO CONCEITO DE HARDWARE EVOLUCIONÁRIO, PARA DETERMINAÇÃO DO PONTO ÓTIMO DE OPERAÇÃO DE SENSORES GMI / [en] DEVELOPMENT OF AN AUTOMATED SYSTEM, BASED ON THE CONCEPT OF EVOLUTIONARY HARDWARE, AIMED AT DETERMINING THE OPTIMAL OPERATING POINT OF GMI SENSORSJAIRO DANIEL BENAVIDES MORA 14 November 2017 (has links)
[pt] Elementos sensores baseados no efeito GMI são uma nova família de sensores magnéticos que apresentam grande quando submetidos a campos magnéticos externos. Estes sensores têm sido utilizados no desenvolvimento de magnetômetros de alta sensibilidade, destinados à medição de campos ultra fracos. Por sua vez, a sensibilidade de um magnetômetro está diretamente associada à sensibilidade de seus elementos sensores. No caso de amostras GMI, esta sensibilidade é otimizada buscando-se a maximização da variação do módulo ou da fase da impedância em função do campo magnético ao qual a amostra é submetida. Estudos recentes mostram que transdutores GMI baseados na variação de fase podem exibir sensibilidades até 100 vezes superiores às apresentadas por transdutores baseados na leitura do módulo do elemento sensor, o que fez com que os trabalhos conduzidos nesta dissertação focassem na maximização da sensibilidade de fase, a qual é majoritariamente dependente de quatro fatores: o comprimento da amostra, o campo magnético externo, o nível DC e a frequência da corrente de excitação. Contudo, a busca do conjunto de parâmetros que otimiza a sensibilidade das amostras é geralmente empírica e muito demorada. Esta dissertação propõe uma nova técnica de otimização da sensibilidade, baseada no uso de algoritmos genéticos evoluindo em hardware, a fim de se definir qual o conjunto de parâmetros responsável pela maximização da sensibilidade das amostras. Ressalta-se que, além dos parâmetros de otimização anteriormente explicitados, também foram realizados testes considerando a amplitude da corrente de excitação como uma variável livre, sendo que os resultados obtidos são apresentados e discutidos. Foi implementada uma bancada de testes e desenvolvida uma interface gráfica em LabVIEW, para monitorar e medir o comportamento da impedância de amostras GMI em função de variações nos parâmetros de interesse. Por sua vez, implementou-se um módulo de otimização em Matlab, baseado em algoritmos genéticos, responsável por encontrar a combinação de parâmetros que maximiza a sensibilidade dos sensores GMI avaliados (ponto ótimo de operação). / [en] GMI sensors are a new family of magnetic sensors that exhibit a huge variation of their impedance when subjected to external magnetic fields. These sensors have been used in the development of high sensitivity magnetometers, aimed at measuring ultra-weak magnetic fields. In turn, the sensitivity of a magnetometer is directly associated with the sensitivity of their sensor elements. In the case of GMI samples, this sensitivity is optimized by maximizing the variation of the impedance magnitude or phase as a function of the magnetic field applied to the sample. Recent studies show that GMI transducers based on phase variation can exhibit sensitivities up to 100 times higher than those presented by transducers based on impedance magnitude readings. The results obtained in these previous studies made the current work focusing on the maximization of phase sensitivity, which is mostly dependent on four factors: sample length, external magnetic field, DC level and frequency of the excitation current. However, the search for the set of parameters that optimizes the sensitivity of the samples is usually empirical and very time consuming. Thus, this dissertation proposes a new optimization technique, based on the use of genetic algorithms evolving on hardware, in order to define which set of parameters is responsible for maximizing the sensitivity of the samples. It should be noted that in addition to the optimization parameters previously described, this work also carried out tests considering the amplitude of the excitation current as a free variable, and the results obtained are presented and discussed. A test bench was implemented and a graphical interface was developed in LabVIEW to monitor and measure the impedance behavior of GMI samples due to variations in the parameters of interest. In turn, a Matlab optimization module based on genetic algorithms was implemented, in order to find the combination of parameters that maximizes the impedance phase sensitivity of the evaluated GMI sensors (optimum operating point).
|
55 |
[en] OPTIMIZATION OF CONTACT GRIDS FOR SOLAR CELLS WITH GENETIC ALGORITHMS / [pt] OTIMIZAÇÃO DE REDES DE CONTATO PARA CÉLULAS SOLARES COM ALGORITMOS GENÉTICOSROBERTO CARLOS PEJENDINO JOJOA 28 August 2018 (has links)
[pt] Altas resistências elétricas em série e baixas resistências em paralelo são fontes de perdas em dispositivos Fotovoltaicos (PV). Em dispositivos que operam sob concentração, esses costumam ser os principais fatores limitantes para o aumento da eficiência de conversão. Excluindo fatores externos associados a falhas no processo de produção, a resistência elétrica em série depende de fatores intrínsecos aos materiais e à estrutura de camadas do dispositivo fotovoltaico. Dessa forma, para minimizar o seu valor é extremamente importante planejar adequadamente esses parâmetros construtivos antes da produção dos dispositivos. Um dos fatores mais impactantes na resistência em série é o desenho da malha de dedos coletores do contato elétrico frontal. Por outro lado, minimizar a resistência em série do contato elétrico requer o aumento da área metálica da superfície frontal, que serve de janela para a radiação solar. Portanto, deve haver um compromisso na redução das perdas elétricas e ópticas. Nesse trabalho, apresentamos os resultados da otimização do desenho da malha de dedos coletores para o contato elétrico frontal para três diferentes geometrias obtidas por algoritmos genéticos. As geometrias escolhidas foram a retangular, tradicional para a produção desse tipo de dispositivo, a hexagonal e a diamante. Além
disso, comparamos os resultados obtidos com os de um dispositivo produzido com uma malha otimizada por um método de cálculo analítico. Ao final, discutimos as melhorias introduzidas pelas novas geometrias e apresentamos a configuração otimizada, que foi obtido para uma célula solar de tamanho 5x5 mm com uma estrutura retangular de fingers, com uma redução de perdas de 54,42 por cento que leva a um aumento aproximado de 1,40 por cento em eficiência. / [en] High electrical resistances in series and low resistances in parallel are sources of losses in Photovoltaic (PV) devices. In devices that operate under concentration, these are often the main limiting factors for increasing conversion efficiency. Excluding external factors associated with failures in the production process, the series electrical resistance depends on factors intrinsic to the materials and the layer structure of the photovoltaic device. Thus, to minimize their value it is extremely important to properly plan these constructive parameters prior to the production of the devices. One of the most striking factors in the series resistance is the design of the mesh of collecting fingers of the frontal electrical contact. On the other hand, minimizing the series resistance of the electrical contact requires the increase of the metallic area of the frontal surface, which serves as a window for solar radiation. Therefore, there must be a commitment to reduce electrical and optical losses. In this work, we present the results of the optimization of the design of the mesh of collecting fingers for the frontal electrical contact for three different geometries obtained by genetic algorithms. The geometries chosen were the rectangular, traditional for the
production of this type of device, hexagonal and diamond. In addition, we compared the results obtained with those of a device produced with an optimized mesh by an analytical calculation method. At the end, we discussed the improvements introduced by the new geometries and presented the optimized configuration. which was obtained for a solar cell of size 5x5 mm with a rectangular structure of fingers, with a reduction in losses of 54.42 percent that leads to an approximate increase of 1.40 percent in efficiency.
|
56 |
[en] DESIGN OF ORGANIC LIGHT-EMITTING DIODES SUPPORTED BY COMPUTACIONAL INTELLIGENCE TECHNIQUES / [pt] PROJETO DE DIODOS ORGÂNICOS EMISSORES DE LUZ COM O AUXÍLIO DE TÉCNICAS DA INTELIGÊNCIA COMPUTACIONALCARLOS AUGUSTO FEDERICO DE FARIA ROCHA COSTA 10 September 2018 (has links)
[pt] Esta dissertação trata da investigação, simulação e otimização da estrutura de Diodos Orgânicos Emissores de Luz Multicamadas (ML-OLEDs) através da utilização de técnicas da Inteligência Computacional. Além disso, um desses métodos, chamado Otimização por Colônia de Formigas (ACO), foi implementado com base em um modelo proposto na literatura e aplicado pela primeira vez na otimização de diodos orgânicos. OLEDs são dispositivos optoeletrônicos nanométricos fabricados a partir de materiais semicondutores
orgânicos. Ao contrário das tecnologias tradicionais, eles conjugam elevada luminescência e baixo consumo energético. Na fabricação de um OLED, o número configurações possíveis é quase ilimitado, em função da quantidade de parâmetros que se pode variar. Isso faz com que determinação da arquitetura ótima torne-se uma tarefa não trivial. Para simular os OLEDs foram empregados dois modelos distintos de simulação. Assim, as Redes Neurais Artificiais (RNA) foram empregadas com o objetivo de emular um dos simuladores e acelerar o cálculo da densidade de corrente. Os Algoritmos Genéticos (AG) foram aplicados na determinação dos valores ótimos de espessura das camadas, mobilidades dos portadores de carga e concentração dos materiais orgânicos em OLEDs com duas camadas, enquanto o ACO foi aplicado para encontrar os valores de concentração em OLEDs com duas e cinco camadas, constituindo assim três estudos de caso. Os resultados encontrados foram promissores, sobretudo no caso das espessuras,
onde houve uma confirmação experimental do dispositivo com duas camadas. / [en] This dissertation deals with the research, simulation and optimization of the structure of Multilayer Organic Light Emitting Diodes (ML-OLEDs) by using Computational Intelligence techniques. In addition, one of these methods, called Ant Colony Optimization (ACO), was implemented based on a model proposed in the literature and applied for the first time in the optimization of organic diodes. OLEDs are nanometric optoelectronic devices fabricated from organic semiconducting materials. Unlike traditional technologies, they combine high luminance and low power consumption. In the manufacturing of an OLED, the number of possible configurations is almost unlimited due to the number of parameters that can modified. Because of this the determination of the optimal architecture becomes a non-trivial task. Two different simulation models were used to simulate the OLEDs. Thus, the Artificial Neural Networks (ANN) were employed in order to work as the proxy of the commercial simulator and to accelerate the calculation of the current density. The Genetic Algorithms (GA) were applied to determine the optimal values of thickness of the layers, the charge carrier mobility and the concentration of the organic materials in OLEDs with two layers, while the ACO was applied to find the values of concentration in OLEDs with two and five layers, thus establishing three case studies. The employed strategy has proved to be promising, since it has show good results for two case studies, especially for the optimization of the thickness, where there was an
experimental confirmation of the bilayer device.
|
57 |
[en] A STUDY ON ELLIPSOIDAL CLUSTERING / [pt] UM ESTUDO SOBRE AGRUPAMENTO BASEADO EM DISTRIBUIÇÕES ELÍPTICASRAPHAEL ARAUJO SAMPAIO 16 January 2019 (has links)
[pt] A análise de agrupamento não supervisionado, o processo que consistem em agrupar conjuntos de pontos de acordo com um ou mais critérios de similaridade, tem desempenhado um papel essencial em vários campos. O dois algoritmos mais populares para esse processão são o k-means e o Gaussian Mixture Models (GMM). O primeiro atribui cada ponto a um único cluster e usa a distância Euclidiana como similaridade. O último determina uma matriz de probabilidade de pontos pertencentes a clusters, e usa distância de Mahalanobis como similaridade. Além da diferença no método de atribuição - a chamada atribuição hard para o primeiro e a atribuição soft para o último - os algoritmos também diferem em relação à estrutura do
cluster, ou forma: o k-means considera estruturas esféricas no dados; enquanto o GMM considera elipsoidais através da estimação de matrizes de covariância. Neste trabalho, um problema de otimização matemática que combina a atribuição hard com a estrutura do cluster elipsoidal é detalhado e formulado. Uma vez que a estimativa da covariância desempenha um papel importante no comportamento de estruturas agrupamentos elipsoidais, técnicas de regularizações são exploradas. Neste contexto, dois métodos de meta-heurística, uma perturbação Random Swap e um algoritmo híbrido genético, são adaptados, e seu impacto na melhoria do desempenho dos métodos é estudado. O objetivo central dividido em três: compreender as condições em que as estruturas de agrupamento elipsoidais são mais benéficas que as esféricas; determinar o impacto da estimativa de covariância com os métodos de regularização; e analisar o efeito das meta-heurísticas de otimização global na análise de agrupamento não supervisionado. Finalmente, a fim de fornecer bases para a comparação das presentes descobertas com futuros trabalhos relacionados, foi gerada uma base de dados com um extenso benchmark contendo análise das variações de diferentes tamanhos, formas, número de grupos e separabilidade, e seu impacto nos resultados de
diferentes algoritmos de agrupamento. Além disso, pacotes escritos na linguagem Julia foram disponibilizados com os algoritmos estudados ao longo deste trabalho. / [en] Unsupervised cluster analysis, the process of grouping sets of points according to one or more similarity criteria, plays an essential role in various fields. The two most popular algorithms for this process are the k-means and the Gaussian Mixture Models (GMM). The former assigns each point to a single cluster and uses Euclidean distance as similarity. The latter determines a probability matrix of points to belong to clusters, and the Mahalanobis distance is the underlying similarity. Apart from the difference in the assignment method - the so-called hard assignment for the former and soft assignment for the latter - the algorithms also differ concerning the cluster structure, or shape: the k-means considers spherical structures in the data; while the GMM considers ellipsoidal ones through the estimation of covariance matrices. In this work, a mathematical optimization problem that combines the hard assignment with the ellipsoidal cluster structure is detailed and formulated. Since the estimation of the covariance plays a
major role in the behavior of ellipsoidal cluster structures, regularization techniques are explored. In this context, two meta-heuristic methods, a Random Swap perturbation and a hybrid genetic algorithm, are adapted, and their impact on the improvement of the performance of the methods is studied. The central objective is three-fold: to gain an understanding of the conditions in which ellipsoidal clustering structures are more beneficial than spherical ones; to determine the impact of covariance estimation with regularization methods; and to analyze the effect of global optimization meta-heuristics on unsupervised cluster analysis. Finally, in order to provide grounds for comparison of the present findings to future related works, a database was generated together with an extensive benchmark containing an analysis of the variations of different sizes, shapes, number of clusters, and separability and their impact on the results of different clustering algorithms. Furthermore, packages written in the Julia language have been made available with the algorithms studied throughout this work.
|
58 |
[en] A PROPOSAL FOR SETTING CENTRAL BANKS INTEREST RATE USING NEURAL NETWORKS AND GENETIC ALGORITHMS / [pt] UMA PROPOSTA PARA DETERMINAR A TAXA DE JUROS DE BANCOS CENTRAIS USANDO REDES NEURAIS E ALGORITMOS GENÉTICOSTALITHA FAUSTINO SPERANZA 13 September 2021 (has links)
[pt] Os modelos Dinâmicos Estocásticos de Equilíbrio Geral (DSGE)
contêm falhas diversas, como ficou claro após a crise financeira de 2007-
2008. Esforços para mitigar as deficiências têm sido insuficientes: até hoje, ainda há uma demanda por construir uma nova estrutura para estudar
as implicações de política econômica e tomar decisões. Propomos uma
nova estratégia para resolver o problema do banco central, na tentativa de
prover uma ferramenta auxiliar para os bancos centrais, cujos principais
modelos ainda pertencem à família dos DSGEs. Derivamos uma função
objetivo a partir de três relações empíricas estabelecidas há muito tempo
na literatura econômica: a Lei de Okun, a Curva de Phillips e os efeitos
de liquidez. Usando dados do Brasil, procuramos minimizar o valor dessa
função, escolhendo a taxa de juros através de um algoritmo genético. Como
a função é prospectiva, usamos uma rede neural para prever valores de
desemprego e inflação. Os resultados sugerem que, se o banco central
brasileiro houvesse aplicado nossa estratégia e todas as outras condições
econômicas continuassem iguais, a inflação poderia ter sido mais baixa
62,48 por cento do tempo. O desemprego previsto, contudo, foi mais baixo apenas
39,69 por cento dos períodos cobertos, pois enfrenta um trade-off com a inflação. Discutimos a aplicabilidade da estratégia proposta e defendemos sua solidez teórica. / [en] Dynamic Stochastic General Equilibrium (DSGE) models are flawed,
as became clear after the 2007-2008 financial crisis. Efforts to subdue the
shortcomings have been insufficient: to this date, there is still a demand for
building a new framework to study policy implications and make decisions.
We propose a novel monetary policy strategy, in an attempt to provide
an auxiliary tool to central banks, whose main predictive models are still
from the DSGE family.We derive an objective function from three empirical
relationships that have long been established in economic literature: Okun s Law, the Phillips Curve, and liquidity effects. Using data from Brazil, we
seek to minimise the value of this function by choosing the interest rate
via a genetic algorithm. Since the function is forward looking, we use a
neural network to predict values of unemployment and inflation. Results
suggest that had the Brazilian central bank applied our strategy, and all
other economic conditions remained identical, inflation could have been
lower for 62.48 percent of the time. Predicted unemployment, however, was lower
only for 39.69 percent of covered periods, as it faces a trade-off with inflation.
We discuss the applicability of the proposed strategy and argue for its
theoretical soundness.
|
59 |
[pt] ESTRATÉGIAS PARA O CONTROLE DE PARÂMETROS NO ALGORITMO GENÉTICO COM CHAVES ALEATÓRIAS ENVIESADAS / [en] STRATEGIES FOR PARAMETER CONTROL IN THE BIASED RANDOM-KEY GENETIC ALGORITHMLUISA ZAMBELLI ARTMANN R VILELA 08 November 2022 (has links)
[pt] O Algoritmo Genético de Chaves Aleatórias Enviesadas (BRKGA) é
uma metaheurística populacional utilizada na obtenção de soluções ótimas ou
quase ótimas para problemas de otimização combinatória. A parametrização
do algoritmo é crucial para garantir seu bom desempenho. Os valores dos
parâmetros têm uma grande influência em determinar se uma boa solução
será encontrada pelo algoritmo e se o processo de busca será eficiente. Uma
maneira de resolver esse problema de configuração de parâmetros é por
meio da abordagem de parametrização online (ou controle de parâmetros).
A parametrização online permite que o algoritmo adapte os valores dos
parâmetros de acordo com os diferentes estágios do processo de busca e
acumule informações sobre o espaço de soluções nesse processo para usar as
informações obtidas em estágios posteriores. Ele também libera o usuário da
tarefa de definir as configurações dos parâmetros, resolvendo implicitamente
o problema de configuração. Neste trabalho, avaliamos duas estratégias para
implementar o controle de parâmetros no BRKGA. Nossa primeira abordagem
foi adotar valores de parâmetros aleatórios para cada geração do BRKGA.
A segunda abordagem foi incorporar os princípios adotados pelo irace, um
método de parametrização do estado da arte, ao BRKGA. Ambas as estratégias
foram avaliadas em três problemas clássicos de otimização (Problema de
Permutação Flowshop, Problema de Cobertura de Conjuntos e Problema do
Caixeiro Viajante) e levaram a resultados competitivos quando comparados ao
algoritmo tunado. / [en] The Biased Random-Key Genetic Algorithm (BRKGA) is a populationbased metaheuristic applied to obtain optimal or near-optimal solutions to
combinatorial problems. To ensure the good performance of this algorithm
(and other metaheuristics in general), defining parameter settings is a crucial
step. Parameter values have a great influence on determining whether a good
solution will be found by the algorithm and whether the search process will
be efficient. One way of tackling the parameter setting problem is through
the parameter control (or online tuning) approach. Parameter control allows
the algorithm to adapt parameter values according to different stages of the
search process and to accumulate information on the fitness landscape during
the search to use this information in later stages. It also releases the user
from the task of defining parameter settings, implicitly solving the tuning
problem. In this work, we evaluate two strategies to implement parameter
control in BRKGA. Our first approach was adopting random parameter values
for each of BRKGA s generations. The second approach was to introduce
the principles adopted by Iterated Race, a state-of-the-art tuning method,
to BRKGA. Both strategies were evaluated in three classical optimization
problems (Flowshop Permutation Problem, Set Covering Problem, and the
Traveling Salesman Problem) and led to competitive results when compared
to the tuned algorithm.
|
60 |
[pt] AVALIAÇÃO DE PORTFÓLIO EM GERAÇÃO TERMELÉTRICA SOB INCERTEZA: UMA METODOLOGIA HÍBRIDA UTILIZANDO NÚMEROS FUZZY, OPÇÕES REAIS E OTIMIZAÇÃO POR ALGORITMOS GENÉTICOS / [en] THERMAL POWER PORTFOLIO VALUATION UNDER UNCERTAINTY: A HYBRID METHODOLOGY USING FUZZY NUMBERS, REAL OPTIONS AND OPTIMIZATION BY GENETIC ALGORITHMSWALLACE JOSE DAMASCENO DO NASCIMENTO 11 July 2017 (has links)
[pt] Os grandes agentes do mercado de energia dedicam muitos esforços na avaliação e decisão da alocação ótima de capital para a implementação de projetos, em decorrência do grande número de projetos candidatos em seus portfólios de investimentos. Essas decisões visam escolher o subconjunto de projetos a ser implementado, pois os recursos orçamentários são geralmente menores que o necessário para a implementação de todos eles. Muitos são os riscos apresentados, e quanto mais riscos e incertezas, maiores se tornam as dificuldades de avaliação e decisões de investimento de maneira otimizada. As
metodologias clássicas para avaliação de portfólios de projetos de investimento são baseadas em maximizar os retornos (VPL, TIR, etc) e minimizar o risco (desvio-padrão do VPL, variância, etc). Muitas vezes, estes métodos tradicionais de avaliação podem não conseguir tratar adequadamente as flexibilidades gerenciais (Opções Reais) características dos projetos, assim como os riscos e incertezas, devido às possíveis dificuldades de solução e modelagem matemática (multi-variáveis) dos problemas. O desenvolvimento e aplicação de modelos alternativos, tais como os baseados na Teoria de Opções Reais, inclusive com a utilização de métodos de Inteligência Computacional, podem se mostrar mais adequados para estes problemas. Nesta tese é desenvolvida uma metodologia híbrida, apresentando um modelo de Opções Reais Fuzzy para a avaliação de projetos de Revamp por um agente do mercado de Geração Termelétrica de Energia, a partir de um Portfólio de Opções Reais em ambiente de incertezas. Para a seleção do subconjunto de projetos por faixa orçamentária, é aplicado um Algoritmo Genético para otimização multi-critério, através da utilização de um índice de ponderação retorno x risco (lâmbda). / [en] Large players in energy market dedicate many efforts in valuation and optimal capital allocation decision for their project implementation, due the large candidate projects number in their investment portfolios. These decisions aim to choose the projects subset to be implemented, because the monetary resources are
generally smaller than necessary for all projects implementation. There are many risks, and with risks and uncertainties, greater become the difficulties in analysis and optimally investment decisions. The classical methods to investment portfolios are based on to maximize returns (NPV, IRR, among others) and to
minimize risks (NPV standard deviation, variance, among others). Often, these traditional methods may not be able to handle properly the projects managerial flexibilities (Real Options), as well the risks and uncertainties, due to possible solution difficulties and mathematical modeling problems (multi variables).
Alternative models development and implementation, such as those based on Real Options Theory, including the use of Computational Intelligence methods, may be more suitable for these problems. In this thesis, a hybrid methodology is developed, presenting a Fuzzy Real Options model for Revamp projects
valuation by a Thermoelectric Power Generation market player, from a Real Options Portfolio in uncertainties environment. For selecting the projects subset by budget range, a multi-criteria Genetic Algorithm optimization is applied, using a weighting return x risk index (lambda).
|
Page generated in 0.0654 seconds