51 |
[en] ONLINE ALGORITHMS ANALYSIS FOR SPONSORED LINKS SELECTION / [pt] AVALIAÇÃO DE ALGORITMOS ONLINE PARA SELEÇÃO DE LINKS PATROCINADOSLUIZ FERNANDO FERNANDES DE ALBUQUERQUE 04 August 2010 (has links)
[pt] Links patrocinados são aqueles que aparecem em destaque nos resultados de
pesquisas em máquinas de busca na Internet e são grande fonte de receita
para seus provedores. Para os anunciantes, que fazem ofertas por palavras-chave
para aparecerem em destaque nas consultas dos usuários, são uma
oportunidade de divulgação da marca, conquista e manutenção de clientes.
Um dos desafios das máquinas de busca neste modelo de negócio é selecionar
os anunciantes que serão exibidos a cada consulta de modo a maximizar sua
receita em determinado período. Este é um problema tipicamente online,
onde a cada consulta é tomada uma decisão sem o conhecimento prévio
das próximas consultas. Após uma decisão ser tomada, esta não pode mais
ser alterada. Nesta dissertação avaliamos experimentalmente algoritmos
propostos na literatura para solução deste problema, comparando-os à
solução ótima offline, em simulações com dados sintéticos. Supondo que
o conjunto das consultas diárias obedeça a uma determinada distribuição,
propomos dois algoritmos baseados em informações estocásticas que são
avaliados nos mesmos cenários que os outros algoritmos. / [en] Sponsored links are those that appear highlighted at Internet search engine
results. They are responsible for a large amount of their providers’ revenue.
To advertisers, that place bids for keywords in large auctions at Internet,
these links are the opportunity of brand exposing and achieving more clients.
To search engine companies, one of the main challenges in this business
model is selecting which advertisers should be allocated to each new query
to maximize their total revenue in the end of the day. This is a typical
online problem, where for each query is taken a decision without previous
knowledge of future queries. Once the decision is taken, it can not be
modified anymore. In this work, using synthetically generated data, we do
experimental evaluation of three algorithms proposed in the literature for
this problem and compare their results with the optimal offline solution.
Considering that daily query set obeys some well known distribution, we
propose two algorithms based on stochastic information, those are evaluated
in the same scenarios of the others.
|
52 |
[en] LIVER SEGMENTATION AND VISUALIZATION FROM COMPUTER TOMOGRAPHY IMAGES / [pt] SEGMENTAÇÃO E VISUALIZAÇÃO DO FÍGADO A PARTIR DE IMAGENS DE TOMOGRAFIA COMPUTADORIZADA10 September 2009 (has links)
[pt] Esta dissertação apresenta o desenvolvimento e os resultados deste projeto
de mestrado, cujo objetivo, de caráter multidisciplinar, foi desenvolver uma
metodologia e uma ferramenta para segmentação do fígado, seus vasos e subregiões
a partir de imagens de tomografia computadorizada da região abdominal,
utilizando procedimentos de segmentação automática de imagens e visualização
tridimensional de dados. A metodologia sugerida segmenta primeiramente o
fígado, utilizando uma abordagem de modelos deformáveis implícitos, chamada
level sets, estimando os seus parâmetros através do uso de algoritmos genéticos.
Inicialmente, o contorno do fígado é manualmente definido em um tomo como
solução inicial, e então o método segmenta automaticamente o fígado em todos os
outros tomos, sequencialmente. Os vasos e nódulos do fígado são então
identificados utilizando um modelo de mistura de funções proporcionais a
gaussianas, e um método de segmentação de crescimento de regiões por histerese.
As veias hepáticas e portas são classificadas dentro do conjunto de vasos, e
utilizadas em uma modelagem matemática que finalmente divide o fígado em oito
sub-regiões de Couinaud. Esta metodologia foi testada em 20 diferentes exames e
utilizando cinco diferentes medidas de performance, e os resultados obtidos
confirmam o potencial do método. Casos com baixo desempenho são
apresentados para promover desenvolvimentos futuros. / [en] This dissertation presents the development and results of this M.Sc project,
whose multidisciplinary objective, was to develop a methodology and a tool to
segment the liver, its vessels and subregions from abdominal computed
tomography images, using procedures of automatic image segmentation and
visualization of three-dimensional data. The suggested methodology segments
initially the liver, using an approach based on implicit deformable models, called
level sets, estimating its parameters using genetic algorithms. Initially, the liver
boundary is manually set in one slice an initial solution, and then the method
automatically segments the liver in all other slices, sequentially. Then the vessels
and nodules of the liver are identified using both a model of mixture of functions
proportional to Gaussians, and a segmentation method called region growing that
uses hysteresis information. The hepatic and portal veins are classified within the
set of vessels, and used in a mathematical modeling that eventually divides the
liver into the eight subregions of Couinaud. The methodology was tested to
segment the liver using 20 different exams and five different measures of
performance, and the results obtained confirm the potential of the method. The
cases in which the method presented a poor performance are also discussed in
order to instigate further research.
|
53 |
[en] NEURAL-GENETIC HYBRID SYSTEM TO PORTFOLIO BUILDING AND MANAGEMENT / [pt] SISTEMA HÍBRIDO GENÉTICO-NEURAL PARA MONTAGEM E GERENCIAMENTO DE CARTEIRAS DE AÇÕESJUAN GUILLERMO LAZO LAZO 28 November 2005 (has links)
[pt] Esta dissertação apresenta o desenvolvimento de um sistema
híbrido, baseado em Algoritmos Genéticos (AG) e Redes
Neurais (RN), no processo de seleção de ações, na
determinação do percentual a investir em cada ativo também
denominado peso do ativo na carteira e gerenciamento de
carteiras de investimento. O objetivo do trabalho é
avaliar o desempenho de Algoritmos Genéticos e Redes
neurais para a montagem e gerenciamento de carteiras de
investimento. A construção e gerenciamento de carteiras de
investimento é um problema de múltiplos objetivos (retorno
e risco) onde deseja-se escolher um conjunto de ações de
empresas com perspectivas de lucro para formar a carteira
de investimento. Esta escolha é difícil devido ao grande
número de possibilidades e parâmetros a serem
considerados, como: retorno, risco, correlação,
volatilidade, entre outros; razão pela que é considerado
como problema do tipo NP-completo.
O trabalho de pesquisa foi desenvolvido em 5 etapas
principais: um estudo sobre a área de carteiras de
investimento; um estudo sobre os modelos com técnicas de
inteligência computacional empregados nesta área; a
definição de um modelo híbrido Genético-Neural para a
seleção e gerenciamento da carteira para o caso
estacionário; a definição de um modelo híbrido Genético-
Neural para a seleção e gerencia de carteira para o caso
variante no tempo; e o estudo de casos.
O estudo sobre a área de carteiras de investimento
envolveu toda a teoria necessária para a construção e
gerenciamento de carteiras de investimento.
O estudo sobre as técnicas de inteligência computacional,
define-se os conceitos principais de Algoritmos Genéticos
e Redes Neurais empregados nesta dissertação.
A modelagem híbrida Genético-Neural para o caso clássico
ou estacionário, constituiu fundamentalmente mo emprego de
um Algoritmo Genético para selecionar os ativos da
carteira a partir de um subconjunto de ativos noticiados
na Bolsa de Valores de São Paulo - Brasil (BOVESPA). Uma
Rede Neural auxilia na gerência da carteira, fazendo
previsões dos retornos dos ativos para o próximo período
de avaliação da carteira.
Na seleção de ativos, dois algoritmos genéticos são
modelados: o primeiro procura escolher 12 dentre 137
ativos negociados na BOVESPA, que apresentem maior
expectativa de retorno, com menor risco e que apresentem
baixa correlação com os demais ativos; e o segundo procura
escolher os ativos empregando o modelo de Makowitz e o
critério de Fronteira eficiente.
A previsão de retornos da as ações é uma estratégia que
visa melhorar o desempenho de carteiras de investimento
que, tipicamente, consideram apenas o retorno médio do
ativo. Diferentes modelos de redes neurais foram testados,
como: Backpropagation, Redes Neurais Bayesianas, Sistema
Neuro-Fuzzy Hierárquico e Redes Neurais com Filtros de
Kalman; os melhores resultados de previsão foram obtidos
com redes neurais com Filtros de Kalman. Para o caso
estacionário foram usadas como entradas da rede neural os
retornos semanais, tanto do ativo como do índice do
mercado, empregando-se o método de janela deslizante para
a previsão um passo a frente.
A modelagem híbrida Genético-Neural para o caso variante
no tempo, constituiu no emprego de 3 modelos: um AG para
fazer a escolha dos ativos da carteira; o modelo GARCH
para fazer as previsões da volatilidade dos ativos e o
cálculo do risco de cada um deles dado pelo VAR (medida de
risco que tenta quantificar a perda máxima que uma
carteira (ou ativo) pode ter em um horizonte de tempo e
com um intervalo de confiança); e uma RN para fazer as
previsões dos retornos dos ativos para o próximo período
de avaliação de carteira.
Na montagem da carteira, empregou-se o Critério de
Fronteira eficiente para a seleção dos ativos, também
dentre os 137 negociados na BOVESPA.
A previsão da volatilidade das ações é uma forma de
indicar quanto pode variar o preço da ação, medida útil
para determinar o risco de um ativo representado pelo VAR. / [en] This dissertation presents the development of a hybrid
system, based in Algorithms Genetics (AG) and Neural
Networks (RN), for the selection of stocks, for the
determination of the percentage to invest in each asset
called weight of the stocks on the portfolio and investmet
portfolio management. The objective multiples (return and
risk) where desired to choose a set of actions of
compaines with profit perspectives to form the investment
portfolio. This choice difficult must to the great number
of possiblities and parameters be considered, as: return,
risk, correlation volatility, among others; reason by
which it is considered as problem NP-Complete.
The research work was developed in 5 main stages: a study
on the investment portfolio area; a study on the models
that use techniques of computacinal intelligence in this
area; the dffinition of a hybrid model Genetic-Neural for
the selection and manages of portfolio for the variant
case in the time; and the study of cases.
The study of the investment portfolio area it involved all
the necessary theory for the construction and investment
portfolio management.
The study the techniques of computacional intelligence it
defines the main concepts of Genetic Algorithms and Neural
Networks used in this dissertation.
The hybrid modeling Genetic-Neural for the classic or
stationary case, consisted basically in the use of a
Genetic Algorithm to select the stocks of the portfolio
from a subgroup of assets negotiated in the Stock exchange
of São Paulo - Brazil (BOVESPA). A Neural Network assists
in the management of the portfolio, making forecasts of
the returns of the assets for the next period to
evaluation of the portfolio.
In the asset seletion, two genetic algorithm are shaped:
the first selects 12 amongst 137 assets negotiated in the
São Paulo Stock Exchange, that present greater return
expectation, with lesser risk and that they present low
correlation with the others assets; and the second selects
the assets using the model of Markowitz and the Criterion
of Efficient Frontier.
The forecast of returns of the stocks is a strategy that
it aims at to improve the investment portfolio
performance, typically, they consider only the average
return of the asset. Diferent models of neural networks
had been tested as: Neural Back Propagation, Networks
Bayesianas, Hierarchic Neuro-Fuzzy System and Neural
Networks with Filters of Kalman. The best ones resulted of
forecast had been gotten with the neural network the
weekly returns, as Filters of Kalman. For the stationary
case they had been used as entred of the neural network
the weekly returns, as much of the asset as of the index
of the market, using itself the method of sliding window
to make the forecast a step the front.
The hybrid modeling Genetic-Neural for the variant case in
the time, consisted of the use of 3 models: a AG to make
the choice of the assets of the portfolio; model GARCH to
make the forecasts of the volatility of the assets and the
calculation of the risk of each asset is given by the VAR
(measured of risk that tries to quantify the maximum loss
that portfolio (or asset) can have in a horizon of time
and with a confidence interval); e a RN to make the
forecasts of the returns of the assets for the next period
to evaluation of the portfolio.
In the construction of the portfolio, the Criterion of
Efficient Frontier for the selection of the assets was
used, also amongst the 137 negotiated in the São Paulo
Stock Exchange.
The forecast of the volatility of the assets is a form to
indicate how much it can vary the price of the assets,
measured useful to determine the risk of an asset
represented for the VAR. For this case job model GARCH to
make this forecast.
For the forecast of the returns os the assets they had
been used as inputs of the Neural Networks Back
Propagation the 10 last weekly returns of the assets and
the volatily of the asset, using itself also the method of
sliding win
|
54 |
[en] CONTROL PROBLEM SOLUTIONS BY FREQUENCY DEPENDENT BMIS AND LMIS / [pt] SOLUÇÃO DE PROBLEMAS DE CONTROLE VIA BMIS E LMIS DEPENDENTES DA FREQÜÊNCIADECILIO DE MEDEIROS SALES 29 May 2006 (has links)
[pt] Nesta tese, é apresentado e analisado em termos da
propriedade de convergência global um novo algoritmo
para
problemas de otimização quadrática sujeitos ou a
restrições de desigualdades matriciais bilineares (BMIs)
ou a restrições de desigualdades matriciais lineares
(LMIs) dependentes da freqüência, estes problemas são
muito relevantes para a teoria de controle porque uma
ampla classe de controladores (por exemplo,
controladores
H2/Hinf de ordem fixa, síntese de controladores
descentralizados, análise do desempenho robusto H2 ou
Hinf, etc.) pode ser computada a partir da solução de
problemas de otimização desta natureza. Infelizmente,
estes problemas são reconhecidamente de difícil solução,
pois envolvem, entre outras coisas, não convexidade
(restrição BMI), não diferenciabilidade da restrição,
etc.
em função dessa complexibilidade, algumas alternativas
para a obtenção de soluções aproximadas têm sido adotada
na literatura especializada recente (Safonov, 1994;
Paganini, 1996).
O algoritmo proposto neste trabalho de tese é uma
alternativa para as abordagens atuais com vantagens no
sentido de permitir a obtenção de melhores aproximações
assim como a possibilidade de explorar a estrutura
particular de cada problema de interesse e, com isso,
viabilizar do ponto de vista computacional o projeto de
controladores envolvendo plantas de ordem mais elevada.
Este algoritmo pode ser visto como a generalização de um
algoritmo anterior com boas propriedades proposto por
Corrêa & Sales (1998) para problemas quadráticos
sujeitos
a restrições envolvendo LMIs canônicas. De forma
bastante
genética, a solução do problema original (um problema
envolvendo um número infinito de restrições é
substituído
por uma única) onde, em cada passo do algoritmo, a
restrição é interativamente modificada.
Demonstrar-se-á que para problemas quadráticos
envolvendo
restrições BMIs (problemas não convexos) a seqüência de
soluções geradas pelo algoritmo convergirá para a
solução
ótima global do problema original. Por outro lado, no
caso
dos problemas quadráticos envolvendo restrições LMIs
dependentes da freqüência, a seqüência gerada de custos
auxiliares é monótona crescente e, adicionalmente, se a
seqüência de matrizes de ponderação for limitada
superiormente (uma condição suficiente), demonstrar-se-á
que a seqüência de soluções geradas pelo algoritmo
convergirá para a solução ótima global do problema
original. Finalmente, são apresentadas algumas
aplicações
a problemas de controle acompanhadas de alguns exemplos
numéricos ilustrativos. / [en] In this thesis, it is proposed and analysed in terms of
the global-convergence property a new algorithm for
solving quadratic optimisation problems under either a BMI
(bilinear matrix inequality) or a frequency-dependent LMI
(linear matrix inequality) constraints. These problems are
of special interest in the control literature a some very
important control problems such as the H2/H(infinite)
fixed-order controller, multiobjectives, H2 and H
(infinite) robust performance analysis among others
problems can be posed as problems of this kind for which
does not still exist yet a reliable global convergent
algorithm. Nowadays, approximate solutions to those
problems are based upon grid and interpolation techniques
as suggested by Paganini (1996) in the case of frequency-
wise LMI constraints or branch and bound algorithms or
branch and bound algorithms mainly and alternating LMIs as
far as BMIs constraints are involved (Safonov, 1994). All
of those approaches suffer, of course, from obvious
numerical difficulties. In fact, those approaches were
introduced as preliminary attempts in solving the problems
just mentioned.
The algorithm to presented here, which can be seen as a
generalisation of an earlier algorithm proposed by Corrêa
e Sales (1998) for solving standard feasibility LMIs
problems, is a step forward in an attempt of handling
difficulties not faced properly by those methodologies. In
a broaden sense, the proposed algorithm solves the
original problem (a problem subject to an infinite number
of constraints is replaced by a single one properly
chosen. It is worth noting that this basic idea was
introduced by Lawson (1961) in a rather different context,
namely, the problem of computing Tchebycheff
approximations by means of sequences of weighted quadratic
problems.
It is pointed out here that in the case of quadratic
problems under a BMI constraint (a nonconvex problem); it
is proved that the sequence of auxiliary solutions
generated by the algorithm converges to the global optimal
solution of the original one. On the other hand, as for
quadratic problems under a frequency-dependent LMI
constraint (an infinite-dimensional problem) it is proved
that the auxiliary cost-sequence values increases
asymptotically and, If the weight updating sequence is
bounded from above (a sufficient condition), the sequence
of auxiliary solutions will converge to the optimal
solution of the original problem as well.
Finally, some applications to control problem are
presented accompanied by some numerical examples.
|
55 |
[en] PUNISHMENT AND DESRESPONSIBILITY IN PREVENTING POSSIBLE DANGEROUS FUTURES: MULTITUDE OF DATA, ALGORITHMS AND THE CONSTRUCTION OF ANTICIPATED PROFILES OF TERRORISTS IN FRANCE / [pt] PUNIÇÃO E DESRESPONSABILIZAÇÃO NA PREVENÇÃO DE POSSÍVEIS FUTUROS PERIGOSOS: MULTITUDE DE DADOS, ALGORITMOS E A CONSTRUÇÃO DE PERFIS ANTECIPADOS DE TERRORISTAS NA FRANÇATHALLITA GABRIELE LOPES LIMA 22 June 2020 (has links)
[pt] Desde 2015, a França tem empreendido um processo de normalização de práticas anunciadas quando do estado de emergência, por meio da promulgação do Pacote de Lei sobre a Vigilância e a Lei Antiterrorista de 2017. Tais instrumentos propunham o fortalecimento da segurança interna e o combate ao terrorismo sob uma lógica de antecipação do risco, com técnicas de vigilância e controle informadas por dados e metadados. Este trabalho investiga os efeitos do crescente uso de tecnologias computacionais em práticas voltadas à prevenção de possíveis futuros perigosos, buscando explorar, mais precisamente, como afetam processos de responsabilização. O artigo se divide em três movimentos analíticos principais. Primeiro, analisarei a consubstanciação de uma arquitetura institucional e normativa que consolida o monopólio da supervisão em benefício dos serviços de inteligência; e como a prática de construção de perfis suspeitos através dos algoritmos veio a ser afirmada como uma necessidade para lidar com as contingências e incertezas na França face à ameaça do terrorismo e da radicalização. Em seguida, discutirei as condições de possibilidade do uso de algoritmos na produção de conhecimento de inteligência, em particular na produção de evidências que informam as medidas individuais de controle e vigilância. A proposta é analisar as conexões entre, de um lado, práticas de mensuração do perigo em um discurso técnico ancorado no imperativo da eficiência das práticas de vigilância; de outro, os efeitos de controle sobre os indivíduos com a flexibilização de salvaguardas processuais e garantias de direitos. O terceiro movimento terá seu
ponto de gravidade nas camadas de práticas humanas e não humanas presentes nas medidas de controle e vigilância para entender seus efeitos sobre processos de responsabilização. Para tal, analisarei a relação entre a produção de conhecimento e a promulgação do não-conhecimento, através do sigilo e incerteza, nos processos de contestação das medidas individuais de controle e vigilância na França. O objetivo geral aqui é analisar como dispositivos de controle administrativo, como a aplicação das medidas administrativas de controle e vigilância (MICA semelhante a prisão domiciliar), no contexto do combate ao terrorismo na França, exemplifica um sistema de validação de autoridade e dispersão dos processos de responsabilização. O trabalho argumenta que tais processos implicam uma ativa desresponsabilização dos profissionais de segurança através da dispersão de responsabilidade entre humanos e não humanos e também favorecem a
promulgação do não-conhecimento, em especial através do sigilo. / [en] Since 2015, France has undertaken a process of normalizing practices announced during the state of emergency, through the promulgation of the Surveillance and Anti-Terrorism Law Package of 2017. Such instruments proposed the strengthening of internal security and the fight against terrorism under a logic
of risk anticipation, with surveillance and control techniques informed by data and metadata. This work investigates the effects of the increasing use of computer technologies in practices aimed at preventing possible dangerous futures, seeking to explore, more precisely, how they affect responsabilization processes. The article is divided into three main analytical movements. First, I will analyze the consolidation of an institutional and normative architecture that consolidates the monopoly of supervision for the benefit of intelligence services. In addition, how the practice of building suspicious profiles through the algorithms came to be affirmed as a necessity to deal with the contingencies and uncertainties in France in the face of the threat of terrorism and radicalization. Then, I will discuss the conditions for the possibility of using algorithms in the production of intelligence knowledge, in particular, in the production of evidence that inform individual control and surveillance measures. The proposal is to analyze the connections between, on the one hand, hazard measurement practices in a technical discourse anchored on the imperative of efficiency in surveillance practices; on the other hand, the effects of control over individuals with the easing of procedural safeguards and guarantees of rights. The third movement will have its point of gravity in the layers of human and non-human practices present in control and surveillance measures to understand its effects on accountability processes. To this end, I will analyze the relationship between the production of knowledge and the enactment of non-knowledge, through secrecy and uncertainty, in the processes of
contesting individual control and surveillance measures in France. The general objective here is to analyze how administrative control devices, such as the application of administrative control and surveillance measures (MICA similar to house arrest), in the context of combating terrorism in France, exemplify a system of validation of authority and dispersion responsabilization processes. The paper argues that such processes imply an active desresponsabilization of security professionals through the dispersion of responsibility between humans and nonhumans and favor the promulgation of non-knowledge, especially through secrecy.
|
56 |
[pt] ALGORITMO PARA GERAÇÃO DE ARRANJOS DE PARTÍCULAS PARA UTILIZAÇÃO NO MÉTODO DOS ELEMENTOS DISCRETOS / [en] AN ALGORITHM FOR THE GENERATION OF PARTICLE ARRANGEMENTS FOR APPLICATION WITH THE DISCRETE ELEMENT METHODANDRE LUIZ FERREIRA PINTO 19 March 2010 (has links)
[pt] O método dos elementos discretos (MED), desenvolvido na década
de 70, tem despertado, com o aumento da capacidade de processamento
e o desenvolvimento de técnicas de computação de alto desempenho, crescente
interesse de diversos pesquisadores como ferramenta de estudo de
problemas de engenharia. Um campo de estudo de grande apelo é a modelagem
de fenômenos associados a materiais granulares, dentre eles a compacta
ção de pacotes granulares - como por exemplo em pós metálicos na
indústria siderúrgica - , a produção de areia e a produção de material de sustenta
ção de fraturas estimuladas hidraulicamente na indústria do petróleo,
motivação deste trabalho. A aplicação do método requer em sua primeira
etapa a geração da configuração inicial das partículas ou o preenchimento de
domínios com as mesmas. Alguns estudos têm se voltado para o desenvolvimento
de algoritmos de geração de arranjos densos de partículas. Neste trabalho
apresenta-se um algoritmo geométrico de geração de arranjos densos
de partículas que correspondam a uma dada curva granulométrica e estejam
de acordo com outros parâmetros definidos para o pacote granular. No presente
trabalho é dada atenção especial a geração de arranjos bidimensionais
de discos para modelar o fenômeno de preenchimento de fraturas em poços
estimulados por fraturamento hidráulico. O refluxo desse material com o
bombeamento de óleo é uma das principais causas de declínio de produção
de petróleo em poços fraturados, além de causar danos ao equipamento. O
algoritmo proposto foi implementado em linguagem Java e a otimização dos
arranjos segundo a porosidade foi realizada através da aplicação de algoritmos
genéticos. Aplicações do algoritmo a alguns arranjos de partículas e ao
problema de preenchimento de fraturas são apresentados. / [en] The Discrete Element Method (DEM), developed in the 70’s, has
become more a attractive with the increasing computer processing capacity
and the development of high-performance computational techniques. This
scenario induced growing interest of many researchers as a tool to study
engineering problems. A very appealling field of study is the modeling of
phenomena associated with granular materials, including the compaction
of granular packages, such as metal powders in the steel industry, sand
production and proppant flowback in the petroleum industry, which is
motivation to this work. The application of the method in its first step
requires the generation of the particles’ initial configuration or the filling
of domains with them. Some studies have focused on the development of
algorithms to generate dense packing of particles. This work presents an
algorithm to generate random dense packing of particles that correspond
to a given granulometric curve and are consistent with other parameters
set for the granular package. In the present work special attention is
given to generation of two-dimensional packings of disks to model the
phenomenon of fractures filling in wells stimulated by hydraulic fracturing.
The proppant flowbak generated by the oil pumping is a leading cause
of production decline in fractured wells, besides causing damage to the
production equipment. The proposed algorithm was implemented in Java
language and the optimization of packings was performed according to the
porosity using genetic algorithms. Applications of the algorithm to some
packings of particles and the problem of filling of fractures are presented.
|
57 |
[pt] AJUSTE DE HISTÓRICO EM MODELOS DE SIMULAÇÃO DE RESERVATÓRIOS POR ALGORITMOS GENÉTICOS E GEOESTATÍSTICA DE MÚLTIPLOS PONTOS / [en] HISTORY MATCHING IN RESERVOIR SIMULATION MODELS BY GENETIC ALGORITHMS AND MULTIPLE-POINT GEOSTATISTICSEUGENIO DA SILVA 13 June 2012 (has links)
[pt] Na área de Exploração e Produção (EeP) de petróleo, o estudo minucioso
das características de um reservatório é imperativo para a criação de
modelos de simulação que representem adequadamente as suas propriedades
petrofísicas. A disponibilidade de um modelo adequado é fundamental para
a obtenção de previsões acertadas acerca da produção do reservatório, e isso
impacta diretamente a tomada de decisões gerenciais. Devido às incertezas
inerentes ao processo de caracterização, ao longo da vida produtiva do
reservatório, periodicamente o seu modelo de simulação correspondente
precisa ser ajustado. Todavia, a tarefa de ajustar as propriedades do modelo
se traduz em um problema de otimização complexo, onde o número de
variáveis envolvidas é tão maior quanto maior for a quantidade de blocos
que compõem a malha do modelo de simulação. Na maioria das vezes
esses ajustes envolvem processos empíricos que demandam elevada carga de
trabalho do especialista. Esta pesquisa investiga e avalia uma nova técnica
computacional híbrida, que combina Algoritmos Genéticos e Geoestatística
Multiponto, para a otimização de propriedades em modelos de reservatórios.
Os resultados obtidos demonstram a robustez e a confiabilidade da solução
proposta, uma vez que, diferentemente das abordagens tradicionalmente
adotadas, é capaz de gerar modelos que não apenas proporcionam um
ajuste adequado das curvas de produção, mas também que respeitam as
características geológicas do reservatório. / [en] In the Exploration and Production (EeP) of oil, the detailed study of reservoir characteristics is imperative for the creation of simulation models that
adequately represent their petrophysical properties. The availability of an
appropriate model is fundamental to obtaining accurate predictions about
the reservoir production. In addition, this impacts directly the management
decisions. Due to the uncertainties inherent in the characterization process,
along the productive period of the reservoir, its corresponding simulation
model needs to be matched periodically. However, the task of matching the
model properties represents a complex optimization problem. In this case,
the number of variables involved increases with the number of blocks that
make up the grid of the simulation model. In most cases these matches
involve empirical processes that take too much time of an expert. This research investigates and evaluates a new hybrid computer technique, which
combines Genetic Algorithms and Multipoint Geostatistics, for the optimization of properties in reservoir models. The results demonstrate the
robustness and reliability of the proposed solution. Unlike traditional approaches, it is able to generate models that not only provide a proper match
of the production curves, but also satisfies the geological characteristics of
the reservoir.
|
58 |
[en] A SINGLE GOAL HEURISTIC APPROACH TO SOLVE TUNING IN ONTOLOGY META-MATCHING / [pt] UMA ABORDAGEM HEURÍSTICA UNI-OBJETIVO PARA CALIBRAGEM EM META-ALINHADORES DE ONTOLOGIASJAIRO FRANCISCO DE SOUZA 23 July 2012 (has links)
[pt] Ontologias são vistas como uma solução para o problema de interoperabilidade em muitas aplicações como integração de banco de dados, comércio eletrônico, serviços web e redes sociais. Contudo, ao utilizar diferentes ontologias, persiste o problema de incompatibilidade semântica entre os modelos. Dentre os desafios para o campo de alinhamento de ontologia, está a seleção de alinhadores e a auto-configuração desses alinhadores . Este trabalho tem por objetivo tratar o problema de meta-alinhamento de ontologias utilizando métodos heurísticos para calibragem de alinhadores escolhidos sem detrimento do desempenho do sistema. Para avaliar esta proposta em comparação a outras propostas da literatura, optou-se por utilizar um benchmark para alinhamentos de ontologias amplamente utilizado por pesquisadores desse campo. A comparação entre as propostas é realizada com base em medidas de qualidade de alinhamentos sugeridas pelo benchmark. Além da avaliação quantitativa proposta pelo benchmark, é realizada uma comparação qualitativa em relação às características desejáveis de meta-alinhadores propostas na literatura. / [en] Ontologies are seen as a solution for many applications such as database integration, e-commerce, web services and social networks. However, the use of distinet ontologies does not solve the semantic interoperability problem among modls. Matcher selection and self-configuring are challenges from the ontology matching field. This work aims to treat the ontology metamatching problem using heuristic methods to fast tune a set of matchers. To evalutate this proporsal, a well-known benchark for ontology matching is used. The comparison among meta-matching approaches includes the benchmark evaluation metries and qualitative metries for meta-matching proposed in the literature.
|
59 |
[en] SIMULATION OF HEAT RECOVERY STEAM GENERATOR OPERATING IN A COMBINED CYCLE PLANT / [pt] SIMULAÇÃO DE UMA CALDEIRA DE RECUPERAÇÃO DE CALOR EM UMA USINA DE CICLO COMBINADORAPHAEL GUIMARAES DUARTE PINTO 30 November 2012 (has links)
[pt] A evolução das turbinas a gás industriais resultou em um processo de combustão mais eficiente que permitiu a elevação da temperatura dos gases na exaustão dessa máquina. Assim, caldeiras de recuperação de calor cada vez mais complexas foram desenvolvidas com o intuito de aproveitar ao máximo o potencial energético na exaustão das turbinas. Dessa forma, modelos computacionais capazes de prever as condições de operação do equipamento se mostraram necessários de maneira a analisar o comportamento da máquina em diferentes situações, visando à máxima eficiência do processo. Esta dissertação descreve um modelo computacional capaz de simular o funcionamento fora do ponto de projeto, em regime permanente, de uma caldeira de recuperação de calor operando em uma usina de ciclo combinado, enfatizando sua utilização em sistemas de diagnóstico. As rotinas foram desenvolvidas em FORTRAN e os trocadores de calor presentes na HRSG foram modelados individualmente e calibrados através de um sistema de otimização utilizando algoritmos genéticos, responsável por minimizar o desvio do modelo. O programa desenvolvido foi validado contra dados de operação de uma usina real e mostrou resultados satisfatórios, que confirmam a robustez e fidelidade do modelo de simulação. / [en] The heavy duty gas turbines evolution and, consequently, a more efficient combustion process, allowed the temperature rising of the machines’ exhaust gases. Thus, more complex heat recovery steam generators were developed in order to maximize the use of that energy potential. Therefore, computational models capable to predict the operational conditions of the equipment may be needed in order to analyze the machine’s behavior for different situations, in a way to maximize the process efficiency. This thesis describes a computational model able to simulate the off-design behavior of a heat recovery steam generator operation in a combined cycle plant, emphasizing its utilization in diagnostics systems. The routines were developed using FORTRAN, each heat exchanger inside the Heat Recovery Steam Generator (HRSG) was designed individually and the calibration was done by a genetic algorithm responsible for minimizing the model’s deviations. The developed program was validated against operational data from a real plant and showed satisfactory results, confirming the robustness and fidelity of this simulation model.
|
60 |
[pt] ALGORITMOS GENÉTICOS E OPÇÕES REAIS NA ESCOLHA DA SEQUÊNCIA ÓTIMA DE PERFURAÇÕES DE POÇOS EXPLORATÓRIOS / [en] GENETIC ALGORITHMS AND REAL OPTIONS ON THE WILDCAT DRILLING OPTIMAL CHOICELUIGI DE MAGALHAES DETOMI CALVETTE 04 March 2015 (has links)
[pt] A exploração e desenvolvimento de um campo de petróleo é permeada de incertezas de diferentes naturezas. A incerteza mais básica que o gestor de um portfolio exploratório enfrenta é aquela relativa à existência (ou não) de petróleo em determinado prospecto. Tipicamente, incertezas técnicas tendem a ser reduzidas com investimentos em aquisição de informação, que são exercícios de opções de aprendizagem. Decorrente da estrutura de correlações presentes nos prospectos de um portfolio exploratório, o resultado da perfuração de um poço pioneiro potencialmente irá revelar informações adicionais sobre a probabilidade de existência (ou não) de petróleo em outros prospectos deste mesmo portfolio. Cada poço a ser perfurado pode ser entendido como uma opção de aprendizagem a ser exercida (ou não) a depender da sua probabilidade de sucesso. Neste contexto, um dos fatores determinantes na otimização da campanha exploratória é a escolha da sequência ideal de perfuração de poços. Tal escolha é mais complexa, quão maior for a quantidade e diversidade de prospectos no portfolio. Diante dessa realidade, este trabalho propõe uma modelagem que busca, através de Algoritmos Genéticos, otimizar a sequência de perfurações dos poços e, portanto, o valor do portfolio. O modelo proposto considera as interdependências e as especificidades de cada prospecto e usa como função objetivo, a ser maximizada, o valor presente do líquido (VPL). Opções e aprendizagem são os aspectos-chave por trás do modelo de otimização. O modelo foi avaliado em dez diferentes portfolios exploratórios e, em todos os casos, foi capaz de propor pelo menos uma sequência que apresentasse expressivos ganhos de VPL em relação ao caso-base. / [en] An oil field exploration and development campaign is bounded with different kinds of uncertainty. The most basic one that an E and P portfolio manager deals with is the one related to the existence (or not) of oil in a given prospect. Typically, technical uncertainties are related to learning, and tend to be reduced with investments on information acquisition. From the correlation pattern on the prospects in a given exploratory portfolio, follows that the results from one initial wildcat drilling will, potentially, reveal, additional information about the oil existence (or not) in other prospects in the same geological play. This way, each prospect to be drilled might be understood as a learning option to be exercised (or not) depending on its respective success probability. In such case, one of the main factors on optimizing the exploratory campaign is choosing the ideal drilling sequence. Such choice is more complex, as the quantity and diversity of the prospects increases. Given such background, the present work proposes a model that intends, using Genetic Algorithms, to optimize the drilling sequence and, as a consequence, the total portfolio value. The proposed model considers the interdependencies and each prospect specific aspects and has as an objective function (to be maximizes) the portfolio net present value (NPV). Options and learning are the main aspects underlying the optimization model. The model was evaluated on ten different exploratory portfolios and, in every case, was able to deliver at least one sequence that could represent expressive NPV gains compared to the basic scenario.
|
Page generated in 0.0351 seconds