1 |
[pt] QUANTIFICAÇÃO IRRESTRITA E GENERALIDADE ABSOLUTA: A QUESTÃO DA POSSIBILIDADE DE UMA TEORIA SOBRE TUDO TESE / [en] UNRESTRICTED QUANTIFICATION AND ABSOLUTE GENERALITY: THE ISSUE OF THE POSSIBILITY OF A THEORY ABOUT EVERYTHINGANDRE NASCIMENTO PONTES 06 October 2015 (has links)
[pt] A presente tese tem como objetivo desenvolver uma discussão acerca das condições de possibilidade da quantificação irrestrita e existência da generalidade absoluta. O trabalho é dividido em quatro etapas. No primeiro capítulo, realizo, no âmbito da teoria dos modelos e teoria dos conjuntos, uma revisão do que chamo de semântica padrão dos quantificadores. A ideia básica é mostrar como, em tal semântica, quantificações estão associadas a domínios entendidos como conjuntos. Ao longo da tese, ficará patente que a semântica padrão impõe obstáculos intransponíveis ao tratamento formal de quantificações irrestritas. No segundo capítulo, apresento uma seleção do que considero os argumentos mais relevantes contra quantificações irrestritas e nossa capacidade de lidar formalmente com o que chamamos de generalidade absoluta. Alguns desses argumentos estão baseados em resultados tais como os paradoxos que Russell e Cantor derivaram na teoria dos conjuntos. No terceiro capítulo, apresento, de modo análogo, uma lista de argumentos agrupados em linhas de estratégias para reabilitar a quantificação irrestrita contra seus críticos. Além disso, desenvolvo uma discussão sobre os aspectos metafísicos do debate sobre o discurso a respeito da generalidade absoluta e sua correlação com argumentos por regresso ao infinito. Por fim, no quarto e último capítulo, desenvolvo um esboço geral de uma proposta alternativa de tratamento da quantificação irrestrita que apele para uma teoria paraconsistente dos conjuntos. Nela, as contradições obtidas na semântica padrão podem ser admitidas controladamente possibilitando assim a obtenção de domínios absolutos para quantificações. Essa proposta envolve a defesa de um sistema formal que seja inconsistente, porém dedutivamente não trivial. Em linhas
gerais, o presente trabalho está pautado no seguinte conjunto de teses: (i) existe uma estreita correlação entre os obstáculos impostos pela semântica padrão às quantificações irrestritas e a estrutura de argumentos por regresso ao infinito; (ii) a existência de uma generalidade absoluta é um fenômeno que se impõe às nossas mais intuitivas concepções de realidade e, portanto, não devemos descredenciar o discurso sobre tal generalidade em virtude de limitações de nossas linguagens formais; (iii) nós devemos escolher entre assumir a lógica clássica e abdicar do discurso sobre a generalidade absoluta ou manter nossa intuição mais básica descrita em (ii) e abrir espaço para um tratamento não clássico da questão; finalmente, (iv) minha sugestão no presente trabalho é que temos boas razões para nos aventurar nas paisagens descritas pelos sistemas não clássicos. / [en] In this doctoral dissertation, I tackle the issues of the conditions for the possibility of unrestricted quantification and of absolute generality. The text is framed as follows. The first chapter is devoted to reviewing what I call the standard semantics of quantifiers, within the realm of both model and set theories. In such semantics, the idea is, quantificational domains are conceived as sets. It will become clear along the way that, given this construal of quantificational domains, a formal treatment of unrestricted quantification faces insurmountable obstacles. The second chapter focuses on what I take to be the most relevant arguments against unrestricted quantification as well as against our ability to formally deal with so-called absolute generality. Some of them are based on results obtained by Russell and Cantor within set theory – the notorious Russell s paradox and Cantor s theorem. Analogously, in chapter three I review a number of grouped-into-strategic-lines arguments put forward to save unrestricted quantification against its critics. I also elaborate on the metaphysical aspects of the debate and its connections with infinite regress arguments. Lastly, in the fourth chapter I outline an alternative proposal based on paraconsistent set theory to deal with unrestricted quantification. On this approach, the contradictions found in standard semantics are admitted, yet in a controlled way, thus turning absolute quantificational domains available. The proposal is, basically, to allow the existence of inconsistent, yet deductively not trivial formal systems. The present work is broadly guided by the following set of claims: (i) there is a strong correlation between the obstacles set by standard semantics to unrestricted quantification and the structure of infinite regress arguments; (ii) absolute
generality is a phenomenon that imposes itself upon our most intuitive conceptions of reality; accordingly, the limitations suffered by our formal languages ought not to lead us to bring such generality into disrepute; (iii) one must choose between adopting classical logic and renouncing to appeal to absolute generality or sticking to our most basic intuitions as described in (ii) and make room for a non-classical treatment of the issue; (iv) we have, after all, good reasons to venture into the landscapes described by the non-classical systems.
|
2 |
[en] CARING ABOUT WOMEN AND THE ROLE OF QUANTIFICATION IN FAMILY PLANNING: A CRITICAL ANALYSIS OF THE FP2020 PROGRAMME / [pt] CUIDADO COM AS MULHERES E O PAPEL DA QUANTIFICAÇÃO NO PLANEJAMENTO FAMILIAR: UMA ANÁLISE CRÍTICA DO PROGRAMA FP2020BEATRIZ NAZARETH DE SOUZA TEIXEIRA 27 April 2023 (has links)
[pt] A interseção entre população, conflito, mudanças climáticas e migração é o ponto central
dos debates contemporâneos sobre controle populacional e reacende iniciativas cujo alvo
são os corpos de mulheres e meninas, majoritariamente não- brancas e do Sul Global. À
medida que uma população crescente passa a ser enquadrada como um problema global,
a fertilidade dessas mulheres se torna uma ameaça e os seus corpos um espaço para
intervenções de organizações internacionais, agências de desenvolvimento e governos. O
propósito do trabalho é investigar uma dessas intervenções, a maior em termos de
recursos financeiros e de metas estabelecidas – Family Planning 2020. Mais
especificamente, será focado no papel desempenhado por dados quantitativos para
fundamentar intervenções na saúde reprodutiva de milhões de mulheres. A hipótese da
dissertação é que esses dados desempenham um papel fundamental no posicionamento
de políticas de planejamento familiar como objetivas e baseada em evidências, e não
como fundadas em fatores raciais. Ademais, que a adesão a uma ética do cuidado pode
orientar tais políticas de maneira que se evite instrumentalizar a fertilidade e a saúde de
mulheres para enfrentar a questões atribuídos à superpopulação. / [en] The intersection between population, conflict, climate change and migration
is the cornerstone of contemporary population control debates and rekindles
initiatives that target the bodies of women and girls, largely of colour and from the
Global South. As a growing population becomes framed as a global problem, the
fertility of those women turns into a threat and their bodies into a space for
interventions by international organizations, development agencies, and
governments. The purpose of this work is to investigate one of said interventions,
the largest one when it comes to targets and financial investment - the Family
Planning 2020.More specifically, the project will look to FP 2020 to analyse the
role played by quantified data in substantiating interventions in the reproductive
health of millions of women. The working hypothesis of this dissertation is that data
is a crucial element to the rebranding of family planning policies as not racially
oriented, but rather as objective and evidence-based and that, by adhering to an
ethics of care, one might avoid the pitfalls of instrumentalizing women s fertility
and overall health in order to address other pressing issues.
|
3 |
[en] BRANCHING PROCESSES FOR EPIDEMICS STUDY / [pt] PROCESSOS DE RAMIFICAÇÃO PARA O ESTUDO DE EPIDEMIASJOAO PEDRO XAVIER FREITAS 26 October 2023 (has links)
[pt] Este trabalho modela a evolução temporal de uma epidemia com uma
abordagem estocástica. O número de novas infecções por infectado é modelado
como uma variável aleatória discreta, chamada aqui de contágio. Logo, a
evolução temporal da doença é um processo estocástico. Mais especificamente,
a propagação é dada pelo modelo de Bienaymé-Galton-Watson, um tipo
de processo de ramificação de parâmetro discreto. Neste processo, para um
determinado instante, o número de membros infectados, ou seja, a geração de
membros infectados é uma variável aleatória. Na primeira parte da dissertação,
dado que o modelo probabilístico do contágio é conhecido, quatro metodologias
utilizadas para obter as funções de massa das gerações do processo estocástico
são comparadas. As metodologias são: funções geradoras de probabilidade com
e sem identidades polinomiais, cadeia de Markov e simulações de Monte Carlo.
A primeira e terceira metodologias fornecem expressões analíticas relacionando
a variável aleatória de contágio com a variável aleatória do tamanho de uma
geração. Essas expressões analíticas são utilizadas na segunda parte desta
dissertação, na qual o problema clássico de inferência paramétrica bayesiana é
estudado. Com a ajuda do teorema de Bayes, parâmetros da variável aleatória
de contágio são inferidos a partir de realizações do processo de ramificação. As
expressões analíticas obtidas na primeira parte do trabalho são usadas para
construir funções de verossimilhança apropriadas. Para resolver o problema
inverso, duas maneiras diferentes de se usar dados provindos do processo
de Bienaymé-Galton-Watson são desenvolvidas e comparadas: quando dados
são realizações de uma única geração do processo de ramificação ou quando
os dados são uma única realização do processo de ramificação observada ao
longo de uma quantidade de gerações. O critério abordado neste trabalho para
encerrar o processo de atualização na inferência paramétrica usa a distância
de L2-Wasserstein, que é uma métrica baseada no transporte ótimo de massa.
Todas as rotinas numéricas e simbólicas desenvolvidas neste trabalho são
escritas em MATLAB. / [en] This work models an epidemic s spreading over time with a stochastic
approach. The number of infections per infector is modeled as a discrete random variable, named here as contagion. Therefore, the evolution of the disease
over time is a stochastic process. More specifically, this propagation is modeled
as the Bienaymé-Galton-Watson process, one kind of branching process with
discrete parameter. In this process, for a given time, the number of infected
members, i.e. a generation of infected members, is a random variable. In the
first part of this dissertation, given that the mass function of the contagion s
random variable is known, four methodologies to find the mass function of the
generations of the stochastic process are compared. The methodologies are:
probability generating functions with and without polynomial identities, Markov chain and Monte Carlo simulations. The first and the third methodologies
provide analytical expressions relating the contagion random variable and the
generation s size random variable. These analytical expressions are used in the
second part of this dissertation, where a classical inverse problem of bayesian
parametric inference is studied. With the help of Bayes rule, parameters of
the contagion random variable are inferred from realizations of the stochastic
process. The analytical expressions obtained in the first part of the work are
used to build appropriate likelihood functions. In order to solve the inverse
problem, two different ways of using data from the Bienaymé-Galton-Watson
process are developed and compared: when data are realizations of a single
generation of the branching process and when data is just one realization of
the branching process observed over a certain number of generations. The criteria used in this work to stop the update process in the bayesian parametric
inference uses the L2-Wasserstein distance, which is a metric based on optimal
mass transference. All numerical and symbolical routines developed to this
work are written in MATLAB.
|
4 |
[en] HYBRID METHOD BASED INTO KALMAN FILTER AND DEEP GENERATIVE MODEL TO HISTORY MATCHING AND UNCERTAINTY QUANTIFICATION OF FACIES GEOLOGICAL MODELS / [pt] MÉTODO HÍBRIDO BASEADO EM FILTRO DE KALMAN E MODELOS GENERATIVOS DE APRENDIZAGEM PROFUNDA NO AJUSTE DE HISTÓRICO SOB INCERTEZAS PARA MODELOS DE FÁCIES GEOLÓGICASSMITH WASHINGTON ARAUCO CANCHUMUNI 25 March 2019 (has links)
[pt] Os métodos baseados no filtro de Kalman têm tido sucesso notável na
indústria do petróleo nos últimos anos, especialmente, para resolver problemas
reais de ajuste de histórico. No entanto, como a formulação desses métodos
é baseada em hipóteses de gaussianidade e linearidade, seu desempenho
é severamente degradado quando a geologia a priori é descrita em termos
de distribuições complexas (e.g. modelos de fácies). A tendência atual em
soluções para o problema de ajuste de histórico é levar em consideração
modelos de reservatórios mais realistas com geologia complexa. Assim, a
modelagem de fácies geológicas desempenha um papel importante na caracterização
de reservatórios, como forma de reproduzir padrões importantes
de heterogeneidade e facilitar a modelagem das propriedades petrofísicas
das rochas do reservatório. Esta tese introduz uma nova metodologia para
realizar o ajuste de histórico de modelos geológicos complexos. A metodologia
consiste na integração de métodos baseados no filtro de Kalman em
particular o método conhecido na literatura como Ensemble Smoother with
Multiple Data Assimilation (ES-MDA), com uma parametrização das fácies
geológicas por meio de técnicas baseadas em aprendizado profundo (Deep
Learning) em arquiteturas do tipo autoencoder. Um autoencoder sempre
consiste em duas partes, o codificador (modelo de reconhecimento) e o decodificador
(modelo gerador). O procedimento começa com o treinamento de
um conjunto de realizações de fácies por meio de algoritmos de aprendizado
profundo, através do qual são identificadas as principais características das
imagens de fácies geológicas, permitindo criar novas realizações com as mesmas
características da base de treinamento com uma reduzida parametrização
dos modelos de fácies na saída do codificador. Essa parametrização é
regularizada no codificador para fornecer uma distribuição gaussiana na
saída, a qual é utilizada para atualizar os modelos de fácies de acordo com
os dados observados do reservatório, através do método ES-MDA. Ao final,
os modelos atualizados são reconstruídos através do aprendizado profundo
(decodificador), com o objetivo de obter modelos finais que apresentem características
similares às da base de treinamento.
Os resultados, em três casos de estudo com 2 e 3 fácies, mostram que
a parametrização de modelos de fácies baseada no aprendizado profundo
consegue reconstruir os modelos de fácies com um erro inferior a 0,3 por cento. A
metodologia proposta gera modelos geológicos ajustados que conservam a
descrição geológica a priori do reservatório (fácies com canais curvilíneos),
além de ser consistente com o ajuste dos dados observados do reservatório. / [en] Kalman filter-based methods have had remarkable success in the oil
industry in recent years, especially to solve several real-life history matching
problems. However, as the formulation of these methods is based on the
assumptions of gaussianity and linearity, their performance is severely degraded
when a priori geology is described in terms of complex distributions
(e.g., facies models). The current trend in solutions for the history matching
problem is to take into account more realistic reservoir models, with complex
geology. Thus the geological facies modeling plays an important role in the
characterization of reservoirs as a way of reproducing important patterns
of heterogeneity and to facilitate the modeling of the reservoir rocks petrophysical
properties. This thesis introduces a new methodology to perform
the history matching of complex geological models. This methodology consists
of the integration of Kalman filter-based methods, particularly the
method known in the literature as Ensemble Smoother with Multiple Data
Assimilation (ES-MDA), with a parameterization of the geological facies
through techniques based on deep learning in autoencoder type architectures.
An autoencoder always consists of two parts, the encoder (recognition
model) and the decoder (generator model). The procedure begins with the
training of a set of facies realizations via deep generative models, through
which the main characteristics of geological facies images are identified, allowing
for the creation of new realizations with the same characteristics of
the training base, with a low dimention parametrization of the facies models
at the output of the encoder. This parameterization is regularized at
the encoder to provide Gaussian distribution models in the output, which
is then used to update the models according to the observed data of the
reservoir through the ES-MDA method. In the end, the updated models
are reconstructed through deep learning (decoder), with the objective of
obtaining final models that present characteristics similar to those of the
training base.
The results, in three case studies with 2 and 3 facies, show that the parameterization
of facies models based on deep learning can reconstruct facies
models with an error lower than 0.3 percent. The proposed methodology generates
final geological models that preserve the a priori geological description of
the reservoir (facies with curvilinear channels), besides being consistent with
the adjustment of the observed data of the reservoir.
|
5 |
[en] UNCERTAINTY ANALYSIS OF 2D VECTOR FIELDS THROUGH THE HELMHOLTZ-HODGE DECOMPOSITION / [pt] ANALISE DE INCERTEZAS EM CAMPOS VETORIAIS 2D COM O USO DA DECOMPOSIÇÃO DE HELMHOLTZ-HODGEPAULA CECCON RIBEIRO 20 March 2017 (has links)
[pt] Campos vetoriais representam um papel principal em diversas aplicações científicas. Eles são comumente gerados via simulações computacionais. Essas simulações podem ser um processo custoso, dado que em muitas vezes elas requerem alto tempo computacional. Quando pesquisadores desejam quantificar a incerteza relacionada a esse tipo de aplicação, costuma-se gerar um conjunto de realizações de campos vetoriais, o que torna o processo ainda mais custoso. A Decomposição de Helmholtz-Hodge é uma ferramenta útil para a interpretação de campos vetoriais uma vez que ela distingue componentes conservativos (livre de rotação) de componentes que preservam massa (livre de divergente). No presente trabalho, vamos
explorar a aplicabilidade de tal técnica na análise de incerteza de campos vetoriais 2D. Primeiramente, apresentaremos uma abordagem utilizando a Decomposição de Helmholtz-Hodge como uma ferramenta básica na análise de conjuntos de campos vetoriais. Dado um conjunto de campos vetoriais epsilon, obtemos os conjuntos formados pelos componentes livre de rotação, livre de divergente e harmônico, aplicando a Decomposição Natural de Helmholtz- Hodge em cada campo vetorial em epsilon. Com esses conjuntos em mãos, nossa proposta não somente quantifica, por meio de análise estatística, como cada componente é pontualmente correlacionado ao conjunto de campos vetoriais original, como também permite a investigação independente da incerteza relacionado aos campos livre de rotação, livre de divergente e harmônico. Em
sequência, propomos duas técnicas que em conjunto com a Decomposição de Helmholtz-Hodge geram, de forma estocástica, campos vetoriais a partir de uma única realização. Por fim, propomos também um método para sintetizar campos vetoriais a partir de um conjunto, utilizando técnicas de Redução de Dimensionalidade e Projeção Inversa. Testamos os métodos propostos tanto em campos sintéticos quanto em campos numericamente simulados. / [en] Vector field plays an essential role in a large range of scientific applications. They are commonly generated through computer simulations. Such simulations may be a costly process because they usually require high
computational time. When researchers want to quantify the uncertainty in such kind of applications, usually an ensemble of vector fields realizations are generated, making the process much more expensive. The Helmholtz-Hodge Decomposition is a very useful instrument for vector field interpretation
because it traditionally distinguishes conservative (rotational-free) components from mass-preserving (divergence-free) components. In this work, we are going to explore the applicability of such technique on the uncertainty analysis of 2-dimensional vector fields. First, we will present an approach of the use
of the Helmholtz-Hodge Decomposition as a basic tool for the analysis of a vector field ensemble. Given a vector field ensemble epsilon, we firstly obtain the corresponding rotational-free, divergence-free and harmonic component ensembles by applying the Natural Helmholtz-Hodge Decomposition to each1 vector field in epsilon. With these ensembles in hand, our proposal not only quantifies, via a statistical analysis, how much each component ensemble is point-wisely correlated to the original vector field ensemble, but it also allows
to investigate the uncertainty of rotational-free, divergence-free and harmonic components separately. Then, we propose two techniques that jointly with the Helmholtz-Hodge Decomposition stochastically generate vector fields from a single realization. Finally, we propose a method to synthesize vector fields from an ensemble, using both the Dimension Reduction and Inverse Projection techniques. We test the proposed methods with synthetic vector fields as well as with simulated vector fields.
|
6 |
[en] UNCERTAINTY QUANTIFICATION IN OIL RESERVOIR SIMULATION VIA GENETIC PROGRAMMING AND CHAOS POLYNOMIAL / [pt] QUANTIFICAÇÃO DE INCERTEZAS NA SIMULAÇÃO DE RESERVATÓRIOS DE PETRÓLEO VIA PROGRAMAÇÃO GENÉTICA E CAOS POLINOMIALALEJANDRA CAMACHO SOLANO 28 April 2016 (has links)
[pt] Os modelos de simulação de reservatórios estão sujeitos à incerteza presente em uma grande variedade de seus parâmetros de entrada. Esta incerteza é o resultado da heterogeneidade das formações geológicas, erros nas medições dos dados e da modelagem petrofísica, estrutural e do transporte dos fluidos no meio poroso. Uma quantificação precisa da incerteza requer, na maioria dos casos, uma quantidade elevada de simulações, o que é usualmente inviável se considerarmos o tempo consumido para simular modelos de grande escala. Por outro lado, uma avaliação adequada da incerteza aumenta a qualidade e robustez das decisões tomadas para o gerenciamento dos campos de petróleo. Com esta motivação, foi investigado o método das Expansões por Caos Polinomial (PCE, por suas siglas em inglês). PCE é uma técnica de convergência rápida utilizada para analisar como se propaga, na saída de um modelo, a incerteza presente nos parâmetros de entrada. Mediante PCE, pode-se representar a resposta aleatória de um modelo de simulação de reservatórios de petróleo como um polinômio, construído a partir de uma base de funções que dependem da distribuição de probabilidade das variáveis incertas de entrada. Por outro lado, quando a relação entre os parâmetros de entrada e a saída do modelo têm um componente não polinomial, o algoritmo de Programação Genética (PG) pode ser utilizado para representar esta dependência utilizando funções ou operadores mais complexos. PG é um algoritmo de regressão simbólica capaz de encontrar uma expressão aleatória explícita, que aproxime a saída de um modelo de simulação de reservatórios de petróleo, conhecendo-se a priori a distribuição de probabilidade dos parâmetros de entrada. Neste trabalho foram aplicadas as duas técnicas, antes mencionadas, num modelo de simulação de reservatórios baseado no campo PUNQ-S3, considerando até vinte e três parâmetros incertos durante um período de produção de 13 anos. Foi feita uma análise de incerteza, calculando-se a distribuição de probabilidade completa da saída do simulador. Os resultados foram comparados com o método de Monte Carlo, indicando um alto desempenho em termos de custo computacional e acurácia. Ambas as técnicas conseguem níveis de ajuste superiores a 80 porcento com uma quantidade de simulações consideravelmente baixa. / [en] Reservoir simulation models are subject to uncertainty in a wide variety of its inputs. This uncertainty is a result of the heterogeneity of the geological formations, data measurement errors, and petrophysical, structural, and fluid transport in porous media modelling. An accurate uncertainty quantification requires, in most cases, a large number of simulations, which is unviable considering the time it takes to simulate large scale models. On the other hand, a proper uncertainty assessment, increases the robustness of the decision making process for the oil field management. To this end, the method of Polynomial Chaos Expansions (PCE) was studied. PCE is a fast paced convergence technique, used to analyze the uncertainty propagation of the input parameters all the way to the output of the model. Through PCE is possible to represent the response of an oil reservoir simulation model as a polynomial, built from a function basis, that depend on the probability distribution of the uncertain input variables. Furthermore, when the relationship between the input and output parameters of the model has a non-polynomial component, the algorithm of Genetic Programming (GP) can be used to represent this dependency by more elaborate functions or operators. GP is a symbolic regression algorithm, capable of finding an explicit expression that approximates the output of a reservoir simulation model, with prior knowledge of the probability distribution of the input parameters. In this work, the two previously mentioned techniques were applied in a reservoir simulation model, based on the oil field PUNQ-S3, considering up to twenty three uncertain parameters during a simulation period of 13 years. An uncertainty analysis of the output of the simulator was conducted, calculating the entire probability distribution. The results were compared to the Monte Carlo simulation method, presenting a satisfactory performance in terms of accuracy and computational cost. Both techniques show adjustment levels higher than 80 percent, with a considerable small amount simulations.
|
7 |
[pt] AVALIANDO O USO DO ALGORITMO RANDOM FOREST PARA SIMULAÇÃO EM RESERVATÓRIOS MULTI-REGIÕES / [en] EVALUATING THE USE OF RANDOM FOREST REGRESSOR TO RESERVOIR SIMULATION IN MULTI-REGION RESERVOIRSIGOR CAETANO DINIZ 22 June 2023 (has links)
[pt] Simulação de reservatórios de óleo e gás é uma demanda comum em engenharia de petróleo e pesquisas relacionadas, que pode requerer um elevado custo computacional de tempo e processamento ao resolver um problema matemático. Além disso, alguns métodos de caracterização de reservatórios necessitam múltiplas iterações, resultando em muitas simulações para obter um resultado. Também podemos citar os métodos baseados em conjunto, tais como o ensemble Kalman filter, o EnKF, e o Ensemble Smoother With Multiple Data Assimilation,o ES-MDA, que requerem muitas simulações. Em contrapartida, o uso de aprendizado de máquina cresceu bastante na indústria de energia. Isto pode melhorar a acurácia de predição, otimizar estratégias e outros. Visando reduzir as complexidades de simulação de reservatórios, este trabalho investiga o uso de aprendizado de máquina como uma alternativa a simuladores convencionais. O modelo Random Forest Regressor é testado para reproduzir respostas de pressão em um reservatório multi-região radial composto. Uma solução analítica é utilizada para gerar o conjunto de treino e teste para o modelo. A partir de experimentação e análise, este trabalho tem o objetivo de suplementar a utilização de aprendizado de máquina na indústria de energia. / [en] Oil and gas reservoir simulation is a common demand in petroleum
engineering, and research, which may have a high computational cost, solving
a mathematical numeric problem, or high computational time. Moreover,
several reservoir characterization methods require multiple iterations, resulting
in many simulations to obtain a reasonable characterization. It is also
possible to mention ensemble-based methods, such as the ensemble Kalman
filter, EnKF, and the Ensemble Smoother With Multiple Data Assimilation,
ES-MDA, which demand lots of simulation runs to provide the output
result. As a result, reservoir simulation might be a complex subject to
deal with when working with reservoir characterization. The use of machine
learning has been increasing in the energy industry. It can improve the
accuracy of reservoir predictions, optimize production strategies, and many
other applications. The complexity and uncertainty of reservoir models pose
significant challenges to traditional modeling approaches, making machine
learning an attractive solution. Aiming to reduce reservoir simulation’s
complexities, this work investigates using a machine-learning model as an
alternative to conventional simulators. The Random Forest regressor model
is experimented with to reproduce pressure response solutions for multi-region
radial composite reservoirs. An analytical approach is employed to create
the training dataset in the following procedure: the permeability is sorted
using a specific distribution, and the output is generated using the analytical
solution. Through experimentation and analysis, this work aims to advance
our understanding of using machine learning in reservoir simulation for the
energy industry.
|
8 |
[en] EVALUATING THE IMPACT OF THE INFLATION FACTORS GENERATION FOR THE ENSEMBLE SMOOTHER WITH MULTIPLE DATA ASSIMILATION / [pt] INVESTIGANDO O IMPACTO DA GERAÇÃO DOS FATORES DE INFLAÇÃO PARA O ENSEMBLE SMOOTHER COM MÚLTIPLA ASSIMILAÇÃO DE DADOSTHIAGO DE MENEZES DUARTE E SILVA 09 September 2021 (has links)
[pt] O ensemble smoother with multiple data assimilation (ES-MDA) se tornou
um poderoso estimador de parâmetros. A principal ideia do ES-MDA
é assimilar os mesmos dados com a matriz de covariância dos erros dos dados
inflada. Na implementação original do ES-MDA, os fatores de inflação e
o número de assimilações são escolhidos a priori. O único requisito é que a
soma dos inversos de tais fatores seja igual a um. Naturalmente, escolhendo-os
iguais ao número de assimilações cumpre este requerimento. Contudo, estudos
recentes mostraram uma relação entre a equação de atualização do ES-MDA
com a solução para o problema inverso regularizado. Consequentemente, tais
elementos agem como os parâmetros de regularização em cada assimilação.
Assim, estudos propuseram técnicas para gerar tais fatores baseadas no princípio
da discrepância. Embora estes estudos tenham propostos técnicas, um
procedimento ótimo para gerar os fatores de inflação continua um problema
em aberto. Mais ainda, tais estudos divergem em qual método de regularização
é sufiente para produzir os melhores resultados para o ES-MDA. Portanto,
nesta tese é abordado o problema de gerar os fatores de inflação para o ESMDA
e suas influências na performance do método. Apresentamos uma análise
numérica do impacto de tais fatores nos parâmetros principais do ES-MDA:
o tamanho do conjunto, o número de assimilações e o vetor de atualização
dos parâmetros. Com a conclusão desta análise, nós propomos uma nova técnica
para gerar os fatores de inflação para o ES-MDA baseada em um método
de regularização para algorítmos do tipo Levenberg-Marquardt. Investigando
os resultados de um problema de inundação de um reservatório 2D, o novo
método obtém melhor estimativa tanto para os parâmetros do modelo tanto
quanto para os dados observados. / [en] The ensemble smoother with multiple data assimilation (ES-MDA) gained
much attention as a powerful parameter estimation method. The main idea
of the ES-MDA is to assimilate the same data multiple times with an inflated
data error covariance matrix. In the original ES-MDA implementation, these
inflation factors, such as the number of assimilations, are selected a priori.
The only requirement is that the sum of the inflation factors inverses must be
equal to one. Therefore, selecting them equal to the number of assimilations
is a straightforward choice. Nevertheless, recent studies have shown a relationship
between the ES-MDA update equation and the solution to a regularized
inverse problem. Hence, the inflation factors play the role of the regularization
parameter at each ES-MDA assimilation step. As a result, they have also suggested
new procedures to generate these elements based on the discrepancy
principle. Although several studies proposed efficient techniques to generate
the ES-MDA inflation factors, an optimal procedure to generate them remains
an open problem. Moreover, the studies diverge on which regularization scheme
is sufficient to provide the best ES-MDA outcomes. Therefore, in this work,
we address the problem of generating the ES-MDA inflation factors and their
influence on the method s performance. We present a numerical analysis of
the influence of such factors on the main parameters of the ES-MDA, such
as the ensemble size, the number of assimilations, and the ES-MDA vector of
model parameters update. With the conclusions presented in the aforementioned
analysis, we propose a new procedure to generate ES-MDA inflation
factors based on a regularizing scheme for Levenberg-Marquardt algorithms.
It is shown through a synthetic two-dimensional waterflooding problem that
the new method achieves better model parameters and data match compared
to the other ES-MDA implementations available in the literature.
|
9 |
[pt] A QUANTIFICAÇÃO DO LUCRO DA INTERVENÇÃO / [en] THE QUANTIFICATION OF THE DISGORGEMENT OF PROFITSSANDRO COUTINHO SCHULZE 20 June 2024 (has links)
[pt] A presente dissertação tem como objetivo analisar a quantificação do lucro
da intervenção, partindo da convicção de que a utilização indevida do direito de um
terceiro não pode jamais ser um bom negócio. Inicialmente, será demonstrado que
o enriquecimento sem causa é o instituto mais adequado para lidar com situações
em que uma pessoa se beneficia injustamente à custa de outra. Serão
minuciosamente analisados os critérios que precisam ser atendidos para que se
caracterize esse tipo de enriquecimento, como o aumento patrimonial do
interveniente, a obtenção da vantagem à custa de outrem, a ausência de justa causa
e a subsidiariedade do instituto. Em seguida, serão explorados os métodos objetivos
para calcular o valor que deve ser devolvido ao titular do direito violado, apontando
a inaplicabilidade da teoria do duplo limite aos casos de lucro da intervenção, bem
como as razões pelas quais os valores pagos a título de reparação de danos
extrapatrimoniais não devem ser abatidos do montante a ser restituído. Sustenta-se,
ainda, a inadequação de compensar o lucro com o dano dentro do contexto de
enriquecimento sem causa. Por fim, será discutido o papel da boa-fé e da má-fé na
conduta do interventor, onde o trabalho explorará as divergências na doutrina sobre
o tema, concluindo que se o interventor age de boa-fé deve restituir o valor de
mercado da vantagem obtida e o lucro da intervenção deve ser repartido entre o
interventor e o titular de direito, de forma proporcional à contribuição de cada um.
Quanto à má-fé, conclui-se que, além do valor devido pelo uso do bem, o
interventor deve restituir todo o lucro obtido com a intervenção. Essa abordagem
proporcionará uma análise detalhada dos aspectos legais e éticos envolvidos na
quantificação do lucro da intervenção, contribuindo para uma compreensão mais
profunda do tema no contexto do Direito brasileiro. / [en] This dissertation aims to analyze the quantification of the disgorgement of
profits, based on the conviction that the improper use of a third party s right can
never be a good deal. Initially, it will be demonstrated that unjust enrichment is the
most appropriate institute for dealing with situations in which one person benefits
unfairly at the expense of another. The criteria that need to be met in order to
characterize this type of enrichment will be thoroughly analyzed, such as the
increase in the intervening party s assets, obtaining the advantage at the expense of
others, the absence of just cause and the subsidiarity of the institute. Next, objective
methods will be explored to calculate the amount that must be returned to the holder
of the violated right, pointing out the inapplicability of the double limit theory to
cases of profit from intervention, as well as the reasons why the amounts paid as
reparation of moral damages must not be deducted from the amount to be refunded.
It is also argued that it is inappropriate to compensate profit for damage within the
context of unjust enrichment. Finally, the role of good faith and bad faith in the
intervenor s conduct will be discussed, where the work will explore the divergences
in the doctrine on the subject, concluding that if the intervenor acts in good faith he
must restore the market value of the advantage obtained and the profit from the
intervention must be shared between the intervener and the right holder, in
proportion to the contribution of each one. As for bad faith, it is concluded that, in
addition to the amount due for the use of the asset, the intervener must refund all
the profit obtained from the intervention. This approach will provide a detailed
analysis of the legal and ethical aspects involved in quantifying the profit from the
intervention, contributing to a deeper understanding of the topic in the context of
Brazilian Law.
|
10 |
[pt] MODELAGEM E QUANTIFICAÇÃO DE INCERTEZAS NA DINÂMICA NÃO- LINEAR ESTOCÁSTICA DE COLUNAS DE PERFURAÇÃO HORIZONTAIS / [en] MODELING AND UNCERTAINTY QUANTIFICATION IN THE NONLINEAR STOCHASTIC DYNAMICS OF HORIZONTAL DRILLSTRINGS / [fr] MODÉLISATION ET QUANTIFICATION DES INCERTITUDES EN DYNAMIQUE STOCHASTIQUE NON LINÉAIRE DES TUBES DE FORAGE HORIZONTAUXAMERICO BARBOSA DA CUNHA JUNIOR 17 June 2016 (has links)
[pt] Prospecção de petróleo usa um equipamento chamado coluna de perfuração
para escavar o solo até o nível do reservatório. Este equipamento é uma
longa coluna, sob rotação, composto por uma sequência de tubos de perfura
ção e equipamentos auxiliares conectados. A dinâmica desta coluna é
muito complexa, porque sob condições normais de operação, ela está sujeita
à vibrações longitudinais, laterais e torcionais, que apresentam um
acoplamento não-linear. Além disso, a estrutura está submetida a efeitos de
atrito e choque devido a contatos mecânicos entre os pares broca/rocha e
tubos de perfuração/parede do poço. Este trabalho apresenta um modelo
mecânico-matemático para analisar uma coluna de perfuração em configuração horizontal. Este modelo usa uma teoria de viga com inércia de rotação,
deformação cisalhante e acoplamento não-linear entre os três mecanismos
de vibração. As equações do modelo são discretizadas utilizando o método
dos elementos finitos. As incertezas dos parâmetros do modelo de interação
broca-rocha são levandas em conta através de uma abordagem probabilística
paramétrica, e as distribuições de probabilidades dos parâmetros aleatórios
são construídas por meio do princípio da entropia máxima. Simulações numéricas são conduzidas de forma a caracterizar o comportamento dinâmico
não-linear da estrutura, especialmente, da broca. Fenômenos dinâmicos inerentemente
não-lineares, como stick-slip e bit-bounce, são observados nas
simulações, bem como choques. Uma análise espectral mostra que, surpreendentemente,
os fenômenos de stick-slip e bit-bounce são resultado do mecanismo
de vibração lateral, e que os fenômenos de choque decorrem da
vibração torcional. Visando aumentar a eficiência do processo de perfuração, um problema de otimização que tem como objetivo maximizar a taxa
de penetração da coluna no solo, respeitando os seus limites estruturais, é
proposto e resolvido. / [en] Oil prospecting uses an equipment called drillstring to drill the soil until the
reservoir level. This equipment is a long column under rotation, composed by
a sequence of connected drill-pipes and auxiliary equipment. The dynamics
of this column is very complex because, under normal operational conditions,
it is subjected to longitudinal, lateral, and torsional vibrations, which
presents a nonlinear coupling. Also, this structure is subjected to friction and
shocks effects due to the mechanical contacts between the pairs drill-bit/soil
and drill-pipes/borehole. This work presents a mechanical-mathematical
model to analyze a drillstring in horizontal configuration. This model uses
a beam theory which accounts rotatory inertia, shear deformation, and the
nonlinear coupling between three mechanisms of vibration. The model equations
are discretized using the finite element method. The uncertainties in
bit-rock interaction model parameters are taken into account through a
parametric probabilistic approach, and the random parameters probability
distributions are constructed by means of maximum entropy principle. Numerical
simulations are conducted in order to characterize the nonlinear
dynamic behavior of the structure, specially, the drill-bit. Dynamical phenomena
inherently nonlinear, such as slick-slip and bit-bounce, are observed
in the simulations, as well as shocks. A spectral analysis shows, surprisingly,
that slick-slip and bit-bounce phenomena result from the lateral vibration
mechanism, and that shock phenomena comes from the torsional vibration.
Seeking to increase the efficiency of the drilling process, an optimization
problem that aims to maximize the rate of penetration of the column into
the soil, respecting its structural limits, is proposed and solved. / [fr] La prospection de pétrole utilise un équipement appelé tube de forage pour
forer le sol jusqu au niveau du réservoir. Cet équipement est une longue
colonne rotative, composée d une série de tiges de forage interconnectées et
d équipements auxiliaires. La dynamique de cette colonne est très complexe
car dans des conditions opérationnelles normales, elle est soumise à des vibrations
longitudinales, latérales et de torsion, qui présentent un couplage
non linéaire. En outre, cette structure est soumise à des effets de frottement
et à des chocs dûs aux contacts mécaniques entre les paires tête de
forage/sol et tube de forage/sol. Ce travail présente un modèle mécaniquemathématique pour analyser un tube de forage en configuration horizontale.
Ce modèle utilise la théorie des poutres qui utilise l inertie de rotation,
la déformation de cisaillement et le couplage non linéaire entre les trois
mécanismes de vibration. Les équations du modèle sont discrétisées par la
méthode des éléments finis. Les incertitudes des paramètres du modèle d interaction
tête de forage/sol sont prises en compte par l approche probabiliste
paramétrique, et les distributions de probabilité des paramètres aléatoires
sont construites par le principe du maximum d entropie. Des simulations
numériques sont réalisées afin de caractériser le comportement dynamique
non lináaire de la structure, et en particulier, de l outil de forage. Des phénom
ènes dynamiques non linéaires par nature, comme le slick-slip et le bit-
bounce, sont observés dans les simulations, ainsi que les chocs. Une analyse
spectrale montre étonnamment que les phénomènes slick-slip et bit-bounce
résultent du mécanisme de vibration latérale, et ce phénomène de choc vient
de la vibration de torsion. Cherchant à améliorer l efficacité de l opération
de forage, un problème d optimisation, qui cherche à maximiser la vitesse
de pénétration de la colonne dans le sol, sur ses limites structurelles, est
proposé et résolu.
|
Page generated in 0.0529 seconds