1 |
[en] BRANCHING PROCESSES FOR EPIDEMICS STUDY / [pt] PROCESSOS DE RAMIFICAÇÃO PARA O ESTUDO DE EPIDEMIASJOAO PEDRO XAVIER FREITAS 26 October 2023 (has links)
[pt] Este trabalho modela a evolução temporal de uma epidemia com uma
abordagem estocástica. O número de novas infecções por infectado é modelado
como uma variável aleatória discreta, chamada aqui de contágio. Logo, a
evolução temporal da doença é um processo estocástico. Mais especificamente,
a propagação é dada pelo modelo de Bienaymé-Galton-Watson, um tipo
de processo de ramificação de parâmetro discreto. Neste processo, para um
determinado instante, o número de membros infectados, ou seja, a geração de
membros infectados é uma variável aleatória. Na primeira parte da dissertação,
dado que o modelo probabilístico do contágio é conhecido, quatro metodologias
utilizadas para obter as funções de massa das gerações do processo estocástico
são comparadas. As metodologias são: funções geradoras de probabilidade com
e sem identidades polinomiais, cadeia de Markov e simulações de Monte Carlo.
A primeira e terceira metodologias fornecem expressões analíticas relacionando
a variável aleatória de contágio com a variável aleatória do tamanho de uma
geração. Essas expressões analíticas são utilizadas na segunda parte desta
dissertação, na qual o problema clássico de inferência paramétrica bayesiana é
estudado. Com a ajuda do teorema de Bayes, parâmetros da variável aleatória
de contágio são inferidos a partir de realizações do processo de ramificação. As
expressões analíticas obtidas na primeira parte do trabalho são usadas para
construir funções de verossimilhança apropriadas. Para resolver o problema
inverso, duas maneiras diferentes de se usar dados provindos do processo
de Bienaymé-Galton-Watson são desenvolvidas e comparadas: quando dados
são realizações de uma única geração do processo de ramificação ou quando
os dados são uma única realização do processo de ramificação observada ao
longo de uma quantidade de gerações. O critério abordado neste trabalho para
encerrar o processo de atualização na inferência paramétrica usa a distância
de L2-Wasserstein, que é uma métrica baseada no transporte ótimo de massa.
Todas as rotinas numéricas e simbólicas desenvolvidas neste trabalho são
escritas em MATLAB. / [en] This work models an epidemic s spreading over time with a stochastic
approach. The number of infections per infector is modeled as a discrete random variable, named here as contagion. Therefore, the evolution of the disease
over time is a stochastic process. More specifically, this propagation is modeled
as the Bienaymé-Galton-Watson process, one kind of branching process with
discrete parameter. In this process, for a given time, the number of infected
members, i.e. a generation of infected members, is a random variable. In the
first part of this dissertation, given that the mass function of the contagion s
random variable is known, four methodologies to find the mass function of the
generations of the stochastic process are compared. The methodologies are:
probability generating functions with and without polynomial identities, Markov chain and Monte Carlo simulations. The first and the third methodologies
provide analytical expressions relating the contagion random variable and the
generation s size random variable. These analytical expressions are used in the
second part of this dissertation, where a classical inverse problem of bayesian
parametric inference is studied. With the help of Bayes rule, parameters of
the contagion random variable are inferred from realizations of the stochastic
process. The analytical expressions obtained in the first part of the work are
used to build appropriate likelihood functions. In order to solve the inverse
problem, two different ways of using data from the Bienaymé-Galton-Watson
process are developed and compared: when data are realizations of a single
generation of the branching process and when data is just one realization of
the branching process observed over a certain number of generations. The criteria used in this work to stop the update process in the bayesian parametric
inference uses the L2-Wasserstein distance, which is a metric based on optimal
mass transference. All numerical and symbolical routines developed to this
work are written in MATLAB.
|
2 |
[en] HYBRID METHOD BASED INTO KALMAN FILTER AND DEEP GENERATIVE MODEL TO HISTORY MATCHING AND UNCERTAINTY QUANTIFICATION OF FACIES GEOLOGICAL MODELS / [pt] MÉTODO HÍBRIDO BASEADO EM FILTRO DE KALMAN E MODELOS GENERATIVOS DE APRENDIZAGEM PROFUNDA NO AJUSTE DE HISTÓRICO SOB INCERTEZAS PARA MODELOS DE FÁCIES GEOLÓGICASSMITH WASHINGTON ARAUCO CANCHUMUNI 25 March 2019 (has links)
[pt] Os métodos baseados no filtro de Kalman têm tido sucesso notável na
indústria do petróleo nos últimos anos, especialmente, para resolver problemas
reais de ajuste de histórico. No entanto, como a formulação desses métodos
é baseada em hipóteses de gaussianidade e linearidade, seu desempenho
é severamente degradado quando a geologia a priori é descrita em termos
de distribuições complexas (e.g. modelos de fácies). A tendência atual em
soluções para o problema de ajuste de histórico é levar em consideração
modelos de reservatórios mais realistas com geologia complexa. Assim, a
modelagem de fácies geológicas desempenha um papel importante na caracterização
de reservatórios, como forma de reproduzir padrões importantes
de heterogeneidade e facilitar a modelagem das propriedades petrofísicas
das rochas do reservatório. Esta tese introduz uma nova metodologia para
realizar o ajuste de histórico de modelos geológicos complexos. A metodologia
consiste na integração de métodos baseados no filtro de Kalman em
particular o método conhecido na literatura como Ensemble Smoother with
Multiple Data Assimilation (ES-MDA), com uma parametrização das fácies
geológicas por meio de técnicas baseadas em aprendizado profundo (Deep
Learning) em arquiteturas do tipo autoencoder. Um autoencoder sempre
consiste em duas partes, o codificador (modelo de reconhecimento) e o decodificador
(modelo gerador). O procedimento começa com o treinamento de
um conjunto de realizações de fácies por meio de algoritmos de aprendizado
profundo, através do qual são identificadas as principais características das
imagens de fácies geológicas, permitindo criar novas realizações com as mesmas
características da base de treinamento com uma reduzida parametrização
dos modelos de fácies na saída do codificador. Essa parametrização é
regularizada no codificador para fornecer uma distribuição gaussiana na
saída, a qual é utilizada para atualizar os modelos de fácies de acordo com
os dados observados do reservatório, através do método ES-MDA. Ao final,
os modelos atualizados são reconstruídos através do aprendizado profundo
(decodificador), com o objetivo de obter modelos finais que apresentem características
similares às da base de treinamento.
Os resultados, em três casos de estudo com 2 e 3 fácies, mostram que
a parametrização de modelos de fácies baseada no aprendizado profundo
consegue reconstruir os modelos de fácies com um erro inferior a 0,3 por cento. A
metodologia proposta gera modelos geológicos ajustados que conservam a
descrição geológica a priori do reservatório (fácies com canais curvilíneos),
além de ser consistente com o ajuste dos dados observados do reservatório. / [en] Kalman filter-based methods have had remarkable success in the oil
industry in recent years, especially to solve several real-life history matching
problems. However, as the formulation of these methods is based on the
assumptions of gaussianity and linearity, their performance is severely degraded
when a priori geology is described in terms of complex distributions
(e.g., facies models). The current trend in solutions for the history matching
problem is to take into account more realistic reservoir models, with complex
geology. Thus the geological facies modeling plays an important role in the
characterization of reservoirs as a way of reproducing important patterns
of heterogeneity and to facilitate the modeling of the reservoir rocks petrophysical
properties. This thesis introduces a new methodology to perform
the history matching of complex geological models. This methodology consists
of the integration of Kalman filter-based methods, particularly the
method known in the literature as Ensemble Smoother with Multiple Data
Assimilation (ES-MDA), with a parameterization of the geological facies
through techniques based on deep learning in autoencoder type architectures.
An autoencoder always consists of two parts, the encoder (recognition
model) and the decoder (generator model). The procedure begins with the
training of a set of facies realizations via deep generative models, through
which the main characteristics of geological facies images are identified, allowing
for the creation of new realizations with the same characteristics of
the training base, with a low dimention parametrization of the facies models
at the output of the encoder. This parameterization is regularized at
the encoder to provide Gaussian distribution models in the output, which
is then used to update the models according to the observed data of the
reservoir through the ES-MDA method. In the end, the updated models
are reconstructed through deep learning (decoder), with the objective of
obtaining final models that present characteristics similar to those of the
training base.
The results, in three case studies with 2 and 3 facies, show that the parameterization
of facies models based on deep learning can reconstruct facies
models with an error lower than 0.3 percent. The proposed methodology generates
final geological models that preserve the a priori geological description of
the reservoir (facies with curvilinear channels), besides being consistent with
the adjustment of the observed data of the reservoir.
|
3 |
[en] UNCERTAINTY ANALYSIS OF 2D VECTOR FIELDS THROUGH THE HELMHOLTZ-HODGE DECOMPOSITION / [pt] ANALISE DE INCERTEZAS EM CAMPOS VETORIAIS 2D COM O USO DA DECOMPOSIÇÃO DE HELMHOLTZ-HODGEPAULA CECCON RIBEIRO 20 March 2017 (has links)
[pt] Campos vetoriais representam um papel principal em diversas aplicações científicas. Eles são comumente gerados via simulações computacionais. Essas simulações podem ser um processo custoso, dado que em muitas vezes elas requerem alto tempo computacional. Quando pesquisadores desejam quantificar a incerteza relacionada a esse tipo de aplicação, costuma-se gerar um conjunto de realizações de campos vetoriais, o que torna o processo ainda mais custoso. A Decomposição de Helmholtz-Hodge é uma ferramenta útil para a interpretação de campos vetoriais uma vez que ela distingue componentes conservativos (livre de rotação) de componentes que preservam massa (livre de divergente). No presente trabalho, vamos
explorar a aplicabilidade de tal técnica na análise de incerteza de campos vetoriais 2D. Primeiramente, apresentaremos uma abordagem utilizando a Decomposição de Helmholtz-Hodge como uma ferramenta básica na análise de conjuntos de campos vetoriais. Dado um conjunto de campos vetoriais epsilon, obtemos os conjuntos formados pelos componentes livre de rotação, livre de divergente e harmônico, aplicando a Decomposição Natural de Helmholtz- Hodge em cada campo vetorial em epsilon. Com esses conjuntos em mãos, nossa proposta não somente quantifica, por meio de análise estatística, como cada componente é pontualmente correlacionado ao conjunto de campos vetoriais original, como também permite a investigação independente da incerteza relacionado aos campos livre de rotação, livre de divergente e harmônico. Em
sequência, propomos duas técnicas que em conjunto com a Decomposição de Helmholtz-Hodge geram, de forma estocástica, campos vetoriais a partir de uma única realização. Por fim, propomos também um método para sintetizar campos vetoriais a partir de um conjunto, utilizando técnicas de Redução de Dimensionalidade e Projeção Inversa. Testamos os métodos propostos tanto em campos sintéticos quanto em campos numericamente simulados. / [en] Vector field plays an essential role in a large range of scientific applications. They are commonly generated through computer simulations. Such simulations may be a costly process because they usually require high
computational time. When researchers want to quantify the uncertainty in such kind of applications, usually an ensemble of vector fields realizations are generated, making the process much more expensive. The Helmholtz-Hodge Decomposition is a very useful instrument for vector field interpretation
because it traditionally distinguishes conservative (rotational-free) components from mass-preserving (divergence-free) components. In this work, we are going to explore the applicability of such technique on the uncertainty analysis of 2-dimensional vector fields. First, we will present an approach of the use
of the Helmholtz-Hodge Decomposition as a basic tool for the analysis of a vector field ensemble. Given a vector field ensemble epsilon, we firstly obtain the corresponding rotational-free, divergence-free and harmonic component ensembles by applying the Natural Helmholtz-Hodge Decomposition to each1 vector field in epsilon. With these ensembles in hand, our proposal not only quantifies, via a statistical analysis, how much each component ensemble is point-wisely correlated to the original vector field ensemble, but it also allows
to investigate the uncertainty of rotational-free, divergence-free and harmonic components separately. Then, we propose two techniques that jointly with the Helmholtz-Hodge Decomposition stochastically generate vector fields from a single realization. Finally, we propose a method to synthesize vector fields from an ensemble, using both the Dimension Reduction and Inverse Projection techniques. We test the proposed methods with synthetic vector fields as well as with simulated vector fields.
|
4 |
[en] UNCERTAINTY QUANTIFICATION IN OIL RESERVOIR SIMULATION VIA GENETIC PROGRAMMING AND CHAOS POLYNOMIAL / [pt] QUANTIFICAÇÃO DE INCERTEZAS NA SIMULAÇÃO DE RESERVATÓRIOS DE PETRÓLEO VIA PROGRAMAÇÃO GENÉTICA E CAOS POLINOMIALALEJANDRA CAMACHO SOLANO 28 April 2016 (has links)
[pt] Os modelos de simulação de reservatórios estão sujeitos à incerteza presente em uma grande variedade de seus parâmetros de entrada. Esta incerteza é o resultado da heterogeneidade das formações geológicas, erros nas medições dos dados e da modelagem petrofísica, estrutural e do transporte dos fluidos no meio poroso. Uma quantificação precisa da incerteza requer, na maioria dos casos, uma quantidade elevada de simulações, o que é usualmente inviável se considerarmos o tempo consumido para simular modelos de grande escala. Por outro lado, uma avaliação adequada da incerteza aumenta a qualidade e robustez das decisões tomadas para o gerenciamento dos campos de petróleo. Com esta motivação, foi investigado o método das Expansões por Caos Polinomial (PCE, por suas siglas em inglês). PCE é uma técnica de convergência rápida utilizada para analisar como se propaga, na saída de um modelo, a incerteza presente nos parâmetros de entrada. Mediante PCE, pode-se representar a resposta aleatória de um modelo de simulação de reservatórios de petróleo como um polinômio, construído a partir de uma base de funções que dependem da distribuição de probabilidade das variáveis incertas de entrada. Por outro lado, quando a relação entre os parâmetros de entrada e a saída do modelo têm um componente não polinomial, o algoritmo de Programação Genética (PG) pode ser utilizado para representar esta dependência utilizando funções ou operadores mais complexos. PG é um algoritmo de regressão simbólica capaz de encontrar uma expressão aleatória explícita, que aproxime a saída de um modelo de simulação de reservatórios de petróleo, conhecendo-se a priori a distribuição de probabilidade dos parâmetros de entrada. Neste trabalho foram aplicadas as duas técnicas, antes mencionadas, num modelo de simulação de reservatórios baseado no campo PUNQ-S3, considerando até vinte e três parâmetros incertos durante um período de produção de 13 anos. Foi feita uma análise de incerteza, calculando-se a distribuição de probabilidade completa da saída do simulador. Os resultados foram comparados com o método de Monte Carlo, indicando um alto desempenho em termos de custo computacional e acurácia. Ambas as técnicas conseguem níveis de ajuste superiores a 80 porcento com uma quantidade de simulações consideravelmente baixa. / [en] Reservoir simulation models are subject to uncertainty in a wide variety of its inputs. This uncertainty is a result of the heterogeneity of the geological formations, data measurement errors, and petrophysical, structural, and fluid transport in porous media modelling. An accurate uncertainty quantification requires, in most cases, a large number of simulations, which is unviable considering the time it takes to simulate large scale models. On the other hand, a proper uncertainty assessment, increases the robustness of the decision making process for the oil field management. To this end, the method of Polynomial Chaos Expansions (PCE) was studied. PCE is a fast paced convergence technique, used to analyze the uncertainty propagation of the input parameters all the way to the output of the model. Through PCE is possible to represent the response of an oil reservoir simulation model as a polynomial, built from a function basis, that depend on the probability distribution of the uncertain input variables. Furthermore, when the relationship between the input and output parameters of the model has a non-polynomial component, the algorithm of Genetic Programming (GP) can be used to represent this dependency by more elaborate functions or operators. GP is a symbolic regression algorithm, capable of finding an explicit expression that approximates the output of a reservoir simulation model, with prior knowledge of the probability distribution of the input parameters. In this work, the two previously mentioned techniques were applied in a reservoir simulation model, based on the oil field PUNQ-S3, considering up to twenty three uncertain parameters during a simulation period of 13 years. An uncertainty analysis of the output of the simulator was conducted, calculating the entire probability distribution. The results were compared to the Monte Carlo simulation method, presenting a satisfactory performance in terms of accuracy and computational cost. Both techniques show adjustment levels higher than 80 percent, with a considerable small amount simulations.
|
5 |
[pt] AVALIANDO O USO DO ALGORITMO RANDOM FOREST PARA SIMULAÇÃO EM RESERVATÓRIOS MULTI-REGIÕES / [en] EVALUATING THE USE OF RANDOM FOREST REGRESSOR TO RESERVOIR SIMULATION IN MULTI-REGION RESERVOIRSIGOR CAETANO DINIZ 22 June 2023 (has links)
[pt] Simulação de reservatórios de óleo e gás é uma demanda comum em engenharia de petróleo e pesquisas relacionadas, que pode requerer um elevado custo computacional de tempo e processamento ao resolver um problema matemático. Além disso, alguns métodos de caracterização de reservatórios necessitam múltiplas iterações, resultando em muitas simulações para obter um resultado. Também podemos citar os métodos baseados em conjunto, tais como o ensemble Kalman filter, o EnKF, e o Ensemble Smoother With Multiple Data Assimilation,o ES-MDA, que requerem muitas simulações. Em contrapartida, o uso de aprendizado de máquina cresceu bastante na indústria de energia. Isto pode melhorar a acurácia de predição, otimizar estratégias e outros. Visando reduzir as complexidades de simulação de reservatórios, este trabalho investiga o uso de aprendizado de máquina como uma alternativa a simuladores convencionais. O modelo Random Forest Regressor é testado para reproduzir respostas de pressão em um reservatório multi-região radial composto. Uma solução analítica é utilizada para gerar o conjunto de treino e teste para o modelo. A partir de experimentação e análise, este trabalho tem o objetivo de suplementar a utilização de aprendizado de máquina na indústria de energia. / [en] Oil and gas reservoir simulation is a common demand in petroleum
engineering, and research, which may have a high computational cost, solving
a mathematical numeric problem, or high computational time. Moreover,
several reservoir characterization methods require multiple iterations, resulting
in many simulations to obtain a reasonable characterization. It is also
possible to mention ensemble-based methods, such as the ensemble Kalman
filter, EnKF, and the Ensemble Smoother With Multiple Data Assimilation,
ES-MDA, which demand lots of simulation runs to provide the output
result. As a result, reservoir simulation might be a complex subject to
deal with when working with reservoir characterization. The use of machine
learning has been increasing in the energy industry. It can improve the
accuracy of reservoir predictions, optimize production strategies, and many
other applications. The complexity and uncertainty of reservoir models pose
significant challenges to traditional modeling approaches, making machine
learning an attractive solution. Aiming to reduce reservoir simulation’s
complexities, this work investigates using a machine-learning model as an
alternative to conventional simulators. The Random Forest regressor model
is experimented with to reproduce pressure response solutions for multi-region
radial composite reservoirs. An analytical approach is employed to create
the training dataset in the following procedure: the permeability is sorted
using a specific distribution, and the output is generated using the analytical
solution. Through experimentation and analysis, this work aims to advance
our understanding of using machine learning in reservoir simulation for the
energy industry.
|
6 |
[en] EVALUATING THE IMPACT OF THE INFLATION FACTORS GENERATION FOR THE ENSEMBLE SMOOTHER WITH MULTIPLE DATA ASSIMILATION / [pt] INVESTIGANDO O IMPACTO DA GERAÇÃO DOS FATORES DE INFLAÇÃO PARA O ENSEMBLE SMOOTHER COM MÚLTIPLA ASSIMILAÇÃO DE DADOSTHIAGO DE MENEZES DUARTE E SILVA 09 September 2021 (has links)
[pt] O ensemble smoother with multiple data assimilation (ES-MDA) se tornou
um poderoso estimador de parâmetros. A principal ideia do ES-MDA
é assimilar os mesmos dados com a matriz de covariância dos erros dos dados
inflada. Na implementação original do ES-MDA, os fatores de inflação e
o número de assimilações são escolhidos a priori. O único requisito é que a
soma dos inversos de tais fatores seja igual a um. Naturalmente, escolhendo-os
iguais ao número de assimilações cumpre este requerimento. Contudo, estudos
recentes mostraram uma relação entre a equação de atualização do ES-MDA
com a solução para o problema inverso regularizado. Consequentemente, tais
elementos agem como os parâmetros de regularização em cada assimilação.
Assim, estudos propuseram técnicas para gerar tais fatores baseadas no princípio
da discrepância. Embora estes estudos tenham propostos técnicas, um
procedimento ótimo para gerar os fatores de inflação continua um problema
em aberto. Mais ainda, tais estudos divergem em qual método de regularização
é sufiente para produzir os melhores resultados para o ES-MDA. Portanto,
nesta tese é abordado o problema de gerar os fatores de inflação para o ESMDA
e suas influências na performance do método. Apresentamos uma análise
numérica do impacto de tais fatores nos parâmetros principais do ES-MDA:
o tamanho do conjunto, o número de assimilações e o vetor de atualização
dos parâmetros. Com a conclusão desta análise, nós propomos uma nova técnica
para gerar os fatores de inflação para o ES-MDA baseada em um método
de regularização para algorítmos do tipo Levenberg-Marquardt. Investigando
os resultados de um problema de inundação de um reservatório 2D, o novo
método obtém melhor estimativa tanto para os parâmetros do modelo tanto
quanto para os dados observados. / [en] The ensemble smoother with multiple data assimilation (ES-MDA) gained
much attention as a powerful parameter estimation method. The main idea
of the ES-MDA is to assimilate the same data multiple times with an inflated
data error covariance matrix. In the original ES-MDA implementation, these
inflation factors, such as the number of assimilations, are selected a priori.
The only requirement is that the sum of the inflation factors inverses must be
equal to one. Therefore, selecting them equal to the number of assimilations
is a straightforward choice. Nevertheless, recent studies have shown a relationship
between the ES-MDA update equation and the solution to a regularized
inverse problem. Hence, the inflation factors play the role of the regularization
parameter at each ES-MDA assimilation step. As a result, they have also suggested
new procedures to generate these elements based on the discrepancy
principle. Although several studies proposed efficient techniques to generate
the ES-MDA inflation factors, an optimal procedure to generate them remains
an open problem. Moreover, the studies diverge on which regularization scheme
is sufficient to provide the best ES-MDA outcomes. Therefore, in this work,
we address the problem of generating the ES-MDA inflation factors and their
influence on the method s performance. We present a numerical analysis of
the influence of such factors on the main parameters of the ES-MDA, such
as the ensemble size, the number of assimilations, and the ES-MDA vector of
model parameters update. With the conclusions presented in the aforementioned
analysis, we propose a new procedure to generate ES-MDA inflation
factors based on a regularizing scheme for Levenberg-Marquardt algorithms.
It is shown through a synthetic two-dimensional waterflooding problem that
the new method achieves better model parameters and data match compared
to the other ES-MDA implementations available in the literature.
|
7 |
[pt] MODELAGEM E QUANTIFICAÇÃO DE INCERTEZAS NA DINÂMICA NÃO- LINEAR ESTOCÁSTICA DE COLUNAS DE PERFURAÇÃO HORIZONTAIS / [en] MODELING AND UNCERTAINTY QUANTIFICATION IN THE NONLINEAR STOCHASTIC DYNAMICS OF HORIZONTAL DRILLSTRINGS / [fr] MODÉLISATION ET QUANTIFICATION DES INCERTITUDES EN DYNAMIQUE STOCHASTIQUE NON LINÉAIRE DES TUBES DE FORAGE HORIZONTAUXAMERICO BARBOSA DA CUNHA JUNIOR 17 June 2016 (has links)
[pt] Prospecção de petróleo usa um equipamento chamado coluna de perfuração
para escavar o solo até o nível do reservatório. Este equipamento é uma
longa coluna, sob rotação, composto por uma sequência de tubos de perfura
ção e equipamentos auxiliares conectados. A dinâmica desta coluna é
muito complexa, porque sob condições normais de operação, ela está sujeita
à vibrações longitudinais, laterais e torcionais, que apresentam um
acoplamento não-linear. Além disso, a estrutura está submetida a efeitos de
atrito e choque devido a contatos mecânicos entre os pares broca/rocha e
tubos de perfuração/parede do poço. Este trabalho apresenta um modelo
mecânico-matemático para analisar uma coluna de perfuração em configuração horizontal. Este modelo usa uma teoria de viga com inércia de rotação,
deformação cisalhante e acoplamento não-linear entre os três mecanismos
de vibração. As equações do modelo são discretizadas utilizando o método
dos elementos finitos. As incertezas dos parâmetros do modelo de interação
broca-rocha são levandas em conta através de uma abordagem probabilística
paramétrica, e as distribuições de probabilidades dos parâmetros aleatórios
são construídas por meio do princípio da entropia máxima. Simulações numéricas são conduzidas de forma a caracterizar o comportamento dinâmico
não-linear da estrutura, especialmente, da broca. Fenômenos dinâmicos inerentemente
não-lineares, como stick-slip e bit-bounce, são observados nas
simulações, bem como choques. Uma análise espectral mostra que, surpreendentemente,
os fenômenos de stick-slip e bit-bounce são resultado do mecanismo
de vibração lateral, e que os fenômenos de choque decorrem da
vibração torcional. Visando aumentar a eficiência do processo de perfuração, um problema de otimização que tem como objetivo maximizar a taxa
de penetração da coluna no solo, respeitando os seus limites estruturais, é
proposto e resolvido. / [en] Oil prospecting uses an equipment called drillstring to drill the soil until the
reservoir level. This equipment is a long column under rotation, composed by
a sequence of connected drill-pipes and auxiliary equipment. The dynamics
of this column is very complex because, under normal operational conditions,
it is subjected to longitudinal, lateral, and torsional vibrations, which
presents a nonlinear coupling. Also, this structure is subjected to friction and
shocks effects due to the mechanical contacts between the pairs drill-bit/soil
and drill-pipes/borehole. This work presents a mechanical-mathematical
model to analyze a drillstring in horizontal configuration. This model uses
a beam theory which accounts rotatory inertia, shear deformation, and the
nonlinear coupling between three mechanisms of vibration. The model equations
are discretized using the finite element method. The uncertainties in
bit-rock interaction model parameters are taken into account through a
parametric probabilistic approach, and the random parameters probability
distributions are constructed by means of maximum entropy principle. Numerical
simulations are conducted in order to characterize the nonlinear
dynamic behavior of the structure, specially, the drill-bit. Dynamical phenomena
inherently nonlinear, such as slick-slip and bit-bounce, are observed
in the simulations, as well as shocks. A spectral analysis shows, surprisingly,
that slick-slip and bit-bounce phenomena result from the lateral vibration
mechanism, and that shock phenomena comes from the torsional vibration.
Seeking to increase the efficiency of the drilling process, an optimization
problem that aims to maximize the rate of penetration of the column into
the soil, respecting its structural limits, is proposed and solved. / [fr] La prospection de pétrole utilise un équipement appelé tube de forage pour
forer le sol jusqu au niveau du réservoir. Cet équipement est une longue
colonne rotative, composée d une série de tiges de forage interconnectées et
d équipements auxiliaires. La dynamique de cette colonne est très complexe
car dans des conditions opérationnelles normales, elle est soumise à des vibrations
longitudinales, latérales et de torsion, qui présentent un couplage
non linéaire. En outre, cette structure est soumise à des effets de frottement
et à des chocs dûs aux contacts mécaniques entre les paires tête de
forage/sol et tube de forage/sol. Ce travail présente un modèle mécaniquemathématique pour analyser un tube de forage en configuration horizontale.
Ce modèle utilise la théorie des poutres qui utilise l inertie de rotation,
la déformation de cisaillement et le couplage non linéaire entre les trois
mécanismes de vibration. Les équations du modèle sont discrétisées par la
méthode des éléments finis. Les incertitudes des paramètres du modèle d interaction
tête de forage/sol sont prises en compte par l approche probabiliste
paramétrique, et les distributions de probabilité des paramètres aléatoires
sont construites par le principe du maximum d entropie. Des simulations
numériques sont réalisées afin de caractériser le comportement dynamique
non lináaire de la structure, et en particulier, de l outil de forage. Des phénom
ènes dynamiques non linéaires par nature, comme le slick-slip et le bit-
bounce, sont observés dans les simulations, ainsi que les chocs. Une analyse
spectrale montre étonnamment que les phénomènes slick-slip et bit-bounce
résultent du mécanisme de vibration latérale, et ce phénomène de choc vient
de la vibration de torsion. Cherchant à améliorer l efficacité de l opération
de forage, un problème d optimisation, qui cherche à maximiser la vitesse
de pénétration de la colonne dans le sol, sur ses limites structurelles, est
proposé et résolu.
|
8 |
[en] ANALYSIS OF THE COMPUTATIONAL COST OF THE MONTE CARLO METHOD: A STOCHASTIC APPROACH APPLIED TO A VIBRATION PROBLEM WITH STICK-SLIP / [pt] ANÁLISE DO CUSTO COMPUTACIONAL DO MÉTODO DE MONTE CARLO: UMA ABORDAGEM ESTOCÁSTICA APLICADA A UM PROBLEMA DE VIBRAÇÕES COM STICK-SLIPMARIANA GOMES DIAS DOS SANTOS 20 June 2023 (has links)
[pt] Um dos objetivos desta tese é analisar o custo computacional do
método de Monte Carlo aplicado a um problema modelo de dinâmica,
considerando incertezas na força de atrito. O sistema mecânico a ser
estudado é composto por um oscilador de um grau de liberdade que se
desloca sobre uma esteira em movimento. Considera-se a existência de atrito
seco entre a massa do oscilador e a esteira. Devido a uma descontinuidade
na força de atrito, a dinâmica resultante pode ser dividida em duas fases
que se alternam, chamadas de stick e slip. Neste estudo, um parâmetro
da força de atrito dinâmica é modelado como uma variável aleatória. A
propagação de incerteza é estudada por meio da aplicação do método
de Monte Carlo, considerando três abordagens diferentes para calcular
aproximações da resposta dos problemas de valor inicial que modelam a
dinâmica do problema: NV) aproximações numéricas calculadas usando
método de Runge-Kutta de quarta e quinta ordens com passo de integração variável;
NF) aproximações numéricas calculadas usando método de Runge-Kutta de
quarta ordem com passo de integração fixo; AN) aproximação analítica obtida
com o método de múltiplas escalas. Nas abordagens NV e NF, para cada
valor de parâmetro, uma aproximação numérica foi calculada. Já para a AN,
apenas uma aproximação analítica foi calculada e avaliada para os diferentes
valores usados. Entre as variáveis aleatórias de interesse associadas ao
custo computacional do método de Monte Carlo, encontram-se o tempo de
execução e o espaço em disco consumido. Devido à propagação de incertezas,
a resposta do sistema é um processo estocástico com uma sequência aleatória
de fases de stick e slip. Essa sequência pode ser caracterizada pelas seguintes
variáveis aleatórias: instantes de transição entre as fases de stick e slip,
suas durações e o número de fases. Para estudar as variáveis associadas ao
custo computacional e ao processo estocástico foram construídos modelos
estatísticos, histogramas normalizados e gráficos de dispersão. O objetivo é
estudar a dependência entre as variáveis do processo estocástico e o custo
computacional. Porém, a construção destas análises não é simples devido à
dimensão do problema e à impossibilidade de visualização das distribuições
conjuntas de vetores aleatórios de três ou mais dimensões. / [en] One of the objectives of this thesis is to analyze the computational
cost of the Monte Carlo method applied to a toy problem concerning
the dynamics of a mechanical system with uncertainties in the friction
force. The system is composed by an oscillator placed over a moving
belt. The existence of dry friction between the two elements in contact
is considered. Due to a discontinuity in the frictional force, the resulting
dynamics can be divided into two alternating phases, called stick and slip.
In this study, a parameter of the dynamic friction force is modeled as
a random variable. Uncertainty propagation is analyzed by applying the
Monte Carlo method, considering three different strategies to compute
approximations to the initial value problems that model the system s
dynamics: NV) numerical approximations computed with the Runge-Kutta
method of 4th and 5th orders, with variable integration time-step; NF)
numerical approximations computed with the Runge-Kutta method of 4th
order, with a fixed integration time-step; AN) analytical approximation
obtained with the multiple scale method. In the NV and NF strategies, for
each parameter value, a numerical approximation was calculated, whereas
for the AN strategy, only one analytical approximation was calculated and
evaluated for the different values of parameters considered. The run-time
and the storage are among the random variables of interest associated with
the computational cost of the Monte Carlo method. Due to uncertainty
propagation, the system response is a stochastic process given by a random
sequence of stick and slip phases. This sequence can be characterized by the
following random variables: the transition instants between the stick and
slip phases, their durations and the number of phases. To study the random
processes and the variables related to the computational costs, statistical
models, normalized histograms and scatterplots were built. Afterwards, a
joint analysis was performed to study the dependece between the variables of
the random process and the computational cost. However, the construction
of these analyses is not a simple task due to the impossibility of viewing
the distributionto of joint distributions of random vectors of three or more.
|
Page generated in 0.0619 seconds