• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • Tagged with
  • 8
  • 8
  • 8
  • 6
  • 6
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] BRANCHING PROCESSES FOR EPIDEMICS STUDY / [pt] PROCESSOS DE RAMIFICAÇÃO PARA O ESTUDO DE EPIDEMIAS

JOAO PEDRO XAVIER FREITAS 26 October 2023 (has links)
[pt] Este trabalho modela a evolução temporal de uma epidemia com uma abordagem estocástica. O número de novas infecções por infectado é modelado como uma variável aleatória discreta, chamada aqui de contágio. Logo, a evolução temporal da doença é um processo estocástico. Mais especificamente, a propagação é dada pelo modelo de Bienaymé-Galton-Watson, um tipo de processo de ramificação de parâmetro discreto. Neste processo, para um determinado instante, o número de membros infectados, ou seja, a geração de membros infectados é uma variável aleatória. Na primeira parte da dissertação, dado que o modelo probabilístico do contágio é conhecido, quatro metodologias utilizadas para obter as funções de massa das gerações do processo estocástico são comparadas. As metodologias são: funções geradoras de probabilidade com e sem identidades polinomiais, cadeia de Markov e simulações de Monte Carlo. A primeira e terceira metodologias fornecem expressões analíticas relacionando a variável aleatória de contágio com a variável aleatória do tamanho de uma geração. Essas expressões analíticas são utilizadas na segunda parte desta dissertação, na qual o problema clássico de inferência paramétrica bayesiana é estudado. Com a ajuda do teorema de Bayes, parâmetros da variável aleatória de contágio são inferidos a partir de realizações do processo de ramificação. As expressões analíticas obtidas na primeira parte do trabalho são usadas para construir funções de verossimilhança apropriadas. Para resolver o problema inverso, duas maneiras diferentes de se usar dados provindos do processo de Bienaymé-Galton-Watson são desenvolvidas e comparadas: quando dados são realizações de uma única geração do processo de ramificação ou quando os dados são uma única realização do processo de ramificação observada ao longo de uma quantidade de gerações. O critério abordado neste trabalho para encerrar o processo de atualização na inferência paramétrica usa a distância de L2-Wasserstein, que é uma métrica baseada no transporte ótimo de massa. Todas as rotinas numéricas e simbólicas desenvolvidas neste trabalho são escritas em MATLAB. / [en] This work models an epidemic s spreading over time with a stochastic approach. The number of infections per infector is modeled as a discrete random variable, named here as contagion. Therefore, the evolution of the disease over time is a stochastic process. More specifically, this propagation is modeled as the Bienaymé-Galton-Watson process, one kind of branching process with discrete parameter. In this process, for a given time, the number of infected members, i.e. a generation of infected members, is a random variable. In the first part of this dissertation, given that the mass function of the contagion s random variable is known, four methodologies to find the mass function of the generations of the stochastic process are compared. The methodologies are: probability generating functions with and without polynomial identities, Markov chain and Monte Carlo simulations. The first and the third methodologies provide analytical expressions relating the contagion random variable and the generation s size random variable. These analytical expressions are used in the second part of this dissertation, where a classical inverse problem of bayesian parametric inference is studied. With the help of Bayes rule, parameters of the contagion random variable are inferred from realizations of the stochastic process. The analytical expressions obtained in the first part of the work are used to build appropriate likelihood functions. In order to solve the inverse problem, two different ways of using data from the Bienaymé-Galton-Watson process are developed and compared: when data are realizations of a single generation of the branching process and when data is just one realization of the branching process observed over a certain number of generations. The criteria used in this work to stop the update process in the bayesian parametric inference uses the L2-Wasserstein distance, which is a metric based on optimal mass transference. All numerical and symbolical routines developed to this work are written in MATLAB.
2

[en] HYBRID METHOD BASED INTO KALMAN FILTER AND DEEP GENERATIVE MODEL TO HISTORY MATCHING AND UNCERTAINTY QUANTIFICATION OF FACIES GEOLOGICAL MODELS / [pt] MÉTODO HÍBRIDO BASEADO EM FILTRO DE KALMAN E MODELOS GENERATIVOS DE APRENDIZAGEM PROFUNDA NO AJUSTE DE HISTÓRICO SOB INCERTEZAS PARA MODELOS DE FÁCIES GEOLÓGICAS

SMITH WASHINGTON ARAUCO CANCHUMUNI 25 March 2019 (has links)
[pt] Os métodos baseados no filtro de Kalman têm tido sucesso notável na indústria do petróleo nos últimos anos, especialmente, para resolver problemas reais de ajuste de histórico. No entanto, como a formulação desses métodos é baseada em hipóteses de gaussianidade e linearidade, seu desempenho é severamente degradado quando a geologia a priori é descrita em termos de distribuições complexas (e.g. modelos de fácies). A tendência atual em soluções para o problema de ajuste de histórico é levar em consideração modelos de reservatórios mais realistas com geologia complexa. Assim, a modelagem de fácies geológicas desempenha um papel importante na caracterização de reservatórios, como forma de reproduzir padrões importantes de heterogeneidade e facilitar a modelagem das propriedades petrofísicas das rochas do reservatório. Esta tese introduz uma nova metodologia para realizar o ajuste de histórico de modelos geológicos complexos. A metodologia consiste na integração de métodos baseados no filtro de Kalman em particular o método conhecido na literatura como Ensemble Smoother with Multiple Data Assimilation (ES-MDA), com uma parametrização das fácies geológicas por meio de técnicas baseadas em aprendizado profundo (Deep Learning) em arquiteturas do tipo autoencoder. Um autoencoder sempre consiste em duas partes, o codificador (modelo de reconhecimento) e o decodificador (modelo gerador). O procedimento começa com o treinamento de um conjunto de realizações de fácies por meio de algoritmos de aprendizado profundo, através do qual são identificadas as principais características das imagens de fácies geológicas, permitindo criar novas realizações com as mesmas características da base de treinamento com uma reduzida parametrização dos modelos de fácies na saída do codificador. Essa parametrização é regularizada no codificador para fornecer uma distribuição gaussiana na saída, a qual é utilizada para atualizar os modelos de fácies de acordo com os dados observados do reservatório, através do método ES-MDA. Ao final, os modelos atualizados são reconstruídos através do aprendizado profundo (decodificador), com o objetivo de obter modelos finais que apresentem características similares às da base de treinamento. Os resultados, em três casos de estudo com 2 e 3 fácies, mostram que a parametrização de modelos de fácies baseada no aprendizado profundo consegue reconstruir os modelos de fácies com um erro inferior a 0,3 por cento. A metodologia proposta gera modelos geológicos ajustados que conservam a descrição geológica a priori do reservatório (fácies com canais curvilíneos), além de ser consistente com o ajuste dos dados observados do reservatório. / [en] Kalman filter-based methods have had remarkable success in the oil industry in recent years, especially to solve several real-life history matching problems. However, as the formulation of these methods is based on the assumptions of gaussianity and linearity, their performance is severely degraded when a priori geology is described in terms of complex distributions (e.g., facies models). The current trend in solutions for the history matching problem is to take into account more realistic reservoir models, with complex geology. Thus the geological facies modeling plays an important role in the characterization of reservoirs as a way of reproducing important patterns of heterogeneity and to facilitate the modeling of the reservoir rocks petrophysical properties. This thesis introduces a new methodology to perform the history matching of complex geological models. This methodology consists of the integration of Kalman filter-based methods, particularly the method known in the literature as Ensemble Smoother with Multiple Data Assimilation (ES-MDA), with a parameterization of the geological facies through techniques based on deep learning in autoencoder type architectures. An autoencoder always consists of two parts, the encoder (recognition model) and the decoder (generator model). The procedure begins with the training of a set of facies realizations via deep generative models, through which the main characteristics of geological facies images are identified, allowing for the creation of new realizations with the same characteristics of the training base, with a low dimention parametrization of the facies models at the output of the encoder. This parameterization is regularized at the encoder to provide Gaussian distribution models in the output, which is then used to update the models according to the observed data of the reservoir through the ES-MDA method. In the end, the updated models are reconstructed through deep learning (decoder), with the objective of obtaining final models that present characteristics similar to those of the training base. The results, in three case studies with 2 and 3 facies, show that the parameterization of facies models based on deep learning can reconstruct facies models with an error lower than 0.3 percent. The proposed methodology generates final geological models that preserve the a priori geological description of the reservoir (facies with curvilinear channels), besides being consistent with the adjustment of the observed data of the reservoir.
3

[en] UNCERTAINTY ANALYSIS OF 2D VECTOR FIELDS THROUGH THE HELMHOLTZ-HODGE DECOMPOSITION / [pt] ANALISE DE INCERTEZAS EM CAMPOS VETORIAIS 2D COM O USO DA DECOMPOSIÇÃO DE HELMHOLTZ-HODGE

PAULA CECCON RIBEIRO 20 March 2017 (has links)
[pt] Campos vetoriais representam um papel principal em diversas aplicações científicas. Eles são comumente gerados via simulações computacionais. Essas simulações podem ser um processo custoso, dado que em muitas vezes elas requerem alto tempo computacional. Quando pesquisadores desejam quantificar a incerteza relacionada a esse tipo de aplicação, costuma-se gerar um conjunto de realizações de campos vetoriais, o que torna o processo ainda mais custoso. A Decomposição de Helmholtz-Hodge é uma ferramenta útil para a interpretação de campos vetoriais uma vez que ela distingue componentes conservativos (livre de rotação) de componentes que preservam massa (livre de divergente). No presente trabalho, vamos explorar a aplicabilidade de tal técnica na análise de incerteza de campos vetoriais 2D. Primeiramente, apresentaremos uma abordagem utilizando a Decomposição de Helmholtz-Hodge como uma ferramenta básica na análise de conjuntos de campos vetoriais. Dado um conjunto de campos vetoriais epsilon, obtemos os conjuntos formados pelos componentes livre de rotação, livre de divergente e harmônico, aplicando a Decomposição Natural de Helmholtz- Hodge em cada campo vetorial em epsilon. Com esses conjuntos em mãos, nossa proposta não somente quantifica, por meio de análise estatística, como cada componente é pontualmente correlacionado ao conjunto de campos vetoriais original, como também permite a investigação independente da incerteza relacionado aos campos livre de rotação, livre de divergente e harmônico. Em sequência, propomos duas técnicas que em conjunto com a Decomposição de Helmholtz-Hodge geram, de forma estocástica, campos vetoriais a partir de uma única realização. Por fim, propomos também um método para sintetizar campos vetoriais a partir de um conjunto, utilizando técnicas de Redução de Dimensionalidade e Projeção Inversa. Testamos os métodos propostos tanto em campos sintéticos quanto em campos numericamente simulados. / [en] Vector field plays an essential role in a large range of scientific applications. They are commonly generated through computer simulations. Such simulations may be a costly process because they usually require high computational time. When researchers want to quantify the uncertainty in such kind of applications, usually an ensemble of vector fields realizations are generated, making the process much more expensive. The Helmholtz-Hodge Decomposition is a very useful instrument for vector field interpretation because it traditionally distinguishes conservative (rotational-free) components from mass-preserving (divergence-free) components. In this work, we are going to explore the applicability of such technique on the uncertainty analysis of 2-dimensional vector fields. First, we will present an approach of the use of the Helmholtz-Hodge Decomposition as a basic tool for the analysis of a vector field ensemble. Given a vector field ensemble epsilon, we firstly obtain the corresponding rotational-free, divergence-free and harmonic component ensembles by applying the Natural Helmholtz-Hodge Decomposition to each1 vector field in epsilon. With these ensembles in hand, our proposal not only quantifies, via a statistical analysis, how much each component ensemble is point-wisely correlated to the original vector field ensemble, but it also allows to investigate the uncertainty of rotational-free, divergence-free and harmonic components separately. Then, we propose two techniques that jointly with the Helmholtz-Hodge Decomposition stochastically generate vector fields from a single realization. Finally, we propose a method to synthesize vector fields from an ensemble, using both the Dimension Reduction and Inverse Projection techniques. We test the proposed methods with synthetic vector fields as well as with simulated vector fields.
4

[en] UNCERTAINTY QUANTIFICATION IN OIL RESERVOIR SIMULATION VIA GENETIC PROGRAMMING AND CHAOS POLYNOMIAL / [pt] QUANTIFICAÇÃO DE INCERTEZAS NA SIMULAÇÃO DE RESERVATÓRIOS DE PETRÓLEO VIA PROGRAMAÇÃO GENÉTICA E CAOS POLINOMIAL

ALEJANDRA CAMACHO SOLANO 28 April 2016 (has links)
[pt] Os modelos de simulação de reservatórios estão sujeitos à incerteza presente em uma grande variedade de seus parâmetros de entrada. Esta incerteza é o resultado da heterogeneidade das formações geológicas, erros nas medições dos dados e da modelagem petrofísica, estrutural e do transporte dos fluidos no meio poroso. Uma quantificação precisa da incerteza requer, na maioria dos casos, uma quantidade elevada de simulações, o que é usualmente inviável se considerarmos o tempo consumido para simular modelos de grande escala. Por outro lado, uma avaliação adequada da incerteza aumenta a qualidade e robustez das decisões tomadas para o gerenciamento dos campos de petróleo. Com esta motivação, foi investigado o método das Expansões por Caos Polinomial (PCE, por suas siglas em inglês). PCE é uma técnica de convergência rápida utilizada para analisar como se propaga, na saída de um modelo, a incerteza presente nos parâmetros de entrada. Mediante PCE, pode-se representar a resposta aleatória de um modelo de simulação de reservatórios de petróleo como um polinômio, construído a partir de uma base de funções que dependem da distribuição de probabilidade das variáveis incertas de entrada. Por outro lado, quando a relação entre os parâmetros de entrada e a saída do modelo têm um componente não polinomial, o algoritmo de Programação Genética (PG) pode ser utilizado para representar esta dependência utilizando funções ou operadores mais complexos. PG é um algoritmo de regressão simbólica capaz de encontrar uma expressão aleatória explícita, que aproxime a saída de um modelo de simulação de reservatórios de petróleo, conhecendo-se a priori a distribuição de probabilidade dos parâmetros de entrada. Neste trabalho foram aplicadas as duas técnicas, antes mencionadas, num modelo de simulação de reservatórios baseado no campo PUNQ-S3, considerando até vinte e três parâmetros incertos durante um período de produção de 13 anos. Foi feita uma análise de incerteza, calculando-se a distribuição de probabilidade completa da saída do simulador. Os resultados foram comparados com o método de Monte Carlo, indicando um alto desempenho em termos de custo computacional e acurácia. Ambas as técnicas conseguem níveis de ajuste superiores a 80 porcento com uma quantidade de simulações consideravelmente baixa. / [en] Reservoir simulation models are subject to uncertainty in a wide variety of its inputs. This uncertainty is a result of the heterogeneity of the geological formations, data measurement errors, and petrophysical, structural, and fluid transport in porous media modelling. An accurate uncertainty quantification requires, in most cases, a large number of simulations, which is unviable considering the time it takes to simulate large scale models. On the other hand, a proper uncertainty assessment, increases the robustness of the decision making process for the oil field management. To this end, the method of Polynomial Chaos Expansions (PCE) was studied. PCE is a fast paced convergence technique, used to analyze the uncertainty propagation of the input parameters all the way to the output of the model. Through PCE is possible to represent the response of an oil reservoir simulation model as a polynomial, built from a function basis, that depend on the probability distribution of the uncertain input variables. Furthermore, when the relationship between the input and output parameters of the model has a non-polynomial component, the algorithm of Genetic Programming (GP) can be used to represent this dependency by more elaborate functions or operators. GP is a symbolic regression algorithm, capable of finding an explicit expression that approximates the output of a reservoir simulation model, with prior knowledge of the probability distribution of the input parameters. In this work, the two previously mentioned techniques were applied in a reservoir simulation model, based on the oil field PUNQ-S3, considering up to twenty three uncertain parameters during a simulation period of 13 years. An uncertainty analysis of the output of the simulator was conducted, calculating the entire probability distribution. The results were compared to the Monte Carlo simulation method, presenting a satisfactory performance in terms of accuracy and computational cost. Both techniques show adjustment levels higher than 80 percent, with a considerable small amount simulations.
5

[pt] AVALIANDO O USO DO ALGORITMO RANDOM FOREST PARA SIMULAÇÃO EM RESERVATÓRIOS MULTI-REGIÕES / [en] EVALUATING THE USE OF RANDOM FOREST REGRESSOR TO RESERVOIR SIMULATION IN MULTI-REGION RESERVOIRS

IGOR CAETANO DINIZ 22 June 2023 (has links)
[pt] Simulação de reservatórios de óleo e gás é uma demanda comum em engenharia de petróleo e pesquisas relacionadas, que pode requerer um elevado custo computacional de tempo e processamento ao resolver um problema matemático. Além disso, alguns métodos de caracterização de reservatórios necessitam múltiplas iterações, resultando em muitas simulações para obter um resultado. Também podemos citar os métodos baseados em conjunto, tais como o ensemble Kalman filter, o EnKF, e o Ensemble Smoother With Multiple Data Assimilation,o ES-MDA, que requerem muitas simulações. Em contrapartida, o uso de aprendizado de máquina cresceu bastante na indústria de energia. Isto pode melhorar a acurácia de predição, otimizar estratégias e outros. Visando reduzir as complexidades de simulação de reservatórios, este trabalho investiga o uso de aprendizado de máquina como uma alternativa a simuladores convencionais. O modelo Random Forest Regressor é testado para reproduzir respostas de pressão em um reservatório multi-região radial composto. Uma solução analítica é utilizada para gerar o conjunto de treino e teste para o modelo. A partir de experimentação e análise, este trabalho tem o objetivo de suplementar a utilização de aprendizado de máquina na indústria de energia. / [en] Oil and gas reservoir simulation is a common demand in petroleum engineering, and research, which may have a high computational cost, solving a mathematical numeric problem, or high computational time. Moreover, several reservoir characterization methods require multiple iterations, resulting in many simulations to obtain a reasonable characterization. It is also possible to mention ensemble-based methods, such as the ensemble Kalman filter, EnKF, and the Ensemble Smoother With Multiple Data Assimilation, ES-MDA, which demand lots of simulation runs to provide the output result. As a result, reservoir simulation might be a complex subject to deal with when working with reservoir characterization. The use of machine learning has been increasing in the energy industry. It can improve the accuracy of reservoir predictions, optimize production strategies, and many other applications. The complexity and uncertainty of reservoir models pose significant challenges to traditional modeling approaches, making machine learning an attractive solution. Aiming to reduce reservoir simulation’s complexities, this work investigates using a machine-learning model as an alternative to conventional simulators. The Random Forest regressor model is experimented with to reproduce pressure response solutions for multi-region radial composite reservoirs. An analytical approach is employed to create the training dataset in the following procedure: the permeability is sorted using a specific distribution, and the output is generated using the analytical solution. Through experimentation and analysis, this work aims to advance our understanding of using machine learning in reservoir simulation for the energy industry.
6

[en] EVALUATING THE IMPACT OF THE INFLATION FACTORS GENERATION FOR THE ENSEMBLE SMOOTHER WITH MULTIPLE DATA ASSIMILATION / [pt] INVESTIGANDO O IMPACTO DA GERAÇÃO DOS FATORES DE INFLAÇÃO PARA O ENSEMBLE SMOOTHER COM MÚLTIPLA ASSIMILAÇÃO DE DADOS

THIAGO DE MENEZES DUARTE E SILVA 09 September 2021 (has links)
[pt] O ensemble smoother with multiple data assimilation (ES-MDA) se tornou um poderoso estimador de parâmetros. A principal ideia do ES-MDA é assimilar os mesmos dados com a matriz de covariância dos erros dos dados inflada. Na implementação original do ES-MDA, os fatores de inflação e o número de assimilações são escolhidos a priori. O único requisito é que a soma dos inversos de tais fatores seja igual a um. Naturalmente, escolhendo-os iguais ao número de assimilações cumpre este requerimento. Contudo, estudos recentes mostraram uma relação entre a equação de atualização do ES-MDA com a solução para o problema inverso regularizado. Consequentemente, tais elementos agem como os parâmetros de regularização em cada assimilação. Assim, estudos propuseram técnicas para gerar tais fatores baseadas no princípio da discrepância. Embora estes estudos tenham propostos técnicas, um procedimento ótimo para gerar os fatores de inflação continua um problema em aberto. Mais ainda, tais estudos divergem em qual método de regularização é sufiente para produzir os melhores resultados para o ES-MDA. Portanto, nesta tese é abordado o problema de gerar os fatores de inflação para o ESMDA e suas influências na performance do método. Apresentamos uma análise numérica do impacto de tais fatores nos parâmetros principais do ES-MDA: o tamanho do conjunto, o número de assimilações e o vetor de atualização dos parâmetros. Com a conclusão desta análise, nós propomos uma nova técnica para gerar os fatores de inflação para o ES-MDA baseada em um método de regularização para algorítmos do tipo Levenberg-Marquardt. Investigando os resultados de um problema de inundação de um reservatório 2D, o novo método obtém melhor estimativa tanto para os parâmetros do modelo tanto quanto para os dados observados. / [en] The ensemble smoother with multiple data assimilation (ES-MDA) gained much attention as a powerful parameter estimation method. The main idea of the ES-MDA is to assimilate the same data multiple times with an inflated data error covariance matrix. In the original ES-MDA implementation, these inflation factors, such as the number of assimilations, are selected a priori. The only requirement is that the sum of the inflation factors inverses must be equal to one. Therefore, selecting them equal to the number of assimilations is a straightforward choice. Nevertheless, recent studies have shown a relationship between the ES-MDA update equation and the solution to a regularized inverse problem. Hence, the inflation factors play the role of the regularization parameter at each ES-MDA assimilation step. As a result, they have also suggested new procedures to generate these elements based on the discrepancy principle. Although several studies proposed efficient techniques to generate the ES-MDA inflation factors, an optimal procedure to generate them remains an open problem. Moreover, the studies diverge on which regularization scheme is sufficient to provide the best ES-MDA outcomes. Therefore, in this work, we address the problem of generating the ES-MDA inflation factors and their influence on the method s performance. We present a numerical analysis of the influence of such factors on the main parameters of the ES-MDA, such as the ensemble size, the number of assimilations, and the ES-MDA vector of model parameters update. With the conclusions presented in the aforementioned analysis, we propose a new procedure to generate ES-MDA inflation factors based on a regularizing scheme for Levenberg-Marquardt algorithms. It is shown through a synthetic two-dimensional waterflooding problem that the new method achieves better model parameters and data match compared to the other ES-MDA implementations available in the literature.
7

[pt] MODELAGEM E QUANTIFICAÇÃO DE INCERTEZAS NA DINÂMICA NÃO- LINEAR ESTOCÁSTICA DE COLUNAS DE PERFURAÇÃO HORIZONTAIS / [en] MODELING AND UNCERTAINTY QUANTIFICATION IN THE NONLINEAR STOCHASTIC DYNAMICS OF HORIZONTAL DRILLSTRINGS / [fr] MODÉLISATION ET QUANTIFICATION DES INCERTITUDES EN DYNAMIQUE STOCHASTIQUE NON LINÉAIRE DES TUBES DE FORAGE HORIZONTAUX

AMERICO BARBOSA DA CUNHA JUNIOR 17 June 2016 (has links)
[pt] Prospecção de petróleo usa um equipamento chamado coluna de perfuração para escavar o solo até o nível do reservatório. Este equipamento é uma longa coluna, sob rotação, composto por uma sequência de tubos de perfura ção e equipamentos auxiliares conectados. A dinâmica desta coluna é muito complexa, porque sob condições normais de operação, ela está sujeita à vibrações longitudinais, laterais e torcionais, que apresentam um acoplamento não-linear. Além disso, a estrutura está submetida a efeitos de atrito e choque devido a contatos mecânicos entre os pares broca/rocha e tubos de perfuração/parede do poço. Este trabalho apresenta um modelo mecânico-matemático para analisar uma coluna de perfuração em configuração horizontal. Este modelo usa uma teoria de viga com inércia de rotação, deformação cisalhante e acoplamento não-linear entre os três mecanismos de vibração. As equações do modelo são discretizadas utilizando o método dos elementos finitos. As incertezas dos parâmetros do modelo de interação broca-rocha são levandas em conta através de uma abordagem probabilística paramétrica, e as distribuições de probabilidades dos parâmetros aleatórios são construídas por meio do princípio da entropia máxima. Simulações numéricas são conduzidas de forma a caracterizar o comportamento dinâmico não-linear da estrutura, especialmente, da broca. Fenômenos dinâmicos inerentemente não-lineares, como stick-slip e bit-bounce, são observados nas simulações, bem como choques. Uma análise espectral mostra que, surpreendentemente, os fenômenos de stick-slip e bit-bounce são resultado do mecanismo de vibração lateral, e que os fenômenos de choque decorrem da vibração torcional. Visando aumentar a eficiência do processo de perfuração, um problema de otimização que tem como objetivo maximizar a taxa de penetração da coluna no solo, respeitando os seus limites estruturais, é proposto e resolvido. / [en] Oil prospecting uses an equipment called drillstring to drill the soil until the reservoir level. This equipment is a long column under rotation, composed by a sequence of connected drill-pipes and auxiliary equipment. The dynamics of this column is very complex because, under normal operational conditions, it is subjected to longitudinal, lateral, and torsional vibrations, which presents a nonlinear coupling. Also, this structure is subjected to friction and shocks effects due to the mechanical contacts between the pairs drill-bit/soil and drill-pipes/borehole. This work presents a mechanical-mathematical model to analyze a drillstring in horizontal configuration. This model uses a beam theory which accounts rotatory inertia, shear deformation, and the nonlinear coupling between three mechanisms of vibration. The model equations are discretized using the finite element method. The uncertainties in bit-rock interaction model parameters are taken into account through a parametric probabilistic approach, and the random parameters probability distributions are constructed by means of maximum entropy principle. Numerical simulations are conducted in order to characterize the nonlinear dynamic behavior of the structure, specially, the drill-bit. Dynamical phenomena inherently nonlinear, such as slick-slip and bit-bounce, are observed in the simulations, as well as shocks. A spectral analysis shows, surprisingly, that slick-slip and bit-bounce phenomena result from the lateral vibration mechanism, and that shock phenomena comes from the torsional vibration. Seeking to increase the efficiency of the drilling process, an optimization problem that aims to maximize the rate of penetration of the column into the soil, respecting its structural limits, is proposed and solved. / [fr] La prospection de pétrole utilise un équipement appelé tube de forage pour forer le sol jusqu au niveau du réservoir. Cet équipement est une longue colonne rotative, composée d une série de tiges de forage interconnectées et d équipements auxiliaires. La dynamique de cette colonne est très complexe car dans des conditions opérationnelles normales, elle est soumise à des vibrations longitudinales, latérales et de torsion, qui présentent un couplage non linéaire. En outre, cette structure est soumise à des effets de frottement et à des chocs dûs aux contacts mécaniques entre les paires tête de forage/sol et tube de forage/sol. Ce travail présente un modèle mécaniquemathématique pour analyser un tube de forage en configuration horizontale. Ce modèle utilise la théorie des poutres qui utilise l inertie de rotation, la déformation de cisaillement et le couplage non linéaire entre les trois mécanismes de vibration. Les équations du modèle sont discrétisées par la méthode des éléments finis. Les incertitudes des paramètres du modèle d interaction tête de forage/sol sont prises en compte par l approche probabiliste paramétrique, et les distributions de probabilité des paramètres aléatoires sont construites par le principe du maximum d entropie. Des simulations numériques sont réalisées afin de caractériser le comportement dynamique non lináaire de la structure, et en particulier, de l outil de forage. Des phénom ènes dynamiques non linéaires par nature, comme le slick-slip et le bit- bounce, sont observés dans les simulations, ainsi que les chocs. Une analyse spectrale montre étonnamment que les phénomènes slick-slip et bit-bounce résultent du mécanisme de vibration latérale, et ce phénomène de choc vient de la vibration de torsion. Cherchant à améliorer l efficacité de l opération de forage, un problème d optimisation, qui cherche à maximiser la vitesse de pénétration de la colonne dans le sol, sur ses limites structurelles, est proposé et résolu.
8

[en] ANALYSIS OF THE COMPUTATIONAL COST OF THE MONTE CARLO METHOD: A STOCHASTIC APPROACH APPLIED TO A VIBRATION PROBLEM WITH STICK-SLIP / [pt] ANÁLISE DO CUSTO COMPUTACIONAL DO MÉTODO DE MONTE CARLO: UMA ABORDAGEM ESTOCÁSTICA APLICADA A UM PROBLEMA DE VIBRAÇÕES COM STICK-SLIP

MARIANA GOMES DIAS DOS SANTOS 20 June 2023 (has links)
[pt] Um dos objetivos desta tese é analisar o custo computacional do método de Monte Carlo aplicado a um problema modelo de dinâmica, considerando incertezas na força de atrito. O sistema mecânico a ser estudado é composto por um oscilador de um grau de liberdade que se desloca sobre uma esteira em movimento. Considera-se a existência de atrito seco entre a massa do oscilador e a esteira. Devido a uma descontinuidade na força de atrito, a dinâmica resultante pode ser dividida em duas fases que se alternam, chamadas de stick e slip. Neste estudo, um parâmetro da força de atrito dinâmica é modelado como uma variável aleatória. A propagação de incerteza é estudada por meio da aplicação do método de Monte Carlo, considerando três abordagens diferentes para calcular aproximações da resposta dos problemas de valor inicial que modelam a dinâmica do problema: NV) aproximações numéricas calculadas usando método de Runge-Kutta de quarta e quinta ordens com passo de integração variável; NF) aproximações numéricas calculadas usando método de Runge-Kutta de quarta ordem com passo de integração fixo; AN) aproximação analítica obtida com o método de múltiplas escalas. Nas abordagens NV e NF, para cada valor de parâmetro, uma aproximação numérica foi calculada. Já para a AN, apenas uma aproximação analítica foi calculada e avaliada para os diferentes valores usados. Entre as variáveis aleatórias de interesse associadas ao custo computacional do método de Monte Carlo, encontram-se o tempo de execução e o espaço em disco consumido. Devido à propagação de incertezas, a resposta do sistema é um processo estocástico com uma sequência aleatória de fases de stick e slip. Essa sequência pode ser caracterizada pelas seguintes variáveis aleatórias: instantes de transição entre as fases de stick e slip, suas durações e o número de fases. Para estudar as variáveis associadas ao custo computacional e ao processo estocástico foram construídos modelos estatísticos, histogramas normalizados e gráficos de dispersão. O objetivo é estudar a dependência entre as variáveis do processo estocástico e o custo computacional. Porém, a construção destas análises não é simples devido à dimensão do problema e à impossibilidade de visualização das distribuições conjuntas de vetores aleatórios de três ou mais dimensões. / [en] One of the objectives of this thesis is to analyze the computational cost of the Monte Carlo method applied to a toy problem concerning the dynamics of a mechanical system with uncertainties in the friction force. The system is composed by an oscillator placed over a moving belt. The existence of dry friction between the two elements in contact is considered. Due to a discontinuity in the frictional force, the resulting dynamics can be divided into two alternating phases, called stick and slip. In this study, a parameter of the dynamic friction force is modeled as a random variable. Uncertainty propagation is analyzed by applying the Monte Carlo method, considering three different strategies to compute approximations to the initial value problems that model the system s dynamics: NV) numerical approximations computed with the Runge-Kutta method of 4th and 5th orders, with variable integration time-step; NF) numerical approximations computed with the Runge-Kutta method of 4th order, with a fixed integration time-step; AN) analytical approximation obtained with the multiple scale method. In the NV and NF strategies, for each parameter value, a numerical approximation was calculated, whereas for the AN strategy, only one analytical approximation was calculated and evaluated for the different values of parameters considered. The run-time and the storage are among the random variables of interest associated with the computational cost of the Monte Carlo method. Due to uncertainty propagation, the system response is a stochastic process given by a random sequence of stick and slip phases. This sequence can be characterized by the following random variables: the transition instants between the stick and slip phases, their durations and the number of phases. To study the random processes and the variables related to the computational costs, statistical models, normalized histograms and scatterplots were built. Afterwards, a joint analysis was performed to study the dependece between the variables of the random process and the computational cost. However, the construction of these analyses is not a simple task due to the impossibility of viewing the distributionto of joint distributions of random vectors of three or more.

Page generated in 0.0619 seconds