• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 6
  • Tagged with
  • 12
  • 12
  • 8
  • 8
  • 5
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[pt] QUANTIFICAÇÃO IRRESTRITA E GENERALIDADE ABSOLUTA: A QUESTÃO DA POSSIBILIDADE DE UMA TEORIA SOBRE TUDO TESE / [en] UNRESTRICTED QUANTIFICATION AND ABSOLUTE GENERALITY: THE ISSUE OF THE POSSIBILITY OF A THEORY ABOUT EVERYTHING

ANDRE NASCIMENTO PONTES 06 October 2015 (has links)
[pt] A presente tese tem como objetivo desenvolver uma discussão acerca das condições de possibilidade da quantificação irrestrita e existência da generalidade absoluta. O trabalho é dividido em quatro etapas. No primeiro capítulo, realizo, no âmbito da teoria dos modelos e teoria dos conjuntos, uma revisão do que chamo de semântica padrão dos quantificadores. A ideia básica é mostrar como, em tal semântica, quantificações estão associadas a domínios entendidos como conjuntos. Ao longo da tese, ficará patente que a semântica padrão impõe obstáculos intransponíveis ao tratamento formal de quantificações irrestritas. No segundo capítulo, apresento uma seleção do que considero os argumentos mais relevantes contra quantificações irrestritas e nossa capacidade de lidar formalmente com o que chamamos de generalidade absoluta. Alguns desses argumentos estão baseados em resultados tais como os paradoxos que Russell e Cantor derivaram na teoria dos conjuntos. No terceiro capítulo, apresento, de modo análogo, uma lista de argumentos agrupados em linhas de estratégias para reabilitar a quantificação irrestrita contra seus críticos. Além disso, desenvolvo uma discussão sobre os aspectos metafísicos do debate sobre o discurso a respeito da generalidade absoluta e sua correlação com argumentos por regresso ao infinito. Por fim, no quarto e último capítulo, desenvolvo um esboço geral de uma proposta alternativa de tratamento da quantificação irrestrita que apele para uma teoria paraconsistente dos conjuntos. Nela, as contradições obtidas na semântica padrão podem ser admitidas controladamente possibilitando assim a obtenção de domínios absolutos para quantificações. Essa proposta envolve a defesa de um sistema formal que seja inconsistente, porém dedutivamente não trivial. Em linhas gerais, o presente trabalho está pautado no seguinte conjunto de teses: (i) existe uma estreita correlação entre os obstáculos impostos pela semântica padrão às quantificações irrestritas e a estrutura de argumentos por regresso ao infinito; (ii) a existência de uma generalidade absoluta é um fenômeno que se impõe às nossas mais intuitivas concepções de realidade e, portanto, não devemos descredenciar o discurso sobre tal generalidade em virtude de limitações de nossas linguagens formais; (iii) nós devemos escolher entre assumir a lógica clássica e abdicar do discurso sobre a generalidade absoluta ou manter nossa intuição mais básica descrita em (ii) e abrir espaço para um tratamento não clássico da questão; finalmente, (iv) minha sugestão no presente trabalho é que temos boas razões para nos aventurar nas paisagens descritas pelos sistemas não clássicos. / [en] In this doctoral dissertation, I tackle the issues of the conditions for the possibility of unrestricted quantification and of absolute generality. The text is framed as follows. The first chapter is devoted to reviewing what I call the standard semantics of quantifiers, within the realm of both model and set theories. In such semantics, the idea is, quantificational domains are conceived as sets. It will become clear along the way that, given this construal of quantificational domains, a formal treatment of unrestricted quantification faces insurmountable obstacles. The second chapter focuses on what I take to be the most relevant arguments against unrestricted quantification as well as against our ability to formally deal with so-called absolute generality. Some of them are based on results obtained by Russell and Cantor within set theory – the notorious Russell s paradox and Cantor s theorem. Analogously, in chapter three I review a number of grouped-into-strategic-lines arguments put forward to save unrestricted quantification against its critics. I also elaborate on the metaphysical aspects of the debate and its connections with infinite regress arguments. Lastly, in the fourth chapter I outline an alternative proposal based on paraconsistent set theory to deal with unrestricted quantification. On this approach, the contradictions found in standard semantics are admitted, yet in a controlled way, thus turning absolute quantificational domains available. The proposal is, basically, to allow the existence of inconsistent, yet deductively not trivial formal systems. The present work is broadly guided by the following set of claims: (i) there is a strong correlation between the obstacles set by standard semantics to unrestricted quantification and the structure of infinite regress arguments; (ii) absolute generality is a phenomenon that imposes itself upon our most intuitive conceptions of reality; accordingly, the limitations suffered by our formal languages ought not to lead us to bring such generality into disrepute; (iii) one must choose between adopting classical logic and renouncing to appeal to absolute generality or sticking to our most basic intuitions as described in (ii) and make room for a non-classical treatment of the issue; (iv) we have, after all, good reasons to venture into the landscapes described by the non-classical systems.
2

[en] CARING ABOUT WOMEN AND THE ROLE OF QUANTIFICATION IN FAMILY PLANNING: A CRITICAL ANALYSIS OF THE FP2020 PROGRAMME / [pt] CUIDADO COM AS MULHERES E O PAPEL DA QUANTIFICAÇÃO NO PLANEJAMENTO FAMILIAR: UMA ANÁLISE CRÍTICA DO PROGRAMA FP2020

BEATRIZ NAZARETH DE SOUZA TEIXEIRA 27 April 2023 (has links)
[pt] A interseção entre população, conflito, mudanças climáticas e migração é o ponto central dos debates contemporâneos sobre controle populacional e reacende iniciativas cujo alvo são os corpos de mulheres e meninas, majoritariamente não- brancas e do Sul Global. À medida que uma população crescente passa a ser enquadrada como um problema global, a fertilidade dessas mulheres se torna uma ameaça e os seus corpos um espaço para intervenções de organizações internacionais, agências de desenvolvimento e governos. O propósito do trabalho é investigar uma dessas intervenções, a maior em termos de recursos financeiros e de metas estabelecidas – Family Planning 2020. Mais especificamente, será focado no papel desempenhado por dados quantitativos para fundamentar intervenções na saúde reprodutiva de milhões de mulheres. A hipótese da dissertação é que esses dados desempenham um papel fundamental no posicionamento de políticas de planejamento familiar como objetivas e baseada em evidências, e não como fundadas em fatores raciais. Ademais, que a adesão a uma ética do cuidado pode orientar tais políticas de maneira que se evite instrumentalizar a fertilidade e a saúde de mulheres para enfrentar a questões atribuídos à superpopulação. / [en] The intersection between population, conflict, climate change and migration is the cornerstone of contemporary population control debates and rekindles initiatives that target the bodies of women and girls, largely of colour and from the Global South. As a growing population becomes framed as a global problem, the fertility of those women turns into a threat and their bodies into a space for interventions by international organizations, development agencies, and governments. The purpose of this work is to investigate one of said interventions, the largest one when it comes to targets and financial investment - the Family Planning 2020.More specifically, the project will look to FP 2020 to analyse the role played by quantified data in substantiating interventions in the reproductive health of millions of women. The working hypothesis of this dissertation is that data is a crucial element to the rebranding of family planning policies as not racially oriented, but rather as objective and evidence-based and that, by adhering to an ethics of care, one might avoid the pitfalls of instrumentalizing women s fertility and overall health in order to address other pressing issues.
3

[en] BRANCHING PROCESSES FOR EPIDEMICS STUDY / [pt] PROCESSOS DE RAMIFICAÇÃO PARA O ESTUDO DE EPIDEMIAS

JOAO PEDRO XAVIER FREITAS 26 October 2023 (has links)
[pt] Este trabalho modela a evolução temporal de uma epidemia com uma abordagem estocástica. O número de novas infecções por infectado é modelado como uma variável aleatória discreta, chamada aqui de contágio. Logo, a evolução temporal da doença é um processo estocástico. Mais especificamente, a propagação é dada pelo modelo de Bienaymé-Galton-Watson, um tipo de processo de ramificação de parâmetro discreto. Neste processo, para um determinado instante, o número de membros infectados, ou seja, a geração de membros infectados é uma variável aleatória. Na primeira parte da dissertação, dado que o modelo probabilístico do contágio é conhecido, quatro metodologias utilizadas para obter as funções de massa das gerações do processo estocástico são comparadas. As metodologias são: funções geradoras de probabilidade com e sem identidades polinomiais, cadeia de Markov e simulações de Monte Carlo. A primeira e terceira metodologias fornecem expressões analíticas relacionando a variável aleatória de contágio com a variável aleatória do tamanho de uma geração. Essas expressões analíticas são utilizadas na segunda parte desta dissertação, na qual o problema clássico de inferência paramétrica bayesiana é estudado. Com a ajuda do teorema de Bayes, parâmetros da variável aleatória de contágio são inferidos a partir de realizações do processo de ramificação. As expressões analíticas obtidas na primeira parte do trabalho são usadas para construir funções de verossimilhança apropriadas. Para resolver o problema inverso, duas maneiras diferentes de se usar dados provindos do processo de Bienaymé-Galton-Watson são desenvolvidas e comparadas: quando dados são realizações de uma única geração do processo de ramificação ou quando os dados são uma única realização do processo de ramificação observada ao longo de uma quantidade de gerações. O critério abordado neste trabalho para encerrar o processo de atualização na inferência paramétrica usa a distância de L2-Wasserstein, que é uma métrica baseada no transporte ótimo de massa. Todas as rotinas numéricas e simbólicas desenvolvidas neste trabalho são escritas em MATLAB. / [en] This work models an epidemic s spreading over time with a stochastic approach. The number of infections per infector is modeled as a discrete random variable, named here as contagion. Therefore, the evolution of the disease over time is a stochastic process. More specifically, this propagation is modeled as the Bienaymé-Galton-Watson process, one kind of branching process with discrete parameter. In this process, for a given time, the number of infected members, i.e. a generation of infected members, is a random variable. In the first part of this dissertation, given that the mass function of the contagion s random variable is known, four methodologies to find the mass function of the generations of the stochastic process are compared. The methodologies are: probability generating functions with and without polynomial identities, Markov chain and Monte Carlo simulations. The first and the third methodologies provide analytical expressions relating the contagion random variable and the generation s size random variable. These analytical expressions are used in the second part of this dissertation, where a classical inverse problem of bayesian parametric inference is studied. With the help of Bayes rule, parameters of the contagion random variable are inferred from realizations of the stochastic process. The analytical expressions obtained in the first part of the work are used to build appropriate likelihood functions. In order to solve the inverse problem, two different ways of using data from the Bienaymé-Galton-Watson process are developed and compared: when data are realizations of a single generation of the branching process and when data is just one realization of the branching process observed over a certain number of generations. The criteria used in this work to stop the update process in the bayesian parametric inference uses the L2-Wasserstein distance, which is a metric based on optimal mass transference. All numerical and symbolical routines developed to this work are written in MATLAB.
4

[en] HYBRID METHOD BASED INTO KALMAN FILTER AND DEEP GENERATIVE MODEL TO HISTORY MATCHING AND UNCERTAINTY QUANTIFICATION OF FACIES GEOLOGICAL MODELS / [pt] MÉTODO HÍBRIDO BASEADO EM FILTRO DE KALMAN E MODELOS GENERATIVOS DE APRENDIZAGEM PROFUNDA NO AJUSTE DE HISTÓRICO SOB INCERTEZAS PARA MODELOS DE FÁCIES GEOLÓGICAS

SMITH WASHINGTON ARAUCO CANCHUMUNI 25 March 2019 (has links)
[pt] Os métodos baseados no filtro de Kalman têm tido sucesso notável na indústria do petróleo nos últimos anos, especialmente, para resolver problemas reais de ajuste de histórico. No entanto, como a formulação desses métodos é baseada em hipóteses de gaussianidade e linearidade, seu desempenho é severamente degradado quando a geologia a priori é descrita em termos de distribuições complexas (e.g. modelos de fácies). A tendência atual em soluções para o problema de ajuste de histórico é levar em consideração modelos de reservatórios mais realistas com geologia complexa. Assim, a modelagem de fácies geológicas desempenha um papel importante na caracterização de reservatórios, como forma de reproduzir padrões importantes de heterogeneidade e facilitar a modelagem das propriedades petrofísicas das rochas do reservatório. Esta tese introduz uma nova metodologia para realizar o ajuste de histórico de modelos geológicos complexos. A metodologia consiste na integração de métodos baseados no filtro de Kalman em particular o método conhecido na literatura como Ensemble Smoother with Multiple Data Assimilation (ES-MDA), com uma parametrização das fácies geológicas por meio de técnicas baseadas em aprendizado profundo (Deep Learning) em arquiteturas do tipo autoencoder. Um autoencoder sempre consiste em duas partes, o codificador (modelo de reconhecimento) e o decodificador (modelo gerador). O procedimento começa com o treinamento de um conjunto de realizações de fácies por meio de algoritmos de aprendizado profundo, através do qual são identificadas as principais características das imagens de fácies geológicas, permitindo criar novas realizações com as mesmas características da base de treinamento com uma reduzida parametrização dos modelos de fácies na saída do codificador. Essa parametrização é regularizada no codificador para fornecer uma distribuição gaussiana na saída, a qual é utilizada para atualizar os modelos de fácies de acordo com os dados observados do reservatório, através do método ES-MDA. Ao final, os modelos atualizados são reconstruídos através do aprendizado profundo (decodificador), com o objetivo de obter modelos finais que apresentem características similares às da base de treinamento. Os resultados, em três casos de estudo com 2 e 3 fácies, mostram que a parametrização de modelos de fácies baseada no aprendizado profundo consegue reconstruir os modelos de fácies com um erro inferior a 0,3 por cento. A metodologia proposta gera modelos geológicos ajustados que conservam a descrição geológica a priori do reservatório (fácies com canais curvilíneos), além de ser consistente com o ajuste dos dados observados do reservatório. / [en] Kalman filter-based methods have had remarkable success in the oil industry in recent years, especially to solve several real-life history matching problems. However, as the formulation of these methods is based on the assumptions of gaussianity and linearity, their performance is severely degraded when a priori geology is described in terms of complex distributions (e.g., facies models). The current trend in solutions for the history matching problem is to take into account more realistic reservoir models, with complex geology. Thus the geological facies modeling plays an important role in the characterization of reservoirs as a way of reproducing important patterns of heterogeneity and to facilitate the modeling of the reservoir rocks petrophysical properties. This thesis introduces a new methodology to perform the history matching of complex geological models. This methodology consists of the integration of Kalman filter-based methods, particularly the method known in the literature as Ensemble Smoother with Multiple Data Assimilation (ES-MDA), with a parameterization of the geological facies through techniques based on deep learning in autoencoder type architectures. An autoencoder always consists of two parts, the encoder (recognition model) and the decoder (generator model). The procedure begins with the training of a set of facies realizations via deep generative models, through which the main characteristics of geological facies images are identified, allowing for the creation of new realizations with the same characteristics of the training base, with a low dimention parametrization of the facies models at the output of the encoder. This parameterization is regularized at the encoder to provide Gaussian distribution models in the output, which is then used to update the models according to the observed data of the reservoir through the ES-MDA method. In the end, the updated models are reconstructed through deep learning (decoder), with the objective of obtaining final models that present characteristics similar to those of the training base. The results, in three case studies with 2 and 3 facies, show that the parameterization of facies models based on deep learning can reconstruct facies models with an error lower than 0.3 percent. The proposed methodology generates final geological models that preserve the a priori geological description of the reservoir (facies with curvilinear channels), besides being consistent with the adjustment of the observed data of the reservoir.
5

[en] MODELING AND UNCERTAINTY QUANTIFICATION IN THE NONLINEAR STOCHASTIC DYNAMICS OF HORIZONTAL DRILLSTRINGS / [fr] MODÉLISATION ET QUANTIFICATION DES INCERTITUDES EN DYNAMIQUE STOCHASTIQUE NON LINÉAIRE DES TUBES DE FORAGE HORIZONTAUX / [pt] MODELAGEM E QUANTIFICAÇÃO DE INCERTEZAS NA DINÂMICA NÃO- LINEAR ESTOCÁSTICA DE COLUNAS DE PERFURAÇÃO HORIZONTAIS

AMERICO BARBOSA DA CUNHA JUNIOR 17 June 2016 (has links)
[pt] Prospecção de petróleo usa um equipamento chamado coluna de perfuração para escavar o solo até o nível do reservatório. Este equipamento é uma longa coluna, sob rotação, composto por uma sequência de tubos de perfura ção e equipamentos auxiliares conectados. A dinâmica desta coluna é muito complexa, porque sob condições normais de operação, ela está sujeita à vibrações longitudinais, laterais e torcionais, que apresentam um acoplamento não-linear. Além disso, a estrutura está submetida a efeitos de atrito e choque devido a contatos mecânicos entre os pares broca/rocha e tubos de perfuração/parede do poço. Este trabalho apresenta um modelo mecânico-matemático para analisar uma coluna de perfuração em configuração horizontal. Este modelo usa uma teoria de viga com inércia de rotação, deformação cisalhante e acoplamento não-linear entre os três mecanismos de vibração. As equações do modelo são discretizadas utilizando o método dos elementos finitos. As incertezas dos parâmetros do modelo de interação broca-rocha são levandas em conta através de uma abordagem probabilística paramétrica, e as distribuições de probabilidades dos parâmetros aleatórios são construídas por meio do princípio da entropia máxima. Simulações numéricas são conduzidas de forma a caracterizar o comportamento dinâmico não-linear da estrutura, especialmente, da broca. Fenômenos dinâmicos inerentemente não-lineares, como stick-slip e bit-bounce, são observados nas simulações, bem como choques. Uma análise espectral mostra que, surpreendentemente, os fenômenos de stick-slip e bit-bounce são resultado do mecanismo de vibração lateral, e que os fenômenos de choque decorrem da vibração torcional. Visando aumentar a eficiência do processo de perfuração, um problema de otimização que tem como objetivo maximizar a taxa de penetração da coluna no solo, respeitando os seus limites estruturais, é proposto e resolvido. / [en] Oil prospecting uses an equipment called drillstring to drill the soil until the reservoir level. This equipment is a long column under rotation, composed by a sequence of connected drill-pipes and auxiliary equipment. The dynamics of this column is very complex because, under normal operational conditions, it is subjected to longitudinal, lateral, and torsional vibrations, which presents a nonlinear coupling. Also, this structure is subjected to friction and shocks effects due to the mechanical contacts between the pairs drill-bit/soil and drill-pipes/borehole. This work presents a mechanical-mathematical model to analyze a drillstring in horizontal configuration. This model uses a beam theory which accounts rotatory inertia, shear deformation, and the nonlinear coupling between three mechanisms of vibration. The model equations are discretized using the finite element method. The uncertainties in bit-rock interaction model parameters are taken into account through a parametric probabilistic approach, and the random parameters probability distributions are constructed by means of maximum entropy principle. Numerical simulations are conducted in order to characterize the nonlinear dynamic behavior of the structure, specially, the drill-bit. Dynamical phenomena inherently nonlinear, such as slick-slip and bit-bounce, are observed in the simulations, as well as shocks. A spectral analysis shows, surprisingly, that slick-slip and bit-bounce phenomena result from the lateral vibration mechanism, and that shock phenomena comes from the torsional vibration. Seeking to increase the efficiency of the drilling process, an optimization problem that aims to maximize the rate of penetration of the column into the soil, respecting its structural limits, is proposed and solved. / [fr] La prospection de pétrole utilise un équipement appelé tube de forage pour forer le sol jusqu au niveau du réservoir. Cet équipement est une longue colonne rotative, composée d une série de tiges de forage interconnectées et d équipements auxiliaires. La dynamique de cette colonne est très complexe car dans des conditions opérationnelles normales, elle est soumise à des vibrations longitudinales, latérales et de torsion, qui présentent un couplage non linéaire. En outre, cette structure est soumise à des effets de frottement et à des chocs dûs aux contacts mécaniques entre les paires tête de forage/sol et tube de forage/sol. Ce travail présente un modèle mécaniquemathématique pour analyser un tube de forage en configuration horizontale. Ce modèle utilise la théorie des poutres qui utilise l inertie de rotation, la déformation de cisaillement et le couplage non linéaire entre les trois mécanismes de vibration. Les équations du modèle sont discrétisées par la méthode des éléments finis. Les incertitudes des paramètres du modèle d interaction tête de forage/sol sont prises en compte par l approche probabiliste paramétrique, et les distributions de probabilité des paramètres aléatoires sont construites par le principe du maximum d entropie. Des simulations numériques sont réalisées afin de caractériser le comportement dynamique non lináaire de la structure, et en particulier, de l outil de forage. Des phénom ènes dynamiques non linéaires par nature, comme le slick-slip et le bit- bounce, sont observés dans les simulations, ainsi que les chocs. Une analyse spectrale montre étonnamment que les phénomènes slick-slip et bit-bounce résultent du mécanisme de vibration latérale, et ce phénomène de choc vient de la vibration de torsion. Cherchant à améliorer l efficacité de l opération de forage, un problème d optimisation, qui cherche à maximiser la vitesse de pénétration de la colonne dans le sol, sur ses limites structurelles, est proposé et résolu.
6

[en] UNCERTAINTY ANALYSIS OF 2D VECTOR FIELDS THROUGH THE HELMHOLTZ-HODGE DECOMPOSITION / [pt] ANALISE DE INCERTEZAS EM CAMPOS VETORIAIS 2D COM O USO DA DECOMPOSIÇÃO DE HELMHOLTZ-HODGE

PAULA CECCON RIBEIRO 20 March 2017 (has links)
[pt] Campos vetoriais representam um papel principal em diversas aplicações científicas. Eles são comumente gerados via simulações computacionais. Essas simulações podem ser um processo custoso, dado que em muitas vezes elas requerem alto tempo computacional. Quando pesquisadores desejam quantificar a incerteza relacionada a esse tipo de aplicação, costuma-se gerar um conjunto de realizações de campos vetoriais, o que torna o processo ainda mais custoso. A Decomposição de Helmholtz-Hodge é uma ferramenta útil para a interpretação de campos vetoriais uma vez que ela distingue componentes conservativos (livre de rotação) de componentes que preservam massa (livre de divergente). No presente trabalho, vamos explorar a aplicabilidade de tal técnica na análise de incerteza de campos vetoriais 2D. Primeiramente, apresentaremos uma abordagem utilizando a Decomposição de Helmholtz-Hodge como uma ferramenta básica na análise de conjuntos de campos vetoriais. Dado um conjunto de campos vetoriais epsilon, obtemos os conjuntos formados pelos componentes livre de rotação, livre de divergente e harmônico, aplicando a Decomposição Natural de Helmholtz- Hodge em cada campo vetorial em epsilon. Com esses conjuntos em mãos, nossa proposta não somente quantifica, por meio de análise estatística, como cada componente é pontualmente correlacionado ao conjunto de campos vetoriais original, como também permite a investigação independente da incerteza relacionado aos campos livre de rotação, livre de divergente e harmônico. Em sequência, propomos duas técnicas que em conjunto com a Decomposição de Helmholtz-Hodge geram, de forma estocástica, campos vetoriais a partir de uma única realização. Por fim, propomos também um método para sintetizar campos vetoriais a partir de um conjunto, utilizando técnicas de Redução de Dimensionalidade e Projeção Inversa. Testamos os métodos propostos tanto em campos sintéticos quanto em campos numericamente simulados. / [en] Vector field plays an essential role in a large range of scientific applications. They are commonly generated through computer simulations. Such simulations may be a costly process because they usually require high computational time. When researchers want to quantify the uncertainty in such kind of applications, usually an ensemble of vector fields realizations are generated, making the process much more expensive. The Helmholtz-Hodge Decomposition is a very useful instrument for vector field interpretation because it traditionally distinguishes conservative (rotational-free) components from mass-preserving (divergence-free) components. In this work, we are going to explore the applicability of such technique on the uncertainty analysis of 2-dimensional vector fields. First, we will present an approach of the use of the Helmholtz-Hodge Decomposition as a basic tool for the analysis of a vector field ensemble. Given a vector field ensemble epsilon, we firstly obtain the corresponding rotational-free, divergence-free and harmonic component ensembles by applying the Natural Helmholtz-Hodge Decomposition to each1 vector field in epsilon. With these ensembles in hand, our proposal not only quantifies, via a statistical analysis, how much each component ensemble is point-wisely correlated to the original vector field ensemble, but it also allows to investigate the uncertainty of rotational-free, divergence-free and harmonic components separately. Then, we propose two techniques that jointly with the Helmholtz-Hodge Decomposition stochastically generate vector fields from a single realization. Finally, we propose a method to synthesize vector fields from an ensemble, using both the Dimension Reduction and Inverse Projection techniques. We test the proposed methods with synthetic vector fields as well as with simulated vector fields.
7

[en] UNCERTAINTY QUANTIFICATION IN OIL RESERVOIR SIMULATION VIA GENETIC PROGRAMMING AND CHAOS POLYNOMIAL / [pt] QUANTIFICAÇÃO DE INCERTEZAS NA SIMULAÇÃO DE RESERVATÓRIOS DE PETRÓLEO VIA PROGRAMAÇÃO GENÉTICA E CAOS POLINOMIAL

ALEJANDRA CAMACHO SOLANO 28 April 2016 (has links)
[pt] Os modelos de simulação de reservatórios estão sujeitos à incerteza presente em uma grande variedade de seus parâmetros de entrada. Esta incerteza é o resultado da heterogeneidade das formações geológicas, erros nas medições dos dados e da modelagem petrofísica, estrutural e do transporte dos fluidos no meio poroso. Uma quantificação precisa da incerteza requer, na maioria dos casos, uma quantidade elevada de simulações, o que é usualmente inviável se considerarmos o tempo consumido para simular modelos de grande escala. Por outro lado, uma avaliação adequada da incerteza aumenta a qualidade e robustez das decisões tomadas para o gerenciamento dos campos de petróleo. Com esta motivação, foi investigado o método das Expansões por Caos Polinomial (PCE, por suas siglas em inglês). PCE é uma técnica de convergência rápida utilizada para analisar como se propaga, na saída de um modelo, a incerteza presente nos parâmetros de entrada. Mediante PCE, pode-se representar a resposta aleatória de um modelo de simulação de reservatórios de petróleo como um polinômio, construído a partir de uma base de funções que dependem da distribuição de probabilidade das variáveis incertas de entrada. Por outro lado, quando a relação entre os parâmetros de entrada e a saída do modelo têm um componente não polinomial, o algoritmo de Programação Genética (PG) pode ser utilizado para representar esta dependência utilizando funções ou operadores mais complexos. PG é um algoritmo de regressão simbólica capaz de encontrar uma expressão aleatória explícita, que aproxime a saída de um modelo de simulação de reservatórios de petróleo, conhecendo-se a priori a distribuição de probabilidade dos parâmetros de entrada. Neste trabalho foram aplicadas as duas técnicas, antes mencionadas, num modelo de simulação de reservatórios baseado no campo PUNQ-S3, considerando até vinte e três parâmetros incertos durante um período de produção de 13 anos. Foi feita uma análise de incerteza, calculando-se a distribuição de probabilidade completa da saída do simulador. Os resultados foram comparados com o método de Monte Carlo, indicando um alto desempenho em termos de custo computacional e acurácia. Ambas as técnicas conseguem níveis de ajuste superiores a 80 porcento com uma quantidade de simulações consideravelmente baixa. / [en] Reservoir simulation models are subject to uncertainty in a wide variety of its inputs. This uncertainty is a result of the heterogeneity of the geological formations, data measurement errors, and petrophysical, structural, and fluid transport in porous media modelling. An accurate uncertainty quantification requires, in most cases, a large number of simulations, which is unviable considering the time it takes to simulate large scale models. On the other hand, a proper uncertainty assessment, increases the robustness of the decision making process for the oil field management. To this end, the method of Polynomial Chaos Expansions (PCE) was studied. PCE is a fast paced convergence technique, used to analyze the uncertainty propagation of the input parameters all the way to the output of the model. Through PCE is possible to represent the response of an oil reservoir simulation model as a polynomial, built from a function basis, that depend on the probability distribution of the uncertain input variables. Furthermore, when the relationship between the input and output parameters of the model has a non-polynomial component, the algorithm of Genetic Programming (GP) can be used to represent this dependency by more elaborate functions or operators. GP is a symbolic regression algorithm, capable of finding an explicit expression that approximates the output of a reservoir simulation model, with prior knowledge of the probability distribution of the input parameters. In this work, the two previously mentioned techniques were applied in a reservoir simulation model, based on the oil field PUNQ-S3, considering up to twenty three uncertain parameters during a simulation period of 13 years. An uncertainty analysis of the output of the simulator was conducted, calculating the entire probability distribution. The results were compared to the Monte Carlo simulation method, presenting a satisfactory performance in terms of accuracy and computational cost. Both techniques show adjustment levels higher than 80 percent, with a considerable small amount simulations.
8

[pt] AVALIANDO O USO DO ALGORITMO RANDOM FOREST PARA SIMULAÇÃO EM RESERVATÓRIOS MULTI-REGIÕES / [en] EVALUATING THE USE OF RANDOM FOREST REGRESSOR TO RESERVOIR SIMULATION IN MULTI-REGION RESERVOIRS

IGOR CAETANO DINIZ 22 June 2023 (has links)
[pt] Simulação de reservatórios de óleo e gás é uma demanda comum em engenharia de petróleo e pesquisas relacionadas, que pode requerer um elevado custo computacional de tempo e processamento ao resolver um problema matemático. Além disso, alguns métodos de caracterização de reservatórios necessitam múltiplas iterações, resultando em muitas simulações para obter um resultado. Também podemos citar os métodos baseados em conjunto, tais como o ensemble Kalman filter, o EnKF, e o Ensemble Smoother With Multiple Data Assimilation,o ES-MDA, que requerem muitas simulações. Em contrapartida, o uso de aprendizado de máquina cresceu bastante na indústria de energia. Isto pode melhorar a acurácia de predição, otimizar estratégias e outros. Visando reduzir as complexidades de simulação de reservatórios, este trabalho investiga o uso de aprendizado de máquina como uma alternativa a simuladores convencionais. O modelo Random Forest Regressor é testado para reproduzir respostas de pressão em um reservatório multi-região radial composto. Uma solução analítica é utilizada para gerar o conjunto de treino e teste para o modelo. A partir de experimentação e análise, este trabalho tem o objetivo de suplementar a utilização de aprendizado de máquina na indústria de energia. / [en] Oil and gas reservoir simulation is a common demand in petroleum engineering, and research, which may have a high computational cost, solving a mathematical numeric problem, or high computational time. Moreover, several reservoir characterization methods require multiple iterations, resulting in many simulations to obtain a reasonable characterization. It is also possible to mention ensemble-based methods, such as the ensemble Kalman filter, EnKF, and the Ensemble Smoother With Multiple Data Assimilation, ES-MDA, which demand lots of simulation runs to provide the output result. As a result, reservoir simulation might be a complex subject to deal with when working with reservoir characterization. The use of machine learning has been increasing in the energy industry. It can improve the accuracy of reservoir predictions, optimize production strategies, and many other applications. The complexity and uncertainty of reservoir models pose significant challenges to traditional modeling approaches, making machine learning an attractive solution. Aiming to reduce reservoir simulation’s complexities, this work investigates using a machine-learning model as an alternative to conventional simulators. The Random Forest regressor model is experimented with to reproduce pressure response solutions for multi-region radial composite reservoirs. An analytical approach is employed to create the training dataset in the following procedure: the permeability is sorted using a specific distribution, and the output is generated using the analytical solution. Through experimentation and analysis, this work aims to advance our understanding of using machine learning in reservoir simulation for the energy industry.
9

[en] EVALUATING THE IMPACT OF THE INFLATION FACTORS GENERATION FOR THE ENSEMBLE SMOOTHER WITH MULTIPLE DATA ASSIMILATION / [pt] INVESTIGANDO O IMPACTO DA GERAÇÃO DOS FATORES DE INFLAÇÃO PARA O ENSEMBLE SMOOTHER COM MÚLTIPLA ASSIMILAÇÃO DE DADOS

THIAGO DE MENEZES DUARTE E SILVA 09 September 2021 (has links)
[pt] O ensemble smoother with multiple data assimilation (ES-MDA) se tornou um poderoso estimador de parâmetros. A principal ideia do ES-MDA é assimilar os mesmos dados com a matriz de covariância dos erros dos dados inflada. Na implementação original do ES-MDA, os fatores de inflação e o número de assimilações são escolhidos a priori. O único requisito é que a soma dos inversos de tais fatores seja igual a um. Naturalmente, escolhendo-os iguais ao número de assimilações cumpre este requerimento. Contudo, estudos recentes mostraram uma relação entre a equação de atualização do ES-MDA com a solução para o problema inverso regularizado. Consequentemente, tais elementos agem como os parâmetros de regularização em cada assimilação. Assim, estudos propuseram técnicas para gerar tais fatores baseadas no princípio da discrepância. Embora estes estudos tenham propostos técnicas, um procedimento ótimo para gerar os fatores de inflação continua um problema em aberto. Mais ainda, tais estudos divergem em qual método de regularização é sufiente para produzir os melhores resultados para o ES-MDA. Portanto, nesta tese é abordado o problema de gerar os fatores de inflação para o ESMDA e suas influências na performance do método. Apresentamos uma análise numérica do impacto de tais fatores nos parâmetros principais do ES-MDA: o tamanho do conjunto, o número de assimilações e o vetor de atualização dos parâmetros. Com a conclusão desta análise, nós propomos uma nova técnica para gerar os fatores de inflação para o ES-MDA baseada em um método de regularização para algorítmos do tipo Levenberg-Marquardt. Investigando os resultados de um problema de inundação de um reservatório 2D, o novo método obtém melhor estimativa tanto para os parâmetros do modelo tanto quanto para os dados observados. / [en] The ensemble smoother with multiple data assimilation (ES-MDA) gained much attention as a powerful parameter estimation method. The main idea of the ES-MDA is to assimilate the same data multiple times with an inflated data error covariance matrix. In the original ES-MDA implementation, these inflation factors, such as the number of assimilations, are selected a priori. The only requirement is that the sum of the inflation factors inverses must be equal to one. Therefore, selecting them equal to the number of assimilations is a straightforward choice. Nevertheless, recent studies have shown a relationship between the ES-MDA update equation and the solution to a regularized inverse problem. Hence, the inflation factors play the role of the regularization parameter at each ES-MDA assimilation step. As a result, they have also suggested new procedures to generate these elements based on the discrepancy principle. Although several studies proposed efficient techniques to generate the ES-MDA inflation factors, an optimal procedure to generate them remains an open problem. Moreover, the studies diverge on which regularization scheme is sufficient to provide the best ES-MDA outcomes. Therefore, in this work, we address the problem of generating the ES-MDA inflation factors and their influence on the method s performance. We present a numerical analysis of the influence of such factors on the main parameters of the ES-MDA, such as the ensemble size, the number of assimilations, and the ES-MDA vector of model parameters update. With the conclusions presented in the aforementioned analysis, we propose a new procedure to generate ES-MDA inflation factors based on a regularizing scheme for Levenberg-Marquardt algorithms. It is shown through a synthetic two-dimensional waterflooding problem that the new method achieves better model parameters and data match compared to the other ES-MDA implementations available in the literature.
10

[en] MODEL FOR CALCULATING THE NEED FOR CAPITAL TO COVER THE UNDERWRITING RISKS OF NON-LIFE OPERATIONS / [pt] MODELO DE CÁLCULO DA NECESSIDADE DE CAPITAL PARA COBRIR OS RISCOS DE SUBSCRIÇÃO DE OPERAÇÕES NÃO VIDA

EDUARDO HENRIQUE ALTIERI 03 May 2019 (has links)
[pt] Importante questão que se coloca atualmente é a capacidade de medição do volume de capital necessário, às sociedades seguradoras, para fazer frente aos diversos tipos de risco que tais companhias suportam no exercício de suas atividades. Esse volume de capital necessário deve ser tal que permita à companhia suportar variabilidades no negócio. As motivações para o desenvolvimento de modelos matemáticos visando à determinação desta necessidade de capital são tanto a preocupação das próprias companhias com a sua gestão de risco, como também aspectos relacionados ao estabelecimento de requerimentos de capital exigidos pelo regulador de seguro às sociedades seguradoras para fazer frente aos riscos suportados. Entre tais riscos, encontra-se a categoria dos riscos de subscrição, relacionados diretamente à operação central de uma seguradora (design de produto, precificação, processo de aceitação, regulação de sinistros e provisionamento). Esta dissertação apresenta uma proposta de modelo para determinação do volume necessário de capital para fazer frente aos riscos de subscrição, na qual tal categoria de riscos é segregada nos riscos de provisão de sinistros (relativos aos sinistros ocorridos e, assim, relacionados às provisões de sinistros) e nos riscos de emissão/precificação (relativos aos sinistros à ocorrer num horizonte de tempo de 1 ano, considerando novos negócios). Em especial, o modelo proposto utiliza processos de simulação que levam em consideração a estrutura de dependência das variáveis envolvidas e linhas de negócio, fazendo uso do conceito de cópulas condicionais. / [en] Important question that arises today is the ability to measure the amount of capital necessary to insurance companies, to cope with various types of risk that these companies support in performing their activities. This volume of capital required must be such as to enable the company to bear variability in business. The motivations for the development of mathematical models aimed at the determination of those capital needs are both the concern of companies with their own risk management, as well as aspects related to establishing capital requirements required by the insurance regulator to insurance companies to face the risks borne. Among such risks, is the category of underwriting risks, directly related to the core operation of an insurance company (product design, pricing, underwriting process, loss settlement and provisioning). This dissertation proposes a model for determining the appropriate amount of capital to cope with the underwriting risks, where such risk category is segregated in reserving risks (relative to incurred events) and pricing risks (relative to events occurring in the time horizon of 1 year, considering new businesses). In particular, the proposed model uses simulation processes that take into account the dependence structure of the variables involved and lines of business, making use of the concept of conditional copulas.

Page generated in 0.0341 seconds