• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] RELIABILITY OF SAFETY BARRIER SYSTEMS IN OIL WELLS BY THE MONTE CARLO S METHOD / [pt] CONFIABILIDADE DE SISTEMAS DE BARREIRAS DE SEGURANÇA EM POÇOS DE PETRÓLEO PELO MÉTODO DE MONTE CARLO

MARIANA HERINGER BOUCAS 25 October 2017 (has links)
[pt] No projeto de um poço de petróleo três princípios devem ser seguidos: segurança, produtividade e proteção ambiental. Durante toda a vida de um poço deverá haver equipamentos que permitam a realização das operações com segurança. A integridade de um poço de petróleo é fundamental para garantir tal segurança. Os elementos de barreira de segurança são a base da gestão da integridade e por isso precisam estar adequadas e funcionando perfeitamente. Integridade é a contenção dos fluidos do poço, prevenindo derramamentos de hidrocarbonetos para o ambiente externo e entre zonas produtoras. A indústria do petróleo já enfrentou diversos acidentes ao longo de sua história (ex.: Campos de Montara, Macondo, Campo de Frade) e tais fatos trágicos demonstram o potencial de periculosidade que a indústria de Óleo e Gás pode ter. Milhões de dólares são perdidos a cada ano devido à manutenção ineficaz e shutins não programados de poços. O gasto é elevado, mas possíveis ameaças ao meio ambiente e perigos à vida humana devem ser a principal prioridade. Por isso é cada vez maior a preocupação e foco na integridade do poço. Neste trabalho é apresentada uma metodologia de verificação da confiabilidade de um sistema de barreiras em poços de petróleo, proporcionando um método capaz de comparar diferentes configurações de poços submarinos, através de simulações, utilizando o Método de Monte Carlo. A fim de verificar a importância de alguns desses elementos de barreira do sistema, foram feitos alguns estudos individuais variando as taxas de falha do elemento estudado em questão, mantendo as demais taxas inalteradas. No final foi feita uma comparação desses resultados observando quais delas precisavam ser ainda mais confiáveis. / [en] There are three principles that must be followed in the design of oil wells: safety, productivity and environmental protection. Throughout the well s life there must be equipments that allow the operations to be carried out safely. The integrity of an oil well is critical to ensure such safety. Safety barrier elements are the basis of integrity management and therefore need to be suitable and work properly. Integrity is the containment of the well fluids, preventing hydrocarbons spills to the environment and between producing zones. The oil industry has faced several accidents throughout its history (eg Montara s field, Macondo s field, Frade s field) and such tragic events demonstrate the hazardous potential that the Oil and Gas industry may have. Millions of dollars are lost each year due to inefficient maintenance and unscheduled well shut-ins. Costs are very high, but possible threats to the environment and hazards to human life should be the top priority. This is why there is a growing concern and focus on the well s integrity. This work presents a methodology to verify the reliability of a barrier system in oil wells, providing a method able to compare different configurations of subsea wells, through simulations, using Monte Carlo Method. In order to verify the importance of some of these barrier elements in the system, some studies were conducted varying the failure rates of the studied element in question, leaving the other rates unchanged. In the end, a comparison of these results was made, observing which ones need to be even more reliable.
2

[en] COMBINING STRATEGIES FOR ESTIMATION OF TREATMENT EFFECTS / [pt] COMBINANDO ESTRATÉGIAS PARA ESTIMAÇÃO DE EFEITOS DE TRATAMENTO

RAFAEL DE CARVALHO CAYRES PINTO 19 January 2018 (has links)
[pt] Uma ferramenta importante na avaliação de políticas econômicas é a estimação do efeito médio de um programa ou tratamento sobre uma variável de interesse. A principal dificuldade desse cálculo deve-se µa atribuição do tratamento aos potenciais participantes geralmente não ser aleatória, causando viés de seleção quando desconsiderada. Uma maneira de resolver esse problema é supor que o econometrista observa um conjunto de características determinantes, a menos de um componente estritamente aleatório, da participação. Sob esta hipótese, conhecida como Ignorabilidade, métodos semiparamétricos de estimação foram desenvolvidos, entre os quais a imputação de valores contrafactuais e a reponderação da amostra. Ambos são consistentes e capazes de atingir, assintoticamente, o limite de eficiência semiparamétrico. Entretanto, nas amostras frequentemente disponíveis, o desempenho desses métodos nem sempre é satisfatório. O objetivo deste trabalho é estudar como a combinação das duas estratégias pode produzir estimadores com melhores propriedades em amostras pequenas. Para isto, consideramos duas formas de integrar essas abordagens, tendo como referencial teórico a literatura de estimação duplamente robusta desenvolvida por James Robins e co-autores. Analisamos suas propriedades e discutimos por que podem superar o uso isolado de cada uma das técnicas que os compõem. Finalmente, comparamos, num exercício de Monte Carlo, o desempenho desses estimadores com os de imputação e reponderação. Os resultados mostram que a combinação de estratégias pode reduzir o viés e a variância, mas isso depende da forma como é implementada. Concluímos que a escolha dos parâmetros de suavização é decisiva para o desempenho da estimação em amostras de tamanho moderado. / [en] Estimation of mean treatment effect is an important tool for evaluating economic policy. The main difficulty in this calculation is caused by nonrandom assignment of potential participants to treatment, which leads to selection bias when ignored. A solution to this problem is to suppose the econometrician observes a set of covariates that determine participation, except for a strictly random component. Under this assumption, known as Ignorability, semiparametric methods were developed, including imputation of counterfactual outcomes and sample reweighing. Both are consistent and can asymptotically achieve the semiparametric efficiency bound. However, in sample sizes commonly available, their performance is not always satisfactory. The goal of this dissertation is to study how combining these strategies can lead to better estimation in small samples. We consider two different ways of merging these methods, based on Doubly Robust inference literature developed by James Robins and his co-authors, analyze their properties and discuss why they would overcome each of their components. Finally, we compare the proposed estimators to imputation and reweighing in a Monte Carlo exercise. Results show that while combined strategies may reduce bias and variance, it depends on the way it is implemented. We conclude that the choice of smoothness parameters is critical to obtain good estimates in moderate size samples.
3

[en] ANALYSIS OF THE COMPUTATIONAL COST OF THE MONTE CARLO METHOD: A STOCHASTIC APPROACH APPLIED TO A VIBRATION PROBLEM WITH STICK-SLIP / [pt] ANÁLISE DO CUSTO COMPUTACIONAL DO MÉTODO DE MONTE CARLO: UMA ABORDAGEM ESTOCÁSTICA APLICADA A UM PROBLEMA DE VIBRAÇÕES COM STICK-SLIP

MARIANA GOMES DIAS DOS SANTOS 20 June 2023 (has links)
[pt] Um dos objetivos desta tese é analisar o custo computacional do método de Monte Carlo aplicado a um problema modelo de dinâmica, considerando incertezas na força de atrito. O sistema mecânico a ser estudado é composto por um oscilador de um grau de liberdade que se desloca sobre uma esteira em movimento. Considera-se a existência de atrito seco entre a massa do oscilador e a esteira. Devido a uma descontinuidade na força de atrito, a dinâmica resultante pode ser dividida em duas fases que se alternam, chamadas de stick e slip. Neste estudo, um parâmetro da força de atrito dinâmica é modelado como uma variável aleatória. A propagação de incerteza é estudada por meio da aplicação do método de Monte Carlo, considerando três abordagens diferentes para calcular aproximações da resposta dos problemas de valor inicial que modelam a dinâmica do problema: NV) aproximações numéricas calculadas usando método de Runge-Kutta de quarta e quinta ordens com passo de integração variável; NF) aproximações numéricas calculadas usando método de Runge-Kutta de quarta ordem com passo de integração fixo; AN) aproximação analítica obtida com o método de múltiplas escalas. Nas abordagens NV e NF, para cada valor de parâmetro, uma aproximação numérica foi calculada. Já para a AN, apenas uma aproximação analítica foi calculada e avaliada para os diferentes valores usados. Entre as variáveis aleatórias de interesse associadas ao custo computacional do método de Monte Carlo, encontram-se o tempo de execução e o espaço em disco consumido. Devido à propagação de incertezas, a resposta do sistema é um processo estocástico com uma sequência aleatória de fases de stick e slip. Essa sequência pode ser caracterizada pelas seguintes variáveis aleatórias: instantes de transição entre as fases de stick e slip, suas durações e o número de fases. Para estudar as variáveis associadas ao custo computacional e ao processo estocástico foram construídos modelos estatísticos, histogramas normalizados e gráficos de dispersão. O objetivo é estudar a dependência entre as variáveis do processo estocástico e o custo computacional. Porém, a construção destas análises não é simples devido à dimensão do problema e à impossibilidade de visualização das distribuições conjuntas de vetores aleatórios de três ou mais dimensões. / [en] One of the objectives of this thesis is to analyze the computational cost of the Monte Carlo method applied to a toy problem concerning the dynamics of a mechanical system with uncertainties in the friction force. The system is composed by an oscillator placed over a moving belt. The existence of dry friction between the two elements in contact is considered. Due to a discontinuity in the frictional force, the resulting dynamics can be divided into two alternating phases, called stick and slip. In this study, a parameter of the dynamic friction force is modeled as a random variable. Uncertainty propagation is analyzed by applying the Monte Carlo method, considering three different strategies to compute approximations to the initial value problems that model the system s dynamics: NV) numerical approximations computed with the Runge-Kutta method of 4th and 5th orders, with variable integration time-step; NF) numerical approximations computed with the Runge-Kutta method of 4th order, with a fixed integration time-step; AN) analytical approximation obtained with the multiple scale method. In the NV and NF strategies, for each parameter value, a numerical approximation was calculated, whereas for the AN strategy, only one analytical approximation was calculated and evaluated for the different values of parameters considered. The run-time and the storage are among the random variables of interest associated with the computational cost of the Monte Carlo method. Due to uncertainty propagation, the system response is a stochastic process given by a random sequence of stick and slip phases. This sequence can be characterized by the following random variables: the transition instants between the stick and slip phases, their durations and the number of phases. To study the random processes and the variables related to the computational costs, statistical models, normalized histograms and scatterplots were built. Afterwards, a joint analysis was performed to study the dependece between the variables of the random process and the computational cost. However, the construction of these analyses is not a simple task due to the impossibility of viewing the distributionto of joint distributions of random vectors of three or more.

Page generated in 0.2381 seconds