• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 5
  • Tagged with
  • 18
  • 18
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

[pt] AVALIANDO O USO DO ALGORITMO RANDOM FOREST PARA SIMULAÇÃO EM RESERVATÓRIOS MULTI-REGIÕES / [en] EVALUATING THE USE OF RANDOM FOREST REGRESSOR TO RESERVOIR SIMULATION IN MULTI-REGION RESERVOIRS

IGOR CAETANO DINIZ 22 June 2023 (has links)
[pt] Simulação de reservatórios de óleo e gás é uma demanda comum em engenharia de petróleo e pesquisas relacionadas, que pode requerer um elevado custo computacional de tempo e processamento ao resolver um problema matemático. Além disso, alguns métodos de caracterização de reservatórios necessitam múltiplas iterações, resultando em muitas simulações para obter um resultado. Também podemos citar os métodos baseados em conjunto, tais como o ensemble Kalman filter, o EnKF, e o Ensemble Smoother With Multiple Data Assimilation,o ES-MDA, que requerem muitas simulações. Em contrapartida, o uso de aprendizado de máquina cresceu bastante na indústria de energia. Isto pode melhorar a acurácia de predição, otimizar estratégias e outros. Visando reduzir as complexidades de simulação de reservatórios, este trabalho investiga o uso de aprendizado de máquina como uma alternativa a simuladores convencionais. O modelo Random Forest Regressor é testado para reproduzir respostas de pressão em um reservatório multi-região radial composto. Uma solução analítica é utilizada para gerar o conjunto de treino e teste para o modelo. A partir de experimentação e análise, este trabalho tem o objetivo de suplementar a utilização de aprendizado de máquina na indústria de energia. / [en] Oil and gas reservoir simulation is a common demand in petroleum engineering, and research, which may have a high computational cost, solving a mathematical numeric problem, or high computational time. Moreover, several reservoir characterization methods require multiple iterations, resulting in many simulations to obtain a reasonable characterization. It is also possible to mention ensemble-based methods, such as the ensemble Kalman filter, EnKF, and the Ensemble Smoother With Multiple Data Assimilation, ES-MDA, which demand lots of simulation runs to provide the output result. As a result, reservoir simulation might be a complex subject to deal with when working with reservoir characterization. The use of machine learning has been increasing in the energy industry. It can improve the accuracy of reservoir predictions, optimize production strategies, and many other applications. The complexity and uncertainty of reservoir models pose significant challenges to traditional modeling approaches, making machine learning an attractive solution. Aiming to reduce reservoir simulation’s complexities, this work investigates using a machine-learning model as an alternative to conventional simulators. The Random Forest regressor model is experimented with to reproduce pressure response solutions for multi-region radial composite reservoirs. An analytical approach is employed to create the training dataset in the following procedure: the permeability is sorted using a specific distribution, and the output is generated using the analytical solution. Through experimentation and analysis, this work aims to advance our understanding of using machine learning in reservoir simulation for the energy industry.
12

[en] EVALUATING THE IMPACT OF THE INFLATION FACTORS GENERATION FOR THE ENSEMBLE SMOOTHER WITH MULTIPLE DATA ASSIMILATION / [pt] INVESTIGANDO O IMPACTO DA GERAÇÃO DOS FATORES DE INFLAÇÃO PARA O ENSEMBLE SMOOTHER COM MÚLTIPLA ASSIMILAÇÃO DE DADOS

THIAGO DE MENEZES DUARTE E SILVA 09 September 2021 (has links)
[pt] O ensemble smoother with multiple data assimilation (ES-MDA) se tornou um poderoso estimador de parâmetros. A principal ideia do ES-MDA é assimilar os mesmos dados com a matriz de covariância dos erros dos dados inflada. Na implementação original do ES-MDA, os fatores de inflação e o número de assimilações são escolhidos a priori. O único requisito é que a soma dos inversos de tais fatores seja igual a um. Naturalmente, escolhendo-os iguais ao número de assimilações cumpre este requerimento. Contudo, estudos recentes mostraram uma relação entre a equação de atualização do ES-MDA com a solução para o problema inverso regularizado. Consequentemente, tais elementos agem como os parâmetros de regularização em cada assimilação. Assim, estudos propuseram técnicas para gerar tais fatores baseadas no princípio da discrepância. Embora estes estudos tenham propostos técnicas, um procedimento ótimo para gerar os fatores de inflação continua um problema em aberto. Mais ainda, tais estudos divergem em qual método de regularização é sufiente para produzir os melhores resultados para o ES-MDA. Portanto, nesta tese é abordado o problema de gerar os fatores de inflação para o ESMDA e suas influências na performance do método. Apresentamos uma análise numérica do impacto de tais fatores nos parâmetros principais do ES-MDA: o tamanho do conjunto, o número de assimilações e o vetor de atualização dos parâmetros. Com a conclusão desta análise, nós propomos uma nova técnica para gerar os fatores de inflação para o ES-MDA baseada em um método de regularização para algorítmos do tipo Levenberg-Marquardt. Investigando os resultados de um problema de inundação de um reservatório 2D, o novo método obtém melhor estimativa tanto para os parâmetros do modelo tanto quanto para os dados observados. / [en] The ensemble smoother with multiple data assimilation (ES-MDA) gained much attention as a powerful parameter estimation method. The main idea of the ES-MDA is to assimilate the same data multiple times with an inflated data error covariance matrix. In the original ES-MDA implementation, these inflation factors, such as the number of assimilations, are selected a priori. The only requirement is that the sum of the inflation factors inverses must be equal to one. Therefore, selecting them equal to the number of assimilations is a straightforward choice. Nevertheless, recent studies have shown a relationship between the ES-MDA update equation and the solution to a regularized inverse problem. Hence, the inflation factors play the role of the regularization parameter at each ES-MDA assimilation step. As a result, they have also suggested new procedures to generate these elements based on the discrepancy principle. Although several studies proposed efficient techniques to generate the ES-MDA inflation factors, an optimal procedure to generate them remains an open problem. Moreover, the studies diverge on which regularization scheme is sufficient to provide the best ES-MDA outcomes. Therefore, in this work, we address the problem of generating the ES-MDA inflation factors and their influence on the method s performance. We present a numerical analysis of the influence of such factors on the main parameters of the ES-MDA, such as the ensemble size, the number of assimilations, and the ES-MDA vector of model parameters update. With the conclusions presented in the aforementioned analysis, we propose a new procedure to generate ES-MDA inflation factors based on a regularizing scheme for Levenberg-Marquardt algorithms. It is shown through a synthetic two-dimensional waterflooding problem that the new method achieves better model parameters and data match compared to the other ES-MDA implementations available in the literature.
13

[pt] AJUSTE ÓTIMO POR LEVENBERG-MARQUARDT DE MÉTODOS DE PREVISÃO PARA INICIAÇÃO DE TRINCA / [en] OPTIMAL FIT BY LEVENBERG-MARQUARDT OF PREDICTION METHODS FOR CRACK INITIATION

GABRIELA WEGMANN LIMA 01 November 2022 (has links)
[pt] A grande maioria das estruturas que trabalham sob cargas alternadas precisa ser dimensionada para evitar a iniciação de trincas por fadiga, o principal mecanismo de dano mecânico nesses casos. Os vários parâmetros dos modelos de previsão de dano à fadiga usados nesses projetos devem ser preferencialmente medidos a partir do ajuste otimizado de suas equações a dados experimentais medidos de forma adequada. Na realidade, a precisão das previsões baseadas nesses modelos depende diretamente da qualidade dos ajustes utilizados para obtenção desses parâmetros. Sendo assim, o objetivo principal deste trabalho é estudar a melhor maneira de se obter os parâmetros dos principais modelos de previsão da iniciação de trincas por fadiga através de ajustes de dados experimentais baseados no algoritmo de LevenbergMarquardt. Primeiro, foram realizados diversos ensaios εN em uma liga de alumínio 6351-T6 para averiguar o desempenho do ajuste proposto para asequações de Coffin-Manson e de Ramberg-Osgood. Em seguida, foram usados dados da literatura de outros oito materiais para ajustar modelos deformaçãovida clássicos, assim como com o expoente de Walker, para assim avaliar o efeito de cargas médias não-nulas em testes εN. Por fim, foi estudado o ajuste de um modelo SN com expoente de Walker que considera limites de fadiga e efeitos de carga média. Esse estudo também inclui considerações estatísticas para quantificar o fator de confiabilidade a partir de diferentes hipóteses de funções densidade de probabilidade, baseadas em dez conjuntos de dados da literatura. / [en] Most structures working under alternate loadings must be dimensioned to prevent fatigue crack initiation, the main mechanism of mechanical damage in these cases. The various parameters from the fatigue damage prediction models used in these projects should preferably be measured by optimally fitting their equations to well-measured experimental data. In fact, the accuracy of the predictions based on these models depends directly on the quality of the adjustments used to obtain these parameters. As a result, the main purpose of this work is to study the best way to obtain the parameters of the leading prediction models of fatigue crack initiation through experimental data fittings based on the Levenberg-Marquardt algorithm. First, several εN tests were performed on a 6351-T6 aluminum alloy to verify the performance of the proposed fit for the Coffin-Manson and Ramberg-Osgood equations. Then, data from the literature of eight other materials were used to fit classic strainlife models, as well as models based on the Walker exponent, to evaluate the effect of non-zero mean loads in εN tests. Finally, the fitting of an SN model including the Walker exponent was studied, which considers fatigue limits and mean load effects. This study includes as well statistical considerations to quantify the reliability factor from different probability density function assumptions, based on ten data sets from the literature.
14

[pt] ABERTURA COMERCIAL E MOBILIDADE DO TRABALHO: MITIGANDO CUSTOS DA LIBERALIZAÇÃO COMERCIAL NO BRASIL ATRAVÉS DE POLÍTICAS ATIVAS DE REQUALIFICAÇÃO PROFISSIONAL / [en] TRADE LIBERALIZATION AND LABOR MOBILITY: MITIGATING COSTS OF TRADE LIBERALIZATION IN BRAZIL THROUGH ACTIVE LABOR MARKET POLICIES FOR RESKILLING

GABRIEL DE BARROS TORRES 01 June 2020 (has links)
[pt] A nova política comercial brasileira, seja associada a exercícios de liberalização negociada ou autônoma, impõe a necessidade de avaliar e administrar os eventuais custos associados à nova situação de abertura comercial, sobretudo do ponto de vista do deslocamento do trabalho em setores tradicionalmente protegidos. Neste sentido, a facilitação da mobilidade do trabalho entre firmas e setores é essencial não apenas para mitigar os custos do ajuste, mas também para maximizar os ganhos esperados na produtividade do trabalho. A partir da experiência internacional com programas de ajuste ao comércio e políticas ativas de mercado de trabalho, este estudo visa analisar as opções e formatos de políticas mais adequados à promoção da empregabilidade no contexto da nova política comercial brasileira. Com base na trajetória recente de políticas de requalificação profissional no Brasil, argumenta-se que o movimento de abertura comercial deva ser acompanhado pela priorização de políticas de mercado de trabalho com elegibilidade universal e orientadas à demanda, com resultados positivos comprovados – em particular, através da expansão do Pronatec Setor Produtivo, tornando-o o principal programa nacional de acesso ao ensino técnico e profissional. Ao mitigar os custos laborais do ajuste à abertura comercial, este exercício poderá contribuir para atenuar resistências setoriais ao próprio processo de liberalização. / [en] The new Brazilian trade policy, whether associated with negotiated or autonomous liberalization, imposes the need to evaluate and manage costs associated with the new competitive situation, especially considering the displacement of labor in traditionally protected sectors. In this sense, facilitating labor mobility across firms and sectors is essential not only to mitigate trade adjustment costs, but also to maximize expected gains in labor productivity. Based on international experience with trade adjustment programs and active labor market policies, this study aims to analyze the most appropriate policy options and formats to promote employability in the context of the new Brazilian trade policy. Based on the recent trajectory of vocational and technical training programs in Brazil, it is argued that trade liberalization should be accompanied by the prioritization of demand-driven universal labor market policies, with proven positive outcomes – in particular, through the expansion of Pronatec Productive Sector, making it the main national program for access to technical and vocational education. By mitigating the labor costs of adjusting to trade openness, this exercise may ultimately help to mitigate sectorial resistance to the liberalization process.
15

[en] XBAR CHART WITH ESTIMATED PARAMETERS: THE AVERAGE RUN LENGTH DISTRIBUTION AND CORRECTIONS TO THE CONTROL LIMITS / [pt] GRÁFICO XBARRA COM PARÂMETROS ESTIMADOS: A DISTRIBUIÇÃO DA TAXA DE ALARMES E CORREÇÕES NOS LIMITES

FELIPE SCHOEMER JARDIM 31 July 2018 (has links)
[pt] Os gráficos de controle estão entre as ferramentas indispensáveis para monitorar o desempenho de um processo em várias indústrias. Quando estimativas de parâmetros são necessárias para projetar esses gráficos, seu desempenho é afetado devido aos erros de estimação. Para resolver esse problema, no passado, pesquisadores avaliavam o desempenho desses métodos em termos do valor esperado do número médio de amostras até um alarme falso condicionado às estimativas dos parâmetros (denotado por 𝐶𝐴𝑅𝐿0). No entanto, esta solução não considera a grande variabilidade do 𝐶𝐴𝑅𝐿0 entre usuários. Então, recentemente, surgiu a ideia de medir o desempenho dos gráficos de controle usando a probabilidade de o 𝐶𝐴𝑅𝐿0 ser maior do que um valor especificado – que deve estar próximo do desejado nominal. Isso é chamado de Exceedance Probability Criterion (EPC). Para aplicar o EPC, a função de distribuição acumulada (c.d.f.) do 𝐶𝐴𝑅𝐿0 é necessária. No entanto, para um dos gráficos de controle mais utilizados, o gráfico Xbarra, também conhecido como gráfico x (sob a suposição de distribuição normal), a expressão matemática da c.d.f. não está disponível na literatura. Como contribuição nesse sentido, o presente trabalho apresenta a derivação exata da expressão matemática da c.d.f. do 𝐶𝐴𝑅𝐿0 para três possíveis casos de estimação de parâmetros: (1) quando a média e o desvio-padrão são desconhecidos, (2) quando apenas a média é desconhecida e (3) quando apenas o desvio-padrão é desconhecido. Assim, foi possível calcular o número mínimo de amostras iniciais, m, que garantem um desempenho desejada do gráfico em termos de EPC. Esses resultados mostram que m pode assumir valores consideravelmente grandes (como, por exemplo, 3.000 amostras). Como solução, duas novas equações são derivadas aqui para ajustar os limites de controle garantindo assim um desempenho desejado para qualquer valor de m. A vantagem dessas equações é que uma delas fornece resultados exatos enquanto a outra dispensa avançados softwares de computador para os cálculos. Um estudo adicional sobre o impacto desses ajustes no desempenho fora de controle (OOC) fornece tabelas que ajudam na decisão do melhor tradeoff entre quantidade adequada de dados e desempenhos IC e OOC preferenciais do gráfico. Recomendações práticas para uso desses resultados são aqui também fornecidas. / [en] Control charts are among the indispensable tools for monitoring process performance in various industries. When parameter estimation is needed to design these charts, their performance is affected due to parameter estimation errors. To overcome this problem, in the past, researchers have evaluated the performance of control charts and designed them in terms of the expectation of the realized in-control (IC) average run length (𝐶𝐴𝑅𝐿0). But, as pointed recently, this solution does not account for what is known as the practitioner-to-practitioner variability (i.e., the variability of 𝐶𝐴𝑅𝐿0). So, a recent idea emerged where control chart performance is measured by the probability of the 𝐶𝐴𝑅𝐿0 being greater than a specified value - which must be close to the nominal desired one. This is called the Exceedance Probability Criterion (EPC). To apply the EPC, the cumulative distribution function (c.d.f.) of the 𝐶𝐴𝑅𝐿0 is required. However, for the most well-known control chart, named the two-sided Shewhart Xbar (or simply X) Chart (under normality assumption), the mathematical c.d.f. expression of the 𝐶𝐴𝑅𝐿0 is not available in the literature. As a contribution in this respect, the present work presents the derivation of the exact c.d.f. expression of the 𝐶𝐴𝑅𝐿0 for three cases of parameters estimation: (1) when both the process mean and standard deviation are unknown, (2) when only the mean is unknown and (3) when only the standard deviation is unknown. Using these key results, it was possible to calculate the exact minimum number of initial (Phase I) samples (m) that guarantees a desired in-control performance in terms of the EPC. These results show that m can be prohibitively large (such as 3.000 samples). As a solution to this problem, two new equations are derived here to adjust the control limits to guarantee a desired in-control performance in terms of the EPC for any given value of m. The advantage of these equations (compared to the existing adjustments methods) is that one provides exact results and the other one does not require too many computational resources to perform the calculations. A further study about the impact of these adjustments on the out-of-control (OOC) performance provides useful tables to decide the appropriate amount of data and the adjustments that corresponds to a user preferred tradeoff between the IC and OOC performances of the chart. Practical recommendations for using these findings are also provided in this research work.
16

[en] ELASTIC TIME ALGORITHM FOR VIDEO IN MPEG-2 FLOWS / [pt] ALGORITMO DE AJUSTE ELÁSTICO PARA VÍDEO EM FLUXOS MPEG-2

SERGIO ALVES CAVENDISH 09 August 2006 (has links)
[pt] Em apresentações hipermídia, umas das principais tarefas coordenadas pelo orquestrador da apresentação é a sincronização entre os diversos objetos componentes, que pode ser obtida através do ajuste elástico do tempo de exibição dos objetos. Esta técnica pode ser aplicada em tempo de compilação, de forma a manter os relacionamentos de sincronização especificados pelo autor, ou em tempo de apresentação, para prevenir qualquer descasamento temporal causado pelos ambientes de transmissão e de execução. Este trabalho descreve um conjunto de mecanismos para executar o ajuste elástico em fluxos MPEG-2 de Vídeo e de Sistemas, propondo algoritmos para a realização da compressão e expansão do tempo de exibição, do controle da ocupação do buffer do decodificador, da sincronização intermídia e da reconstrução do relógio de referência. Visando seu emprego em tempo de execução, todo o processo de ajuste é realizado diretamente no fluxo MPEG, sem qualquer transcodificação. / [en] In hypermedia presentations, one of the main tasks provided by the orchestrator is the synchronization of all presentation objects, which may be achieved by elastic time adjustment of period of exhibition of the objects, or simply timescale adaptation. This technique can be applied at compilation time, in order to keep track of synchronism relationships specified by authors, or at presentation time, to prevent any temporal mismatch caused by transmission or execution environments. This work presents a set of mechanisms to carry out timescale adaptation in MPEG-2 Systems and Video streams, proposing algorithms to perform compression and expansion of exhibition period, also called playback dilation, rate control, inter-media synchronization and clock reconstruction. In order to be performed at execution time, timescale operations are realized directly in compressed MPEG-2 streams, requiring no transcodification.
17

[en] ON-THE-FLY TIMESCALE FOR COMPRESSED AUDIO STREAMS / [pt] AJUSTE ELÁSTICO EM TEMPO DE EXIBIÇÃO PARA FLUXOS DE ÁUDIO COMPRIMIDO

SUZANA MESQUITA DE BORBA MARANHAO 23 October 2006 (has links)
[pt] Ajuste elástico é a técnica de modificar a duração de exibição de um objeto de mídia. Este trabalho propõe algoritmos de ajuste elástico que funcionam em tempo de exibição para fluxos de áudio comprimidos, com aplicabilidade principal em cenários onde não existe interferência do usuário como, por exemplo, a manutenção da consistência temporal de um documento hipermídia. Os algoritmos de ajuste de áudio são propostos, desenvolvidos e integrados a algoritmos de ajuste de vídeo. Além disso, um algoritmo de resincronização é proposto, e implementado, para preservar o sincronismo intermídia durante a realização de ajuste em fluxos de sistemas MPEG-2. A união dos algoritmos implementados com o desenvolvimento da integração a exibidores de conteúdo deu origem à ferramenta de ajuste, capaz de ser facilmente utilizada por aplicações que precisam solicitar ajuste elástico em fluxos de mídia comprimidos. Como exemplo, a ferramenta de ajuste foi integrada a ferramentas de exibição de um formatador hipermídia. Os algoritmos propostos podem ajustar a duração de áudio em até 10% mantendo a qualidade da percepção do áudio dentro de limites aceitáveis, conforme demonstrado através de medidas de qualidade que também são apresentadas neste trabalho. / [en] Timescale is a technique used to modify media-object playing duration. This work proposes timescale algorithms, to be performed on-the- fly, for compressed audio streams. The focus is situations where there is no user interference as, for example, the temporal consistency maintenance of a hypermedia document. The algorithms are proposed, developed and integrated to video timescale algorithms. Furthermore, a resynchronization algorithm is also proposed, and implemented, in order to maintain inter-media synchronization in MPEG-2 system streams. The timescale tool is composed by the aforementioned algorithms and their integration to content rendering tools. The proposed solution can be easily used in applications that need timescale compressed media streams. As an example, the adjustment tool was integrated to a hypermedia formatter. The proposed algorithms can adjust audio durations up to 10%, maintaining the audio perceptual quality within acceptable limits, as observed through quality measurements also described in this work.
18

[pt] ASSIMILAÇÃO DE DADOS INTEGRADA A TÉCNICAS DE TRADUÇÃO IMAGEM-IMAGEM APLICADA A MODELOS DE RESERVATÓRIOS / [en] DATA ASSIMILATION INTEGRATED WITH IMAGE-TO-IMAGE TRANSLATION NETWORKS APPLIED TO RESERVOIR MODELS.

VITOR HESPANHOL CORTES 22 June 2023 (has links)
[pt] A incorporação de dados de produção a modelos de reservatórios é uma etapa fundamental para se estimar adequadamente a recuperação de uma jazida de petróleo e, na última década, o método ensemble smoother with multiple data assimilation (ES-MDA) tem se destacado dentre as estratégias disponíveis para realizar tal tarefa. Entretanto, este é um método que apresenta melhores resultados quando os parâmetros a serem ajustados no modelo são caracterizados por uma distribuição de probabilidades próxima à gaussiana, apresentando um desempenho reduzido ao lidar com o ajuste de parâmetros categóricos, como por exemplo as fácies geológicas. Uma proposta para lidar com esse problema é recorrer a redes de aprendizado profundo, em particular redes para tradução imagem-imagem (I2I), valendo-se da analogia existente entre a representação matricial de imagem e a estrutura em malha das propriedades de um modelo de reservatórios. Assim, é possível adaptar a arquitetura de redes I2I disponíveis e treiná-las para, a partir de uma matriz de parâmetros contínuos que serão ajustados pelo método ES-MDA (como porosidade e permeabilidade), gerar a representação matricial do parâmetro categórico correspondente (fácies), de forma similar à tarefa de segmentação semântica no contexto de imagens. Portanto, o parâmetro categórico seria atualizado de maneira indireta pelo método ES-MDA, sendo a sua reconstrução realizada pela rede I2I. / [en] Reservoir model data assimilation is a key step to properly estimate the final recovery of an oil field and, in the last decade, the ensemble smoother with multiple data assimilation method (ES-MDA) has stood out among all available strategies to perform this task. However, this method achieves better results when model parameters are described by an approximately Gaussian distribution and hence presents reduced performance when dealing with categorical parameters, such as geological facies. An alternative to deal with this issue is to adopt a deep learning based approach, particularly using image-to-image translation (I2I) networks and taking into account the analogy between the matrix representation of images and the reservoir model grid properties. Thus, it is possible to adapt I2I network architectures, training them to generate the categorical parameter (facies) from its correlated continuous properties modified by the ES-MDA method (such as porosity and permeability), similar to semantic segmentation tasks in an image translation context. Therefore, the categorical parameter would be indirectly updated by the ES-MDA method, with its reconstruction carried out by the I2I network.

Page generated in 0.026 seconds