• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 6
  • Tagged with
  • 42
  • 42
  • 42
  • 26
  • 16
  • 12
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

[en] ONLINE TRAINING OF NEURAL METWORKS: METHODOLOGY FOR TIME VARYING ENVIRONMENTS / [pt] TREINAMENTO CONTÍNUO EM REDES NEURAIS: UM TRATAMENTO PARA AMBIENTES VARIANTES NO TEMPO

NITZI MESQUITA ROEHL 26 June 2006 (has links)
[pt] Lidar com processos não estacionários requer adaptação rápida e, simultaneamente, evitar esquecimento catastrófico de um comportamento passado. Duas técnicas de treinamento em redes neurais que satisfazem este requerimento são propostas, uma no âmbito de aprendizado com supervisão e outra relacionada à classe de redes não supervisionadas. Um novo algoritmo de treinamento supervisionada em redes multi camadas para modelagem de sistemas num contexto não estacionário é proposto. O ajuste de pesos na rede é determinado pela solução de problema de compromisso entre manter a performance para os dados antigos de treinamento e se ajustar para um novo comportamento representado nos dados mais recentes. Esta abordagem tem por base a formalização do problema como a minimização do erro de saída da rede sobre os padrões entrada-saída passados, sujeita a restrição de codificação do novo padrão dentro da tolerância estabelecida. Técnicas de programação não linear são utilizadas para resolver o problema de otimização gerado e calcular o novo conjunto de pesos. Alguns experimentos numéricos que comparam a performance do algoritmo proposto a de uma rede backpropagation são oferecidos. Um modelo de redes Fuzzy ART modulares para formação de categorias com hierarquia é também proposto, de tal forma que cada módulo agrupa os protótipos das categorias desenvolvidas na camada anterior. Dessa forma, os níveis hierárquicos sucessivamente mais altos captam uma visualização mais geral dos padrões de entrada enquanto os níveis inferiores aprendem categorias mais especificas. Propriedades interessantes da rede Fuzzy são herdadas pelo modelo proposto. Resultados teóricos relacionados às propriedades desta nova abordagem são apresentados, bem como experimentos numéricos que comprovam e ilustram as mesmas. / [en] The main issue when dealing with non-stationary processes is related to the requirement of fast adaptation while simultaneously preventing catastrophic damage to previously learned behavior. In this thesis, two on-line learning techniques, one for supervised and the other for unsupervised artificial neural networks, are proposed. A new supervised procedure to continuously adjust weights in a multi layered perceptrons neural networks is proposed. This methodology is tailored to be used in time varying (or non-stationary) models, eliminating the necessity of retraining. The main objective is to keep the error related to the latest income data within a pre established tolerance, while maximizing the information incorporated up to that point. By choosing a balance parameter, the designer is able to decide on the relevance that should be attributed to the new data. Non-linear programming techniques are used in order to properly solve this trade off optimization problem and on-line calculate the new weight set. Numerical results for real and non- real data are presented, illustrating the potentiality and properties of the proposed approach. A modular Fuzzy ART model for hierarchical categorization of data is proposed in such a manner that each module groups the prototypes of the categories developed in the previous module or layer. In this way, the hierarchical levels of successively higher layers learn a more general pattern from the input data while the lower layers learn more specific categories. Interesting properties of the component Fuzzy ART network also apply to this new hierarchical network model like, fast and stable learning of arbitrary sequences of analogical or binary input patterns and the dynamic creation of categories for new input patterns presentation. Some theoretical results related to properties of this new approach for clustering applications are presented, as well as some illustrative numerical results.
12

[es] COMBINACIÓN DE REDES NEURALES MLP EN PROBLEMAS DE CLASIFICACIÓN / [pt] COMBINAÇÃO DE REDES NEURAIS MLP EM PROBLEMAS DE CLASSIFICAÇÃO / [en] COMBINING MLP NEURAL NETS FOR CLASSIFICATION

28 August 2001 (has links)
[pt] Esta dissertação investigou a criação de comitês de classificadores baseados em Redes Neurais Multilayer Perceptron (Redes MLP, abreviadamente). Isso foi feito em dois passos: primeiro, aplicando-se procedimentos para criação de redes complementares, i.e, redes individualmente eficazes mas que cometem erros distintos; segundo, testando- se sobre essas redes alguns dos principais métodos de combinação disponíveis. Dentre os procedimentos para criação de redes complementares, foi dado enfoque para os baseados em alteração do conjunto de treinamento. Os métodos Bootstrap e Arc-x4 foram escolhidos para serem utilizados no estudo de casos, juntamente com o método RDP (Replicação Dirigida de Padrões). No que diz respeito aos métodos de combinação disponíveis, foi dada particular atenção ao método de combinação por integrais nebulosas. Além deste método, implementou-se combinação por média, votação por pluralidade e Borda count. As aplicações escolhidas para teste envolveram duas vertentes importantes na área de visão computacional - Classificação de Coberturas de Solo por Imagens de Satélite e Reconhecimento de Expressões Faciais. Embora ambas pertençam à mesma área de conhecimento, foram escolhidas de modo a representar níveis de dificuldade diferentes como tarefas de classificação - enquanto a primeira contou com um grande número de padrões disponíveis, a segunda foi comparativamente limitada nesse sentido. Como resultado final, comprovou-se a viabilidade da utilização de comitês em problemas de classificação, mesmo com as possíveis variações de desempenho relacionadas com a complexidade desses problemas. O método de combinação baseado em integrais nebulosas mostrou-se particularmente eficiente quando associado ao procedimento RDP para formação das redes comissionadas, mas nem sempre foi satisfatório. Considerado individualmente, o RDP tem a limitação de criar, no máximo, tantas redes quanto forem as classes consideradas em um problema; porém, quando este número de redes foi considerado como base de comparação, o RDP se mostrou, na média de todos os métodos de combinação testados, mais eficaz que os procedimentos Bootstrap e Arc-x4. Por outro lado, tanto o Bootstrap quanto o Arc-x4 têm a importante vantagem de permitirem a formação de um número crescente de membros, o que quase sempre acarretou em melhorias de desempenho global em relação ao RDP. / [en] The present dissertation investigated the creation of classifier committees based on Multilayer Perceptron Neural Networks (MLP Networks, for short). This was done in two parts: first, by applying procedures for creating complementary networks, i.e., networks that are individually accurate but cause distinct misclassifications; second, by assessing different combining methods to these network`s outputs. Among the procedures for creating committees members, the main focus was set to the ones based on changes to the training set . Bootstrap and Arc-x4 were chosen to be used at the experiments, along with the RDP procedure (translated as Driven Pattern Replication). With respect to the available combining methods, special attention was paid to fuzzy integrals combination. Average combination, plurality voting and Borda count were also implemented. The chosen experimental applications included interesting branches from computer vision: Land Cover Classification from Satellite Images and Facial Expression Recognition. These applications were specially interesting, in the sense they represent two different levels of difficulty as classification tasks - while the first had a great number of available patterns, the second was comparatively limited in this way. This work proved the viability of using committees in classification problems, despite the small performance fluctuations related to these problems complexity. The fuzzy integrals method has shown to be particularly interesting when coupled with the RDP procedure for committee creation, but was not always satisfactory. Taken alone, the RDP has the limitation of creating, at most, as many networks as there are classes to be considered at the problem at hand; however, when this number of networks was considered as the basis for comparison, this procedure outperformed, taking into account average combining results, both Bootstrap and Arc- x4. On the other hand, these later procedures have the important advantage of allowing the creation of an increasing number of committee members, what almost always increased global performance in comparison to RDP. / [es] Esta disertación investigó la creación de comités de clasificadores basados en Redes Neurales Multilayer Perceptron (Redes MLP, abreviadamente). Esto fue ejecutado en dos pasos: primeiro, aplicando procedimentos para la creación de redes complementares, esto es, redes que individualmente son eficaces pero que cometen erros diferentes; segundo, probando sobre esas redes, algunos de los principales métodos de combinación disponibles. Dentro de los procedimentos para la creación de redes complementares, se eligieron los basados en alteración del conjunto de entrenamiento. Los métodos Bootstrap y Arc-x4 fueron seleccionados para utilizarlos em el estudio de casos, conjuntamente con el método RDP (Replicación Dirigida de Padrones). Con respecto a los métodos de combinación disponibles, se le dió particular atención al método de combinación por integrales nebulosas. Además de este método, se implementaron: combinación por media, votación por pluralidad y Borda cont. Las aplicaciones seleccionadas para pruebas consideran dos vertientes importantes en la área de visión computacional - Clasificación de Coberturas de Suelo por Imágenes de Shastalite y Reconocimiento de Expresiones Faciales. Aunque ambas pertencen a la misma área de conocimento, fueron seleccionadas de modo con diferentes níveles de dificuldad como tareas de clasificación - Mientras la primera contó con un gran número de padrones disponibles, la segunda fue comparativamente limitada em ese sentido. Como resultado final, se comprobó la viabilidad de la utilización de comités en problemas de clasificación, incluso con las posibles variaciones de desempeño relacionadas con la complejidad de esos problemas. El método de combinación basado en integrales nebulosas se mostró particularmente eficiente asociado al procedimiento RDP para formación de las redes comisionadas, pero no siempre fue satisfactorio. Considerado individualmente, el RDP tiene la limitación de crear, como máximo, tantas redes como clases consideradas en un problema; sin embargo, cuando el número de redes fue considerado como base de comparación, el RDP se mostró más eficaz, en la media de todos los métodos de combinación, que los procedimentos Bootstrap y Arc-x4. Por otro lado, tanto el Bootstrap como el Arc-x4 tiene la importante ventaja de permitir la formación de un número cresciente de miembros, lo que generalmente mejora el desempeño global en relación al RDP.
13

[en] NEURAL NETWORK AND DYNAMIC REGRESSION: A HYBRID MODEL TO FORECAST THE SHORT TERM DEMAND OF PETROL IN BRAZIL / [pt] REDES NEURAIS E REGRESSÃO DINÂMICA: UM MODELO HÍBRIDO PARA PREVISÃO DE CURTO PRAZO DA DEMANDA DE GASOLINA AUTOMOTIVA NO BRASIL

ALEXANDRE ZANINI 08 November 2005 (has links)
[pt] Nesta dissertação é desenvolvido um modelo para previsão de curto prazo da demanda mensal de gasolina automotiva no Brasil. A metodologia usada consiste em, a partir de uma análise exploratória dos dados, procurar construir um modelo usando uma estratégia bottom-up, ou seja, parte-se de um modelo simples e processa-se seu refinamento até encontrar um modelo apropriado que mais se adequa à realidade. Partiu-se então de um modelo autoprojetivo indo até uma formulação de Redes Neurais passando por um modelo de regressão dinâmica. Os modelos são então comparados segundo alguns critérios, basicamente no que tange à sua eficiência preditiva. Conclui-se ao final sobre a eficiência de se conjugar modelos estatísticos clássicos (como Box & Jenkins e Regressão Dinâmica) com as chamadas Redes Neurais que, por sua vez, propiciaram resultados muito bons em relação à otimização das previsões. Isto é altamente desejável na modelagem de séries temporais e, em particular, neste trabalho, na previsão de curto prazo de gasolina automotiva. / [en] In this dissertation a short term model to forecast automotive gasoline demand in Brazil is proposed. From the methodology point of view, data is analyzed and a model using a bottom-up strategy is developed. In other words, a simple model is improved step by step until a proper model that sits well the reality is found. Departuring from a univariate model it ends up in a neural network formulation, passing through dynamic regression models. The models obtained in this scheme are compared according to some criterion, mainly forecast accuracy. We conclude, that the efficiency of putting together classical statistics models (such as Box & Jenkins and dynamic regression) and neural networks improve the forecasting results. This results is highly desirable in modeling time series and, particularly, to the short term forecast of automotive gasoline, object of this dissertation.
14

[en] HIERARCHICAL NEURO-FUZZY MODELS / [pt] MODELOS NEURO-FUZZY HIERÁRQUICOS

FLAVIO JOAQUIM DE SOUZA 13 December 2005 (has links)
[pt] Esta dissertação apresenta uma nova proposta de sistemas (modelos) neuro-fuzzy que possuem, além do tradicional aprendizado dos parâmetros, comuns às redes neurais e aos sistemas nero-fuzzy, as seguintes características: aprendizado de estrutura, a partir do uso de particionamentos recursisvos; número maior de entradas que o comumente encontrado nos sistemas neuro-fuzzy; e regras com hierarquia. A definição da estrutura é uma necessidade que surge quando da implementação de um determinado modelo. Pode-se citar o caso das redes neurais, em que se deve determinar (ou arbitrar) a priori sua estrutura (número de camadas e quantidade de neurônios por camadas) antes de qualquer teste. Um método automático de aprendizado da estrutura é, portanto, uma característica importante em qualquer modelo. Um sistema que também permita o uso de um número maior de entradas é interessante para se abranger um maior número de aplicações. As regras com hierarquia são um subproduto do método de aprendizado de estrutura desenvolvido nestes novos modelos. O trabalho envolveu três partes principais: um levantamento sobre os sistemas neuro-fuzzy existentes e sobre os métodos mais comuns de ajuste de parâmetros; a definição e implementação de dois modelos neuro-fuzzy hierárquicos; e o estudo de casos. No estudo sobre os sistemas neuro-fuzzy(SNF) fez-se um levantamento na bibliografia da área sobre as características principais desses sistemas, incluindo suas virtudes e deficiências. Este estudo gerou a proposta de uma taxonomia para os SNF, em função das características fuzzy neurais. Em virtude deste estudo constataram-se limitações quanto à capacidade de criação de sua própria estrutura e quanto ao número reduzido de entradas possíveis. No que se refere aos métodos de ajuste dos parâmetros abordou-se os métodos mais comuns utilizados nos SNF, a saber: o método dos mínimos quadrados com sua solução através de métodos numéricos iterativos; e o método gradient descent e seus derivados como o BackPropagation e o RProp(Resilient BackPropagation). A definição dos dois novos modelos neuro-fuzzy foi feita a partir do estudo das características desejáveis e das limitações dos SNF até então desenvolvidos. Observou-se que a base de regras dos SNF juntamente com os seus formatos de particionamento dos espaços de entrada e saída têm grande influência sobre o desempenho e as limitações destes modelos. Assim sendo, decidiu-se utilizar uma nova forma de particionamento que eliminasse ou reduzisse as limitações existentes- os particionamentos recursivos. Optou-se pelo uso dos particionamentos Quadtree e BSP, gerando os dois modelos NFHQ (Neuro-Fuzzy Hierárquico Quadree) e NFHB (Neiro-Fuzzy Hierárquico BSP). Com o uso de particionamentos obteve-se um nova classe de SNF que permitiu além do aprendizado dos parâmetros, também o aprendizado dos parâmetros. Isto representa um grande diferencial em relação aos SNF tradicionais, além do fato de se conseguir extender o limite do número de entradas possíveis para estes sistemas. No estudo de casos, os dois modelos neurofuzzy hierárquicos foram testados 16 casos diferentes, entre as aplicações benchmarks mais tradicionais da área e problemas com maior número de entradas. Entre os casos estudados estão: o conjunto de dados IRIS; o problema das duas espirais; a previsão da série caótica de Mackey- Glass; alguns sistemas de diagnóstico e classificação gerados a partir de conjuntos de dados comumente utilizados em artigos de machine learning e uma aplicação de previsão de carga elétrica. A implementação dos dois novos modelos neuro-fuzzy foi efetuada em linguagem pascal e com o uso de um compilador de 32 bits para micros da linha PC (Pentium) com sistema operacional DOS 32 bits, Windows, ou Linux. Os testes efetuados demostraram que: esses novos modelos se ajustam bem a qualquer conjunto de dados; geram sua própria estrutura; ajustam seus parâmetros com boa generalização e extraem / [en] This dissertation presents a new proposal of neurofuzzy systems (models), which present, in addition to the learning capacity (which are common to the neural networks and neurofuzzy systems) the following features: learning of the structure; the use of recursive partitioning; a greater number of inputs than usually allowed in neurofuzzy systems; and hierarchical rules. The structure´s definition is needed when implementing a certain model. In the neural network case, for example, one must, first of all, estabilish its structure (number of layers and number of neurons per layers) before any test is performed. So, an important feature for any model is the existence of an automatic learning method for creating its structure. A system that allows a larger number of inputs is also important, in order to extend the range of possible applications. The hierarchical rules feature results from the structure learning method developed for these two models. The work has involved three main parts: study of the existing neurofuzzy systems and of the most commom methods to adjust its parameters; definition and implementation of two hierarchical neurofuzzy models; and case studies. The study of neurofuzzy systems (NFS) was accomplished by creating a survey on this area, including advantages, drawbacks and the main features of NFS. A taxonomy about NFS was then proposed, taking into account the neural and fuzzy features of the existing systems. This study pointed out the limitations of neurofuzzy systems, mainly their poor capability of creating its own structure and the reduced number of allowed inputs. The study of the methods for parameter adjustment has focused on the following algorithms: Least Square estimator (LSE) and its solutions by numerical iterative methods; and the basic gradient descent method and its offsprings such as Backpropagation and Rprop (Resilient Backpropagation). The definition of two new neurofuzzy models was accomplished by considering desirable features and limitations of the existing NFS. It was observed that the partitioning formats and rule basis of the NFS have great influence on its performance and limitations. Thus, the decision to use a new partitioning method to remove or reduce the existing limitations - the recursive partitioning. The Quadtree and BSP partitioning were then adopted, generating the so called Quadree Hierarchical Neurofuzzy model (NFHQ) and the BSP hierarchical Neurofuzzy model (NFHB). By using these kind os partitioning a new class of NFS was obtained allowing the learning of the structure in addition to parameter learning. This Feature represents a great differential in relation to the traditional NFS, besides overcoming the limitation in the number of allowed inputs. In the case studies, the two neurofuzzy models were tested in 16 differents cases, such as traditional benchmarks and problems with a greater number of inputs. Among the cases studied are: the IRIS DATA set; the two spirals problem; the forecasting of Mackey-Glass chaotic time series; some diagnosis and classifications problems, found in papers about machine learning; and a real application involving load forecasting. The implementation of the two new neurofuzzy models was carried out using a 32 bit Pascal compiler for PC microcomputers using DOS or Linux operating system. The tests have shown that: these new models are able to adjust well any data sets; they create its own struture; they adjust its parameters, presenting a good generalization performance; and automatically extract the fuzzy rules. Beyond that, applications with a greater number of inputs for these neurofuzzy models. In short two neurofuzzy models were developed with the capability of structure learning, in addition to parameter learning. Moreover, these new models have good interpretability through hierarchical fuzzy rules. They are not black coxes as the neural networks.
15

[pt] ENSAIOS EM ECONOMETRIA / [en] ESSAYS IN ECONOMETRICS

PRISCILLA BURITY 12 August 2020 (has links)
[pt] Este trabalho consiste de quatro artigos e esta dividida em duas partes distintas. A primeira esta relacionado a modelos de estrutura a termo estimados para países cujos títulos soberanos sao considerados sujeitos a default. A segunda parte é sobre crescimento e convergencia. No primeiro artigo da primeira parte, usamos um modelo de estrutura a termo afim sem arbitragem e escolhemos tres países da zona euro para esta analise: Espanha, Grécia e Itália. Notamos que a dívida do proprio país tem desempenhado um papel importante na ampliac¸ao recente dos spreads, sobretudo para a Grecia e Itália. Para a Espanha, o recente aumento dos spreads está sendo impulsionado principalmente pelas variaveis relacionadas com a Alemanha (entre as quais a dívida alemã e a mais importante entre eles), e estresse do mercado (representada por um índice alto rendimento). No segundo artigo da primeira parte, usamos um modelo de sem arbitragem para investigar os determinantes da estrutura a termo dos spreads soberanos brasileiros e as expectativas da taxa de cambio no Brasil. Nossos exercícios indicam que fatores ligados a economia brasileira tiveram uma contribuic¸ao positiva para os spreads 1999-2006 e, na maior parte deste período, os fatores ligados a economia dos EUA tiveram uma contribuição negativa. Desde o final de 2007, esse cenario inverteu. Além disso, apresentam-se evidências de que a melhoria na nossa indicador de solvência externa, juntamente com a melhoria no cenario de inflação, e o principal responsável pela redução de spreads a partir do meio de 2007. O primeiro artigo da segunda parte propoe uma abordagem semi-parametrica para controlar a heterogeneidade não observada em modelos de regressao linear. Utilizamos estimadores extremos de redes neuras e o modelo e ilustrado em uma aplicação para a convergência de renda per capita entre os municípios brasileiros. Finalmente, no segundo artigo da segunda parte, vamos explorar os desenvolvimentos recentes sobre a convergencia para a produtividade industrial. Encontramos que o crescimento da produtividade esta negativamente relacionado com a produtividade inicial, mas que países com instituições piores têm um nível de equilíbrio de produtividade mais baixo. A taxa de crescimento da produtividade tambem tem uma relação não monotonica com a abertura comercial e educação, sendo mais rápida nos extremos. / [en] This work consists of four chapters and is divided into two distinct parts. The first is related to models of the term structure estimated for countries whose sovereign bonds are considered defaultable. The second part is about growth and convergence. In the first article of the first part, we used a no- arbitrage term structure model and chose three eurozone countries for this analysis: Spain, Greece and Italy. We noted that the country s debt has played an important role in the recent expansion of spreads, especially for Greece and Italy. For Spain, the recent increase in spreads has been driven primarily by variables related to Germany (Germany s debt is the most important among them), and market stress (represented by a highyield index). In the second article of the first part, we use a no-arbitrage model to investigate the determinants of the term structure of sovereign spreads and the expectations of the exchange rate in Brazil. Our exercises suggest that factors related to the Brazilian economy had a positive contribution to the 1999-2006 spreads and, in most of the period, factors related to the U.S. economy had a negative contribution. Since late 2007, this scenario has inverted. Furthermore, we present evidence that the improvement in our external solvency indicator along with the improved inflation scenario are the main responsible for the reduction of spreads from the middle of 2007 on. The first article of the second part proposes a semi-parametric approach to control unobserved heterogeneity in linear regression models. We use extreme neurotic networks estimators and the model is illustrated in an application to the convergence of per capita income across Brazilian municipalities. Finally, in the second article of the second part, we explore recent developments on industrial productivity convergence. We find that productivity growth is negatively related to initial productivity, but that countries with worse institutions have lower level of productivity in equilibrium. The rate of productivity growth also has a nonmonotonic relationship with trade openness and education, being faster at the extremes.
16

[en] CONVOLUTIONAL NEURAL NETWORK FOR SEISMIC HORIZONS IDENTIFICATION / [pt] IDENTIFICAÇÃO DE HORIZONTES EM SÍSMICA USANDO REDE NEURAL CONVOLUCIONAL

MAYARA GOMES SILVA 07 November 2022 (has links)
[pt] O petróleo e gás são importantes na economia mundial, utilizados como matéria-prima em vários produtos. Para a extração desses produtos é necessário realizar a caracterização dos reservatórios de hidrocarbonetos. A partir dessa caracterização são extraídos um volume com dados sísmicos da região de interesse. Esses dados são interpretados para identificação de várias características, como a classificação de fácies sísmicas, horizontes, falhas, e gás. A grande quantidade de dados do volume de sísmica, torna a interpretação manual cada vez mais desafiadora. Muitos pesquisadores da área de interpretação sísmica tem investido em métodos utilizando redes neurais. As redes neurais convolucionais (CNN) são muito utilizadas em problemas de visão computacional, e obtém ótimos resultados em muitos problemas com dados 2D. O presente trabalho tem como objetivo a aplicação de redes neurais convolucionais no mapeamento supervisionado de horizontes sísmicos. Avaliamos nossa proposta usando o bloco F3 com as anotações de fácies sísmicas. Os dados foram utilizados baseados em modelo de seção e patches. Na previsão de horizonte foram avaliadas as arquiteturas da ResUnet e DC-Unet. Como função de perda foram analisadas a Generalized Dice e a perda Focal Tversky. O método mostrou resultados promissores com a ResUnet e função de perda Focal Tversky, nos dados baseados em patches de 128x128, alcançando aproximadamente 56 por cento na métrica Dice. A implementação completa e as redes treinadas estão disponíveis em https://github.com/mayaragomys/seismic_horizons. / [en] Oil and gas are important in the world economy, used as raw materials in various products. For the extraction of these products, it is necessary to carry out the characterization of the hydrocarbon reservoirs. This characterization extracts a volume with seismic data from the region of interest. These data are interpreted to identify various features, such as the classification of seismic facies, horizons, faults, and gas. A large amount of seismic volume data makes manual interpretation increasingly challenging. Many researchers in the field of seismic interpretation have invested in methods using neural networks. Convolutional Neural Networks (CNN) are widely used in computer vision problems and get great results in many situations with 2D data. The present work aimed to apply convolutional neural networks in the supervised mapping of seismic horizons. We evaluated our proposal using the F3 block with seismic facies annotations. The data representation in the input layer are patches of sections. In the horizon forecast, we evaluate the architectures of ResUnet and DC-Unet. We use the Generalized Dice and the Focal Tversky loss functions for the loss function. The method delivered promising results with the ResUnet and Focal Tversky loss function on data based on 128x128 patches, reaching approximately 56 percent on the Dice metric. The full implementation and the trained networks are available at https://github.com/mayaragomys/seismic_horizons.
17

[pt] APLICAÇÃO DE TÉCNICAS DE REDES NEURAIS PARA A MELHORIA DA MODELAGEM DA TURBULÊNCIA, UTILIZANDO DADOS EXPERIMENTAIS / [en] APPLICATION OF NEURAL NETWORK TECHNIQUES TO ENHANCE TURBULENCE MODELING USING EXPERIMENTAL DATA

LEONARDO SOARES FERNANDES 12 March 2024 (has links)
[pt] Apesar dos recentes avanços tecnológicos e do surgimento de computadores extremamente rápidos, a simulação numérica direta de escoamentos turbulentos ainda é proibitivamente cara para a maioria das aplicações de engenharia e até mesmo para algumas aplicações de pesquisa. As simulações utilizadas são, no geral, baseadas em grandezas médias e altamente dependentes de modelos de turbulência. Apesar de amplamente utilizados, tais modelos não conseguem prever adequadamente o escoamento médio em muitas aplicações, como o escoamento em um duto quadrado. Com o reflorescimento do Aprendizado de Máquina nos últimos anos, muita atenção está sendo dada ao uso de tais técnicas para substituir os modelos tradicionais de turbulência. Este trabalho estudou o uso de Redes Neurais como alternativa para aprimorar a simulação de escoamentos turbulentos. Para isso, a técnica PIV-Estereoscópico foi aplicada ao escoamento em um duto quadrado para obter dados experimentais de estatísticas do escoamento e campos médios de velocidade de 10 casos com diferentes números de Reynolds. Um total de 10 metodologias foram avaliadas para entender quais grandezas devem ser previstas por um algoritmo de aprendizado de máquina para obter simulações aprimoradas. A partir das metodologias selecionadas, excelentes resultados foram obtidos com uma Rede Neural treinada a partir dos dados experimentais para prever o termo perpendicular do Tensor de Reynolds e a viscosidade turbulenta. As simulações turbulentas auxiliadas pela Rede Neural retornaram campos de velocidade com menos de 4 por cento de erro, em comparação os dados medidos. / [en] Although the technological advances that led to the development of fast computers, the direct numerical simulation of turbulent flows is still prohibitively expensive to most engineering and even some research applications. The CFD simulations used worldwide are, therefore, based on averaged quantities and heavily dependent on mathematical turbulence models. Despite widely used, such models fail to proper predict the averaged flow in many practical situations, such as the simple flow in a square duct. With the re-blossoming of machine learning methods in the past years, much attention is being given to the use of such techniques as a replacement to the traditional turbulence models. The present work evaluated the use of Neural Networks as an alternative to enhance the simulation of turbulent flows. To this end, the Stereoscopic-PIV technique was used to obtain well-converged flow statistics and velocity fields for the flow in a square duct for 10 values of Reynolds number. A total of 10 methodologies were evaluated in a data-driven approach to understand what quantities should be predicted by a Machine Learning technique that would result in enhanced simulations. From the selected methodologies, accurate results could be obtained with a Neural Network trained from the experimental data to predict the nonlinear part of the Reynolds Stress Tensor and the turbulent eddy viscosity. The turbulent simulations assisted by the Neural Network returned velocity fields with less than 4 percent in error, in comparison with those previously measured.
18

[pt] DESENVOLVIMENTO E VALIDAÇÃO DE UM SISTEMA DE AQUISIÇÃO DE DADOS DE BAIXO CUSTO PARA PREVISÃO DE CURTÍSSIMO PRAZO DA POTÊNCIA FOTOVOLTAICA / [en] DEVELOPMENT AND VALIDATION OF A LOW-COST DATA ACQUISITION SYSTEM FOR VERY SHORT-TERM PHOTOVOLTAIC POWER FORECASTING

GUILHERME FONSECA BASSOUS 08 May 2020 (has links)
[pt] Dado o recente aumento da adoção de fontes renováveis de energia, é essencial reavaliar os sistemas tradicionais de energia. A intermitência pode causar diversos problemas ligados à qualidade e eficiência energética. O objetivo desta dissertação de mestrado é desenvolver uma ferramenta capaz de subsidiar modelos de previsão solar para aplicações visando a melhoria da operação em tempo real. O atual paradigma de previsão solar sub-horária consiste em usar imagens celestiais para prever a cobertura nebulosa para curtos horizontes temporais. Visando desenvolver um modelo mais exato, é necessária a utilização de componentes determinísticos, como a temperatura e o ângulo de incidência dos raios solares, em conjunto com a modelagem dos efeitos estocásticos das nuvens. Visto que o objetivo da previsão sub-minuto é permitir que se lide com variações de alta frequência, os dados devem possuir informação condizente com estas frequências. Por esse motivo foi feita a coleta de dados por exclusão. O sistema captura dados a cada 1 s e, quando detecta uma mudança suficientemente grande na potência do painel, salva essa informação, 10 s para trás até 4 s à frente da perturbação detectada. Os dados, depois de pré-processados, foram usados para treinar uma rede neural para determinar a relevância dos dados. Com cuidadosa seleção de atributos e arquitetura de rede, o modelo apresentou boa regressão com R2 maior que 0.93 para ambas variáveis testadas com horizonte de 60 s à frente. Concluindo, portanto, que os dados obtidos são relevantes para previsões de até 60 s à frente. / [en] The rising adoption of renewable energy sources means we must turn our eyes to limitations in traditional energy systems. Intermittency, if left unaddressed, may lead to several power quality and energy efficiency issues. The objective of this work is to develop a working tool to support PV energy forecast models for real-time operation applications. The current paradigm of intra-hour solar power forecasting is to use image-based approaches to predict the state of cloud composition for short time-horizons. For a more accurate model, it is also necessary to use deterministic components such as temperature and angle of incidence on the panels in addition to the stochastic effect of clouds. Since the objective of intra-minute forecasting is to address high-frequency intermittency, data must provide information on and surrounding these events. For that purpose, acquisition by exception was chosen as the guiding principle. The system performs power measurements at 1 Hz frequency and whenever it detects variations over a certain threshold, it saves the data 10 s before and 4 s after the detection point. After post-processing, this data was fed into a multilayer perceptron neural network to determine its relevance to the forecasting problem. With a thorough selection of attributes and network structures, the results show very low error with a normalized good fitting with R2 greater than 0.93 for both input variables tested with a time horizon of 60 s. In conclusion, the data provided by the acquisition system yielded relevant information for forecasts up to 60 s ahead.
19

[pt] MODELAMENTO DO CONSUMO DE CAL NO PROCESSO DE DESSULFURAÇÃO DE GASES DE COMBUSTÃO DE UMA COQUERIA DO TIPO HEAT RECOVERY USANDO REDES NEURAIS ARTIFICIAIS / [en] MODELING LIME CONSUMPTION OF A DESULFURIZATION PROCESS FROM GASES OF A HEAT RECOVERY COKE PRODUCTION PLANT USING NEURAL NETWORK DEVELOPMENT

FREDERICO MADUREIRA MATOS ALMEIDA 26 February 2021 (has links)
[pt] A produção de coque metalúrgico em plantas do tipo heat recovery convertem todo o calor gerado da combustão de gases destilados durante a coqueificação em vapor e eletricidade, portanto eliminando a necessidade de processamento de sub-produtos químicos e rejeitos perigosos. Os gases, após a etapa de inertização no interior dos fornos, são direcionados à planta de dessulfuração denominada flue gas dessulfurization que utiliza lama de cal para abatimento de compostos SOx (SO2 e SO3) e filtros de mangas para remoção do resíduo gerado, cinzas de cal, precedente ao descarte para a atmosfera. Em virtude do alto custo da cal torna-se importante modelar o processo e avaliar quais são as principais variáveis que impactam no re-sultado, logo permitindo atuação no processo para torna-lo mais competitivo e am-bientalmente sustentável. A proposta deste trabalho foi elaborar um modelo matemático usando redes neurais artificiais para determinar as principais variáveis que impactam o consumo específico de cal no processo. A literatura existente revela que os principais parâmetros que impactam a eficiência de remoção de enxofre, logo a redução de consumo específico de cal, são temperatura de aproximação e relação Ca/S no processo. Este estudo indicou que o consumo está relacionado, principal-mente, aos parâmetros de temperatura dos gases na entrada e saída do SDA, além de concentração de oxigênio na chaminé principal e densidade da lama de cal utilizada de acordo com a análise de sensibilidade de rede neural feedfoward backpropagation com arquitetura MLP 14-19-2 e função de transferência tangente hiperbólica na ca-mada intermediária e logística na camada de saída. A avaliação reforçou o efeito do aumento da temperatura de saída dos gases no consumo específico de cal conforme literatura e adicionou parâmetros relevantes: temperatura de entrada dos gases, con-centração de O2(g) na chaminé e densidade da lama. / [en] The production of metallurgical coke in heat recovery coke production plants converts all heat generated from the combustion of distilled gases during coking pro-duction to steam and electricity, thus eliminating the need of processing hazardous by-products chemical substances. The gases, after inertization inside the ovens, are directed to the desulphurization plant called flue gas desulphurization (FGD) which uses lime slurry to remove SOx compounds (SO2 and SO3) and bag filters to remove the generated residue, lime ash. Due to the high cost of lime, it is important to model the process and evaluate which are the main variables that affects its result, thus allowing action in the process to make it more competitive and environmentally sus-tainable. The purpose of this work was to develop a mathematical model using arti-ficial neural networks to determine the main variables that affect lime consumption in the desulphurization process. Literature reveals that the main parameters that in-fluence sulfur removal efficiency, thus reducing specific lime consumption, are ap-proach to adiabatic saturation temperature and Ca/S ratio in the process. This study indicated that consumption is mainly related to the inlet and outlet SDA gas temper-atures, oxygen concentration in stack and lime slurry density according to the feed-foward backpropagation neural network sensitivity analysis. MLP 14-19-2 and hy-perbolic tangent transfer function in the intermediate layer and logistics in the output layer. Thus, the evaluation reinforced the effect of the increase of the gas outlet tem-perature on the specific lime consumption according to the literature, but also added new parameters: gas inlet temperature, O2 (g) concentration in the outlet of stack and lime slurry density.
20

[en] A BAYESIAN APPROACH TO ESTIMATE THE EFFICIENT OPERATIONAL COSTS OF ELECTRICAL ENERGY UTILITIES / [pt] UMA ABORDAGEM BAYESIANA PARA O CÁLCULO DOS CUSTOS OPERACIONAIS EFICIENTES DAS DISTRIBUIDORAS DE ENERGIA ELÉTRICA

MARCUS VINICIUS PEREIRA DE SOUZA 17 October 2008 (has links)
[pt] Esta tese apresenta os principais resultados de medidas de eficiência dos custos operacionais de 60 distribuidoras brasileiras de energia elétrica. Baseado no esquema yardstick competition, foi utilizado uma Rede Neural d e Kohonen (KNN) para identificar grupos de empresas similares. Os resultados obtidos pela KNN não são determinísticos, visto que os pesos sinápticos da rede são inicializados aleatoriamente. Então, é realizada uma simulação de Monte Carlo para encontrar os clusters mais frequentes. As medidas foram obtidas por modelos DEA (input oriented, com e sem restrições aos pesos) e modelos Bayesianos e frequencistas de fronteira estocástica (utilizando as funções Cobb-Douglas e Translog). Em todos os modelos, DEA e SFA, a única variável input refere-se ao custo operacional (OPEX). Os índices de eficiência destes modelos representam a potencial redução destes custos de acordo com cada concessionária avaliada. Os outputs são os cost drivers da variável OPEX: número de unidades consumidoras (uma proxy da quantidade de serviço), montante de energia distribuída (uma proxy do produto total) e a extensão da rede de distribuição (uma proxy da dispersão dos consumidores na área de concessão). Finalmente, vale registrar que estas técnicas podem mitigar a assimetria de informação e aprimorar a habilidade do agente regulador em comparar os desempenhos das distribuidoras em ambientes de regulação incentivada. / [en] This thesis presents the main results of the cost efficiency scores of 60 Brazilian electricity distribution utilities. Based on yardstick competition scheme, it was applied a Kohonen Neural Networks (KNN) to identify and to group the similar utilities. The KNN results are not deterministic, since the estimated weights are randomly initialized. Thus, a Monte Carlo simulation was used in order to find the most frequent clusters. Therefore was examined the use of the DEA methodology (input oriented, with and without weight constraints) and Bayesian and non- Bayesian Stochastic Frontier Analysis (centered on a Cobb- Douglas and Translog cost functions) to evaluate the cost efficiency scores of electricity distribution utilities. In both models the only input variable is operational cost (OPEX). The efficiency measures from these models reflect the potential of the reduction of operational costs of each utility. The outputs are the cost-drivers of the OPEX: the number of customers (a proxy for the amount of service), the total electric power supplied (a proxy for the amount of product delivered) and the distribution network size (a proxy of the customers scattering in the operating territory of each distribution utility). Finally, it is important to mention that these techniques can reduce the information assimetry to improve the regulator´s skill to compare the performance of the utilities in incentive regulation environments.

Page generated in 0.4323 seconds