11 |
[en] ONLINE TRAINING OF NEURAL METWORKS: METHODOLOGY FOR TIME VARYING ENVIRONMENTS / [pt] TREINAMENTO CONTÍNUO EM REDES NEURAIS: UM TRATAMENTO PARA AMBIENTES VARIANTES NO TEMPONITZI MESQUITA ROEHL 26 June 2006 (has links)
[pt] Lidar com processos não estacionários requer adaptação
rápida e, simultaneamente, evitar esquecimento
catastrófico de um comportamento passado. Duas técnicas de
treinamento em redes neurais que satisfazem este
requerimento são propostas, uma no âmbito de aprendizado
com supervisão e outra relacionada à classe de redes não
supervisionadas.
Um novo algoritmo de treinamento supervisionada em redes
multi camadas para modelagem de sistemas num contexto não
estacionário é proposto. O ajuste de pesos na rede é
determinado pela solução de problema de compromisso entre
manter a performance para os dados antigos de treinamento
e se ajustar para um novo comportamento representado nos
dados mais recentes. Esta abordagem tem por base a
formalização do problema como a minimização do erro de
saída da rede sobre os padrões entrada-saída passados,
sujeita a restrição de codificação do novo padrão dentro
da tolerância estabelecida. Técnicas de programação não
linear são utilizadas para resolver o problema de
otimização gerado e calcular o novo conjunto de pesos.
Alguns experimentos numéricos que comparam a performance
do algoritmo proposto a de uma rede backpropagation são
oferecidos.
Um modelo de redes Fuzzy ART modulares para formação de
categorias com hierarquia é também proposto, de tal forma
que cada módulo agrupa os protótipos das categorias
desenvolvidas na camada anterior. Dessa forma, os níveis
hierárquicos sucessivamente mais altos captam uma
visualização mais geral dos padrões de entrada enquanto os
níveis inferiores aprendem categorias mais especificas.
Propriedades interessantes da rede Fuzzy são herdadas pelo
modelo proposto. Resultados teóricos relacionados às
propriedades desta nova abordagem são apresentados, bem
como experimentos numéricos que comprovam e ilustram as
mesmas. / [en] The main issue when dealing with non-stationary processes
is related to the requirement of fast adaptation while
simultaneously preventing catastrophic damage to
previously learned behavior. In this thesis, two on-line
learning techniques, one for supervised and the other for
unsupervised artificial neural networks, are proposed.
A new supervised procedure to continuously adjust weights
in a multi layered perceptrons neural networks is
proposed. This methodology is tailored to be used in time
varying (or non-stationary) models, eliminating the
necessity of retraining. The main objective is to keep the
error related to the latest income data within a pre
established tolerance, while maximizing the information
incorporated up to that point. By choosing a balance
parameter, the designer is able to decide on the relevance
that should be attributed to the new data. Non-linear
programming techniques are used in order to properly solve
this trade off optimization problem and on-line calculate
the new weight set. Numerical results for real and non-
real data are presented, illustrating the potentiality and
properties of the proposed approach.
A modular Fuzzy ART model for hierarchical categorization
of data is proposed in such a manner that each module
groups the prototypes of the categories developed in the
previous module or layer. In this way, the hierarchical
levels of successively higher layers learn a more general
pattern from the input data while the lower layers learn
more specific categories. Interesting properties of the
component Fuzzy ART network also apply to this new
hierarchical network model like, fast and stable learning
of arbitrary sequences of analogical or binary input
patterns and the dynamic creation of categories for new
input patterns presentation. Some theoretical results
related to properties of this new approach for clustering
applications are presented, as well as some illustrative
numerical results.
|
12 |
[es] COMBINACIÓN DE REDES NEURALES MLP EN PROBLEMAS DE CLASIFICACIÓN / [pt] COMBINAÇÃO DE REDES NEURAIS MLP EM PROBLEMAS DE CLASSIFICAÇÃO / [en] COMBINING MLP NEURAL NETS FOR CLASSIFICATION28 August 2001 (has links)
[pt] Esta dissertação investigou a criação de comitês de
classificadores baseados em Redes Neurais Multilayer
Perceptron (Redes MLP, abreviadamente). Isso foi feito em
dois passos: primeiro, aplicando-se procedimentos para
criação de redes complementares, i.e, redes individualmente
eficazes mas que cometem erros distintos; segundo, testando-
se sobre essas redes alguns dos principais métodos de
combinação disponíveis. Dentre os procedimentos para
criação de redes complementares, foi dado enfoque para os
baseados em alteração do conjunto de treinamento. Os
métodos Bootstrap e Arc-x4 foram escolhidos para serem
utilizados no estudo de casos, juntamente com o método RDP
(Replicação Dirigida de Padrões). No que diz respeito aos
métodos de combinação disponíveis, foi dada particular
atenção ao método de combinação por integrais nebulosas.
Além deste método, implementou-se combinação por média,
votação por pluralidade e Borda count. As aplicações
escolhidas para teste envolveram duas vertentes importantes
na área de visão computacional - Classificação de
Coberturas de Solo por Imagens de Satélite e Reconhecimento
de Expressões Faciais. Embora ambas pertençam à mesma área
de conhecimento, foram escolhidas de modo a representar
níveis de dificuldade diferentes como tarefas de
classificação - enquanto a primeira contou com um grande
número de padrões disponíveis, a segunda foi
comparativamente limitada nesse sentido. Como resultado
final, comprovou-se a viabilidade da utilização de comitês
em problemas de classificação, mesmo com as possíveis
variações de desempenho relacionadas com a complexidade
desses problemas. O método de combinação baseado em
integrais nebulosas mostrou-se particularmente eficiente
quando associado ao procedimento RDP para formação das redes
comissionadas, mas nem sempre foi satisfatório. Considerado
individualmente, o RDP tem a limitação de criar, no máximo,
tantas redes quanto forem as classes consideradas em um
problema; porém, quando este número de redes foi
considerado como base de comparação, o RDP se mostrou,
na média de todos os métodos de combinação testados, mais
eficaz que os procedimentos Bootstrap e Arc-x4. Por outro
lado, tanto o Bootstrap quanto o Arc-x4 têm a importante
vantagem de permitirem a formação de um número crescente de
membros, o que quase sempre acarretou em melhorias de
desempenho global em relação ao RDP. / [en] The present dissertation investigated the creation of
classifier committees based on Multilayer Perceptron Neural
Networks (MLP Networks, for short). This was done in two
parts: first, by applying procedures for creating
complementary networks, i.e., networks that are individually
accurate but cause distinct misclassifications; second, by
assessing different combining methods to these network`s
outputs. Among the procedures for creating committees
members, the main focus was set to the ones based on
changes to the training set . Bootstrap and Arc-x4 were
chosen to be used at the experiments, along with the RDP
procedure (translated as Driven Pattern Replication). With
respect to the available combining methods, special
attention was paid to fuzzy integrals combination. Average
combination, plurality voting and Borda count were also
implemented. The chosen experimental applications included
interesting branches from computer vision: Land Cover
Classification from Satellite Images and Facial Expression
Recognition. These applications were specially interesting,
in the sense they represent two different levels of
difficulty as classification tasks - while the first had a
great number of available patterns, the second was
comparatively limited in this way. This work proved the
viability of using committees in classification problems,
despite the small performance fluctuations related to these
problems complexity. The fuzzy integrals method has shown
to be particularly interesting when coupled with the RDP
procedure for committee creation, but was not always
satisfactory. Taken alone, the RDP has the limitation of
creating, at most, as many networks as there are classes to
be considered at the problem at hand; however, when
this number of networks was considered as the basis for
comparison, this procedure outperformed, taking into
account average combining results, both Bootstrap and Arc-
x4. On the other hand, these later procedures have the
important advantage of allowing the creation of an
increasing number of committee members, what almost always
increased global performance in comparison to RDP. / [es] Esta disertación investigó la creación de comités de
clasificadores basados en Redes Neurales Multilayer
Perceptron (Redes MLP, abreviadamente). Esto fue ejecutado
en dos pasos: primeiro, aplicando procedimentos para la
creación de redes complementares, esto es, redes que
individualmente son eficaces pero que cometen erros
diferentes; segundo, probando sobre esas redes, algunos de
los principales métodos de combinación disponibles. Dentro
de los procedimentos para la creación de redes
complementares, se eligieron los basados en alteración del
conjunto de entrenamiento. Los métodos Bootstrap y Arc-x4
fueron seleccionados para utilizarlos em el estudio de
casos, conjuntamente con el método RDP (Replicación
Dirigida de Padrones). Con respecto a los métodos de
combinación disponibles, se le dió particular atención al
método de combinación por integrales nebulosas. Además de
este método, se implementaron: combinación por media,
votación por pluralidad y Borda cont. Las aplicaciones
seleccionadas para pruebas consideran dos vertientes
importantes en la área de visión computacional -
Clasificación de Coberturas de Suelo por Imágenes de
Shastalite y Reconocimiento de Expresiones Faciales. Aunque
ambas pertencen a la misma área de conocimento, fueron
seleccionadas de modo con diferentes níveles de dificuldad
como tareas de clasificación - Mientras la primera contó
con un gran número de padrones disponibles, la segunda fue
comparativamente limitada em ese sentido. Como resultado
final, se comprobó la viabilidad de la utilización de
comités en problemas de clasificación, incluso con las
posibles variaciones de desempeño relacionadas con la
complejidad de esos problemas. El método de combinación
basado en integrales nebulosas se mostró particularmente
eficiente asociado al procedimiento RDP para formación de
las redes comisionadas, pero no siempre fue satisfactorio.
Considerado individualmente, el RDP tiene la limitación de
crear, como máximo, tantas redes como clases consideradas
en un problema; sin embargo, cuando el número de redes fue
considerado como base de comparación, el RDP se mostró más
eficaz, en la media de todos los métodos de combinación,
que los procedimentos Bootstrap y Arc-x4. Por otro lado,
tanto el Bootstrap como el Arc-x4 tiene la importante
ventaja de permitir la formación de un número cresciente de
miembros, lo que generalmente mejora el desempeño global en
relación al RDP.
|
13 |
[en] NEURAL NETWORK AND DYNAMIC REGRESSION: A HYBRID MODEL TO FORECAST THE SHORT TERM DEMAND OF PETROL IN BRAZIL / [pt] REDES NEURAIS E REGRESSÃO DINÂMICA: UM MODELO HÍBRIDO PARA PREVISÃO DE CURTO PRAZO DA DEMANDA DE GASOLINA AUTOMOTIVA NO BRASILALEXANDRE ZANINI 08 November 2005 (has links)
[pt] Nesta dissertação é desenvolvido um modelo para previsão
de curto prazo da demanda mensal de gasolina automotiva
no
Brasil. A metodologia usada consiste em, a partir de uma
análise exploratória dos dados, procurar construir um
modelo usando uma estratégia bottom-up, ou seja, parte-se
de um modelo simples e processa-se seu refinamento até
encontrar um modelo apropriado que mais se adequa à
realidade. Partiu-se então de um modelo autoprojetivo
indo
até uma formulação de Redes Neurais passando por um
modelo
de regressão dinâmica. Os modelos são então comparados
segundo alguns critérios, basicamente no que tange à sua
eficiência preditiva. Conclui-se ao final sobre a
eficiência de se conjugar modelos estatísticos clássicos
(como Box & Jenkins e Regressão Dinâmica) com as chamadas
Redes Neurais que, por sua vez, propiciaram resultados
muito bons em relação à otimização das previsões. Isto é
altamente desejável na modelagem de séries temporais e,
em
particular, neste trabalho, na previsão de curto prazo de
gasolina automotiva. / [en] In this dissertation a short term model to forecast
automotive gasoline demand in Brazil is proposed. From the
methodology point of view, data is analyzed and a model
using a bottom-up strategy is developed. In other words, a
simple model is improved step by step until a proper model
that sits well the reality is found. Departuring from a
univariate model it ends up in a neural network
formulation, passing through dynamic regression models.
The models obtained in this scheme are compared
according to some criterion, mainly forecast accuracy. We
conclude, that the efficiency of putting together
classical
statistics models (such as Box & Jenkins and dynamic
regression) and neural networks improve the forecasting
results. This results is highly desirable in modeling time
series and, particularly, to the short term forecast of
automotive gasoline, object of this dissertation.
|
14 |
[en] HIERARCHICAL NEURO-FUZZY MODELS / [pt] MODELOS NEURO-FUZZY HIERÁRQUICOSFLAVIO JOAQUIM DE SOUZA 13 December 2005 (has links)
[pt] Esta dissertação apresenta uma nova proposta de sistemas
(modelos) neuro-fuzzy que possuem, além do tradicional
aprendizado dos parâmetros, comuns às redes neurais e aos
sistemas nero-fuzzy, as seguintes características:
aprendizado de estrutura, a partir do uso de
particionamentos recursisvos; número maior de entradas que
o comumente encontrado nos sistemas neuro-fuzzy; e regras
com hierarquia. A definição da estrutura é uma necessidade
que surge quando da implementação de um determinado
modelo. Pode-se citar o caso das redes neurais, em que se
deve determinar (ou arbitrar) a priori sua estrutura
(número de camadas e quantidade de neurônios por camadas)
antes de qualquer teste. Um método automático de
aprendizado da estrutura é, portanto, uma característica
importante em qualquer modelo. Um sistema que também
permita o uso de um número maior de entradas é
interessante para se abranger um maior número de
aplicações. As regras com hierarquia são um subproduto do
método de aprendizado de estrutura desenvolvido nestes
novos modelos.
O trabalho envolveu três partes principais: um
levantamento sobre os sistemas neuro-fuzzy existentes e
sobre os métodos mais comuns de ajuste de parâmetros; a
definição e implementação de dois modelos neuro-fuzzy
hierárquicos; e o estudo de casos.
No estudo sobre os sistemas neuro-fuzzy(SNF) fez-se um
levantamento na bibliografia da área sobre as
características principais desses sistemas, incluindo suas
virtudes e deficiências. Este estudo gerou a proposta de
uma taxonomia para os SNF, em função das características
fuzzy neurais. Em virtude deste estudo constataram-se
limitações quanto à capacidade de criação de sua própria
estrutura e quanto ao número reduzido de entradas
possíveis.
No que se refere aos métodos de ajuste dos parâmetros
abordou-se os métodos mais comuns utilizados nos SNF, a
saber: o método dos mínimos quadrados com sua solução
através de métodos numéricos iterativos; e o método
gradient descent e seus derivados como o BackPropagation e
o RProp(Resilient BackPropagation).
A definição dos dois novos modelos neuro-fuzzy foi feita a
partir do estudo das características desejáveis e das
limitações dos SNF até então desenvolvidos. Observou-se
que a base de regras dos SNF juntamente com os seus
formatos de particionamento dos espaços de entrada e saída
têm grande influência sobre o desempenho e as limitações
destes modelos. Assim sendo, decidiu-se utilizar uma nova
forma de particionamento que eliminasse ou reduzisse as
limitações existentes- os particionamentos recursivos.
Optou-se pelo uso dos particionamentos Quadtree e BSP,
gerando os dois modelos NFHQ (Neuro-Fuzzy Hierárquico
Quadree) e NFHB (Neiro-Fuzzy Hierárquico BSP). Com o uso
de particionamentos obteve-se um nova classe de SNF que
permitiu além do aprendizado dos parâmetros, também o
aprendizado dos parâmetros. Isto representa um grande
diferencial em relação aos SNF tradicionais, além do fato
de se conseguir extender o limite do número de entradas
possíveis para estes sistemas.
No estudo de casos, os dois modelos neurofuzzy
hierárquicos foram testados 16 casos diferentes, entre as
aplicações benchmarks mais tradicionais da área e
problemas com maior número de entradas. Entre os casos
estudados estão: o conjunto de dados IRIS; o problema das
duas espirais; a previsão da série caótica de Mackey-
Glass; alguns sistemas de diagnóstico e classificação
gerados a partir de conjuntos de dados comumente
utilizados em artigos de machine learning e uma aplicação
de previsão de carga elétrica. A implementação dos dois
novos modelos neuro-fuzzy foi efetuada em linguagem pascal
e com o uso de um compilador de 32 bits para micros da
linha PC (Pentium) com sistema operacional DOS 32 bits,
Windows, ou Linux.
Os testes efetuados demostraram que: esses novos modelos
se ajustam bem a qualquer conjunto de dados; geram sua
própria estrutura; ajustam seus parâmetros com boa
generalização e extraem / [en] This dissertation presents a new proposal of neurofuzzy
systems (models), which present, in addition to the
learning capacity (which are common to the neural networks
and neurofuzzy systems) the following features: learning
of the structure; the use of recursive partitioning; a
greater number of inputs than usually allowed in
neurofuzzy systems; and hierarchical rules. The
structure´s definition is needed when implementing a
certain model. In the neural network case, for example,
one must, first of all, estabilish its structure (number
of layers and number of neurons per layers) before any
test is performed. So, an important feature for any model
is the existence of an automatic learning method for
creating its structure. A system that allows a larger
number of inputs is also important, in order to extend the
range of possible applications. The hierarchical rules
feature results from the structure learning method
developed for these two models.
The work has involved three main parts: study of the
existing neurofuzzy systems and of the most commom methods
to adjust its parameters; definition and implementation of
two hierarchical neurofuzzy models; and case studies.
The study of neurofuzzy systems (NFS) was accomplished by
creating a survey on this area, including advantages,
drawbacks and the main features of NFS. A taxonomy about
NFS was then proposed, taking into account the neural and
fuzzy features of the existing systems. This study pointed
out the limitations of neurofuzzy systems, mainly their
poor capability of creating its own structure and the
reduced number of allowed inputs.
The study of the methods for parameter adjustment has
focused on the following algorithms: Least Square
estimator (LSE) and its solutions by numerical iterative
methods; and the basic gradient descent method and its
offsprings such as Backpropagation and Rprop (Resilient
Backpropagation).
The definition of two new neurofuzzy models was
accomplished by considering desirable features and
limitations of the existing NFS. It was observed that the
partitioning formats and rule basis of the NFS have great
influence on its performance and limitations. Thus, the
decision to use a new partitioning method to remove or
reduce the existing limitations - the recursive
partitioning. The Quadtree and BSP partitioning were then
adopted, generating the so called Quadree Hierarchical
Neurofuzzy model (NFHQ) and the BSP hierarchical
Neurofuzzy model (NFHB). By using these kind os
partitioning a new class of NFS was obtained allowing the
learning of the structure in addition to parameter
learning. This Feature represents a great differential in
relation to the traditional NFS, besides overcoming the
limitation in the number of allowed inputs.
In the case studies, the two neurofuzzy models were tested
in 16 differents cases, such as traditional benchmarks and
problems with a greater number of inputs. Among the cases
studied are: the IRIS DATA set; the two spirals problem;
the forecasting of Mackey-Glass chaotic time series; some
diagnosis and classifications problems, found in papers
about machine learning; and a real application involving
load forecasting. The implementation of the two new
neurofuzzy models was carried out using a 32 bit Pascal
compiler for PC microcomputers using DOS or Linux
operating system.
The tests have shown that: these new models are able to
adjust well any data sets; they create its own struture;
they adjust its parameters, presenting a good
generalization performance; and automatically extract the
fuzzy rules. Beyond that, applications with a greater
number of inputs for these neurofuzzy models. In short two
neurofuzzy models were developed with the capability of
structure learning, in addition to parameter learning.
Moreover, these new models have good interpretability
through hierarchical fuzzy rules. They are not black coxes
as the neural networks.
|
15 |
[pt] ENSAIOS EM ECONOMETRIA / [en] ESSAYS IN ECONOMETRICSPRISCILLA BURITY 12 August 2020 (has links)
[pt] Este trabalho consiste de quatro artigos e esta dividida em duas partes distintas. A primeira esta relacionado a modelos de estrutura a termo estimados para países cujos títulos soberanos sao considerados sujeitos a default. A segunda parte é sobre crescimento e convergencia. No primeiro artigo da primeira parte, usamos um modelo de estrutura a termo afim sem arbitragem e escolhemos tres países da zona euro para esta analise: Espanha, Grécia e Itália. Notamos que a dívida do proprio país tem desempenhado um papel importante na ampliac¸ao recente dos spreads, sobretudo para a Grecia e Itália. Para a Espanha, o recente aumento dos spreads está sendo impulsionado principalmente pelas variaveis relacionadas com a Alemanha (entre as quais a dívida alemã e a mais importante entre eles), e estresse do mercado (representada por um índice alto rendimento). No segundo artigo da primeira parte, usamos um modelo de sem arbitragem para investigar os determinantes da estrutura a termo dos spreads soberanos brasileiros e as expectativas da taxa de cambio no Brasil. Nossos exercícios indicam que fatores ligados a economia brasileira tiveram uma contribuic¸ao positiva para os spreads 1999-2006 e, na maior parte deste período, os fatores ligados a economia dos EUA tiveram uma contribuição negativa. Desde o final de 2007, esse cenario inverteu. Além disso, apresentam-se evidências de que a melhoria na nossa indicador de solvência externa, juntamente com a melhoria no cenario de inflação, e o principal responsável pela redução de spreads a partir do meio de 2007. O primeiro artigo da segunda parte propoe uma abordagem semi-parametrica para controlar a heterogeneidade não observada em modelos de regressao linear. Utilizamos estimadores extremos de redes neuras e o modelo e ilustrado em uma aplicação para a convergência de renda per capita entre os municípios brasileiros. Finalmente, no segundo artigo da segunda parte, vamos explorar os desenvolvimentos recentes sobre a convergencia para a produtividade industrial. Encontramos que o crescimento da produtividade esta negativamente relacionado com a produtividade inicial, mas que países com instituições piores têm um nível de equilíbrio de produtividade mais baixo. A taxa de crescimento da produtividade tambem tem uma relação não monotonica com a abertura comercial e educação, sendo mais rápida nos extremos. / [en] This work consists of four chapters and is divided into two distinct parts. The first is related to models of the term structure estimated for countries whose sovereign bonds are considered defaultable. The second part is about growth and convergence. In the first article of the first part, we used a no- arbitrage term structure model and chose three eurozone countries for this analysis: Spain, Greece and Italy. We noted that the country s debt has played an important role in the recent expansion of spreads, especially for Greece and Italy. For Spain, the recent increase in spreads has been driven primarily by variables related to Germany (Germany s debt is the most important among them), and market stress (represented by a highyield index). In the second article of the first part, we use a no-arbitrage model to investigate the determinants of the term structure of sovereign spreads and the expectations of the exchange rate in Brazil. Our exercises suggest that factors related to the Brazilian economy had a positive contribution to the 1999-2006 spreads and, in most of the period, factors related to the U.S. economy had a negative contribution. Since late 2007, this scenario has inverted. Furthermore, we present evidence that the improvement in our external solvency indicator along with the improved inflation scenario are the main responsible for the reduction of spreads from the middle of 2007 on. The first article of the second part proposes a semi-parametric approach to control unobserved heterogeneity in linear regression models. We use extreme neurotic networks estimators and the model is illustrated in an application to the convergence of per capita income across Brazilian municipalities. Finally, in the second article of the second part, we explore recent developments on industrial productivity convergence. We find that productivity growth is negatively related to initial productivity, but that countries with worse institutions have lower level of
productivity in equilibrium. The rate of productivity growth also has a nonmonotonic relationship with trade openness and education, being faster at the extremes.
|
16 |
[en] CONVOLUTIONAL NEURAL NETWORK FOR SEISMIC HORIZONS IDENTIFICATION / [pt] IDENTIFICAÇÃO DE HORIZONTES EM SÍSMICA USANDO REDE NEURAL CONVOLUCIONALMAYARA GOMES SILVA 07 November 2022 (has links)
[pt] O petróleo e gás são importantes na economia mundial, utilizados
como matéria-prima em vários produtos. Para a extração desses produtos é
necessário realizar a caracterização dos reservatórios de hidrocarbonetos. A
partir dessa caracterização são extraídos um volume com dados sísmicos da
região de interesse. Esses dados são interpretados para identificação de várias
características, como a classificação de fácies sísmicas, horizontes, falhas, e gás.
A grande quantidade de dados do volume de sísmica, torna a interpretação
manual cada vez mais desafiadora. Muitos pesquisadores da área de interpretação sísmica tem investido em métodos utilizando redes neurais. As redes
neurais convolucionais (CNN) são muito utilizadas em problemas de visão
computacional, e obtém ótimos resultados em muitos problemas com dados
2D. O presente trabalho tem como objetivo a aplicação de redes neurais convolucionais no mapeamento supervisionado de horizontes sísmicos. Avaliamos
nossa proposta usando o bloco F3 com as anotações de fácies sísmicas. Os dados
foram utilizados baseados em modelo de seção e patches. Na previsão de horizonte foram avaliadas as arquiteturas da ResUnet e DC-Unet. Como função de
perda foram analisadas a Generalized Dice e a perda Focal Tversky. O método
mostrou resultados promissores com a ResUnet e função de perda Focal Tversky, nos dados baseados em patches de 128x128, alcançando aproximadamente
56 por cento na métrica Dice. A implementação completa e as redes treinadas estão
disponíveis em https://github.com/mayaragomys/seismic_horizons. / [en] Oil and gas are important in the world economy, used as raw materials in
various products. For the extraction of these products, it is necessary to carry
out the characterization of the hydrocarbon reservoirs. This characterization
extracts a volume with seismic data from the region of interest. These data
are interpreted to identify various features, such as the classification of seismic facies, horizons, faults, and gas. A large amount of seismic volume data
makes manual interpretation increasingly challenging. Many researchers in the
field of seismic interpretation have invested in methods using neural networks.
Convolutional Neural Networks (CNN) are widely used in computer vision
problems and get great results in many situations with 2D data. The present
work aimed to apply convolutional neural networks in the supervised mapping
of seismic horizons. We evaluated our proposal using the F3 block with seismic
facies annotations. The data representation in the input layer are patches of
sections. In the horizon forecast, we evaluate the architectures of ResUnet and
DC-Unet. We use the Generalized Dice and the Focal Tversky loss functions
for the loss function. The method delivered promising results with the ResUnet
and Focal Tversky loss function on data based on 128x128 patches, reaching approximately 56 percent on the Dice metric. The full implementation and the trained
networks are available at https://github.com/mayaragomys/seismic_horizons.
|
17 |
[pt] APLICAÇÃO DE TÉCNICAS DE REDES NEURAIS PARA A MELHORIA DA MODELAGEM DA TURBULÊNCIA, UTILIZANDO DADOS EXPERIMENTAIS / [en] APPLICATION OF NEURAL NETWORK TECHNIQUES TO ENHANCE TURBULENCE MODELING USING EXPERIMENTAL DATALEONARDO SOARES FERNANDES 12 March 2024 (has links)
[pt] Apesar dos recentes avanços tecnológicos e do surgimento de computadores
extremamente rápidos, a simulação numérica direta de escoamentos turbulentos
ainda é proibitivamente cara para a maioria das aplicações de engenharia e até
mesmo para algumas aplicações de pesquisa. As simulações utilizadas são, no geral,
baseadas em grandezas médias e altamente dependentes de modelos de turbulência.
Apesar de amplamente utilizados, tais modelos não conseguem prever
adequadamente o escoamento médio em muitas aplicações, como o escoamento em
um duto quadrado. Com o reflorescimento do Aprendizado de Máquina nos últimos
anos, muita atenção está sendo dada ao uso de tais técnicas para substituir os
modelos tradicionais de turbulência. Este trabalho estudou o uso de Redes Neurais
como alternativa para aprimorar a simulação de escoamentos turbulentos. Para isso,
a técnica PIV-Estereoscópico foi aplicada ao escoamento em um duto quadrado
para obter dados experimentais de estatísticas do escoamento e campos médios de
velocidade de 10 casos com diferentes números de Reynolds. Um total de 10
metodologias foram avaliadas para entender quais grandezas devem ser previstas
por um algoritmo de aprendizado de máquina para obter simulações aprimoradas.
A partir das metodologias selecionadas, excelentes resultados foram obtidos com
uma Rede Neural treinada a partir dos dados experimentais para prever o termo
perpendicular do Tensor de Reynolds e a viscosidade turbulenta. As simulações
turbulentas auxiliadas pela Rede Neural retornaram campos de velocidade com
menos de 4 por cento de erro, em comparação os dados medidos. / [en] Although the technological advances that led to the development of fast
computers, the direct numerical simulation of turbulent flows is still prohibitively
expensive to most engineering and even some research applications. The CFD
simulations used worldwide are, therefore, based on averaged quantities and
heavily dependent on mathematical turbulence models. Despite widely used, such
models fail to proper predict the averaged flow in many practical situations, such
as the simple flow in a square duct. With the re-blossoming of machine learning
methods in the past years, much attention is being given to the use of such
techniques as a replacement to the traditional turbulence models. The present work
evaluated the use of Neural Networks as an alternative to enhance the simulation of
turbulent flows. To this end, the Stereoscopic-PIV technique was used to obtain
well-converged flow statistics and velocity fields for the flow in a square duct for
10 values of Reynolds number. A total of 10 methodologies were evaluated in a
data-driven approach to understand what quantities should be predicted by a
Machine Learning technique that would result in enhanced simulations. From the
selected methodologies, accurate results could be obtained with a Neural Network
trained from the experimental data to predict the nonlinear part of the Reynolds
Stress Tensor and the turbulent eddy viscosity. The turbulent simulations assisted
by the Neural Network returned velocity fields with less than 4 percent in error, in
comparison with those previously measured.
|
18 |
[pt] DESENVOLVIMENTO E VALIDAÇÃO DE UM SISTEMA DE AQUISIÇÃO DE DADOS DE BAIXO CUSTO PARA PREVISÃO DE CURTÍSSIMO PRAZO DA POTÊNCIA FOTOVOLTAICA / [en] DEVELOPMENT AND VALIDATION OF A LOW-COST DATA ACQUISITION SYSTEM FOR VERY SHORT-TERM PHOTOVOLTAIC POWER FORECASTINGGUILHERME FONSECA BASSOUS 08 May 2020 (has links)
[pt] Dado o recente aumento da adoção de fontes renováveis de energia, é essencial reavaliar os sistemas tradicionais de energia. A intermitência pode causar diversos problemas ligados à qualidade e eficiência energética. O objetivo desta dissertação de mestrado é desenvolver uma ferramenta capaz de subsidiar modelos de previsão solar para aplicações visando a melhoria da operação em tempo real. O atual paradigma de previsão solar sub-horária consiste em usar imagens celestiais para prever a cobertura nebulosa para curtos horizontes temporais. Visando desenvolver um modelo mais exato, é necessária a utilização de componentes determinísticos, como a temperatura e o ângulo de incidência dos raios solares, em conjunto com a modelagem dos efeitos estocásticos das nuvens. Visto que o objetivo da previsão sub-minuto é permitir que se lide com variações de alta frequência, os dados devem possuir informação condizente com estas frequências. Por esse motivo foi feita a coleta de dados por exclusão. O sistema captura dados a cada 1 s e, quando detecta uma mudança suficientemente grande na potência do painel, salva essa informação, 10 s para trás até 4 s à frente da perturbação detectada. Os dados, depois de pré-processados, foram usados para treinar uma rede neural para determinar a relevância dos dados. Com cuidadosa seleção de atributos e arquitetura de rede, o modelo apresentou boa regressão com R2 maior que 0.93 para ambas variáveis testadas com horizonte de 60 s à frente. Concluindo, portanto, que os dados obtidos são relevantes para previsões de até 60 s à frente. / [en] The rising adoption of renewable energy sources means we must turn our eyes to limitations in traditional energy systems. Intermittency, if left unaddressed, may lead to several power quality and energy efficiency issues. The objective of this work is to develop a working tool to support PV energy forecast models for real-time operation applications. The current paradigm of intra-hour solar power forecasting is to use image-based approaches to predict the state of cloud composition for short time-horizons. For a more accurate model, it is also necessary to use deterministic components such as temperature and angle of incidence on the panels in addition to the stochastic effect of clouds. Since the objective of intra-minute forecasting is to address high-frequency intermittency, data must provide information on and surrounding these events. For that purpose, acquisition by exception was chosen as the guiding principle. The system performs power measurements at 1 Hz frequency and whenever it detects variations over a certain threshold, it saves the data 10 s before and 4 s after the detection point. After post-processing, this data was fed into a multilayer perceptron neural network to determine its relevance to the forecasting problem. With a thorough selection of attributes and network structures, the results show very low error with a normalized good fitting with R2 greater than 0.93 for both input variables tested with a time horizon of 60 s. In conclusion, the data provided by the acquisition system yielded relevant information for forecasts up to 60 s ahead.
|
19 |
[pt] MODELAMENTO DO CONSUMO DE CAL NO PROCESSO DE DESSULFURAÇÃO DE GASES DE COMBUSTÃO DE UMA COQUERIA DO TIPO HEAT RECOVERY USANDO REDES NEURAIS ARTIFICIAIS / [en] MODELING LIME CONSUMPTION OF A DESULFURIZATION PROCESS FROM GASES OF A HEAT RECOVERY COKE PRODUCTION PLANT USING NEURAL NETWORK DEVELOPMENTFREDERICO MADUREIRA MATOS ALMEIDA 26 February 2021 (has links)
[pt] A produção de coque metalúrgico em plantas do tipo heat recovery convertem todo o calor gerado da combustão de gases destilados durante a coqueificação em vapor e eletricidade, portanto eliminando a necessidade de processamento de sub-produtos químicos e rejeitos perigosos. Os gases, após a etapa de inertização no interior dos fornos, são direcionados à planta de dessulfuração denominada flue gas dessulfurization que utiliza lama de cal para abatimento de compostos SOx (SO2 e SO3) e filtros de mangas para remoção do resíduo gerado, cinzas de cal, precedente ao descarte para a atmosfera. Em virtude do alto custo da cal torna-se importante modelar o processo e avaliar quais são as principais variáveis que impactam no re-sultado, logo permitindo atuação no processo para torna-lo mais competitivo e am-bientalmente sustentável. A proposta deste trabalho foi elaborar um modelo matemático usando redes neurais artificiais para determinar as principais variáveis que impactam o consumo específico de cal no processo. A literatura existente revela que os principais parâmetros que impactam a eficiência de remoção de enxofre, logo a redução de consumo específico de cal, são temperatura de aproximação e relação Ca/S no processo. Este estudo indicou que o consumo está relacionado, principal-mente, aos parâmetros de temperatura dos gases na entrada e saída do SDA, além de concentração de oxigênio na chaminé principal e densidade da lama de cal utilizada de acordo com a análise de sensibilidade de rede neural feedfoward backpropagation com arquitetura MLP 14-19-2 e função de transferência tangente hiperbólica na ca-mada intermediária e logística na camada de saída. A avaliação reforçou o efeito do aumento da temperatura de saída dos gases no consumo específico de cal conforme literatura e adicionou parâmetros relevantes: temperatura de entrada dos gases, con-centração de O2(g) na chaminé e densidade da lama. / [en] The production of metallurgical coke in heat recovery coke production plants converts all heat generated from the combustion of distilled gases during coking pro-duction to steam and electricity, thus eliminating the need of processing hazardous by-products chemical substances. The gases, after inertization inside the ovens, are directed to the desulphurization plant called flue gas desulphurization (FGD) which uses lime slurry to remove SOx compounds (SO2 and SO3) and bag filters to remove the generated residue, lime ash. Due to the high cost of lime, it is important to model the process and evaluate which are the main variables that affects its result, thus allowing action in the process to make it more competitive and environmentally sus-tainable. The purpose of this work was to develop a mathematical model using arti-ficial neural networks to determine the main variables that affect lime consumption in the desulphurization process. Literature reveals that the main parameters that in-fluence sulfur removal efficiency, thus reducing specific lime consumption, are ap-proach to adiabatic saturation temperature and Ca/S ratio in the process. This study indicated that consumption is mainly related to the inlet and outlet SDA gas temper-atures, oxygen concentration in stack and lime slurry density according to the feed-foward backpropagation neural network sensitivity analysis. MLP 14-19-2 and hy-perbolic tangent transfer function in the intermediate layer and logistics in the output layer. Thus, the evaluation reinforced the effect of the increase of the gas outlet tem-perature on the specific lime consumption according to the literature, but also added new parameters: gas inlet temperature, O2 (g) concentration in the outlet of stack and lime slurry density.
|
20 |
[en] A BAYESIAN APPROACH TO ESTIMATE THE EFFICIENT OPERATIONAL COSTS OF ELECTRICAL ENERGY UTILITIES / [pt] UMA ABORDAGEM BAYESIANA PARA O CÁLCULO DOS CUSTOS OPERACIONAIS EFICIENTES DAS DISTRIBUIDORAS DE ENERGIA ELÉTRICAMARCUS VINICIUS PEREIRA DE SOUZA 17 October 2008 (has links)
[pt] Esta tese apresenta os principais resultados de medidas de
eficiência dos custos operacionais de 60 distribuidoras
brasileiras de energia elétrica. Baseado no esquema
yardstick competition, foi utilizado uma Rede Neural d e
Kohonen (KNN) para identificar grupos de empresas
similares. Os resultados obtidos pela KNN não são
determinísticos, visto que os pesos sinápticos da rede são
inicializados aleatoriamente. Então, é realizada uma
simulação de Monte Carlo para encontrar os clusters mais
frequentes. As medidas foram obtidas por modelos
DEA (input oriented, com e sem restrições aos pesos) e
modelos Bayesianos e frequencistas de fronteira estocástica
(utilizando as funções Cobb-Douglas e Translog). Em todos
os modelos, DEA e SFA, a única variável input refere-se ao
custo operacional (OPEX). Os índices de eficiência destes
modelos representam a potencial redução destes custos de
acordo com cada concessionária avaliada. Os
outputs são os cost drivers da variável OPEX: número de
unidades consumidoras (uma proxy da quantidade de serviço),
montante de energia distribuída (uma proxy do produto
total) e a extensão da rede de distribuição (uma proxy da
dispersão dos consumidores na área de concessão).
Finalmente, vale registrar que estas técnicas
podem mitigar a assimetria de informação e aprimorar a
habilidade do agente regulador em comparar os desempenhos
das distribuidoras em ambientes de regulação incentivada. / [en] This thesis presents the main results of the cost
efficiency scores of 60 Brazilian electricity distribution
utilities. Based on yardstick competition scheme,
it was applied a Kohonen Neural Networks (KNN) to identify
and to group the similar utilities. The KNN results are not
deterministic, since the estimated weights are randomly
initialized. Thus, a Monte Carlo simulation was used in
order to find the most frequent clusters. Therefore was
examined the use of the DEA methodology (input oriented,
with and without weight constraints) and Bayesian and non-
Bayesian Stochastic Frontier Analysis (centered on a Cobb-
Douglas and Translog cost functions) to evaluate the cost
efficiency scores of electricity distribution utilities. In
both models the only input variable is operational cost
(OPEX). The efficiency measures from these models reflect
the potential of the reduction of operational costs of each
utility. The outputs are the cost-drivers of the OPEX: the
number of customers (a proxy for the amount of service),
the total electric power supplied (a proxy for the amount
of product delivered) and the distribution network size (a
proxy of the customers scattering in the operating
territory of each distribution utility). Finally, it is
important to mention that these techniques can reduce the
information assimetry to improve the regulator´s skill to
compare the performance of the utilities in incentive
regulation environments.
|
Page generated in 0.4323 seconds