21 |
[en] MODELING OF GEOBODIES: AI FOR SEISMIC FAULT DETECTION AND ALL-QUADRILATERAL MESH GENERATION / [pt] MODELAGEM DE OBJETOS GEOLÓGICOS: IA PARA DETECÇÃO AUTOMÁTICA DE FALHAS E GERAÇÃO DE MALHAS DE QUADRILÁTEROSAXELLE DANY JULIETTE POCHET 14 December 2018 (has links)
[pt] A exploração segura de reservatórios de petróleo necessita uma boa modelagem numérica dos objetos geológicos da sub superfície, que inclui entre outras etapas: interpretação sísmica e geração de malha. Esta tese apresenta um estudo nessas duas áreas. O primeiro estudo é uma contribuição para interpretação de dados sísmicos, que se baseia na detecção automática de falhas sísmicas usando redes neurais profundas. Em particular, usamos Redes Neurais Convolucionais (RNCs) diretamente sobre mapas de amplitude sísmica, com a particularidade de usar dados sintéticos para treinar a rede com o objetivo final de classificar dados reais. Num segundo estudo, propomos um novo algoritmo para geração de malhas bidimensionais de quadrilaterais para estudos geomecânicos, baseado numa abordagem inovadora do método de quadtree: definimos novos padrões de subdivisão para adaptar a malha de maneira eficiente a qualquer geometria de entrada. As malhas obtidas podem ser usadas para simulações com o Método de Elementos Finitos (MEF). / [en] Safe oil exploration requires good numerical modeling of the subsurface geobodies, which includes among other steps: seismic interpretation and mesh generation. This thesis presents a study in these two areas. The first study is a contribution to data interpretation, examining the possibilities of automatic seismic fault detection using deep learning methods. In particular, we use Convolutional Neural Networks (CNNs) on seismic amplitude maps, with the particularity to use synthetic data for training with the goal to classify real data. In the second study, we propose a new two-dimensional all-quadrilateral meshing algorithm for geomechanical domains, based on an innovative quadtree approach: we define new subdivision patterns to efficiently adapt the mesh to any input geometry. The resulting mesh is suited for Finite Element Method (FEM) simulations.
|
22 |
[pt] MODELAGEM HÍBRIDA WAVELET INTEGRADA COM BOOTSTRAP NA PROJEÇÃO DE SÉRIES TEMPORAIS / [en] MODELING HYBRID WAVELET INTEGRATED WITH BOOTSTRAP IN PROJECTION TEMPORAL SERIESRICARDO VELA DE BRITTO PEREIRA 31 March 2016 (has links)
[pt] Na previsão de séries temporais, alguns autores supõem que um método de previsão individual (por exemplo, um modelo ARIMA) produz resíduos (ou erros de previsão) semelhantes a um processo de ruído branco (imprevisível). No entanto, principalmente devido às estruturas de autodependência não mapeadas por um método preditivo individual, tal suposição pode ser facilmente violada na prática. Esta tese propõe um Previsor Híbrido Wavelet (PHW) que integra as seguintes técnicas: decomposição wavelet; modelos ARIMA; redes neurais artificiais (RNAs); combinação de previsões; programação matemática não linear e amostrador Bootstrap. Em termos gerais, o PHW proposto aqui é capaz de capturar, ao mesmo tempo, estruturas com autodependência linear por meio de uma combinação linear wavelet (CLW) de modelos ARIMA, (cujo ajuste numérico ótimo ocorre por programação matemática não linear) e não linear (usando uma RNA wavelet automática) exibidas pela série de tempo a ser predita. Diferentemente de outras abordagens híbridas existentes na literatura, as previsões híbridas produzidas pela PHW proposto levam em conta implicitamente, através da abordagem de decomposição wavelet, as informações oriundas da frequência espectral presentes na série temporal subjacente. Os resultados estatísticos mostram que a metodologia híbrida supracitada alcançou ganhos de precisão relevantes no processo preditivo de quatro séries de tempo diferentes bem conhecidas, quando se compara com outras meteorologistas competitivas. / [en] In time series analysis some authors presume that a single model (an ARIMA for instance) may yield white noise errors. However that assumption can be easily violated, especially in scenarios where unmapped auto dependency structures are present inside the series. With that being said, this thesis proposes a new approach called Hybrid Wavelet Predictor (HWP) which integrates the following techniques: Wavelet Decomposition, ARIMA models, Neural Networks (NN), Combined Prediction, Non-linear mathematical programming and Bootstrap Sampling. In a broad sense, the proposed HWP is able to capture not only the linear auto-dependent structures from ARIMA using linear wavelet combination (where its optimal numerical adjustment is made through non-linear mathematical programming), but also the non-linear structures by using Neural Network. Differently from others hybrid approaches known to date, the hybrid predictions given by HWP model take into account. Statistical tests show that the hybrid approach stated above increased the prediction s effectiveness by a significant amount when compared with four well known processes.
|
23 |
[en] THE USE OF DECISION TREES, NEURAL NETWORKS AND KNN SYSTEMS TO AUTOMATICALLY IDENTIFY BOX & JENKINS NON-SEASONAL AND SEASONAL STRUCTURES / [pt] UMA APLICAÇÃO DE ÁRVORES DE DECISÃO, REDES NEURAIS E KNN PARA A IDENTIFICAÇÃO DE MODELOS ARMA NÃO-SAZONAIS E SAZONAISLUIZA MARIA OLIVEIRA DA SILVA 19 December 2005 (has links)
[pt] A metodologia Box & Jenkins tem sido mais utilizada para
fazer
previsões do que outros métodos até então. Alguns
analistas têm relutado,
entretanto, em usar esta metodologia, em parte porque a
identificação da
estrutura adequada é uma tarefa complexa. O reconhecimento
tanto dos padrões
de comportamento das funções de autocorrelação quanto da
autocorrelação
parcial (teórica/estimada) dependem da série temporal
através da qual é possível
extraí-las. Uma vez obtidos os resultados, pode-se inferir
qual o tipo de
estrutura Box & Jenkins adequada para a série. A proposta
do trabalho é
desenvolver três novas metodologias de identificação
automática das estruturas
Box & Jenkins ARMA simples e/ou sazonais, identificar os
filtros sazonal e
linear da série de uma forma menos complexa. A primeira
metodologia utiliza
árvores de decisão, a segunda, redes neurais e a terceira,
K-Nearest Neighbor
(KNN). A estas metodologias serão utilizadas as estruturas
Box & Jenkins
sazonais de períodos 3, 4, 6 e 12 e não sazonais. Os
resultados são aplicados a
séries simuladas, bem como a séries reais. Como
comparação, utilizou-se o
método automático de identificação proposto no software
FPW-XE. / [en] The Box & Jenkins is the most popular forecasting
technique. However,
some researchers have not embraced it because the
identification of its structure is
highly complex. The process of proper characterizing the
properties of both
autocorrelation functions and partial correlation
(theoretical or estimated) depends
on the time series from which they are being obtained.
Given the results in
question, it is possible to infer the proper Box & Jenkins
structure for the time
series being studied. For the reasons above, the goal of
this dissertation is to
develop three new methodologies to identifying, in an
automatic fashion, the Box
& Jenkins structure of an ARMA series. The methodologies
identify, in a simpler
manner, both the seasonal and linear filters of the
series. The first methodology
applies the decision tree. The second applies the neural
networks. The third
applies the K-Nearest Neighbor (KNN). In each of them the
Box & Jenkins
seasonal structures of 3, 4, 6 and 12 periods were used,
as well as the nonseasonal
structure. The results are applied to simulated and actual
series. For
comparison purposes, the automatic identification
procedure of the software
FPW-XE is also used.
|
24 |
[en] INFERENCE OF THE QUALITY OF DESTILLATION PRODUCTS USING ARTIFICIAL NEURAL NETS AND FILTER OF EXTENDED KALMAN / [pt] INFERÊNCIA DA QUALIDADE DE PRODUTOS DE DESTILAÇÃO UTILIZANDO REDES NEURAIS ARTIFICIAIS E FILTRO DE KALMAN ESTENDIDOLEONARDO GUILHERME CAETANO CORREA 19 December 2005 (has links)
[pt] Atualmente cresce o interesse científico e industrial na elaboração de
métodos de controle não lineares. Porém, estes modelos costumam ter difícil
implementação e um custo elevado até que se obtenha uma ferramenta de
controle confiável. Desta forma, estudos na área de métodos de apoio à decisão
procuram desenvolver aplicações inteligentes com custos reduzidos, capazes de
executar controles industriais avançados com excelentes resultados, como no
caso da indústria petroquímica. Na destilação de derivados de petróleo, por
exemplo, é comum fazer uso de análises laboratoriais de amostras para
identificar se uma substância está com suas características físico-químicas
dentro das normas internacionais de produção. Além disso, o laudo pericial desta
análise permite regular os instrumentos da planta de produção para que se
consiga um controle mais acurado do processo e, conseqüentemente, um
produto final com maior qualidade. Entretanto, apesar da análise laboratorial ter
maior acurácia nos resultados que avaliam a qualidade do produto final, exige,
às vezes, muitas horas de análise, o que retarda o ajuste dos equipamentos de
produção, reduzindo a eficiência do processo e aumentando o tempo de
produção de certos produtos, que precisam ter sua composição, posteriormente,
corrigida com outros reagentes. Outra desvantagem está relacionada aos custos
de manutenção e calibração dos instrumentos localizados na área de produção,
pois, como estes equipamentos estão instalados em ambientes hostis,
normalmente sofrem uma degradação acelerada, o que pode gerar leituras de
campo erradas, dificultando a ação dos operadores. Em contrapartida, dentre os
métodos inteligentes mais aplicados em processos industriais químicos,
destacam-se as redes neurais artificiais. Esta estrutura se inspira nos neurônios
biológicos e no processamento paralelo do cérebro humano, tendo assim a
capacidade de armazenar e utilizar o conhecimento experimental que for a ela
apresentado. Apesar do bom resultado que a estrutura de redes neurais gera,
existe uma desvantagem relacionada à necessidade de re-treinamento da rede
quando o processo muda seu ponto de operação, ou seja, quando a matériaprima
sofre algum tipo de mudança em suas características físico-químicas.
Como solução para este problema, foi elaborado um método híbrido que busca
reunir as vantagens de uma estrutura de redes neurais com a habilidade de um
filtro estocástico, conhecido por filtro de Kalman estendido. Em termos práticos,
o filtro atua em cima dos pesos sinápticos da rede neural, atualizando os
mesmos em tempo real e permitindo assim que o sistema se adapte
constantemente às variações de mudança de processo. O sistema também faz
uso de pré-processamentos específicos para eliminar ruídos dos instrumentos de
leitura, erros de escalas e incompatibilidade entre os sinais de entrada e saída
do sistema, que foram armazenados em freqüências distintas; o primeiro em
minutos e o segundo em horas. Além disso, foram aplicadas técnicas de seleção
de variáveis para melhorar o desempenho da rede neural no que diz respeito ao
erro de inferência e ao tempo de processamento. O desempenho do método foi
avaliado em cada etapa elaborada através de diferentes grupos de testes
utilizados para verificar o que cada uma delas agregou ao resultado final. O teste
mais importante, executado para avaliar a resposta da metodologia proposta em
relação a uma rede neural simples, foi o de mudança de processo. Para isso, a
rede foi submetida a um grupo de teste com amostras dos sinais de saída
somados a um sinal tipo rampa. Os experimentos mostraram que o sistema,
utilizando redes neurais simples, apresentou um resultado com erros MAPE em
torno de 1,66%. Por outro lado, ao utilizar redes neurais associadas ao filtro de
Kalman estendido, o erro cai à metade, ficando em torno de 0,8%. Isto comprova
que, além do filtro de Kalman não destruir a qualidade da rede neural original,
ele consegue adaptá-la a mudanças de processo, permitindo, assim, que a
variável de saída seja inferida adequadamente sem a necessidade de retreinamento
da rede. / [en] Nowadays, scientific and industrial interest on the
development of nonlinear
control systems increases day after day. However, before
these models
become reliable, they must pass through a hard and
expensive implementation
process. In this way, studies involving decision support
methods try to develop
low cost intelligent applications to build up advanced
industrial control systems
with excellent results, as in the petrochemical industry.
In the distillation of oil
derivatives, for example, it is very common the use of
laboratorial sample
analysis to identify if a substance has its physical-
chemistry characteristics in
accordance to international production rules. Besides, the
analyses results allow
the adjustment of production plant instruments, so that
the process reaches a
thorough control, and, consequently, a final product with
higher quality. However,
although laboratory analyses are more accurate to evaluate
final product quality,
sometimes it demands many hours of analysis, delaying the
adjustments in the
production equipment. In this manner, the process
efficiency is reduced and
some products have its production period increased because
they should have its
composition corrected with other reagents. Another
disadvantage is the
equipments´ maintenance costs and calibration, since these
instruments are
installed in hostile environments that may cause
unaccurate field measurements,
affecting also operator´s action. On the other hand, among
the most applied
intelligent systems in chemical industry process are the
artificial neural networks.
Their structure is based on biological neurons and in the
parallel processing of
the human brain. Thus, they are capable of storing and
employing experimental
knowledge presented to it earlier. Despite good results
presented by neural
network structures, there is a disadvantage related to the
need for retraining
whenever the process changes its operational point, for
example, when the raw
material suffers any change on its physical-chemistry
characteristics. The
proposed solution for this problem is a hybrid method that
joins the advantages of
a neural network structure with the ability of a
stochastic filter, known as
extended Kalman filter. This filter acts in the synaptic
weights, updating them online and allowing the system to
constantly adapt itself to process changes. It also
uses specific pre-processing methods to eliminate scale
mistakes, noises in
instruments readings and incompatibilities between system
input and output,
which are measured with different acquisition frequencies;
the first one in minutes
and the second one in hours. Besides, variable selection
techniques were used
to enhance neural network performance in terms of
inference error and
processing time. The method´s performance was evaluated in
each process step
through different test groups used to verify what each
step contributes to the final
result. The most important test, executed to analyse the
system answer in
relation to a simple neural network, was the one which
simulated process
changes. For that end, the network was submitted to a test
group with output
samples added to a ramp signal. Experiments demonstrated
that a system using
simple neural networks presented results with MAPE error
of about 1,66%. On
the other hand, when using neural networks associated to
an extended Kalman
filter, the error decreases to 0,8%. In this way, it´s
confirmed that Kalman filter
does not destroy the original neural network quality and
also adapts it to process
changes, allowing the output inference without the
necessity of network
retraining.
|
25 |
[pt] PREVISÃO DA CURVA DE PRODUÇÃO PARA PROJETO EXPLORATÓRIO UTILIZANDO REDES NEURAIS ARTIFICIAIS / [en] PRODUCTION FORECAST FOR EXPLORATORY PROJECT USING ARTIFICIAL NEURAL NETWORKSMONIQUE GOMES DE ARAUJO 19 January 2021 (has links)
[pt] A estimativa de produção de petróleo é um dos parâmetros essenciais para
mensurar a economicidade de um campo e, para tanto, existem várias técnicas
convencionais na área da engenharia de petróleo para predizer esse cálculo. Essas
técnicas abrangem desde modelos analíticos simplificados até simulações numéricas
mais complexas. Este trabalho propõem o uso de Redes Neurais Artificias (RNA) para
prever uma curva de produção de óleo que mais se aproxime da obtida por um
simulador numérico. A metodologia consiste na utilização da rede neural do tipo
feedforward para a previsão da vazão inicial e da curva de produção ao longo de dez
anos para um poço produtor de óleo. Essa metodologia tem aplicação prática na área
da exploração, visto que, nessa fase, ainda há muita incerteza sobre a acumulação de
petróleo e, portanto, os modelos de reservatório tendem a não ser complexos. Os
resultados foram obtidos a partir do treinamento de RNAs com dados coletados do
simulador numérico IMEX, cujas saídas foram posteriormente comparadas com os
dados originais da simulação numérica. Foi possível obter uma precisão de 97 por cento na
estimativa da vazão inicial do poço produtor de óleo. A previsão da curva de produção
apresentou um erro percentual médio absoluto inferior a 10 por cento nos dois primeiros anos.
Apesar dos valores de erro terem crescido ao longo dos últimos anos, eles são menores
quando comparados com a metodologia de declínio exponencial e com a regressão
linear múltipla. / [en] Production forecasting is one of the essential parameters to measure the economics of
an oil field. There are several conventional techniques in petroleum engineering to
estimate the production curve. They range from simplified analytical models to
complex numerical simulations. This study proposes the use of Artificial Neural
Networks (ANN) to predict an oil production curve that approximates to a numerical
simulator curve. The methodology consists of using a feedforward neural network to
predict the initial flow and the production forecast over ten years of an oil well. This
methodology has practical application in the exploration area, since, at this stage, there
is still much uncertainty about the oil accumulation, so the reservoir models tend not
to be complex. The results were obtained from the ANN training with data collected
from the numerical simulator IMEX, whose outputs were later compared with the
original data of the numerical simulation. It was possible to get an estimate for the oil
initial flow forecast with an accuracy of 97 percent. The production forecast had a mean
absolute percentage error of less than 10 percent in the first two years. Despite the increasing
error values over the years, they are smaller when compared to those obtained from the
exponential decline and multiple linear regression.
|
26 |
[pt] DESENVOLVIMENTO DE PIV ULTRA PRECISO PARA BAIXOS GRADIENTES USANDO ABORDAGEM HÍBRIDA DE CORRELAÇÃO CRUZADA E CASCATA DE REDE NEURAIS CONVOLUCIONAIS / [en] DEVELOPMENT OF ULTRA PRECISE PIV FOR LOW GRADIENTS USING HYBRID CROSS-CORRELATION AND CASCADING NEURAL NETWORK CONVOLUTIONAL APPROACHCARLOS EDUARDO RODRIGUES CORREIA 31 January 2022 (has links)
[pt] Ao longo da história a engenharia de fluidos vem se mostrado como uma das áreas mais
importantes da engenharia devido ao seu impacto nas áreas de transporte, energia e militar. A
medição de campos de velocidade, por sua vez, é muito importante para estudos nas áreas de
aerodinâmica e hidrodinâmica. As técnicas de medição de campo de velocidade em sua maioria
são técnicas ópticas, se destacando a técnica de Particle Image Velocimetry (PIV). Por outro
lado, nos últimos anos importantes avanços na área de visão computacional, baseados em redes
neurais convolucionais, se mostram promissores para a melhoria do processamento das técnicas
ópticas. Nesta dissertação, foi utilizada uma abordagem híbrida entre correlação cruzada e
cascata de redes neurais convolucionais, para desenvolver uma nova técnica de PIV. O projeto
se baseou nos últimos trabalhos de PIV com redes neurais artificiais para desenvolver a
arquitetura das redes e sua forma de treinamento. Diversos formatos de cascata de redes neurais
foram testados até se chegar a um formato que permitiu reduzir o erro em uma ordem de
grandeza para escoamento uniforme. Além do desenvolvimento da cascata para escoamento
uniforme, gerou-se conhecimento para fazer cascatas para outros tipos de escoamentos. / [en] Throughout history, fluid engineering is one of the most important areas of engineering
due to its impact in the areas of transportation, energy and the military. The measurement of
velocity fields is important for studies in aerodynamics and hydrodynamics. The techniques for
measuring the velocity field are mostly optical techniques, with emphasis on the PIV technique.
On the other hand, in recent years, important advances in computer vision, based on
convolutional neural networks, have shown promise for improving the processing of optical
techniques. In this work, a hybrid approach between cross-correlation and cascade of
convolutional neural networks was used to develop a new PIV technique. The project was based
on the latest work of PIV with an artificial neural network to develop the architecture of the
networks and their form of training. Several cascade formats of neural networks were tested
until they reached a format that allowed the error to be reduced by an order of magnitude for
uniform flow. In addition to the development of the cascade for uniform flow, knowledge was
generated to make cascades for other types of flows.
|
27 |
[pt] ANOTAÇÃO MORFOSSINTÁTICA A PARTIR DO CONTEXTO MORFOLÓGICO / [en] MORPHOSYNTACTIC ANNOTATION BASED ON MORPHOLOGICAL CONTEXTEDUARDO DE JESUS COELHO REIS 20 December 2016 (has links)
[pt] Rotular as classes gramaticais ao longo de uma sentença - part-ofspeech
tagging - é uma das primeiras tarefas de processamento de linguagem
natural, fornecendo atributos importantes para realizar tarefas de alta complexidade.
A representação de texto a nível de palavra tem sido amplamente
adotada, tanto através de uma codificação esparsa convencional, e.g. bagofwords; quanto por uma representação distribuída, como os sofisticados
modelos de word-embedding usados para descrever informações sintáticas e
semânticas. Um problema importante desse tipo de codificação é a carência
de aspectos morfológicos. Além disso, os sistemas atuais apresentam uma
precisão por token em torno de 97 por cento. Contudo, quando avaliados por sentença,
apresentam um resultado mais modesto com uma taxa de acerto em
torno de 55−57 por cento. Neste trabalho, nós demonstramos como utilizar n-grams
para derivar automaticamente atributos esparsos e morfológicos para processamento
de texto. Essa representação permite que redes neurais realizem
a tarefa de POS-Tagging a partir de uma representação a nível de caractere.
Além disso, introduzimos uma estratégia de regularização capaz de
selecionar atributos específicos para cada neurônio. A utilização de regularização
embutida em nossos modelos produz duas variantes. A primeira
compartilha os n-grams selecionados globalmente entre todos os neurônios
de uma camada; enquanto que a segunda opera uma seleção individual para
cada neurônio, de forma que cada neurônio é sensível apenas aos n-grams
que mais o estimulam. Utilizando a abordagem apresentada, nós geramos
uma alta quantidade de características que representam afeições morfossintáticas
relevantes baseadas a nível de caractere. Nosso POS tagger atinge a
acurácia de 96, 67 por cento no corpus Mac-Morpho para o Português. / [en] Part-of-speech tagging is one of the primary stages in natural language
processing, providing useful features for performing higher complexity
tasks. Word level representations have been largely adopted, either through
a conventional sparse codification, such as bag-of-words, or through a distributed
representation, like the sophisticated word embedded models used
to describe syntactic and semantic information. A central issue on these
codifications is the lack of morphological aspects. In addition, recent taggers
present per-token accuracies around 97 percent. However, when using a persentence
metric, the good taggers show modest accuracies, scoring around
55-57 percent. In this work, we demonstrate how to use n-grams to automatically
derive morphological sparse features for text processing. This representation
allows neural networks to perform POS tagging from a character-level input.
Additionally, we introduce a regularization strategy capable of selecting
specific features for each layer unit. As a result, regarding n-grams selection,
using the embedded regularization in our models produces two variants. The
first one shares globally selected features among all layer units, whereas the
second operates individual selections for each layer unit, so that each unit
is sensible only to the n-grams that better stimulate it. Using the proposed
approach, we generate a high number of features which represent relevant
morphosyntactic affection based on a character-level input. Our POS tagger
achieves the accuracy of 96.67 percent in the Mac-Morpho corpus for Portuguese.
|
28 |
[pt] MODELOS COM MÚLTIPLOS REGIMES PARA SÉRIES TEMPORAIS: LIMIARES, TRANSIÇÕES SUAVES E REDES NEURAIS / [en] REGIME-SWITCHING MODELS: THRESHOLDS, SMOOTH TRANSITIONS, AND NEURAL NETWORKSMARCELO CUNHA MEDEIROS 30 November 2005 (has links)
[pt] O objetivo desta tese é apresentar modelos mais flexíveis
com troca de regimes, combinando as idéias provenientes
dos modelos com limiar, com transição suave e redes
neurais. Os modelos aqui discutidos possuem múltiplos
regimes e a transição entre eles é controlada por uma
combinação linear de variáveis conhecidas. Um procedimento
de modelagem, baseada no trabalho de Teräsvirta e Lin
(1993), Eiterheim e Teräsvirta (1996), e Rech, Teräsvirta
e Tschernig (1999), consistindo das etapas de
especificação, estimação e avaliação, foi desenvolvido,
desta forma possibilitando ao analista de séries temporais
escolher entre diferentes alternativas durante o processo
de modelagem. / [en] The goal of this thesis is to propose more flexible
regime-switching models combining
the ideas from the SETAR, STAR, and ANN specifications.
The models discussed in this
thesis are models with multi-regimes and with the
transition between regimes controlled by
a linear combination of known variables. A modelling
cycle procedure, based on the work
of Teräsvirta and Lin (1993), Eitrheim and Teräsvirta
(1996), and Rech, Teräsvirta and
Tschernig (1999), consisting of the stages of model
specification, parameter estimation,
and model evaluation, is developed allowing the
practitioner to choose among different
alternatives during the modelling cycle. Monte-Carlo
simulations and real applications
are used to evaluate the performance of the techniques
developed here and they suggested
that the theory is useful and the proposed models thus
seems to be an effective tool for
the practicing time series analysts.
|
29 |
[en] IDENTIFICATION OF PROTEIN SUBCELLULAR LOCALIZATION BY DEEP LEARNING TECHNIQUES / [pt] IDENTIFICAÇÃO DA LOCALIZAÇÃO SUBCELULAR DE PROTEÍNAS POR MEIO DE TÉCNICAS DE DEEP LEARNINGROBERTO BANDEIRA DE MELLO MORAIS DA SILVA 21 May 2020 (has links)
[pt] As proteínas são macromoléculas biológicas compostas por cadeias de aminoácidos, presentes em praticamente todos os processos celulares, sendo essenciais para o correto funcionamento do organismo humano. Existem diversos estudos em torno do proteoma humano a fim de se identificar quais são as funções de cada proteína nas diferentes células, tecidos e órgãos do corpo humano. A classificação destas proteínas em diferentes formas, como por exemplo a localização subcelular, é importante para diversas
aplicações da biomedicina. Com o avanço das tecnologias para obtenção de imagens das proteínas, tem-se que hoje estas são geradas em grande volume e mais rapidamente do que é possível classificá-las manualmente, o que torna importante o desenvolvimento de um classificador automático capaz
de realizar esta classificação de maneira eficaz. Dessa forma, esta dissertação buscou desenvolver algoritmos capazes de realizar a classificação automática de padrões mistos de localização subcelular de proteínas, por meio do uso de técnicas de Deep Learning. Inicialmente, fez-se uma revisão da literatura
em torno de redes neurais, Deep Learning e SVMs, e utilizou-se o banco de dados, publicamente disponíve, de imagens de células do Human Protein Atlas, para treinamento dos algoritmos de aprendizagem supervisionada. Diversos modelos foram desenvolvidos e avaliados, visando identificar aquele
com melhor desempenho na tarefa de classificação. Ao longo do trabalho foram desenvolvidas redes neurais artificiais convolucionais de topologia LeNet, ResNet e um modelo híbrido ResNet-SVM, tendo sido treinadas ao todo 81 redes neurais diferentes, a fim de se identificar o melhor conjunto de hiper-parâmetros. As análises efetuadas permitiram concluir que a rede de melhor desempenho foi uma variante da topologia ResNet, que obteve em suas métricas de desempenho uma acurácia de 0,94 e uma pontuação
F1 de 0,44 ao se avaliar o comportamento da rede frente ao conjunto de teste. Os resultados obtidos pela diferentes topologias analisadas foram detalhadamente avaliados e, com base nos resultados alcançados, foram sugeridos trabalhos futuros baseados em possíveis melhorias para as redes de melhor desempenho. / [en] Proteins are biological macromolecules composed of aminoacid chains, part of practically all cellular processes, being essential for the correct functioning of the human organism. There are many studies around the human protein aiming to identify the proteins’ functions in different cells, tissues and organs in the human body. The protein classification in many forms, such as the subcellular localization, is important for many biomedical applications. With the advance of protein image obtention technology, today these images are generated in large scale and faster than it is possible to manually classify them, which makes crucial the development of a system capable of classifying these images automatically and accurately. In that matter, this dissertation aimed to develop algorithms capable of automatically classifying proteins in mixed patterns of subcellular localization with the use of Deep Learning techniques. Initially, a literature review on neural networks, Deep Learning and SVMs, and a publicly available image database from the Human Protein Atlas was used to train the supervised learning algorithms. Many models were developed seeking the best performance in the classification task. Throughout this work, convolutional artificial neural networks of topologies LeNet, ResNet and a hybrid ResNet-SVM model were developed, with a total of 81 different neural networks trained, aiming to identify the best hyper-parameters. The analysis allowed the conclusion that the network with best performance was a ResNet variation, which obtained in its performance metrics an accuracy of 0.94 and an F1 score of 0.44 when evaluated against the test data. The obtained results of these topologies were detailedly evaluated and, based on the measured results,
future studies were suggested based on possible improvements for the neural networks that had the best performances.
|
30 |
[en] A STUDY ON NEURAL NETWORKS FOR POKER PLAYING AGENTS / [pt] UM ESTUDO EM REDES NEURAIS PARA AGENTES JOGADORES DE PÔQUERALEXANDRE MARANGONI COSTA 12 May 2020 (has links)
[pt] A ciência de dados precisa de uma grande quantidade de dados para testar e melhorar soluções. Jogos são largamente usados para abstrair situações da vida real. Rodadas de pôquer são um bom exemplo pois, por
não saber as cartas dos oponentes, o jogador analisa um cenário de informação incompleta numa competição de agentes que envolve conhecimento probabilístico, análise de risco e brefe. Isso o diferencia de xadrez, damas e jogos de conhecimento perfeito e algoritmos de busca em forca bruta sobre o espaço de soluções. Usar o pôquer como um caso de teste possibilita a análise de diferentes abordagens usadas na vida real, porém num cenário mais controlado. Esta dissertação propõe um arcabouço de funcionalidades para criar e testar diferentes algorítimos de Deep Learning, que podem jogar pôquer entre sí, aprender com o histórico e maximizar suas recompensas. / [en] Data science research needs real examples to test and improve solutions. Games are widely used to mimic those real-world examples. Poker rounds are a good example of imperfect information state with competing
agents dealing with probabilistic knowledge, risk assessment, and possible deception, unlike chess, checkers and perfect information brute-force search style of games. By using poker as a test-bed we can analyze different approaches used in real-world examples, in a more controlled environment, which should give great insights on how to tackle those real-world scenarios. We propose a framework to build and test different neural networks that can play against each other, learn from a supervised experience and maximize
its rewards.
|
Page generated in 0.4468 seconds