1 |
[en] A CLUSTER-BASED METHOD FOR ACTION SEGMENTATION USING SPATIO-TEMPORAL AND POSITIONAL ENCODED EMBEDDINGS / [pt] MÉTODO BASEADO EM AGRUPAMENTO PARA A SEGMENTAÇÃO DE AÇÕES UTILIZANDO EMBEDDINGS ESPAÇO-TEMPORAIS E COM CODIFICAÇÃO POSICIONALGUILHERME DE AZEVEDO P MARQUES 20 April 2023 (has links)
[pt] Vídeos se tornaram a principal mídia para a comunicação, com um
volume massivo de dados criado a cada segundo. Conseguir entender essa
quantidade de dados de forma automática se tornou importante e, por
conseguinte, métodos de video understanding são cada vez mais necessários.
Uma tarefa crucial para o entendimento de vídeos é a classificação e
localização no tempo de diferentes ações. Para isso, a segmentação de ações
precisa ser realizada. Segmentação de ações é a tarefa que consiste em
segmentar temporalmente um vídeo, classificando cada quadro com alguma
ação. Neste trabalho, é proposto um método de segmentação de ações que
não requer análise prévia do vídeo e nenhum dado anotado. O método
envolve a extração de embeddings espaço-temporais dos vídeos com redes
de aprendizado profundo pré-treinadas, seguida por uma transformação
realizada por um codificador posicional e pela aplicação de um algoritmo de
grupamento em que cada cluster gerado corresponde a uma ação diferente.
Os experimentos realizados demonstram que o método produz resultados
competitivos nos conjuntos de dados Breakfast e Inria Instructional Videos. / [en] The rise of video content as the main media for communication has
been creating massive volumes of video data every second. The ability
of understanding this huge quantities of data automatically has become
increasingly important, therefore better video understanding methods are
needed. A crucial task to overall video understanding is the recognition
and localisation in time of dierent actions. To address this problem,
action segmentation must be achieved. Action segmentation consists of
temporally segmenting a video by labeling each frame with a specific
action. In this work, we propose a novel action segmentation method that
requires no prior video analysis and no annotated data. Our method involves
extracting spatio-temporal features from videos using a pre-trained deep
network. Data is then transformed using a positional encoder, and finally a
clustering algorithm is applied where each cluster presumably corresponds
to a dierent single and distinguishable action. In experiments, we show
that our method produces competitive results on the Breakfast and Inria
Instructional Videos dataset benchmarks.
|
2 |
[en] DEEP PHYSICS-DRIVEN STOCHASTIC SEISMIC INVERSION / [pt] INVERSÃO SÍSMICA ESTOCÁSTICA COM APRENDIZADO PROFUNDO ORIENTADO À FÍSICAPAULA YAMADA BURKLE 28 August 2023 (has links)
[pt] A inversão sísmica é uma etapa essencial na modelagem e caracterização de reservatórios que permite a estimativa de propriedades da subsuperfície a partir dos dados de reflexão sísmica. os métodos convencionais usualmente possuem um alto custo computacional ou apresentam problemas relativos à não-linearidade e à forte ambiguidade do modelo de inversão sísmica. Recentemente, com a generalizaçãodo aprendizado de máquina na geofísica, novos métodos de inversão sísmica surgiram baseados nas técnicas de aprendizado profundo. Entretanto, a aplicação prática desses métodos é limitada devido a ausência de uma abordagem probabilística capaz de lidar com as incertezas inerentes ao problema da inversão sísmica e/ou a necessidade de dados de treinamento completos e representativos. Para superar essas limitações, um novo método é proposto para inverter dados de reflexão sísmica diretamente para modelos da subsuperfície de alta resolução. O método proposto explora a capacidade das redes neurais convolucionais em extrair representações significativas e complexas de dados espacialmente estruturados, combinada à simulação estocástica geoestatística. Em abordagem auto-supervisionada, modelos físicos são incorporados no sistema de inversão com o objetivo de potencializar o uso das medições indiretas e imprecisas, mas amplamente distribuídas do método sísmico. As realizações geradas com simulação geoestatística fornecem informações adicionais com maior resolução espacial do que a originalmente encontrada nos dados sísmicos. Quando utilizadas como entrada do sistema de inversão, elas permitem a geração de múltiplos modelos alternativos da subsuperfície. Em resumo, o método proposto é capaz de: (1) quantificar as incertezas das previsões, (2) modelar a relação complexa e não-linear entre os dados observados e o modelo da subsuperfície, (3) estender a largura de banda sísmica nas extremidades baixa e alta do espectro de parâmetros de frequência, e (4) diminuir a necessidade de dados de treinamento anotados. A metodologia proposta é inicialmente descrita no domínio acústico para inverter modelos de impedância acústica a partir de dados sísmicos pós-empilhados. Em seguida, a metodologia é generalizada para o domínio elástico para inverter a partir de dados sísmicos pré-empilhados modelos de velocidade da onda P, da velocidade da onda S e de densidade. Em seguida, a metodologia proposta é estendida para a inversão sísmica petrofísica em um fluxo de trabalho simultâneo. O método foi validado em um caso sintético e aplicado com sucesso a um caso tridimensional de um reservatório brasileiro real. Os modelos invertidos são comparados àqueles obtidos a partir de uma inversão sísmica geoestatística iterativa. A metodologia proposta permite obter modelos similares, mas tem a vantagem de gerar soluções alternativas em maior número, permitindo explorar de forma mais efetiva o espaço de parâmetros do modelo quando comparada à inversão sísmica geoestatística iterativa. / [en] Seismic inversion allows the prediction of subsurface properties from seismic reflection data and is a key step in reservoir modeling and characterization. Traditional seismic inversion methods usually come with a high computational cost or suffer from issues concerning the non-linearity and the strong non-uniqueness of the seismic inversion model. With the generalization of machine learning in geophysics, deep learning methods have been proposed as efficient seismic inversion methods. However, most of them lack a probabilistic approach to deal with the uncertainties inherent in the seismic inversion problems and/or rely on complete and representative training data, which is often scarcely available. To overcome these limitations, we introduce a novel seismic inversion method that explores the ability of deep convolutional neural networks to extract meaningful and complex representations from spatially structured data, combined with geostatistical stochastic simulation to efficiently invert seismicn reflection data directly for high-resolution subsurface models. Our method incorporates physics constraints, sparse direct measurements, and leverages the use of imprecise but widely distributed indirect measurements as represented by the seismic data. The geostatistical realizations provide additional information with higher spatial resolution than the original seismic data. When used as input to our inversion system, they allow the generation of multiple possible outcomes for the uncertain model. Our approach is fully unsupervised, as it does not depend on ground truth input-output pairs. In summary, the proposed method is able to: (1) provide uncertainty assessment of the predictions, (2) model the complex non-linear relationship between observed data and model, (3) extend the seismic bandwidth at both low and high ends of the frequency parameters spectrum, and (4) lessen the need for large, annotated training data. The proposed methodology is first described in the acoustic domain to invert acoustic impedance models from full-stack seismic data. Next, it is generalized for the elastic domain to invert P-wave velocity, S-wave velocity and density models from pre-stack seismic data. Finally, we show that the proposed methodology can be further extended to perform petrophysical seismic inversion in a simultaneous workflow. The method was tested on a synthetic case and successfully applied to a real three-dimensional case from a Brazilian reservoir. The inverted models are compared to those obtained from a full iterative geostatistical seismic inversion. The proposed methodology allows retrieving similar models but has the advantage of generating alternative solutions in greater numbers, providing a larger exploration of the model parameter space in less time than the geostatistical seismic inversion.
|
3 |
[en] QUALITY ENHANCEMENT OF HIGHLY DEGRADED MUSIC USING DEEP LEARNING-BASED PREDICTION MODELS / [pt] RECONSTRUÇÃO DE MÚSICAS ALTAMENTE DEGRADADAS USANDO MODELOS DE APRENDIZADO PROFUNDOARTHUR COSTA SERRA 21 October 2022 (has links)
[pt] A degradação da qualidade do áudio pode ter muitas causas. Para
aplicações musicais, esta fragmentação pode levar a experiências altamente
desagradáveis. Algoritmos de restauração podem ser empregados para
reconstruir partes do áudio de forma semelhante à reconstrução da imagem,
em uma abordagem chamada Audio Inpainting. Os métodos atuais de
última geração para Audio Inpainting cobrem cenários limitados, com janelas
de intervalo bem definidas e pouca variedade de gêneros musicais. Neste
trabalho, propomos um método baseado em aprendizado profundo para
Audio Inpainting acompanhado por um conjunto de dados com condições de
fragmentação aleatórias que se aproximam de situações reais de deficiência.
O conjunto de dados foi coletado utilizando faixas de diferentes gêneros
musicais, o que proporciona uma boa variabilidade de sinal. Nosso melhor
modelo melhorou a qualidade de todos os gêneros musicais, obtendo uma
média de 13,1 dB de PSNR, embora tenha funcionado melhor para gêneros
musicais nos quais os instrumentos acústicos são predominantes. / [en] Audio quality degradation can have many causes. For musical
applications, this fragmentation may lead to highly unpleasant experiences.
Restoration algorithms may be employed to reconstruct missing parts of
the audio in a similar way as for image reconstruction - in an approach
called audio inpainting. Current state-of-theart methods for audio inpainting
cover limited scenarios, with well-defined gap windows and little variety
of musical genres. In this work, we propose a Deep-Learning-based (DLbased)
method for audio inpainting accompanied by a dataset with random
fragmentation conditions that approximate real impairment situations. The
dataset was collected using tracks from different music genres to provide a
good signal variability. Our best model improved the quality of all musical
genres, obtaining an average of 13.1 dB of PSNR, although it worked better
for musical genres in which acoustic instruments are predominant.
|
4 |
[en] HYBRID METHOD BASED INTO KALMAN FILTER AND DEEP GENERATIVE MODEL TO HISTORY MATCHING AND UNCERTAINTY QUANTIFICATION OF FACIES GEOLOGICAL MODELS / [pt] MÉTODO HÍBRIDO BASEADO EM FILTRO DE KALMAN E MODELOS GENERATIVOS DE APRENDIZAGEM PROFUNDA NO AJUSTE DE HISTÓRICO SOB INCERTEZAS PARA MODELOS DE FÁCIES GEOLÓGICASSMITH WASHINGTON ARAUCO CANCHUMUNI 25 March 2019 (has links)
[pt] Os métodos baseados no filtro de Kalman têm tido sucesso notável na
indústria do petróleo nos últimos anos, especialmente, para resolver problemas
reais de ajuste de histórico. No entanto, como a formulação desses métodos
é baseada em hipóteses de gaussianidade e linearidade, seu desempenho
é severamente degradado quando a geologia a priori é descrita em termos
de distribuições complexas (e.g. modelos de fácies). A tendência atual em
soluções para o problema de ajuste de histórico é levar em consideração
modelos de reservatórios mais realistas com geologia complexa. Assim, a
modelagem de fácies geológicas desempenha um papel importante na caracterização
de reservatórios, como forma de reproduzir padrões importantes
de heterogeneidade e facilitar a modelagem das propriedades petrofísicas
das rochas do reservatório. Esta tese introduz uma nova metodologia para
realizar o ajuste de histórico de modelos geológicos complexos. A metodologia
consiste na integração de métodos baseados no filtro de Kalman em
particular o método conhecido na literatura como Ensemble Smoother with
Multiple Data Assimilation (ES-MDA), com uma parametrização das fácies
geológicas por meio de técnicas baseadas em aprendizado profundo (Deep
Learning) em arquiteturas do tipo autoencoder. Um autoencoder sempre
consiste em duas partes, o codificador (modelo de reconhecimento) e o decodificador
(modelo gerador). O procedimento começa com o treinamento de
um conjunto de realizações de fácies por meio de algoritmos de aprendizado
profundo, através do qual são identificadas as principais características das
imagens de fácies geológicas, permitindo criar novas realizações com as mesmas
características da base de treinamento com uma reduzida parametrização
dos modelos de fácies na saída do codificador. Essa parametrização é
regularizada no codificador para fornecer uma distribuição gaussiana na
saída, a qual é utilizada para atualizar os modelos de fácies de acordo com
os dados observados do reservatório, através do método ES-MDA. Ao final,
os modelos atualizados são reconstruídos através do aprendizado profundo
(decodificador), com o objetivo de obter modelos finais que apresentem características
similares às da base de treinamento.
Os resultados, em três casos de estudo com 2 e 3 fácies, mostram que
a parametrização de modelos de fácies baseada no aprendizado profundo
consegue reconstruir os modelos de fácies com um erro inferior a 0,3 por cento. A
metodologia proposta gera modelos geológicos ajustados que conservam a
descrição geológica a priori do reservatório (fácies com canais curvilíneos),
além de ser consistente com o ajuste dos dados observados do reservatório. / [en] Kalman filter-based methods have had remarkable success in the oil
industry in recent years, especially to solve several real-life history matching
problems. However, as the formulation of these methods is based on the
assumptions of gaussianity and linearity, their performance is severely degraded
when a priori geology is described in terms of complex distributions
(e.g., facies models). The current trend in solutions for the history matching
problem is to take into account more realistic reservoir models, with complex
geology. Thus the geological facies modeling plays an important role in the
characterization of reservoirs as a way of reproducing important patterns
of heterogeneity and to facilitate the modeling of the reservoir rocks petrophysical
properties. This thesis introduces a new methodology to perform
the history matching of complex geological models. This methodology consists
of the integration of Kalman filter-based methods, particularly the
method known in the literature as Ensemble Smoother with Multiple Data
Assimilation (ES-MDA), with a parameterization of the geological facies
through techniques based on deep learning in autoencoder type architectures.
An autoencoder always consists of two parts, the encoder (recognition
model) and the decoder (generator model). The procedure begins with the
training of a set of facies realizations via deep generative models, through
which the main characteristics of geological facies images are identified, allowing
for the creation of new realizations with the same characteristics of
the training base, with a low dimention parametrization of the facies models
at the output of the encoder. This parameterization is regularized at
the encoder to provide Gaussian distribution models in the output, which
is then used to update the models according to the observed data of the
reservoir through the ES-MDA method. In the end, the updated models
are reconstructed through deep learning (decoder), with the objective of
obtaining final models that present characteristics similar to those of the
training base.
The results, in three case studies with 2 and 3 facies, show that the parameterization
of facies models based on deep learning can reconstruct facies
models with an error lower than 0.3 percent. The proposed methodology generates
final geological models that preserve the a priori geological description of
the reservoir (facies with curvilinear channels), besides being consistent with
the adjustment of the observed data of the reservoir.
|
5 |
[en] CROP RECOGNITION FROM MULTITEMPORAL SAR IMAGE SEQUENCES USING DEEP LEARNING TECHNIQUES / [pt] RECONHECIMENTO DE CULTURAS AGRÍCOLAS A PARTIR DE SEQUENCIAS MULTITEMPORAIS DE IMAGENS SAR UTILIZANDO TÉCNICAS DE APRENDIZADO PROFUNDOLAURA ELENA CUE LA ROSA 27 August 2018 (has links)
[pt] A presente dissertação tem como objetivo avaliar um conjunto de técnicas de aprendizado profundo para o reconhecimento de culturas agrícolas a partir de sequências multitemporais de imagens SAR. Três métodos foram considerados neste estudo: Autoencoders (AEs), Convolutional Neural Networks (CNNs) and Fully Convolutional Networks (FCNs). A avaliação experimental baseou-se em duas bases de dados contendo sequências de imagens geradas pelo sensor Sentinel- 1A. A primeira base cobre uma região tropical e a segunda uma região de clima temperado. Em todos os casos, utilizouse como referência para comparação um classificador Random Forest (RF) operando sobre atributos de textura derivados de matrizes de co-ocorrência. Para a região de clima temperado que apresenta menor dinâmica agrícola as técnicas de aprendizado profundo produziram consistentemente melhores resultados do que a abordagem via RF, sendo AEs o melhor em praticamente todos os experimentos. Na região tropical, onde a dinâmica é mais
complexa, as técnicas de aprendizado profundo mostraram resultados similares aos produzidos pelo método RF, embora os quatro métodos tenham se alternado como o de melhor desempenho dependendo do número e das datas das imagens utilizadas nos experimentos. De um modo geral, as RNCs se mostraram mais estáveis do que os outros métodos, atingindo o melhores resultado entre os métodos avaliados ou estando muito próximos destes em praticamente todos os experimentos. Embora tenha apresentado bons resultados, não foi possível explorar todo o potencial das RTCs neste estudo, sobretudo, devido à dificuldade de se balancear o número de amostras de treinamento entre as classes de culturas agrícolas presentes na área de estudo. A dissertação propõe ainda duas estratégias de pós-processamento
que exploram o conhecimento prévio sobre a dinâmica das culturas agrícolas presentes na área alvo. Experimentos demonstraram que tais técnicas podem produzir um aumento significativo da acurácia da classificação, especialmente para culturas menos abundantes. / [en] The present dissertation aims to evaluate a set of deep learning (DL) techniques for crop mapping from multitemporal sequences of SAR images. Three methods were considered in this study: Autoencoders (AEs), Convolutional Neural Networks (CNNs) and Fully Convolutional Networks (FCNs). The analysis was based on two databases containing image sequences generated by the Sentinel-1A. The first database covers a temperate region that presents a comparatively simpler dynamics, and second database of a tropical region that represents a scenario with complex dynamics. In all cases, a Random Forest (RF) classifier operating on texture features derived from co-occurrence matrices was used as baseline. For the temperate region, DL techniques consistently produced better results than the RF approach, with AE being the best one in almost all experiments. In the tropical region the DL approaches performed similar to RF, alternating as the best performing one for different experimental setups. By and large, CNNs achieved the best or next to the best performance in all experiments. Although the FCNs have performed well, the full potential was not fully exploited in our experiments, mainly due to the difficulty of balancing the number of training samples among the crop types. The dissertation also proposes two post-processing strategies that exploit prior knowledge about the crop dynamics in the target site. Experiments have shown that such
techniques can significantly improve the recognition accuracy, in particular for less abundant crops.
|
6 |
[en] AUTOMATIC SEGMENTATION OF BREAKOUTS IN IMAGE LOGS WITH DEEP LEARNING / [pt] SEGMENTAÇÃO AUTOMÁTICA DE BREAKOUTS EM PERFIS DE IMAGEM COM APRENDIZADO PROFUNDOGABRIELLE BRANDEMBURG DOS ANJOS 02 May 2023 (has links)
[pt] Breakouts são zonas colapsadas nas paredes de poços causadas por falhas
de compressão. A identificação desses artefatos é fundamental para estimar
a estabilidade das perfurações e para obter a orientação e magnitude da
tensão horizontal máxima presente na formação rochosa. Tradicionalmente,
os intérpretes caracterizam os breakouts manualmente em perfis de imagem, o
que pode ser considerado uma tarefa muito demorada e trabalhosa por conta
do tamanho massivo dos dados. Outros aspectos que dificultam a interpretação
estão associados à complexidade das estruturas e a presença de diversos
artefatos ruidosos nos dados de perfil. Sendo assim, métodos tradicionais de
processamento de imagem tornam-se ineficientes para solucionar essa tarefa de
detecção. Nos últimos anos, soluções baseadas em aprendizado profundo tem se
tornado cada vez mais promissoras para problemas de visão computacional, tais
como, detecção e segmentação de objetos em imagens. O presente trabalho tem
como objetivo a classificação pixel a pixel das regiões de breakouts em dados de
perfil de imagem. Para isso foi empregado a rede neural convolucional DC-UNet
de forma supervisionada. Essa arquitetura é uma variação do modelo clássico
U-Net, a qual é uma rede consagrada na segmentação de dados médicos. A
metodologia proposta atingiu uma média de 72.3por cento de F1-Score e, em alguns
casos, os resultados qualitativos mostraram-se melhores que a interpretação
de referência. Após avaliação dos resultados junto a especialistas da área,
o método pode ser considerado promissor na caracterização e segmentação
automática de estruturas em perfis de imagem de poços. / [en] Breakouts are collapsed zones on wellbore walls caused by compressive
failure. Their identification is fundamental for estimating the borehole s stability and obtaining the direction and magnitude of the maximum horizontal
stress in the rock formation. Traditionally, professional interpreters identify
and characterize breakouts manually in image logs, which can be considered a
very laborious and time-consuming task due to the massive size of the wellbore
data. Other aspects that make the interpretation difficult are the complexity
of the structures of interest and several noisy artifacts in the image log data.
Therefore, more than traditional image processing methods are required to
solve this detection task. In recent years, solutions based on deep learning
have become increasingly promising for computer vision problems, such as
object detection and image segmentation. This work explores using a convolutional neural network to create a pixel-by-pixel classification of the breakout
regions in the image log data. The architecture model used in this work for the
supervised training was the DC-UNet. This architecture is a variation of the
classical U-Net, an acknowledged network for medical image segmentation. The
proposed method reached an average F-Score of 72.3 percent and qualitative results
with some prediction cases even better than ground truth. After evaluating the
results, the work can be considered promising for automatically characterizing
and segmenting borehole structures in well image logs.
|
7 |
[en] CONVOLUTIONAL NETWORKS APPLIED TO SEISMIC NOISE CLASSIFICATION / [pt] REDES CONVOLUCIONAIS APLICADAS À CLASSIFICAÇÃO DE RUÍDO SÍSMICOEDUARDO BETINE BUCKER 24 March 2021 (has links)
[pt] Modelos baseados em redes neurais profundas como as Redes Neurais Convolucionais proporcionaram avanços significativos em diversas áreas da computação. No entanto, essa tecnologia é ainda pouco aplicada à predição de qualidade sísmica, que é uma atividade relevante para exploração de hidrocarbonetos. Ser capaz de, rapidamente, classificar o ruído presente em aquisições de dados sísmicos permite aceitar ou rejeitar essas aquisições de forma eficiente, o que além de economizar recursos também melhora a interpretabilidade dos dados. Neste trabalho apresenta-se um dataset criado a partir de 6.918 aquisições manualmente classificadas pela percepção de especialistas e pesquisadores, que serviu de base para o treinamento, validação e testes de um classificador, também proposto neste trabalho, baseado em uma rede neural convolucional. Em resultados empíricos, observou-se-se um F1 Score de 95,58 porcento em uma validação cruzada de 10 folds e 93,56 porcento em um conjunto de holdout de teste. / [en] Deep Learning based models, such as Convolutional Neural Networks
(CNNs), have led to significant advances in several areas of computing applications.
Nevertheless, this technology is still rarely applied to seismic quality
prediction, which is a relevant task in hydrocarbon exploration. Being able
to promptly classify noise in common shot gather(CSG) acquisitions of seismic
data allows the acceptance or rejection of those aquisitions, not only
saving resources but also increasing the interpretability of data. In this work,
we introduce a real-world classification dataset based on 6.918 common shot
gather, manually labeled by perception of specialists and researches. We use
it to train a CNN classification model for seismic shot-gathers quality prediction.
In our empirical evaluation, we observed an F1 Score of 95,58 percent in
10 fold cross-validation and 93,56 percent in a Holdout Test.
|
8 |
[pt] APLICANDO APRENDIZADO DE MÁQUINA À SUPERVISÃO DO MERCADO DE CAPITAIS: CLASSIFICAÇÃO E EXTRAÇÃO DE INFORMAÇÕES DE DOCUMENTOS FINANCEIROS / [en] APPLYING MACHINE LEARNING TO CAPITAL MARKETS SUPERVISION: CLASSIFICATION AND INFORMATION EXTRACTION FROM FINANCIAL DOCUMENTFREDERICO SHU 06 January 2022 (has links)
[pt] A análise de documentos financeiros não estruturados é uma atividade
essencial para a supervisão do mercado de capitais realizada pela Comissão de
Valores Mobiliários (CVM). Formas de automatização que reduzam o esforço
humano despendido no processo de triagem de documentos são vitais para a CVM
lidar com a escassez de recursos humanos e a expansão do mercado de valores
mobiliários. Nesse contexto, a dissertação compara sistematicamente diversos
algoritmos de aprendizado de máquina e técnicas de processamento de texto, a
partir de sua aplicação em duas tarefas de processamento de linguagem natural –
classificação de documentos e extração de informações – desempenhadas em
ambiente real de supervisão de mercados. Na tarefa de classificação, os algoritmos
clássicos proporcionaram melhor desempenho que as redes neurais profundas, o
qual foi potencializado pela aplicação de técnicas de subamostragem e comitês de
máquinas (ensembles). A precisão atual, estimada entre 20 por cento, e 40 por cento, pode ser
aumentada para mais de 90 por cento, com a aplicação dos algoritmos testados. A
arquitetura BERT foi capaz de extrair informações sobre aumento de capital e
incorporação societária de documentos financeiros. Os resultados satisfatórios
obtidos em ambas as tarefas motivam a implementação futura em regime de
produção dos modelos estudados, sob a forma de um sistema de apoio à decisão.
Outra contribuição da dissertação é o CVMCorpus, um corpus constituído para o
escopo deste trabalho com documentos financeiros entregues por companhias
abertas brasileiras à CVM entre 2009 e 2019, que abre possibilidades de pesquisa
futura linguística e de finanças. / [en] The analysis of unstructured financial documents is key to the capital
markets supervision performed by Comissão de Valores Mobiliários (Brazilian
SEC or CVM). Systems capable of reducing human effort involved in the task of
screening documents and outlining relevant information, for further manual
review, are important tools for CVM to deal with the shortage of human resources
and expansion of the Brazilian securities market. In this regard, this dissertation
presents and discusses the application of several machine learning algorithms and
text processing techniques to perform two natural language processing tasks—
document classification and information extraction—in a real market supervision
environment. In the classification exercise, classic algorithms achieved a better
performance than deep neural networks, which was enhanced by applying undersampling techniques and ensembles. Using the tested algorithms can improve the
current precision rate from 20 percent–40 percent to more than 90 percent. The BERT network
architecture was able to extract information from financial documents on capital
increase and mergers. The successful results obtained in both tasks encourage
future implementation of the studied models in the form of a decision support
system. Another contribution of this work is the CVMCorpus, a corpus built to
produce datasets for the tasks, with financial documents released between 2009
and 2019 by Brazilian companies, which opens possibilities of future linguistic
and finance research.
|
9 |
[pt] ADAPTAÇÃO DE DOMINIO BASEADO EM APRENDIZADO PROFUNDO PARA DETECÇÃO DE MUDANÇAS EM FLORESTAS TROPICAIS / [en] DEEP LEARNING-BASED DOMAIN ADAPTATION FOR CHANGE DETECTION IN TROPICAL FORESTSPEDRO JUAN SOTO VEGA 20 July 2021 (has links)
[pt] Os dados de observação da Terra são freqüentemente afetados pelo fenômeno
de mudança de domínio. Mudanças nas condições ambientais, variabilidade
geográfica e diferentes propriedades de sensores geralmente tornam quase
impossível empregar classificadores previamente treinados para novos dados
sem experimentar uma queda significativa na precisão da classificação.
As técnicas de adaptação de domínio baseadas em modelos de aprendizado
profundo têm se mostrado úteis para aliviar o problema da mudança de domínio.
Trabalhos recentes nesta área fundamentam-se no treinamento adversárial
para alinhar os atributos extraídos de imagens de diferentes domínios
em um espaço latente comum. Outra forma de tratar o problema é empregar
técnicas de translação de imagens e adaptá-las de um domínio para outro de
forma que as imagens transformadas contenham características semelhantes
às imagens do outro domínio. Neste trabalho, propõem-se abordagens
de adaptação de domínio para tarefas de detecção de mudanças, baseadas
em primeiro lugar numa técnica de traslação de imagens, Cycle-Consistent
Generative Adversarial Network (CycleGAN), e em segundo lugar, num modelo
de alinhamento de atributos: a Domain Adversarial Neural Network
(DANN). Particularmente, tais técnicas foram estendidas, introduzindo-se
restrições adicionais na fase de treinamento dos componentes do modelo
CycleGAN, bem como um procedimento de pseudo-rotulagem não supervisionado
para mitigar o impacto negativo do desequilíbrio de classes no
DANN. As abordagens propostas foram avaliadas numa aplicação de detecção
de desmatamento, considerando diferentes regiões na floresta amazônica
e no Cerrado brasileiro (savana). Nos experimentos, cada região corresponde
a um domínio, e a precisão de um classificador treinado com imagens e referências
de um dos domínio (fonte) é medida na classificação de outro
domínio (destino). Os resultados demonstram que as abordagens propostas
foram bem sucedidas em amenizar o problema de desvio de domínio no
contexto da aplicação alvo. / [en] Earth observation data are frequently affected by the domain shift phenomenon.
Changes in environmental conditions, geographical variability and
different sensor properties typically make it almost impossible to employ
previously trained classifiers for new data without a significant drop in classification
accuracy. Domain adaptation (DA) techniques based on Deep Learning
models have been proven useful to alleviate domain shift. Recent
improvements in DA technology rely on adversarial training to align features
extracted from images of the different domains in a common latent space.
Another way to face the problem is to employ image translation techniques,
and adapt images from one domain in such a way that the transformed
images contain characteristics that are similar to the images from the other
domain. In this work two different DA approaches for change detection
tasks are proposed, which are based on a particular image translation technique,
the Cycle-Consistent Generative Adversarial Network (CycleGAN),
and on a representation matching strategy, the Domain Adversarial Neural
Network (DANN). In particular, additional constraints in the training
phase of the original CycleGAN model components are proposed, as well as
an unsupervised pseudo-labeling procedure, to mitigate the negative impact
of class imbalance in the DANN-based approach. The proposed approaches
were evaluated on a deforestation detection application, considering different
sites in the Amazon rain-forest and in the Brazilian Cerrado (savanna)
biomes. In the experiments each site corresponds to a domain, and the accuracy
of a classifier trained with images and references from one (source)
domain is measured in the classification of another (target) domain. The
experimental results show that the proposed approaches are successful in
alleviating the domain shift problem.
|
10 |
[pt] ESTRATÉGIAS PARA OTIMIZAR PROCESSOS DE ANOTAÇÃO E GERAÇÃO DE DATASETS DE SEGMENTAÇÃO SEMÂNTICA EM IMAGENS DE MAMOGRAFIA / [en] STRATEGIES TO OPTIMIZE ANNOTATION PROCESSES AND GENERATION OF SEMANTIC SEGMENTATION DATASETS IN MAMMOGRAPHY IMAGESBRUNO YUSUKE KITABAYASHI 17 November 2022 (has links)
[pt] Com o avanço recente do uso de aprendizagem profunda supervisionada
(supervised deep learning) em aplicações no ramo da visão computacional, a
indústria e a comunidade acadêmica vêm evidenciando que uma das principais
dificuldades para o sucesso destas aplicações é a falta de datasets com a
suficiente quantidade de dados anotados. Nesse sentido aponta-se a necessidade
de alavancar grandes quantidades de dados rotulados para que estes modelos
inteligentes possam solucionar problemas pertinentes ao seu contexto para
atingir os resultados desejados. O uso de técnicas para gerar dados anotados
de maneira mais eficiente está sendo cada vez mais explorado, juntamente com
técnicas para o apoio à geração dos datasets que servem de insumos para o
treinamento dos modelos de inteligência artificial. Este trabalho tem como
propósito propor estratégias para otimizar processos de anotação e geração
de datasets de segmentação semântica. Dentre as abordagens utilizadas neste
trabalho destacamos o Interactive Segmentation e Active Learning. A primeira,
tenta melhorar o processo de anotação de dados, tornando-o mais eficiente e
eficaz do ponto de vista do anotador ou especialista responsável pela rotulagem
dos dados com uso de um modelo de segmentação semântica que tenta imitar
as anotações feitas pelo anotador. A segunda, consiste em uma abordagem que
permite consolidar um modelo deep learning utilizando um critério inteligente,
visando a seleção de dados não anotados mais informativos para o treinamento
do modelo a partir de uma função de aquisição que se baseia na estimação de
incerteza da rede para realizar a filtragem desses dados. Para aplicar e validar
os resultados de ambas as técnicas, o trabalho os incorpora em um caso de
uso relacionado em imagens de mamografia para segmentação de estruturas
anatômicas. / [en] With the recent advancement of the use of supervised deep learning in
applications in the field of computer vision, the industry and the academic
community have been showing that one of the main difficulties for the success
of these applications is the lack of datasets with a sufficient amount of
annotated data. In this sense, there is a need to leverage large amounts of
labeled data so that these intelligent models can solve problems relevant to
their context to achieve the desired results. The use of techniques to generate
annotated data more efficiently is being increasingly explored, together with
techniques to support the generation of datasets that serve as inputs for the
training of artificial intelligence models. This work aims to propose strategies
to optimize annotation processes and generation of semantic segmentation
datasets. Among the approaches used in this work, we highlight Interactive
Segmentation and Active Learning. The first one tries to improve the data
annotation process, making it more efficient and effective from the point of
view of the annotator or specialist responsible for labeling the data using a
semantic segmentation model that tries to imitate the annotations made by
the annotator. The second consists of an approach that allows consolidating
a deep learning model using an intelligent criterion, aiming at the selection of
more informative unannotated data for training the model from an acquisition
function that is based on the uncertainty estimation of the network to filter
these data. To apply and validate the results of both techniques, the work
incorporates them in a use case in mammography images for segmentation of
anatomical structures.
|
Page generated in 0.4194 seconds