Spelling suggestions: "subject:"convolucionais"" "subject:"convolucionals""
11 |
Uma abordagem de redes neurais convolucionais para an?lise de sentimento multi-lingualBecker, Willian Eduardo 24 November 2017 (has links)
Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-09-03T14:11:33Z
No. of bitstreams: 1
WILLIAN EDUARDO BECKER_DIS.pdf: 2142751 bytes, checksum: e6501a586bb81f7cbad7fa5ef35d32f2 (MD5) / Approved for entry into archive by Sheila Dias (sheila.dias@pucrs.br) on 2018-09-04T14:43:25Z (GMT) No. of bitstreams: 1
WILLIAN EDUARDO BECKER_DIS.pdf: 2142751 bytes, checksum: e6501a586bb81f7cbad7fa5ef35d32f2 (MD5) / Made available in DSpace on 2018-09-04T14:57:29Z (GMT). No. of bitstreams: 1
WILLIAN EDUARDO BECKER_DIS.pdf: 2142751 bytes, checksum: e6501a586bb81f7cbad7fa5ef35d32f2 (MD5)
Previous issue date: 2017-11-24 / Nowadays, the use of social media has become a daily activity of our society. The huge and uninterrupt flow of information in these spaces opens up the possibility of exploring this data in different ways. Sentiment Analysis (SA) is a task that aims to obtain knowledge about the polarity of a given text relying on several techniques of Natural Language Processing, with most of solutions dealing with only one language at a time. However, approaches that are not restricted to explore only one language are more related to extract the whole knowledge and possibilities of these data. Recent approaches based on Machine Learning propose to solve SA by using mainly Deep Learning Neural Networks have obtained good results in this task. In this work is proposed three Convolutional Neural Network architectures that deal with multilingual Twitter data of four languages. The first and second proposed models are characterized by the fact they require substantially less learnable parameters than other considered baselines while are more accurate than several other Deep Neural architectures. The third proposed model is able to perform a multitask classification by identifying the polarity of a given sentences and also its language. This model reaches an accuracy of 74.43% for SA and 98.40% for Language Identification in the four-language multilingual dataset. Results confirm that proposed model is the best choice for both sentiment and language classification by outperforming the considered baselines. / A utiliza??o de redes sociais tornou-se uma atividade cotidiana na sociedade atual. Com o enorme, e ininterrupto, fluxo de informa??es geradas nestes espa?os, abre-se a possibilidade de explorar estes dados de diversas formas. A An?lise de Sentimento (AS) ? uma tarefa que visa obter conhecimento sobre a polaridade das mensagens postadas, atrav?s de diversas t?cnicas de Processamento de Linguagem Natural, onde a maioria das solu??es lida com somente um idioma de cada vez. Entretanto, abordagens que n?o restringem se a explorar somente uma l?ngua, est?o mais pr?ximas de extra?rem todo o conhecimento e possibilidades destes dados. Abordagens recentes baseadas em Aprendizado de M?quina prop?em-se a resolver a AS apoiando-se principalmente nas Redes Neurais Profundas (Deep Learning), as quais obtiveram bons resultados nesta tarefa. Neste trabalho s?o propostas tr?s arquiteturas de Redes Neurais Convolucionais que lidam com dados multi-linguais extra?dos do Twitter contendo quatro l?nguas. Os dois primeiros modelos propostos caracterizam-se pelo fato de possu?rem um total de par?metros muito menor que os demais baselines considerados, e ainda assim, obt?m resultados superiores com uma boa margem de diferen?a. O ?ltimo modelo proposto ? capaz de realizar uma classifica??o multitarefa, identificando a polaridade das senten?as e tamb?m a l?ngua. Com este ?ltimo modelo obt?m-se uma acur?cia de 74.43% para AS e 98.40% para Identifica??o da L?ngua em um dataset com quatro l?nguas, mostrando-se a melhor escolha entre todos os baselines analisados.
|
12 |
SiameseVO-Depth: odometria visual através de redes neurais convolucionais siamesas / SiameseVO-Depth: visual odometry through siamese neural networksSantos, Vinícius Araújo 11 October 2018 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2018-11-21T11:05:44Z
No. of bitstreams: 2
Dissertação - Vinícius Araújo Santos - 2018.pdf: 14601054 bytes, checksum: e02a8bcd3cdc93bf2bf202c3933b3f27 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-11-21T11:06:26Z (GMT) No. of bitstreams: 2
Dissertação - Vinícius Araújo Santos - 2018.pdf: 14601054 bytes, checksum: e02a8bcd3cdc93bf2bf202c3933b3f27 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-11-21T11:06:26Z (GMT). No. of bitstreams: 2
Dissertação - Vinícius Araújo Santos - 2018.pdf: 14601054 bytes, checksum: e02a8bcd3cdc93bf2bf202c3933b3f27 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2018-10-11 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / Visual Odometry is an important process in image based navigation of robots. The
standard methods of this field rely on the good feature matching between frames where
feature detection on images stands as a well adressed problem within Computer Vision.
Such techniques are subject to illumination problems, noise and poor feature localization
accuracy. Thus, 3D information on a scene may mitigate the uncertainty of the features
on images. Deep Learning techniques show great results when dealing with common
difficulties of VO such as low illumination conditions and bad feature selection. While
Visual Odometry and Deep Learning have been connected previously, no techniques
applying Siamese Convolutional Networks on depth infomation given by disparity maps
have been acknowledged as far as this work’s researches went. This work aims to fill
this gap by applying Deep Learning to estimate egomotion through disparity maps on
an Siamese architeture. The SiameseVO-Depth architeture is compared to state of the art
techniques on OV by using the KITTI Vision Benchmark Suite. The results reveal that the
chosen methodology succeeded on the estimation of Visual Odometry although it doesn’t
outperform the state-of-the-art techniques. This work presents fewer steps in relation to
standard VO techniques for it consists of an end-to-end solution and demonstrates a new
approach of Deep Learning applied to Visual Odometry. / Odometria Visual é um importante processo na navegação de robôs baseada em imagens.
Os métodos clássicos deste tema dependem de boas correspondências de características
feitas entre imagens sendo que a detecção de características em imagens é um tema amplamente
discutido no campo de Visão Computacional. Estas técnicas estão sujeitas a problemas
de iluminação, presença de ruído e baixa de acurácia de localização. Nesse contexto,
a informação tridimensional de uma cena pode ser uma forma de mitigar as incertezas
sobre as características em imagens. Técnicas de Deep Learning têm demonstrado bons
resultados lidando com problemas comuns em técnicas de OV como insuficiente iluminação
e erros na seleção de características. Ainda que já existam trabalhos que relacionam
Odometria Visual e Deep Learning, não foram encontradas técnicas que utilizem Redes
Convolucionais Siamesas com sucesso utilizando informações de profundidade de mapas
de disparidade durante esta pesquisa. Este trabalho visa preencher esta lacuna aplicando
Deep Learning na estimativa do movimento por de mapas de disparidade em uma arquitetura
Siamesa. A arquitetura SiameseVO-Depth proposta neste trabalho é comparada
à técnicas do estado da arte em OV utilizando a base de dados KITTI Vision Benchmark
Suite. Os resultados demonstram que através da metodologia proposta é possível a estimativa
dos valores de uma Odometria Visual ainda que o desempenho não supere técnicas
consideradas estado da arte. O trabalho proposto possui menos etapas em comparação
com técnicas clássicas de OV por apresentar-se como uma solução fim-a-fim e apresenta
nova abordagem no campo de Deep Learning aplicado à Odometria Visual.
|
13 |
Uma abordagem híbrida CNN-HMM para reconhecimento de fala tolerante a ruídos de ambienteSantos, Rafael Menêses 30 May 2016 (has links)
One of the biggest
challenges in speech recognition today is its use on a daily basis, in
which distortion and noise in the environment are present and hinder this task. In the
last thirty years, hundreds of methods for noise-robust recognition were proposed, each
with its own advantages and disadvantages. In this thesis, the use of Convolutional
Neural Networks (CNN) as acoustic
models in automatic speech recognition systems
(ASR) is proposed as an alternative to the
classical recognition methods based on
Hidden Markov Models (HMM) without any noise-robust method applied. Experiments
were performed with a audio set modified by additive and natural noises, and showed
that the presented method reduces the Equal Error Rate (EER) and improves the
acuracy of speech recognition in noisy environments when compared to traditional
models of classifiation, indicating the robustness of the approach. / Um dos maiores desafios no reconhecimento de fala atualmente é usá-lo no contexto
diário, no qual distorções no sinal da fala e ruídos no ambiente estão presentes e re-
duzem a qualidade do reconhecimento. Nos últimos trinta anos, centenas de métodos
para reconhecimento robusto ao ruído foram propostos, cada um com suas vantagens e
desvantagens. Este trabalho propõe o uso de uma rede neural convolucional no papel
de modelo acústico em sistemas de reconhecimento automático de fala,como uma alter-
nativa ao métodos clássicos de reconhecimento baseado em modelos ocultos de Markov
(HMM, do inglês, Hidden Markov Models) sem a aplicação de um método robusto ao
ruído. Experimentos foram realizados com áudios modi ficados com ruídos aditivos e
reais, e mostraram que o método proposto reduz o Equal Error Rate (EER) e aumenta a
acurácia da classificação de comando de voz quando comparado a modelos tradicionais
de classificação, evidenciando a robustez da abordagem apresentada.
|
14 |
[pt] BUSCA DE ARQUITETURAS NEURAIS COM ALGORITMOS EVOLUTIVOS DE INSPIRAÇÃO QUÂNTICA / [en] QUANTUM-INSPIRED NEURAL ARCHITECTURE SEARCHDANIELA DE MATTOS SZWARCMAN 13 August 2020 (has links)
[pt] As redes neurais deep são modelos poderosos e flexíveis, que ganharam destaque na comunidade científica na última década. Para muitas tarefas, elas até superam o desempenho humano. Em geral, para obter tais resultados, um especialista despende tempo significativo para projetar a arquitetura neural, com longas sessões de tentativa e erro. Com isso, há um interesse crescente em automatizar esse processo. Novos métodos baseados em técnicas como aprendizado por reforço e algoritmos evolutivos foram apresentados como abordagens para o problema da busca de arquitetura neural (NAS - Neural Architecture Search), mas muitos ainda são algoritmos de alto custo computacional. Para reduzir esse custo, pesquisadores sugeriram
limitar o espaço de busca, com base em conhecimento prévio. Os algoritmos evolutivos de inspiração quântica (AEIQ) apresentam resultados promissores em relação à convergência mais rápida. A partir dessa idéia, propõe-se o Q-NAS: um AEIQ para buscar redes deep através da montagem de subestruturas. O Q-NAS também pode evoluir alguns hiperparâmetros numéricos, o que é um primeiro passo para a automação completa. Experimentos com o conjunto de dados CIFAR-10 foram realizados a fim de analisar detalhes do Q-NAS. Para muitas configurações de parâmetros, foram obtidos resultados satisfatórios. As melhores acurácias no CIFAR-10 foram de 93,85 porcento para uma rede residual e 93,70 porcento para uma rede convolucional, superando modelos elaborados por especialistas e alguns métodos de NAS. Incluindo um esquema simples de parada antecipada, os tempos de evolução nesses casos foram de 67 dias de GPU e 48 dias de GPU, respectivamente. O Q-NAS foi aplicado ao CIFAR-100, sem qualquer ajuste de parâmetro, e obteve 74,23 porcento de acurácia, similar a uma ResNet com 164 camadas. Por fim, apresenta-se um estudo de caso com dados reais, no qual utiliza-se o Q-NAS para resolver a tarefa de classificação sísmica. Em menos de 8,5 dias de GPU, o Q-NAS gerou redes com 12 vezes menos pesos e maior acurácia do que um modelo criado especialmente para esta tarefa. / [en] Deep neural networks are powerful and flexible models that have gained the attention of the machine learning community over the last decade. For a variety of tasks, they can even surpass human-level performance. Usually, to reach these excellent results, an expert spends significant time designing the neural architecture, with long trial and error sessions. In this scenario, there is a growing interest in automating this design process. To address the neural architecture search (NAS) problem, authors have presented new methods based on techniques such as reinforcement learning and evolutionary algorithms, but the high computational cost is still an issue for many of them. To reduce this cost, researchers have proposed to restrict the search space, with the help of expert knowledge. Quantum-inspired evolutionary algorithms present promising results regarding faster convergence. Motivated by this idea, we propose Q-NAS: a quantum-inspired algorithm to search for deep networks by assembling substructures. Q-NAS can also evolve some numerical hyperparameters, which is a first step in the direction of complete automation. We ran several experiments with the CIFAR-10 dataset to analyze the details of the algorithm. For
many parameter settings, Q-NAS was able to achieve satisfactory results. Our best accuracies on the CIFAR-10 task were 93.85 percent for a residual network and 93.70 percent for a convolutional network, overcoming hand-designed models, and some NAS works. Considering the addition of a simple early-stopping mechanism, the evolution times for these runs were 67 GPU days and 48 GPU days, respectively. Also, we applied Q-NAS to CIFAR-100 without any parameter adjustment, reaching an accuracy of 74.23 percent, which is comparable to a ResNet with 164 layers. Finally, we present a case study with real datasets, where we used Q-NAS to solve the seismic classification task. In less than 8.5 GPU days, Q-NAS generated networks with 12 times fewer weights and higher accuracy than a model specially created for this task.
|
15 |
[pt] AVALIAÇÃO DE AUMENTO DE DADOS VIA GERAÇÃO DE IMAGENS SINTÉTICAS PARA SEGMENTAÇÃO E DETECÇÃO DE PÓLIPOS EM IMAGENS DE COLONOSCOPIA UTILIZANDO APRENDIZADO DE MÁQUINA / [en] EVALUATION OF DATA AUGMENTATION THROUGH SYNTHETIC IMAGES GENERATION FOR SEGMENTATION AND DETECTION OF POLYPS IN COLONOSCOPY IMAGES USING MACHINE LEARNINGVICTOR DE ALMEIDA THOMAZ 17 August 2020 (has links)
[pt] O câncer de cólon é atualmente a segunda principal causa de morte por câncer no mundo. Nos últimos anos houve um aumento do interesse em pesquisas voltadas para o desenvolvimento de métodos automáticos para detecção de pólipos e os resultados mais relevantes foram alcançados por meio de técnicas de aprendizado profundo. No entanto, o desempenho destas abordagens está fortemente associado ao uso de grandes e variados conjuntos de dados. Amostras de imagens de colonoscopia estão disponíveis publicamente, porém a quantidade e a variação limitada podem ser insuficientes para um treinamento bem-sucedido. O trabalho de pesquisa desta tese propõe uma estratégia para aumentar a quantidade e variação de imagens de colonoscopia, melhorando os resultados de segmentação e detecção de pólipos. Diferentemente de outros trabalhos encontrados na literatura que fazem uso de abordagens tradicionais de aumento de dados (data augmentation) e da combinação de imagens de outras modalidades de exame, esta metodologia enfatiza a criação de novas amostras inserindo pólipos em imagens de colonoscopia publicamente disponíveis. A estratégia de inserção faz uso de pólipos gerados sinteticamente e também de pólipos reais, além de aplicar técnicas de processamento para preservar o aspecto realista das imagens, ao mesmo tempo em que cria automaticamente amostras mais diversas com seus rótulos apropriados para fins de treinamento. As redes neurais convolucionais treinadas com estes conjuntos de dados aprimorados apresentaram resultados promissores no contexto de segmentação e detecção. As melhorias obtidas indicam que a implementação de novos métodos para aprimoramento automático de amostras em conjuntos de imagens médicas tem potencial de afetar positivamente o treinamento de redes convolucionais. / [en] Nowadays colorectal cancer is the second-leading cause of cancer death worldwide. In recent years there has been an increase in interest in research aimed at the development of automatic methods for the detection of polyps and the most relevant results have been achieved through deep learning techniques. However, the performance of these approaches is strongly associated with the use of large and varied datasets. Samples of colonoscopy images are publicly available, but the amount and limited variation may be insufficient for successful training. Based on this observation, a new approach is described in this thesis with the objective of increasing the quantity and variation of colonoscopy images, improving the results of segmentation and detection of polyps. Unlike other works found in the literature that use traditional data augmentation approaches and the combination of images from other exam modalities, the proposed methodology emphasizes the creation of new samples by inserting polyps in publicly available colonoscopy images. The insertion strategy makes use of synthetically generated polyps as well as real polyps, in addition to applying processing techniques to preserve the realistic aspect of the images, while automatically creating more diverse samples with their appropriate labels for training purposes. Convolutional neural networks trained with these improved datasets have shown promising results in the context of segmentation and detection. The improvements obtained indicate that the implementation of new methods for the automatic improvement of samples in medical image datasets has the potential to positively affect the training of convolutional networks.
|
16 |
[en] AUV AUTO-DOCKING APPROACH BASED ON REINFORCEMENT LEARNING AND VISUAL SERVOING / [pt] TÉCNICA DE ACOPLAGEM AUTOMÁTICA DE AUV BASEADA EM APRENDIZADO POR REFORÇO E SERVOVISÃOMATHEUS DO NASCIMENTO SANTOS 24 January 2024 (has links)
[pt] No campo em crescimento da robótica subaquática, Veículos Subaquáticos
Automatizados (AUVs) estão se tornando cada vez mais importantes para
uma variedade de usos, como exploração, mapeamento e inspeção. Esta dissertação
foca em estudar os principais desafios da acoplagem automática de AUVs,
considerando um ambiente 3D simulado personalizado. A pesquisa divide essa
tarefa em duas partes principais: estimativa da pose da garagem e estratégia
de controle do AUV. Utilizando uma mistura de métodos tradicionais e novos,
incluindo sistemas baseados em marcos fiduciais, Redes Neurais Convolucionais
(CNN) e Aprendizado por Reforço (RL), o estudo realiza experimentos
para verificar o desempenho e as limitações do sistema.
Um aspecto significativo desta dissertação é o uso de um ambiente 3D
simulado para facilitar o desenvolvimento e o teste de algoritmos de acoplagem
automática para AUVs. Este ambiente simula dinâmicas subaquáticas,
sensores robóticos e atuadores, permitindo experimentar diferentes técnicas de
estimativa de pose e estratégias de controle. Além disso, o estabelecimento
de um ambiente 3D simulado amigável para RL representa uma contribuição
relevante, oferecendo uma plataforma reutilizável que não apenas valida os algoritmos
de acoplagem automática desenvolvidos neste estudo, mas também
serve como base para futuras aplicações subaquáticas baseadas em RL.
Em resumo, a dissertação explora uma série de cenários para avaliar a
eficácia de várias técnicas de acoplagem automática. Inicialmente, ela utiliza
servo-visualização junto com um controlador PID tradicional, seguido pela
introdução de métodos mais avançados, como estimadores de pose baseados
em CNN e controladores de Aprendizado por Reforço. Esses métodos são
avaliados tanto individualmente quanto em combinações híbridas para medir
sua adequação e limitações para entender os principais desafios por trás da
acoplagem automática de AUVs. / [en] In the growing field of underwater robotics, Automated Underwater
Vehicles (AUVs) are becoming more important for a range of uses, such as
exploration, mapping, and inspection. This dissertation focuses on studying
the main challenges of AUV auto-docking, considering a customized 3D
simulated environment. The research breaks down this challenging task into
two main parts: cage pose estimation and AUV control strategy. Using a mix of
traditional and new methods, including fiducial-based systems, Convolutional
Neural Networks (CNN), and Reinforcement Learning (RL), the study carries
out experiments to check system performance and limitations.
A significant aspect of this dissertation is using a 3D simulated environment
to facilitate the development and testing of auto-docking algorithms
for AUVs. This environment simulates crucial underwater dynamics, robotic
sensors, and actuators, allowing for experimenting with different pose estimation
techniques and control strategies. Additionally, the establishment of an
RL-friendly 3D simulated environment stands as a relevant contribution, offering
a reusable platform that not only validates the auto-docking algorithms
developed in this study but also serves as a foundation for future RL-based
underwater applications.
In summary, the dissertation explores a range of scenarios to evaluate the
efficacy of various auto-docking techniques. It initially utilizes visual servoing
along with a traditional PID controller, followed by the introduction of more
advanced methods like CNN-based pose estimators and Reinforcement Learning
controllers. These methods are assessed both individually and in hybrid
combinations to gauge their suitability and limitations for understanding the
main challenges behind the AUV auto-docking.
|
17 |
[en] MANY-TO-MANY FULLY CONVOLUTIONAL RECURRENT NETWORKS FOR MULTITEMPORAL CROP RECOGNITION USING SAR IMAGE SEQUENCES / [pt] RECONHECIMENTO DE CULTURAS AGRÍCOLAS UTILIZANDO REDES RECORRENTES A PARTIR DE SEQUÊNCIAS DE IMAGENS SARJORGE ANDRES CHAMORRO MARTINEZ 30 April 2020 (has links)
[pt] Este trabalho propõe e avalia arquiteturas profundas para o reconhecimento de culturas agrícolas a partir de seqüências de imagens multitemporais de sensoriamento remoto. Essas arquiteturas combinam a capacidade de modelar contexto espacial prórpia de redes totalmente convolucionais com a capacidade de modelr o contexto temporal de redes recorrentes para a previsão prever culturas agrícolas em cada data de uma seqüência de imagens multitemporais. O desempenho destes métodos é avaliado em dois conjuntos de dados públicos. Ambas as áreas apresentam alta dinâmica espaçotemporal devido ao clima tropical/subtropical e a práticas agrícolas locais, como a rotação de culturas. Nos experimentos verificou-se que as arquiteturas
propostas superaram os métodos recentes baseados em redes recorrentes em termos de Overall Accuracy (OA) e F1-score médio por classe. / [en] This work proposes and evaluates deep learning architectures for multi-date agricultural crop recognition from remote sensing image sequences. These architectures combine the spatial modelling capabilities of fully convolutional networks and the sequential modelling capabilities of recurrent networks into end-to-end architectures so-called fully convolutional recurrent networks, configured to predict crop type at multiple dates from a multitemporal image sequence. Their performance is assessed over two publicly available datasets. Both datasets present highly spatio-temporal dynamics due to their tropical/sub-tropical climate and local agricultural practices such as crop rotation. The experiments indicated that the proposed architectures outperformed state of the art methods based on recurrent networks in terms of Overall Accuracy (OA) and per-class average F1 score.
|
18 |
[en] A COMPARISON OF DEEP LEARNING TECHNIQUES FOR DEFORESTATION DETECTION IN THE BRAZILIAN AMAZON AND CERRADO BIOMES FROM REMOTE SENSING IMAGERY / [pt] COMPARAÇÃO DE TÉCNICAS DE DEEP LEARNING PARA DETECÇÃO DE DESMATAMENTO EM BIOMAS DA AMAZÔNIA E CERRADO BRASILEIROS A PARTIR DE IMAGENS DE SENSORIAMENTO REMOTOMABEL XIMENA ORTEGA ADARME 04 May 2020 (has links)
[pt] O desmatamento é uma das principais causas de redução da biodiversidade, mudança climática e outros fenômenos destrutivos. Assim, a detecção antecipada de desmatamento é de suma importância. Técnicas
baseadas em imagens de satélite são uma das opções mais iteresantes para esta aplicação. No entanto, muitos trabalhos desenvolvidos incluem algumas operações manuais ou dependência de um limiar para identificar regiões que sofrem desmatamento ou não. Motivado por este cenário, a presente dissertação apresenta uma avaliação de métodos para detecção automática de desmatamento, especificamente de Early Fusion (EF) Convolutional Network, Siamese Convolutional Network (SN), Convolutional Support
Vector Machine (CSVM) e Support Vector Machine (SVM), o último tomado como baseline. Todos os métodos foram avaliados em regiões dos biomas brasileiros Amazônia e Cerrado. Duas imagens Landsat 8 adquiridas em diferentes datas foram utilizadas nos experimentos, e também o impacto do tamanho do conjunto de treinamento foi analisado. Os resultados demonstraram que as abordagens baseadas no Deep Learning superaram claramente o baseline SVM em termos de pontuação F1-score e Overrall Accuracy, com uma superioridade de SN e EF sobre CSVM e SVM. Da mesma forma, uma redução do efeito sal e pimenta nos mapas de mudança gerados foi notada devido, principalmente ao aumento de amostras nos
conjuntos de treinamento. Finalmente, realizou-se uma análise visando avaliar como os métodos podem reduzir o esforço humano na inspeção visual das áreas desmatadas. / [en] Deforestation is one of the main causes of biodiversity reduction, climate change, among other destructive phenomena. Thus, early detection of deforestation processes is of paramount importance. Techniques based on satellite images are one of the most attractive options for this application. However, many works developed include some manual operations or dependency on a threshold to identify regions that suffer deforestation or not. Motivated by this scenario, the present dissertation presents an evaluation of methods for automatic deforestation detection, specifically Early Fusion (EF) Convolutional Network, Siamese Convolutional Network (SN), Convolutional Support Vector Machine (CSVM) and Support Vector Machine (SVM), taken as the baseline. These methods were evaluated in regions of Brazilian Amazon and Cerrado Biomes. Two Landsat 8 images acquired at different dates were used in the experiments, and the impact
of training set size was also analyzed. The results demonstrated that Deep Learning-based approaches clearly outperformed the SVM baseline in our approaches, both in terms of F1-score and Overall Accuracy, with the superiority of SN and EF over CSVM and SVM. In the same way, a reduction of the salt-and-pepper effect in the generated probabilistic change maps was noticed due, mainly, to the increase of samples in the training sets. Finally, an analysis was carried out to assess how the methods can reduce the time invested in the visual inspection of deforested areas.
|
19 |
[en] CONVOLUTIONAL NETWORKS APPLIED TO SEISMIC NOISE CLASSIFICATION / [pt] REDES CONVOLUCIONAIS APLICADAS À CLASSIFICAÇÃO DE RUÍDO SÍSMICOEDUARDO BETINE BUCKER 24 March 2021 (has links)
[pt] Modelos baseados em redes neurais profundas como as Redes Neurais Convolucionais proporcionaram avanços significativos em diversas áreas da computação. No entanto, essa tecnologia é ainda pouco aplicada à predição de qualidade sísmica, que é uma atividade relevante para exploração de hidrocarbonetos. Ser capaz de, rapidamente, classificar o ruído presente em aquisições de dados sísmicos permite aceitar ou rejeitar essas aquisições de forma eficiente, o que além de economizar recursos também melhora a interpretabilidade dos dados. Neste trabalho apresenta-se um dataset criado a partir de 6.918 aquisições manualmente classificadas pela percepção de especialistas e pesquisadores, que serviu de base para o treinamento, validação e testes de um classificador, também proposto neste trabalho, baseado em uma rede neural convolucional. Em resultados empíricos, observou-se-se um F1 Score de 95,58 porcento em uma validação cruzada de 10 folds e 93,56 porcento em um conjunto de holdout de teste. / [en] Deep Learning based models, such as Convolutional Neural Networks
(CNNs), have led to significant advances in several areas of computing applications.
Nevertheless, this technology is still rarely applied to seismic quality
prediction, which is a relevant task in hydrocarbon exploration. Being able
to promptly classify noise in common shot gather(CSG) acquisitions of seismic
data allows the acceptance or rejection of those aquisitions, not only
saving resources but also increasing the interpretability of data. In this work,
we introduce a real-world classification dataset based on 6.918 common shot
gather, manually labeled by perception of specialists and researches. We use
it to train a CNN classification model for seismic shot-gathers quality prediction.
In our empirical evaluation, we observed an F1 Score of 95,58 percent in
10 fold cross-validation and 93,56 percent in a Holdout Test.
|
20 |
[pt] DESENVOLVIMENTO DE MODELOS UTILIZANDO INTELIGÊNCIA ARTIFICIAL PARA PROBLEMAS DE GARANTIA DE ESCOAMENTO NA INDÚSTRIA DE PETRÓLEO / [en] DEVELOPMENT OF ARTIFICIAL INTELLIGENCE MODELS APPLIED TO THE FLOW ASSURANCE PROBLEMS IN THE OIL AND GAS INDUSTRYBRUNO XAVIER FERREIRA 10 November 2022 (has links)
[pt] Uma preocupação significativa durante a produção de óleo e gás é a garantia
de escoamento para evitar desperdício de tempo e dinheiro. Devido às mudanças
nas condições durante a produção (como pressão e temperatura), principalmente
na região do pré-sal brasileiro, a solubilidade dos componentes do petróleo bruto
(óleo-gás-água) pode diminuir, resultando na formação de depósitos. A
incrustação é geralmente causada por parafina, hidratos e sal inorgânico. Neste
trabalho, foram desenvolvidos modelos utilizando estratégias de Aprendizado de
Máquina para monitoramento da formação de incrustações inorgânicas e
medição de parâmetros de processo associados com formas de remediação de
obstruções de outras fontes. Primeiramente, foram criados modelos do processo
de formação de incrustação de carbonato de cálcio na presença de
monoetilenoglicol (inibidor de hidrato) usando a arquitetura de redes neurais
feedfoward prever o pressão diferencial um e cinco instantes à frente, obtendo
um R2
superior a 92,9 porcento para ambos os horizontes de predição. O segundo tópico
explorado foi desenvolver modelos para determinação do pH em sistemas
pressurizados (até 6,0 MPa) por meio de análise de imagens. Podendo ser
aplicados no monitoramento de sistemas como Sistema Gerador de Nitrogênio,
utilizado para remediar alguns problemas de incrustação, dado que sua cinética
depende fortemente do pH do sistema. Foram criados modelos de classificação
para o pH do sistema (2, 3, 4, 5, 6, 7, 8, 9, 10) usando Redes Neurais
Convolucionais (CNN), Máquina de Vetor de Suporte e Árvores de Decisão.
Além disso, modelos CNN foram construídos para predizer o pH na faixa de 2-
10. / [en] A significant concern during oil and gas production is flow assurance to
avoid loss of time and money. Due to production conditions changes (such as
pressure and temperature), especially in the Brazilian pre-salt region, the solubility
of the components of the crude oil (oil-gas-water) can decrease, resulting in the
formation of deposits. The fouling is usually caused by wax, gas hydrate, and
inorganic salt (scale). In this work, models were developed using Machine
Learning strategies for scale formation monitoring and measuring process
parameters associated with remediation of obstruction from other sources. First,
models for the calcium carbonate scaling formation process in the presence of
monoethylene glycol (typical gas hydrate inhibitor) were created using
feedforward neural network architecture to predict the differential pressure (deltaP)
one and five steps ahead, obtaining an R2
higher than 92.9 percent for the training and
test group for both the prediction horizon. The second approach explored was the
development of models for determining the pH in atmospheric and pressurized
systems (up to 6.0 MPa) using image analysis. These models could be applied to
control and monitor the Nitrogen Generation System, which can be used for
different flow assurance problems, and its kinetics strongly depend on the system s
pH value. This step initially created classification models for the system pH (2, 3,
4, 5, 6, 7, 8, 9, 10) using the Convolution Neural Networks (CNN), Support Vector
Machine, and decision tree architectures. Also, CNN models were built to predict
the pH in the range of 2-10.
|
Page generated in 0.0635 seconds