• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 12
  • Tagged with
  • 27
  • 27
  • 27
  • 27
  • 27
  • 11
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] SUPER-RESOLUTION IN TOMOGRAPHIC IMAGES OF IRON ORE BRIQUETTES EMPLOYING DEEP LEARNING / [pt] SUPER-RESOLUÇÃO EM IMAGENS TOMOGRÁFICAS DE BRIQUETES DE MINÉRIO DE FERRO UTILIZANDO APRENDIZADO PROFUNDO

BERNARDO AMARAL PASCARELLI FERREIRA 11 October 2023 (has links)
[pt] A indústria mineral vem presenciando, ao longo das últimas décadas, uma redução da qualidade de minério de ferro extraído e o surgimento de novas demandas ambientais. Esta conjuntura fortalece a busca por produtos provenientes do minério de ferro que atendam aos requisitos da indústria siderúrgica, como é o caso de novos aglomerados de minério de ferro. A Microtomografia de Raios-X (microCT) permite a caracterização da estrutura tridimensional de uma amostra, com resolução micrométrica, de forma não-destrutiva. Entretanto, tal técnica apresenta diversas limitações. Quanto melhor a resolução, maior o tempo de análise e menor o volume de amostra adquirido. Modelos de Super Resolução (SR), baseados em Deep Learning, são uma poderosa ferramenta para aprimorar digitalmente a resolução de imagens tomográficas adquiridas em pior resolução. Este trabalho propõe o desenvolvimento de uma metodologia para treinar três modelos de SR, baseados na arquitetura EDSR, a partir de imagens tomográficas de briquetes de redução direta: Um modelo para aumento de resolução de 16 um para 6 um, outro para aumento de 6 um para 2 um, e o terceiro para aumento de 4 um para 2 um. Esta proposta tem como objetivo mitigar as limitações do microCT, auxiliando o desenvolvimento de novas metodologias de Processamento Digital de Imagens para os aglomerados. A metodologia inclui diferentes propostas para avaliação do desempenho da SR, como comparação de PSNR e segmentação de poros. Os resultados apontam que a SR foi capaz de aprimorar a resolução das imagens tomográficas e mitigar ruídos habituais da tomografia. / [en] The mining industry has been witnessing a reduction of extracted iron ore s quality and the advent of new environmental demands. This situation reinforces a search for iron ore products that meet the requirements of the steel industry, such as new iron ore agglomerates. X-ray microtomography (microCT) allows the characterization of a sample s three-dimensional structure, with micrometer resolution, in a non-destructive analysis. However, this technique presents several limitations. Better resolutions greatly increase analysis time and decrease the acquired sample’s volume. Super-Resolution (SR) models, based on Deep Learning, are a powerful tool to digitally enhance the resolution of tomographic images acquired at lower resolutions. This work proposes the development of a methodology to train three SR models, based on EDSR architecture, using tomographic images of direct reduction briquettes: A model for enhancing the resolution from 16 um to 6 um, another for enhancing from 6 um to 2 um, and the third for enhancing 4 um to 2 um. This proposal aims to mitigate the limitations of microCT, assisting the development and implementation of new Digital Image Processing methodologies for agglomerates. The methodology includes different proposals for SR s performance evaluation, such as PSNR comparison and pore segmentation. The results indicate that SR can improve the resolution of tomographic images and reduce common tomography noise.
22

[pt] SEGMENTAÇÃO DE FALHAS SÍSMICAS USANDO ADAPTAÇÃO DE DOMÍNIO NÃO SUPERVISIONADA / [en] SEISMIC FAULT SEGMENTATION USING UNSUPERVISED DOMAIN ADAPTATION

MAYKOL JIAMPIERS CAMPOS TRINIDAD 28 November 2023 (has links)
[pt] A segmentação de falhas sísmicas apresenta uma tarefa desafiadora edemorada na geofísica, especialmente na exploração e extração de petróleo egás natural. Métodos de Aprendizado Profundo (Deep Learning) têm mostradoum grande potencial para enfrentar esses desafios e oferecem vantagens emcomparação com métodos tradicionais. No entanto, abordagens baseadas emAprendizado Profundo geralmente requerem uma quantidade substancial dedados rotulados, o que contradiz o cenário atual de disponibilidade limitadade dados sísmicos rotulados. Para lidar com essa limitação, pesquisadores têmexplorado a geração de dados sintéticos como uma solução potencial paradados reais não rotulados. Essa abordagem envolve treinar um modelo emdados sintéticos rotulados e, posteriormente, aplicar diretamente ao conjuntode dados real. No entanto, a geração de dados sintéticos encontra o problemade deslocamento de domínio devido à complexidade das situações geológicasdo mundo real, resultando em diferenças na distribuição entre conjuntosde dados sintéticos e reais. Para mitigar o problema de deslocamento dedomínio na detecção de falhas sísmicas, propomos uma nova abordagem queutiliza técnicas de Adaptação de Domínio Não Supervisionada ou UnsupervisedDomain Adaptation (UDA). Nossa proposta envolve o uso de um conjunto dedados sintéticos para treinamento do modelo e sua adaptação a dois conjuntosde dados reais disponíveis publicamente na literatura. As técnicas de UDAescolhidas incluem Maximum Mean Discrepancy (MMD), Domain-AdversarialNeural Networks (DANN) e Fourier Domain Adaptation (FDA). MMD eDANN visam alinhar características em um espaço de características comumde n dimensões, minimizando discrepâncias e aumentando a confusão dedomínio por meio do treinamento adversarial, respectivamente. Por outro lado,FDA transfere o estilo de amostras reais para sintéticas usando TransformadaRápida de Fourier. Para os experimentos, utilizamos uma versão menor doUNet e sua variante Atrous UNet, que incorpora camadas convolucionaisdilatadas em seu gargalo. Além disso, o DexiNed (Dense Extreme InceptionNetwork), um modelo do estado da arte para detecção de bordas, foi empregadopara fornecer uma análise mais abrangente. Além disso, estudamos a aplicaçãode ajuste fino ou fine-tuning em conjuntos de dados rotulados para investigarseu impacto no desempenho, pois muitos estudos o têm utilizado para reduziro deslocamento de domínio.Os resultados finais demonstraram melhorias significativas no desempenho de detecção de falhas ao aplicar técnicas de UDA, com aumento médio deaté 13 por cento em métricas de avaliação como Intersection over Union e F1-score.Além disso, a abordagem proposta obteve detecções mais consistentes de falhassísmicas com menos falsos positivos, indicando seu potencial para aplicações nomundo real. Por outro lado, a aplicação de ajuste fino não demonstrou ganhossignificativos no desempenho, mas reduziu o tempo de treinamento. / [en] Seismic fault segmentation presents a challenging and time-consuming task in geophysics, particularly in the exploration and extraction of oil and natural gas. Deep Learning (DL) methods have shown significant potential to address these challenges and offer advantages compared to traditional methods. However, DL-based approaches typically require a substantial amount of labeled data, which contradicts the current scenario of limited availability of labeled seismic data. To address this limitation, researchers have explored synthetic data generation as a potential solution for unlabeled real data. This approach involves training a model on labeled synthetic data and subsequently applying it directly to the real dataset. However, synthetic data generation encounters the domain shift problem due to the complexity of real-world geological situations, resulting in differences in distribution between synthetic and real datasets. To mitigate the domain shift issue in seismic fault detection, we propose a novel approach utilizing Unsupervised Domain Adaptation (UDA) techniques. Our proposal involves using a synthetic dataset for model training and adapting it to two publicly available real datasets found in the literature. The chosen UDA techniques include Maximum Mean Discrepancy (MMD), Domain-Adversarial Neural Networks (DANN), and Fourier Domain Adaptation (FDA). MMD and DANN aim to align features in a common n-dimensional feature space by minimizing discrepancy and increasing domain confusion through adversarial training, respectively. On the other hand, FDA transfers the style from real to synthetic samples using Fast Fourier Transform. For the experiments, we utilized a smaller version of UNet and its variant Atrous UNet, which incorporates Dilated Convolutional layers in its bottleneck. Furthermore, DexiNed (Dense Extreme Inception Network), a state-of-the-art model for edge detection, was employed to provide a more comprehensive analysis. Additionally, we studied the application of fine-tuning on labeled datasets to investigate its impact on performance, as many studies have employed it to reduce domain shift. The final results demonstrated significant improvements in fault detection performance by applying UDA techniques, with up to a 13 percent increase in evaluation metrics such as Intersection over Union and F1-score on average. Moreover, the proposed approach achieved more consistent detections of seismic faults with fewer false positives, indicating its potential for realworld applications. Conversely, the application of fine-tuning did not show a significant gain in performance but did reduce the training time.
23

[pt] MONITORAMENTO SEMIAUTOMÁTICO DO DESMATAMENTO NOS BIOMAS BRASILEIROS AMAZÔNIA E CERRADO: ESTIMATIVA DE INCERTEZA E CARACTERIZAÇÃO DE ÁREAS DE ALTA INCERTEZA / [en] SEMI-AUTOMATIC MONITORING OF DEFORESTATION IN THE BRAZILIAN AMAZON AND CERRADO BIOMES: UNCERTAINTY ESTIMATION AND CHARACTERIZATION OF HIGH UNCERTAINTY AREAS

JORGE ANDRES CHAMORRO MARTINEZ 19 February 2024 (has links)
[pt] O monitoramento oficial do desmatamento na Amazônia brasileira tem dependido tradicionalmente de especialistas humanos que avaliam visualmenteas imagens de sensoriamento remoto e rotulam cada pixel individual comodesmatamento ou não desmatamento. Essa metodologia é obviamente carae demorada devido à vasta área monitorada. A razão para não utilizar métodos totalmente automáticos para a tarefa é a necessidade da maior precisãopossível nos números oficiais de desmatamento. Neste trabalho é propostauma alternativa semi-automática baseada em aprendizagem profunda, naqual uma rede neural profunda é primeiro treinada com imagens existentes e referências de anos anteriores, e empregada para realizar detecção dedesmatamento em imagens recentes. Após a inferência, a incerteza nos resultados em nível de pixel da rede é estimada e assume-se que os resultadosda classificação com baixa incerteza podem ser confiáveis. As demais regiõesde alta incerteza, que correspondem a uma pequena porcentagem da áreade teste, são então submetidas à pós-classificação, por exemplo, um procedimento de auditoria realizado visualmente por um especialista humano.Desta forma, o esforço de etiquetagem manual é bastante reduzido.Investigamos várias estratégias de estimativa de incerteza, incluindo abordagens baseadas em confiança, Monte Carlo Dropout (MCD), conjuntosprofundos e aprendizagem evidencial, e avaliamos diferentes métricas de incerteza. Além disso, conduzimos uma análise abrangente para identificar ascaracterísticas das áreas florestais que contribuem para a elevada incerteza.Ilustramos as principais conclusões da análise em 25 polígonos selecionados em quatro locais-alvo, que exemplificam causas comuns de incerteza.Os sítios-alvo estão localizados em áreas de estudo desafiadoras nos biomasbrasileiros da Amazônia e do Cerrado. Através da avaliação experimental nesses locais, demonstramos que a metodologia semi-automática proposta atinge valores impressionantes de pontuação F1 que excedem 97 por cento, aomesmo tempo que reduz a carga de trabalho de auditoria visual para apenas 3 por cento da área alvo. O código desenvolvido para este estudo está disponível emhttps://github.com/DiMorten/deforestation_uncertainty. / [en] Official monitoring of deforestation in the Brazilian Amazon has relied traditionally on human experts who visually evaluate remote sensing images and label each individual pixel as deforestation or no deforestation. That methodology is obviously costly and time-consuming due to the vast monitored area. The reason for not using fully automatic methods for the task is the need for the highest possible accuracies in the authoritative deforestation figures. In this work, a semi-automatic, deep learning-based alternative is proposed, in which a deep neural network is first trained with existing images and references from previous years, and employed to perform deforestation detection on recent images. After inference, the uncertainty in the network s pixel-level results is estimated, and it is assumed that low-uncertainty classification results can be trusted. The remaining high-uncertainty regions, which correspond to a small percentage of the test area, are then submitted to post classification, e.g., an auditing procedure carried out visually by a human specialist. In this way, the manual labeling effort is greatly reduced. We investigate various uncertainty estimation strategies, including confidence-based approaches, Monte Carlo Dropout (MCD), deep ensembles and evidential learning, and evaluate different uncertainty metrics. Furthermore, we conduct a comprehensive analysis to identify the characteristics of forest areas that contribute to high uncertainty. We illustrate the main conclusions of the analysis upon 25 selected polygons on four target sites, which exemplify common causes of uncertainty. The target sites are located in challenging study areas in the Brazilian Amazon and Cerrado biomes. Through experimental evaluation on those sites, we demonstrate that the proposed semi-automated methodology achieves impressive F1-score values which exceeds 97 percent, while reducing the visual auditing workload to just 3 percent of the target area. The current code is available at https://github.com/DiMorten/deforestation_uncertainty.
24

[pt] SINTETIZAÇÃO DE IMAGENS ÓTICAS MULTIESPECTRAIS A PARTIR DE DADOS SAR/ÓTICOS USANDO REDES GENERATIVAS ADVERSARIAS CONDICIONAIS / [en] SYNTHESIS OF MULTISPECTRAL OPTICAL IMAGES FROM SAR/OPTICAL MULTITEMPORAL DATA USING CONDITIONAL GENERATIVE ADVERSARIAL NETWORKS

JOSE DAVID BERMUDEZ CASTRO 08 April 2021 (has links)
[pt] Imagens óticas são frequentemente afetadas pela presença de nuvens. Com o objetivo de reduzir esses efeitos, diferentes técnicas de reconstrução foram propostas nos últimos anos. Uma alternativa comum é explorar dados de sensores ativos, como Radar de Abertura Sintética (SAR), dado que são pouco dependentes das condições atmosféricas e da iluminação solar. Por outro lado, as imagens SAR são mais difíceis de interpretar do que as imagens óticas, exigindo um tratamento específico. Recentemente, as Redes Adversárias Generativas Condicionais (cGANs - Conditional Generative Adversarial Networks) têm sido amplamente utilizadas para aprender funções de mapeamento que relaciona dados de diferentes domínios. Este trabalho, propõe um método baseado em cGANSs para sintetizar dados óticos a partir de dados de outras fontes, incluindo dados de múltiplos sensores, dados multitemporais e dados em múltiplas resoluções. A hipótese desse trabalho é que a qualidade das imagens geradas se beneficia do número de dados utilizados como variáveis condicionantes para a cGAN. A solução proposta foi avaliada em duas bases de dados. Foram utilizadas como variáveis condicionantes dados corregistrados SAR, de uma ou duas datas produzidos pelo sensor Sentinel 1, e dados óticos de sensores da série Sentinel 2 e LANDSAT, respectivamente. Os resultados coletados dos experimentos demonstraram que a solução proposta é capaz de sintetizar dados óticos realistas. A qualidade das imagens sintetizadas foi medida de duas formas: primeiramente, com base na acurácia da classificação das imagens geradas e, em segundo lugar, medindo-se a similaridade espectral das imagens sintetizadas com imagens de referência. Os experimentos confirmaram a hipótese de que o método proposto tende a produzir melhores resultados à medida que se exploram mais variáveis condicionantes para a cGAN. / [en] Optical images from Earth Observation are often affected by the presence of clouds. In order to reduce these effects, different reconstruction techniques have been proposed in recent years. A common alternative is to explore data from active sensors, such as Synthetic Aperture Radar (SAR), as they are nearly independent on atmospheric conditions and solar lighting. On the other hand, SAR images are more difficult to interpret than optical images, requiring specific treatment. Recently, conditional Generative Adversarial Networks (cGANs) have been widely used to learn mapping functions that relate data of different domains. This work proposes a method based on cGANs to synthesize optical data from data of other sources: data of multiple sensors, multitemporal data and data at multiple resolutions. The working hypothesis is that the quality of the generated images benefits from the number of data used as conditioning variables for cGAN. The proposed solution was evaluated in two databases. As conditioning data we used co-registered data from SAR at one or two dates produced by the Sentinel 1 sensor, and optical images produced by the Sentinel 2 and LANDSAT satellite series, respectively. The experimental results demonstrated that the proposed solution is able to synthesize realistic optical data. The quality of the synthesized images was measured in two ways: firstly, based on the classification accuracy of the generated images and, secondly, on the spectral similarity of the synthesized images with reference images. The experiments confirmed the hypothesis that the proposed method tends to produce better results as we explore more conditioning data for the cGANs.
25

[en] GENERALIZATION OF THE DEEP LEARNING MODEL FOR NATURAL GAS INDICATION IN 2D SEISMIC IMAGE BASED ON THE TRAINING DATASET AND THE OPERATIONAL HYPER PARAMETERS RECOMMENDATION / [pt] GENERALIZAÇÃO DO MODELO DE APRENDIZADO PROFUNDO PARA INDICAÇÃO DE GÁS NATURAL EM DADOS SÍSMICOS 2D COM BASE NO CONJUNTO DE DADOS DE TREINAMENTO E RECOMENDAÇÃO DE HIPERPARÂMETROS OPERACIONAIS

LUIS FERNANDO MARIN SEPULVEDA 21 March 2024 (has links)
[pt] A interpretação de imagens sísmicas é uma tarefa essencial em diversas áreas das geociências, sendo um método amplamente utilizado na exploração de hidrocarbonetos. Porém, sua interpretação exige um investimento significativo de recursos, e nem sempre é possível obter um resultado satisfatório. A literatura mostra um número crescente de métodos de Deep Learning, DL, para detecção de horizontes, falhas e potenciais reservatórios de hidrocarbonetos, porém, os modelos para detecção de reservatórios de gás apresentam dificuldades de desempenho de generalização, ou seja, o desempenho fica comprometido quando utilizados em imagens sísmicas de novas explorações campanhas. Este problema é especialmente verdadeiro para levantamentos terrestres 2D, onde o processo de aquisição varia e as imagens apresentam muito ruído. Este trabalho apresenta três métodos para melhorar o desempenho de generalização de modelos DL de indicação de gás natural em imagens sísmicas 2D, para esta tarefa são utilizadas abordagens provenientes de Machine Learning, ML e DL. A pesquisa concentra-se na análise de dados para reconhecer padrões nas imagens sísmicas para permitir a seleção de conjuntos de treinamento para o modelo de inferência de gás com base em padrões nas imagens alvo. Esta abordagem permite uma melhor generalização do desempenho sem alterar a arquitetura do modelo DL de inferência de gás ou transformar os traços sísmicos originais. Os experimentos foram realizados utilizando o banco de dados de diferentes campos de exploração localizados na bacia do Parnaíba, no Nordeste do Brasil. Os resultados mostram um aumento de até 39 por cento na indicação correta do gás natural de acordo com a métrica de recall. Esta melhoria varia em cada campo e depende do método proposto utilizado e da existência de padrões representativos dentro do conjunto de treinamento de imagens sísmicas. Estes resultados concluem com uma melhoria no desempenho de generalização do modelo de inferência de gases DL que varia até 21 por cento de acordo com a pontuação F1 e até 15 por cento de acordo com a métrica IoU. Estes resultados demonstram que é possível encontrar padrões dentro das imagens sísmicas usando uma abordagem não supervisionada, e estas podem ser usadas para recomendar o conjunto de treinamento DL de acordo com o padrão na imagem sísmica alvo; Além disso, demonstra que o conjunto de treinamento afeta diretamente o desempenho de generalização do modelo DL para imagens sísmicas. / [en] Interpreting seismic images is an essential task in diverse fields of geosciences, and it s a widely used method in hydrocarbon exploration. However, its interpretation requires a significant investment of resources, and obtaining a satisfactory result is not always possible. The literature shows an increasing number of Deep Learning, DL, methods to detect horizons, faults, and potential hydrocarbon reservoirs, nevertheless, the models to detect gas reservoirs present generalization performance difficulties, i.e., performance is compromised when used in seismic images from new exploration campaigns. This problem is especially true for 2D land surveys where the acquisition process varies, and the images are very noisy. This work presents three methods to improve the generalization performance of DL models of natural gas indication in 2D seismic images, for this task, approaches that come from Machine Learning, ML, and DL are used. The research focuses on data analysis to recognize patterns within the seismic images to enable the selection of training sets for the gas inference model based on patterns in the target images. This approach allows a better generalization of performance without altering the architecture of the gas inference DL model or transforming the original seismic traces. The experiments were carried out using the database of different exploitation fields located in the Parnaíba basin, in northeastern Brazil. The results show an increase of up to 39 percent in the correct indication of natural gas according to the recall metric. This improvement varies in each field and depends on the proposed method used and the existence of representative patterns within the training set of seismic images. These results conclude with an improvement in the generalization performance of the DL gas inference model that varies up to 21 percent according to the F1 score and up to 15 percent according to the IoU metric. These results demonstrate that it is possible to find patterns within the seismic images using an unsupervised approach, and these can be used to recommend the DL training set according to the pattern in the target seismic image; Furthermore, it demonstrates that the training set directly affects the generalization performance of the DL model for seismic images.
26

[en] EXTRACTING AND CONNECTING PLAINTIFF S LEGAL CLAIMS AND JUDICIAL PROVISIONS FROM BRAZILIAN COURT DECISIONS / [pt] EXTRAÇÃO E CONEXÃO ENTRE PEDIDOS E DECISÕES JUDICIAIS DE UM TRIBUNAL BRASILEIRO

WILLIAM PAULO DUCCA FERNANDES 03 November 2020 (has links)
[pt] Neste trabalho, propomos uma metodologia para anotar decisões judiciais, criar modelos de Deep Learning para extração de informação, e visualizar de forma agregada a informação extraída das decisões. Instanciamos a metodologia em dois sistemas. O primeiro extrai modificações de um tribunal de segunda instância, que consiste em um conjunto de categorias legais que são comumente modificadas pelos tribunais de segunda instância. O segundo (i) extrai as causas que motivaram uma pessoa a propor uma ação judicial (causa de pedir), os pedidos do autor e os provimentos judiciais dessas ações proferidas pela primeira e segunda instância de um tribunal, e (ii) conecta os pedidos com os provimentos judiciais correspondentes. O sistema apresenta seus resultados através de visualizações. Extração de Informação para textos legais tem sido abordada usando diferentes técnicas e idiomas. Nossas propostas diferem dos trabalhos anteriores, pois nossos corpora são compostos por decisões de primeira e segunda instância de um tribunal brasileiro. Para extrair as informações, usamos uma abordagem tradicional de Aprendizado de Máquina e outra usando Deep Learning, tanto individualmente quanto como uma solução combinada. Para treinar e avaliar os sistemas, construímos quatro corpora: Kauane Junior para o primeiro sistema, e Kauane Insurance Report, Kauane Insurance Lower e Kauane Insurance Upper para o segundo. Usamos dados públicos disponibilizados pelo Tribunal de Justiça do Estado do Rio de Janeiro para construir os corpora. Para o Kauane Junior, o melhor modelo (Fbeta=1 de 94.79 por cento) foi uma rede neural bidirecional Long Short-Term Memory combinada com Conditional Random Fields (BILSTM-CRF); para o Kauane Insurance Report, o melhor (Fbeta=1 de 67,15 por cento) foi uma rede neural bidirecional Long Short-Term Memory com embeddings de caracteres concatenados a embeddings de palavras combinada com Conditional Random Fields (BILSTM-CE-CRF). Para o Kauane Insurance Lower, o melhor (Fbeta=1 de 89,12 por cento) foi uma BILSTM-CE-CRF; para o Kauane Insurance Upper, uma BILSTM-CRF (Fbeta=1 de 83,66 por cento). / [en] In this work, we propose a methodology to annotate Court decisions, create Deep Learning models to extract information, and visualize the aggregated information extracted from the decisions. We instantiate our methodology in two systems we have developed. The first one extracts Appellate Court modifications, a set of legal categories that are commonly modified by Appellate Courts. The second one (i) extracts plaintiff s legal claims and each specific provision on legal opinions enacted by lower and Appellate Courts, and (ii) connects each legal claim with the corresponding judicial provision. The system presents the results through visualizations. Information Extraction for legal texts has been previously addressed using different techniques and languages. Our proposals differ from previous work, since our corpora are composed of Brazilian lower and Appellate Court decisions. To automatically extract that information, we use a traditional Machine Learning approach and a Deep Learning approach, both as alternative solutions and also as a combined solution. In order to train and evaluate the systems, we have built Kauane Junior corpus for the first system, and three corpora for the second system – Kauane Insurance Report, Kauane Insurance Lower, and Kauane Insurance Upper. We used public data disclosed by the State Court of Rio de Janeiro to build the corpora. For Kauane Junior, the best model, which is a Bidirectional Long Short-Term Memory network combined with Conditional Random Fields (BILSTM-CRF), obtained an (F)beta=1 score of 94.79 percent. For Kauane Insurance Report, the best model, which is a Bidirectional Long Short-Term Memory network with character embeddings concatenated to word embeddings combined with Conditional Random Fields (BILSTM-CE-CRF), obtained an (F)beta=1 score of 67.15 percent. For Kauane Insurance Lower, the best model, which is a BILSTM-CE-CRF, obtained an (F)beta=1 score of 89.12 percent. For Kauane Insurance Upper, the best model, which is a BILSTM-CRF, obtained an (F)beta=1 score of 83.66 percent.
27

[en] CONVOLUTIONAL NETWORKS APPLIED TO SEMANTIC SEGMENTATION OF SEISMIC IMAGES / [pt] REDES CONVOLUCIONAIS APLICADAS À SEGMENTAÇÃO SEMÂNTICA DE IMAGENS SÍSMICAS

MATEUS CABRAL TORRES 10 August 2021 (has links)
[pt] A partir de melhorias incrementais em uma conhecida rede neural convolucional (U-Net), diferentes técnicas são avaliadas quanto às suas performances na tarefa de segmentação semântica em imagens sísmicas. Mais especificamente, procura-se a identificação e delineamento de estruturas salinas no subsolo, o que é de grande relevância na indústria de óleo e gás para a exploração de petróleo em camadas pré-sal, por exemplo. Além disso, os desafios apresentados no tratamento destas imagens sísmicas se assemelham em muito aos encontrados em tarefas de áreas médicas como identificação de tumores e segmentação de tecidos, o que torna o estudo da tarefa em questão ainda mais valioso. Este trabalho pretende sugerir uma metodologia adequada de abordagem à tarefa e produzir redes neurais capazes de segmentar imagens sísmicas com bons resultados dentro das métricas utilizadas. Para alcançar estes objetivos, diferentes estruturas de redes, transferência de aprendizado e técnicas de aumentação de dados são testadas em dois datasets com diferentes níveis de complexidade. / [en] Through incremental improvements in a well-known convolutional neural network (U-Net), different techniques are evaluated regarding their performance on the task of semantic segmentation of seismic images. More specifically, the objective is the better identification and outline of subsurface salt structures, which is a task of great relevance for the oil and gas industry in the exploration of pre-salt layers, for example. Besides that application, the challenges imposed by the treatment of seismic images also resemble those found in medical fields like tumor detection and tissue segmentation, which makes the study of this task even more valuable. This work seeks to suggest a suitable methodology for the task and to yield neural networks that are capable of performing semantic segmentation of seismic images with good results regarding specific metrics. For that purpose, different network structures, transfer learning and data augmentation techniques are applied in two datasets with different levels of complexity.

Page generated in 0.0472 seconds