• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 19
  • 1
  • Tagged with
  • 44
  • 44
  • 43
  • 42
  • 32
  • 20
  • 18
  • 16
  • 16
  • 10
  • 10
  • 10
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

[pt] APRENDIZADO PROFUNDO APLICADO NA LOCALIZAÇÃO DE CORPOS ESTRANHOS FERROMAGNÉTICOS EM HUMANOS / [en] DEEP LEARNING APPLIED TO LOCATING FERROMAGNETIC FOREIGN BODIES IN HUMANS

MARCOS ROGOZINSKI 19 January 2022 (has links)
[pt] Corpos estranhos ferromagnéticos inseridos acidentalmente em pacientes geralmente precisam de remoção cirúrgica. Os métodos convencionalmente empregados para localizar corpos estranhos são frequentemente ineficazes devido à baixa precisão na determinação da posição do objeto e representam riscos decorrentes da exposição da equipe médica e dos pacientes à radiação ionizante durante procedimentos de longa duração. Novos métodos utilizando sensores SQUID têm obtido sucesso na localização de corpos estranhos de forma inócua e não invasiva, mas têm a desvantagem de apresentar alto custo e baixa portabilidade. Este trabalho faz parte de pesquisas que buscam trazer maior portabilidade e baixo custo na localização de corpos estranhos no corpo humano utilizando sensores GMI e GMR. O objetivo principal deste trabalho é avaliar e aplicar o uso de Aprendizado Profundo para a localização de corpos estranhos ferromagnéticos no corpo humano utilizando um dispositivo portátil e manual baseado em magnetômetro GMR, incluindo o rastreamento da posição e orientação deste dispositivo a partir de imagens de padrões conhecidos obtidas por uma câmera integrada ao dispositivo e a solução do problema inverso magnético a partir do mapeamento magnético obtido. As técnicas apresentadas se mostraram capazes de rastrear o dispositivo com boa precisão e detectar a localização do corpo estranho com resultados semelhantes ou melhores do que os obtidos em trabalhos anteriores, dependendo do parâmetro. Os resultados obtidos são promissores como base para desenvolvimentos futuros. / [en] Ferromagnetic foreign bodies accidentally inserted in patients usually need to be surgically removed. The methods conventionally employed for locating foreign bodies are often ineffective due to the low accuracy in determining the position of the object and pose risks arising from the exposure of medical staff and patients to ionizing radiation during long-term procedures. New methods using SQUID sensors successfully located foreign bodies in an innocuous and noninvasive way, but they have the drawback of presenting high cost and low portability. This work is part of new research that seeks to bring greater portability and low cost in locating foreign bodies in the human body using GMI and GMR sensors. The main objective of this work is to evaluate and apply the use of Deep Learning in the development of a portable and manual device based on a GMR sensor, including position tracking and orientation of this device from images of known patterns obtained by a camera integrated to the device and the solution of the inverse magnetic problem from the obtained magnetic mapping. The techniques presented are capable of tracking the device with good accuracy and detecting the localization of the foreign body with similar or better results than those obtained in previous works, depending on the parameter. The results obtained are promising as a basis for future developments.
32

[en] DEEP LEARNING NEURAL NETWORKS FOR THE IDENTIFICATION OF AROUSALS RELATED TO RESPIRATORY EVENTS USING POLYSOMNOGRAPHIC EEG SIGNALS / [pt] REDES NEURAIS DE APRENDIZADO PROFUNDO PARA A IDENTIFICAÇÃO DE DESPERTARES RELACIONADOS A EVENTOS RESPIRATÓRIOS USANDO SINAIS EEG POLISSONOGRÁFICOS

MARIA LEANDRA GUATEQUE JARAMILLO 31 May 2021 (has links)
[pt] Para o diagnóstico de distúrbios do sono, um dos exames mais usado é a polissonografia (PSG), na qual é registrada uma variedade de sinais fisiológicos. O exame de PSG é observado por um especialista do sono, processo que pode levar muito tempo e incorrer em erros de interpretação. O presente trabalho desenvolve e compara o desempenho de quatro sistemas baseados em arquiteturas de redes neurais de aprendizado profundo, mais especificamente, redes convolutivas (CNN) e redes recorrentes Long-Short Term Memory (LSTM), para a identificação de despertares relacionados ao esforço respiratório (Respiratory Effort-Related Arousal-RERA) e a eventos de despertar relacionados à apneia/hipopneia. Para o desenvolvimento desta pesquisa, foram usadas as informações de apenas seis canais eletroencefalográficos (EEG) provenientes de 994 registros de PSG noturna da base de dados PhysioNet CinC Challenge2018, além disso, foi considerado o uso de class weight e Focal Loss para lidar com o desbalanceamento de classes. Para a avaliação de cada um dos sistemas foram usadas a Accuracy, AUROC e AUPRC como métricas de desempenho. Os melhores resultados para o conjunto de teste foram obtidos com os modelos CNN1 obtendo-se uma Accuracy, AUROC e AUPRC de 0,8404, 0,8885 e 0,8141 respetivamente, e CNN2 obtendo-se uma Accuracy, AUROC e AUPRC de 0,8214, 0,8915 e 0,8097 respetivamente. Os resultados restantes confirmaram que as redes neurais de aprendizado profundo permitem lidar com dados temporais de EEG melhor que os algoritmos de aprendizado de máquina tradicional, e o uso de técnicas como class weight e Focal Loss melhoram o desempenho dos sistemas. / [en] For the diagnosis of sleep disorders, one of the most commonly used tests is polysomnography (PSG), in which a variety of physiological signs are recorded. The study of PSG is observed by a sleep therapist, This process may take a long time and may incur misinterpretation. This work develops and compares the performance of four classification systems based on deep learning neural networks, more specifically, convolutional neural networks (CNN) and recurrent networks Long-Short Term Memory (LSTM), for the identification of Respiratory Effort-Related Arousal (RERA) and to events related to apnea/hypopnea. For the development of this research, it was used the Electroencephalogram (EEG) data of six channels from 994 night polysomnography records from the database PhysioNet CinC Challenge2018, the use of class weight and Focal Loss was considered to deal with class unbalance. Accuracy, AUROC, and AUPRC were used as performance metrics for evaluating each system. The best results for the test set were obtained with the CNN1 models obtaining an accuracy, AUROC and AUPRC of 0.8404, 0.8885 and 0.8141 respectively, and RCNN2 obtaining an accuracy, AUROC and AUPRC of 0.8214, 0.8915 and 0.8097 respectively. The remaining results confirmed that deep learning neural networks allow dealing with EEG time data better than traditional machine learning algorithms, and the use of techniques such as class weight and Focal Loss improve system performance.
33

[pt] DESAGREGAÇÃO DE CARGAS EM UM DATASET COLETADO EM UMA INDÚSTRIA BRASILEIRA UTILIZANDO AUTOENCODERS VARIACIONAIS E REDES INVERSÍVEIS / [en] LOAD DISAGGREGATION IN A BRAZILIAN INDUSTRIAL DATASET USING INVERTIBLE NETWORKS AND VARIATIONAL AUTOENCODERS

EDUARDO SANTORO MORGAN 05 August 2021 (has links)
[pt] Desagregação de cargas é a tarefa de estimar o consumo individual de aparelhos elétricos a partir de medições de consumo de energia coletadas em um único ponto, em geral no quadro de distribuição do circuito. Este trabalho explora o uso de técnicas de aprendizado de máquina para esta tarefa, em uma base de dados coletada em uma fábrica de ração de aves no Brasil. É proposto um modelo combinando arquiteturas de autoencoders variacionais com as de fluxos normalizantes inversíveis. Os resultados obtidos são, de maneira geral, superiores aos melhores resultados reportados para esta base de dados até então, os superando em até 86 por cento no Erro do Sinal Agregado e em até 81 por cento no Erro de Desagregação Normalizado dependendo do equipamento desagregado. / [en] Load Disaggregation is the task of estimating appliance-level consumption from a single aggregate consumption metering point. This work explores machine learning techniques applied to an industrial load disaggregation dataset from a poultry feed factory in Brazil. It proposes a model that combines variational autoencoders with invertible normalizing flows models. The results obtained are, in general, better than the current best reported results for this dataset, outperforming them by up to 86 percent in the Signal Aggregate Error and by up to 81 percent in the Normalized Disaggregation Error.
34

[en] EXPLAINABLE ARTIFICIAL INTELLIGENCE FOR MEDICAL IMAGE CLASSIFIERS / [pt] INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL PARA CLASSIFICADORES DE IMAGENS MÉDICAS

IAM PALATNIK DE SOUSA 02 July 2021 (has links)
[pt] A inteligência artificial tem gerado resultados promissores na área médica, especialmente na última década. Contudo, os modelos de melhor desempenho apresentam opacidade em relação ao seu funcionamento interno. Nesta tese, são apresentadas novas metodologias e abordagens para o desenvolvimento de classificadores explicáveis de imagens médicas. Dois principais métodos, Squaregrid e EvEx, foram desenvolvidos. O primeiro consiste em uma geração mais grosseira, porém rápida, de heatmaps explicativos via segmentações em grades quadrados, enquanto o segundo baseia-se em otimização multi-objetivo, baseada em computação evolucionária, visando ao ajuste fino de parâmetros de segmentação. Notavelmente, ambas as técnicas são agnósticas ao modelo, o que facilita sua utilização para qualquer tipo de classificador de imagens. O potencial destas abordagens foi avaliado em três estudos de caso de classificações médicas: metástases em linfonodos, malária e COVID-19. Para alguns destes casos foram analisados modelos de classificação existentes, publicamente disponíveis. Por outro lado, em outros estudos de caso, novos modelos tiveram que ser treinados. No caso do estudo de COVID-19, a ResNet50 treinada levou a F-scores acima de 0,9 para o conjunto de teste de uma competição para classificação de coronavirus, levando ao terceiro lugar geral. Adicionalmente, técnicas de inteligência artificial já existentes como LIME e GradCAM, bem como Vanilla, Smooth e Integrated Gradients também foram usadas para gerar heatmaps e possibilitar comparações. Os resultados aqui descritos ajudaram a demonstrar e preencher parcialmente lacunas associadas à integração das áreas de inteligência artificial explicável e medicina. Eles também ajudaram a demonstrar que as diferentes abordagens de inteligência artificial explicável podem gerar heatmaps que focam em características diferentes da imagem. Isso por sua vez demonstra a importância de combinar abordagens para criar um panorama mais completo sobre os modelos classificadores, bem como extrair informações sobre o que estes aprendem. / [en] Artificial Intelligence has generated promissing results for the medical area, especially on the last decade. However, the best performing models present opacity when it comes to their internal working. In this thesis, methodologies and approaches are presented for the develpoment of explainable classifiers of medical images. Two main methods, Squaregrid and EvEx, were developed. The first consistts in a rough, but fast, generation of heatmaps via segmentations in square grids, and the second in genetic multi objective optimizations aiming at the fine-tuning of segmentation parameters. Notably, both techniques are agnostic to the model,which facilitates their utilization for any kind of image classifier. The potential of these approaches was demonstrated in three case studies of medical classifications: lymph node mestastases, malária and COVID-19. In some of these cases, already existing classifier models were analyzed, while in some others new models were trained. For the COVID-19 study, the trained ResNet50 provided F-scores above 0.9 in a test set from a coronavirus classification competition, resulting in the third place overall. Additionally, already existing explainable artificial intelligence techniques, such as LIME and GradCAM, as well as Vanilla, Smooth and Integrated Gradients, were also used to generate heatmaps and enable comparisons. The results here described help to demonstrate and improve the gaps in integrating the areas of explainable artificial intelligence and medicine. They also aided in demonstrating that the different types of approaches in explainable artificial intelligence can generate heatmaps that focus on different characteristics of the image. This shows the importance of combining approaches to create a more complete overview of classifier models, as well as extracting informations about what they learned from data.
35

[en] SUPER-RESOLUTION IN TOMOGRAPHIC IMAGES OF IRON ORE BRIQUETTES EMPLOYING DEEP LEARNING / [pt] SUPER-RESOLUÇÃO EM IMAGENS TOMOGRÁFICAS DE BRIQUETES DE MINÉRIO DE FERRO UTILIZANDO APRENDIZADO PROFUNDO

BERNARDO AMARAL PASCARELLI FERREIRA 11 October 2023 (has links)
[pt] A indústria mineral vem presenciando, ao longo das últimas décadas, uma redução da qualidade de minério de ferro extraído e o surgimento de novas demandas ambientais. Esta conjuntura fortalece a busca por produtos provenientes do minério de ferro que atendam aos requisitos da indústria siderúrgica, como é o caso de novos aglomerados de minério de ferro. A Microtomografia de Raios-X (microCT) permite a caracterização da estrutura tridimensional de uma amostra, com resolução micrométrica, de forma não-destrutiva. Entretanto, tal técnica apresenta diversas limitações. Quanto melhor a resolução, maior o tempo de análise e menor o volume de amostra adquirido. Modelos de Super Resolução (SR), baseados em Deep Learning, são uma poderosa ferramenta para aprimorar digitalmente a resolução de imagens tomográficas adquiridas em pior resolução. Este trabalho propõe o desenvolvimento de uma metodologia para treinar três modelos de SR, baseados na arquitetura EDSR, a partir de imagens tomográficas de briquetes de redução direta: Um modelo para aumento de resolução de 16 um para 6 um, outro para aumento de 6 um para 2 um, e o terceiro para aumento de 4 um para 2 um. Esta proposta tem como objetivo mitigar as limitações do microCT, auxiliando o desenvolvimento de novas metodologias de Processamento Digital de Imagens para os aglomerados. A metodologia inclui diferentes propostas para avaliação do desempenho da SR, como comparação de PSNR e segmentação de poros. Os resultados apontam que a SR foi capaz de aprimorar a resolução das imagens tomográficas e mitigar ruídos habituais da tomografia. / [en] The mining industry has been witnessing a reduction of extracted iron ore s quality and the advent of new environmental demands. This situation reinforces a search for iron ore products that meet the requirements of the steel industry, such as new iron ore agglomerates. X-ray microtomography (microCT) allows the characterization of a sample s three-dimensional structure, with micrometer resolution, in a non-destructive analysis. However, this technique presents several limitations. Better resolutions greatly increase analysis time and decrease the acquired sample’s volume. Super-Resolution (SR) models, based on Deep Learning, are a powerful tool to digitally enhance the resolution of tomographic images acquired at lower resolutions. This work proposes the development of a methodology to train three SR models, based on EDSR architecture, using tomographic images of direct reduction briquettes: A model for enhancing the resolution from 16 um to 6 um, another for enhancing from 6 um to 2 um, and the third for enhancing 4 um to 2 um. This proposal aims to mitigate the limitations of microCT, assisting the development and implementation of new Digital Image Processing methodologies for agglomerates. The methodology includes different proposals for SR s performance evaluation, such as PSNR comparison and pore segmentation. The results indicate that SR can improve the resolution of tomographic images and reduce common tomography noise.
36

[pt] SEGMENTAÇÃO DE FALHAS SÍSMICAS USANDO ADAPTAÇÃO DE DOMÍNIO NÃO SUPERVISIONADA / [en] SEISMIC FAULT SEGMENTATION USING UNSUPERVISED DOMAIN ADAPTATION

MAYKOL JIAMPIERS CAMPOS TRINIDAD 28 November 2023 (has links)
[pt] A segmentação de falhas sísmicas apresenta uma tarefa desafiadora edemorada na geofísica, especialmente na exploração e extração de petróleo egás natural. Métodos de Aprendizado Profundo (Deep Learning) têm mostradoum grande potencial para enfrentar esses desafios e oferecem vantagens emcomparação com métodos tradicionais. No entanto, abordagens baseadas emAprendizado Profundo geralmente requerem uma quantidade substancial dedados rotulados, o que contradiz o cenário atual de disponibilidade limitadade dados sísmicos rotulados. Para lidar com essa limitação, pesquisadores têmexplorado a geração de dados sintéticos como uma solução potencial paradados reais não rotulados. Essa abordagem envolve treinar um modelo emdados sintéticos rotulados e, posteriormente, aplicar diretamente ao conjuntode dados real. No entanto, a geração de dados sintéticos encontra o problemade deslocamento de domínio devido à complexidade das situações geológicasdo mundo real, resultando em diferenças na distribuição entre conjuntosde dados sintéticos e reais. Para mitigar o problema de deslocamento dedomínio na detecção de falhas sísmicas, propomos uma nova abordagem queutiliza técnicas de Adaptação de Domínio Não Supervisionada ou UnsupervisedDomain Adaptation (UDA). Nossa proposta envolve o uso de um conjunto dedados sintéticos para treinamento do modelo e sua adaptação a dois conjuntosde dados reais disponíveis publicamente na literatura. As técnicas de UDAescolhidas incluem Maximum Mean Discrepancy (MMD), Domain-AdversarialNeural Networks (DANN) e Fourier Domain Adaptation (FDA). MMD eDANN visam alinhar características em um espaço de características comumde n dimensões, minimizando discrepâncias e aumentando a confusão dedomínio por meio do treinamento adversarial, respectivamente. Por outro lado,FDA transfere o estilo de amostras reais para sintéticas usando TransformadaRápida de Fourier. Para os experimentos, utilizamos uma versão menor doUNet e sua variante Atrous UNet, que incorpora camadas convolucionaisdilatadas em seu gargalo. Além disso, o DexiNed (Dense Extreme InceptionNetwork), um modelo do estado da arte para detecção de bordas, foi empregadopara fornecer uma análise mais abrangente. Além disso, estudamos a aplicaçãode ajuste fino ou fine-tuning em conjuntos de dados rotulados para investigarseu impacto no desempenho, pois muitos estudos o têm utilizado para reduziro deslocamento de domínio.Os resultados finais demonstraram melhorias significativas no desempenho de detecção de falhas ao aplicar técnicas de UDA, com aumento médio deaté 13 por cento em métricas de avaliação como Intersection over Union e F1-score.Além disso, a abordagem proposta obteve detecções mais consistentes de falhassísmicas com menos falsos positivos, indicando seu potencial para aplicações nomundo real. Por outro lado, a aplicação de ajuste fino não demonstrou ganhossignificativos no desempenho, mas reduziu o tempo de treinamento. / [en] Seismic fault segmentation presents a challenging and time-consuming task in geophysics, particularly in the exploration and extraction of oil and natural gas. Deep Learning (DL) methods have shown significant potential to address these challenges and offer advantages compared to traditional methods. However, DL-based approaches typically require a substantial amount of labeled data, which contradicts the current scenario of limited availability of labeled seismic data. To address this limitation, researchers have explored synthetic data generation as a potential solution for unlabeled real data. This approach involves training a model on labeled synthetic data and subsequently applying it directly to the real dataset. However, synthetic data generation encounters the domain shift problem due to the complexity of real-world geological situations, resulting in differences in distribution between synthetic and real datasets. To mitigate the domain shift issue in seismic fault detection, we propose a novel approach utilizing Unsupervised Domain Adaptation (UDA) techniques. Our proposal involves using a synthetic dataset for model training and adapting it to two publicly available real datasets found in the literature. The chosen UDA techniques include Maximum Mean Discrepancy (MMD), Domain-Adversarial Neural Networks (DANN), and Fourier Domain Adaptation (FDA). MMD and DANN aim to align features in a common n-dimensional feature space by minimizing discrepancy and increasing domain confusion through adversarial training, respectively. On the other hand, FDA transfers the style from real to synthetic samples using Fast Fourier Transform. For the experiments, we utilized a smaller version of UNet and its variant Atrous UNet, which incorporates Dilated Convolutional layers in its bottleneck. Furthermore, DexiNed (Dense Extreme Inception Network), a state-of-the-art model for edge detection, was employed to provide a more comprehensive analysis. Additionally, we studied the application of fine-tuning on labeled datasets to investigate its impact on performance, as many studies have employed it to reduce domain shift. The final results demonstrated significant improvements in fault detection performance by applying UDA techniques, with up to a 13 percent increase in evaluation metrics such as Intersection over Union and F1-score on average. Moreover, the proposed approach achieved more consistent detections of seismic faults with fewer false positives, indicating its potential for realworld applications. Conversely, the application of fine-tuning did not show a significant gain in performance but did reduce the training time.
37

[pt] MONITORAMENTO SEMIAUTOMÁTICO DO DESMATAMENTO NOS BIOMAS BRASILEIROS AMAZÔNIA E CERRADO: ESTIMATIVA DE INCERTEZA E CARACTERIZAÇÃO DE ÁREAS DE ALTA INCERTEZA / [en] SEMI-AUTOMATIC MONITORING OF DEFORESTATION IN THE BRAZILIAN AMAZON AND CERRADO BIOMES: UNCERTAINTY ESTIMATION AND CHARACTERIZATION OF HIGH UNCERTAINTY AREAS

JORGE ANDRES CHAMORRO MARTINEZ 19 February 2024 (has links)
[pt] O monitoramento oficial do desmatamento na Amazônia brasileira tem dependido tradicionalmente de especialistas humanos que avaliam visualmenteas imagens de sensoriamento remoto e rotulam cada pixel individual comodesmatamento ou não desmatamento. Essa metodologia é obviamente carae demorada devido à vasta área monitorada. A razão para não utilizar métodos totalmente automáticos para a tarefa é a necessidade da maior precisãopossível nos números oficiais de desmatamento. Neste trabalho é propostauma alternativa semi-automática baseada em aprendizagem profunda, naqual uma rede neural profunda é primeiro treinada com imagens existentes e referências de anos anteriores, e empregada para realizar detecção dedesmatamento em imagens recentes. Após a inferência, a incerteza nos resultados em nível de pixel da rede é estimada e assume-se que os resultadosda classificação com baixa incerteza podem ser confiáveis. As demais regiõesde alta incerteza, que correspondem a uma pequena porcentagem da áreade teste, são então submetidas à pós-classificação, por exemplo, um procedimento de auditoria realizado visualmente por um especialista humano.Desta forma, o esforço de etiquetagem manual é bastante reduzido.Investigamos várias estratégias de estimativa de incerteza, incluindo abordagens baseadas em confiança, Monte Carlo Dropout (MCD), conjuntosprofundos e aprendizagem evidencial, e avaliamos diferentes métricas de incerteza. Além disso, conduzimos uma análise abrangente para identificar ascaracterísticas das áreas florestais que contribuem para a elevada incerteza.Ilustramos as principais conclusões da análise em 25 polígonos selecionados em quatro locais-alvo, que exemplificam causas comuns de incerteza.Os sítios-alvo estão localizados em áreas de estudo desafiadoras nos biomasbrasileiros da Amazônia e do Cerrado. Através da avaliação experimental nesses locais, demonstramos que a metodologia semi-automática proposta atinge valores impressionantes de pontuação F1 que excedem 97 por cento, aomesmo tempo que reduz a carga de trabalho de auditoria visual para apenas 3 por cento da área alvo. O código desenvolvido para este estudo está disponível emhttps://github.com/DiMorten/deforestation_uncertainty. / [en] Official monitoring of deforestation in the Brazilian Amazon has relied traditionally on human experts who visually evaluate remote sensing images and label each individual pixel as deforestation or no deforestation. That methodology is obviously costly and time-consuming due to the vast monitored area. The reason for not using fully automatic methods for the task is the need for the highest possible accuracies in the authoritative deforestation figures. In this work, a semi-automatic, deep learning-based alternative is proposed, in which a deep neural network is first trained with existing images and references from previous years, and employed to perform deforestation detection on recent images. After inference, the uncertainty in the network s pixel-level results is estimated, and it is assumed that low-uncertainty classification results can be trusted. The remaining high-uncertainty regions, which correspond to a small percentage of the test area, are then submitted to post classification, e.g., an auditing procedure carried out visually by a human specialist. In this way, the manual labeling effort is greatly reduced. We investigate various uncertainty estimation strategies, including confidence-based approaches, Monte Carlo Dropout (MCD), deep ensembles and evidential learning, and evaluate different uncertainty metrics. Furthermore, we conduct a comprehensive analysis to identify the characteristics of forest areas that contribute to high uncertainty. We illustrate the main conclusions of the analysis upon 25 selected polygons on four target sites, which exemplify common causes of uncertainty. The target sites are located in challenging study areas in the Brazilian Amazon and Cerrado biomes. Through experimental evaluation on those sites, we demonstrate that the proposed semi-automated methodology achieves impressive F1-score values which exceeds 97 percent, while reducing the visual auditing workload to just 3 percent of the target area. The current code is available at https://github.com/DiMorten/deforestation_uncertainty.
38

[pt] SINTETIZAÇÃO DE IMAGENS ÓTICAS MULTIESPECTRAIS A PARTIR DE DADOS SAR/ÓTICOS USANDO REDES GENERATIVAS ADVERSARIAS CONDICIONAIS / [en] SYNTHESIS OF MULTISPECTRAL OPTICAL IMAGES FROM SAR/OPTICAL MULTITEMPORAL DATA USING CONDITIONAL GENERATIVE ADVERSARIAL NETWORKS

JOSE DAVID BERMUDEZ CASTRO 08 April 2021 (has links)
[pt] Imagens óticas são frequentemente afetadas pela presença de nuvens. Com o objetivo de reduzir esses efeitos, diferentes técnicas de reconstrução foram propostas nos últimos anos. Uma alternativa comum é explorar dados de sensores ativos, como Radar de Abertura Sintética (SAR), dado que são pouco dependentes das condições atmosféricas e da iluminação solar. Por outro lado, as imagens SAR são mais difíceis de interpretar do que as imagens óticas, exigindo um tratamento específico. Recentemente, as Redes Adversárias Generativas Condicionais (cGANs - Conditional Generative Adversarial Networks) têm sido amplamente utilizadas para aprender funções de mapeamento que relaciona dados de diferentes domínios. Este trabalho, propõe um método baseado em cGANSs para sintetizar dados óticos a partir de dados de outras fontes, incluindo dados de múltiplos sensores, dados multitemporais e dados em múltiplas resoluções. A hipótese desse trabalho é que a qualidade das imagens geradas se beneficia do número de dados utilizados como variáveis condicionantes para a cGAN. A solução proposta foi avaliada em duas bases de dados. Foram utilizadas como variáveis condicionantes dados corregistrados SAR, de uma ou duas datas produzidos pelo sensor Sentinel 1, e dados óticos de sensores da série Sentinel 2 e LANDSAT, respectivamente. Os resultados coletados dos experimentos demonstraram que a solução proposta é capaz de sintetizar dados óticos realistas. A qualidade das imagens sintetizadas foi medida de duas formas: primeiramente, com base na acurácia da classificação das imagens geradas e, em segundo lugar, medindo-se a similaridade espectral das imagens sintetizadas com imagens de referência. Os experimentos confirmaram a hipótese de que o método proposto tende a produzir melhores resultados à medida que se exploram mais variáveis condicionantes para a cGAN. / [en] Optical images from Earth Observation are often affected by the presence of clouds. In order to reduce these effects, different reconstruction techniques have been proposed in recent years. A common alternative is to explore data from active sensors, such as Synthetic Aperture Radar (SAR), as they are nearly independent on atmospheric conditions and solar lighting. On the other hand, SAR images are more difficult to interpret than optical images, requiring specific treatment. Recently, conditional Generative Adversarial Networks (cGANs) have been widely used to learn mapping functions that relate data of different domains. This work proposes a method based on cGANs to synthesize optical data from data of other sources: data of multiple sensors, multitemporal data and data at multiple resolutions. The working hypothesis is that the quality of the generated images benefits from the number of data used as conditioning variables for cGAN. The proposed solution was evaluated in two databases. As conditioning data we used co-registered data from SAR at one or two dates produced by the Sentinel 1 sensor, and optical images produced by the Sentinel 2 and LANDSAT satellite series, respectively. The experimental results demonstrated that the proposed solution is able to synthesize realistic optical data. The quality of the synthesized images was measured in two ways: firstly, based on the classification accuracy of the generated images and, secondly, on the spectral similarity of the synthesized images with reference images. The experiments confirmed the hypothesis that the proposed method tends to produce better results as we explore more conditioning data for the cGANs.
39

[en] GENERALIZATION OF THE DEEP LEARNING MODEL FOR NATURAL GAS INDICATION IN 2D SEISMIC IMAGE BASED ON THE TRAINING DATASET AND THE OPERATIONAL HYPER PARAMETERS RECOMMENDATION / [pt] GENERALIZAÇÃO DO MODELO DE APRENDIZADO PROFUNDO PARA INDICAÇÃO DE GÁS NATURAL EM DADOS SÍSMICOS 2D COM BASE NO CONJUNTO DE DADOS DE TREINAMENTO E RECOMENDAÇÃO DE HIPERPARÂMETROS OPERACIONAIS

LUIS FERNANDO MARIN SEPULVEDA 21 March 2024 (has links)
[pt] A interpretação de imagens sísmicas é uma tarefa essencial em diversas áreas das geociências, sendo um método amplamente utilizado na exploração de hidrocarbonetos. Porém, sua interpretação exige um investimento significativo de recursos, e nem sempre é possível obter um resultado satisfatório. A literatura mostra um número crescente de métodos de Deep Learning, DL, para detecção de horizontes, falhas e potenciais reservatórios de hidrocarbonetos, porém, os modelos para detecção de reservatórios de gás apresentam dificuldades de desempenho de generalização, ou seja, o desempenho fica comprometido quando utilizados em imagens sísmicas de novas explorações campanhas. Este problema é especialmente verdadeiro para levantamentos terrestres 2D, onde o processo de aquisição varia e as imagens apresentam muito ruído. Este trabalho apresenta três métodos para melhorar o desempenho de generalização de modelos DL de indicação de gás natural em imagens sísmicas 2D, para esta tarefa são utilizadas abordagens provenientes de Machine Learning, ML e DL. A pesquisa concentra-se na análise de dados para reconhecer padrões nas imagens sísmicas para permitir a seleção de conjuntos de treinamento para o modelo de inferência de gás com base em padrões nas imagens alvo. Esta abordagem permite uma melhor generalização do desempenho sem alterar a arquitetura do modelo DL de inferência de gás ou transformar os traços sísmicos originais. Os experimentos foram realizados utilizando o banco de dados de diferentes campos de exploração localizados na bacia do Parnaíba, no Nordeste do Brasil. Os resultados mostram um aumento de até 39 por cento na indicação correta do gás natural de acordo com a métrica de recall. Esta melhoria varia em cada campo e depende do método proposto utilizado e da existência de padrões representativos dentro do conjunto de treinamento de imagens sísmicas. Estes resultados concluem com uma melhoria no desempenho de generalização do modelo de inferência de gases DL que varia até 21 por cento de acordo com a pontuação F1 e até 15 por cento de acordo com a métrica IoU. Estes resultados demonstram que é possível encontrar padrões dentro das imagens sísmicas usando uma abordagem não supervisionada, e estas podem ser usadas para recomendar o conjunto de treinamento DL de acordo com o padrão na imagem sísmica alvo; Além disso, demonstra que o conjunto de treinamento afeta diretamente o desempenho de generalização do modelo DL para imagens sísmicas. / [en] Interpreting seismic images is an essential task in diverse fields of geosciences, and it s a widely used method in hydrocarbon exploration. However, its interpretation requires a significant investment of resources, and obtaining a satisfactory result is not always possible. The literature shows an increasing number of Deep Learning, DL, methods to detect horizons, faults, and potential hydrocarbon reservoirs, nevertheless, the models to detect gas reservoirs present generalization performance difficulties, i.e., performance is compromised when used in seismic images from new exploration campaigns. This problem is especially true for 2D land surveys where the acquisition process varies, and the images are very noisy. This work presents three methods to improve the generalization performance of DL models of natural gas indication in 2D seismic images, for this task, approaches that come from Machine Learning, ML, and DL are used. The research focuses on data analysis to recognize patterns within the seismic images to enable the selection of training sets for the gas inference model based on patterns in the target images. This approach allows a better generalization of performance without altering the architecture of the gas inference DL model or transforming the original seismic traces. The experiments were carried out using the database of different exploitation fields located in the Parnaíba basin, in northeastern Brazil. The results show an increase of up to 39 percent in the correct indication of natural gas according to the recall metric. This improvement varies in each field and depends on the proposed method used and the existence of representative patterns within the training set of seismic images. These results conclude with an improvement in the generalization performance of the DL gas inference model that varies up to 21 percent according to the F1 score and up to 15 percent according to the IoU metric. These results demonstrate that it is possible to find patterns within the seismic images using an unsupervised approach, and these can be used to recommend the DL training set according to the pattern in the target seismic image; Furthermore, it demonstrates that the training set directly affects the generalization performance of the DL model for seismic images.
40

RAMBLE: robust acoustic modeling for Brazilian learners of English / RAMBLE: modelagem acústica robusta para estudantes brasileiros de Inglês

Shulby, Christopher Dane 08 August 2018 (has links)
The gains made by current deep-learning techniques have often come with the price tag of big data and where that data is not available, a new solution must be found. Such is the case for accented and noisy speech where large databases do not exist and data augmentation techniques, which are less than perfect, present an even larger obstacle. Another problem is that state-of-the-art results are rarely reproducible because they use proprietary datasets, pretrained networks and/or weight initializations from other larger networks. An example of a low resource scenario exists even in the fifth largest land in the world; home to most of the speakers of the seventh most spoken language on earth. Brazil is the leader in the Latin-American economy and as a BRIC country aspires to become an ever-stronger player in the global marketplace. Still, English proficiency is low, even for professionals in businesses and universities. Low intelligibility and strong accents can damage professional credibility. It has been established in the literature for foreign language teaching that it is important that adult learners are made aware of their errors as outlined by the Noticing Theory, explaining that a learner is more successful when he is able to learn from his own mistakes. An essential objective of this dissertation is to classify phonemes in the acoustic model which is needed to properly identify phonemic errors automatically. A common belief in the community is that deep learning requires large datasets to be effective. This happens because brute force methods create a highly complex hypothesis space which requires large and complex networks which in turn demand a great amount of data samples in order to generate useful networks. Besides that, the loss functions used in neural learning does not provide statistical learning guarantees and only guarantees the network can memorize the training space well. In the case of accented or noisy speech where a new sample can carry a great deal of variation from the training samples, the generalization of such models suffers. The main objective of this dissertation is to investigate how more robust acoustic generalizations can be made, even with little data and noisy accented-speech data. The approach here is to take advantage of raw feature extraction provided by deep learning techniques and instead focus on how learning guarantees can be provided for small datasets to produce robust results for acoustic modeling without the dependency of big data. This has been done by careful and intelligent parameter and architecture selection within the framework of the statistical learning theory. Here, an intelligently defined CNN architecture, together with context windows and a knowledge-driven hierarchical tree of SVM classifiers achieves nearly state-of-the-art frame-wise phoneme recognition results with absolutely no pretraining or external weight initialization. A goal of this thesis is to produce transparent and reproducible architectures with high frame-level accuracy, comparable to the state of the art. Additionally, a convergence analysis based on the learning guarantees of the statistical learning theory is performed in order to evidence the generalization capacity of the model. The model achieves 39.7% error in framewise classification and a 43.5% phone error rate using deep feature extraction and SVM classification even with little data (less than 7 hours). These results are comparable to studies which use well over ten times that amount of data. Beyond the intrinsic evaluation, the model also achieves an accuracy of 88% in the identification of epenthesis, the error which is most difficult for Brazilian speakers of English This is a 69% relative percentage gain over the previous values in the literature. The results are significant because it shows how deep feature extraction can be applied to little data scenarios, contrary to popular belief. The extrinsic, task-based results also show how this approach could be useful in tasks like automatic error diagnosis. Another contribution is the publication of a number of freely available resources which previously did not exist, meant to aid future researches in dataset creation. / Os ganhos obtidos pelas atuais técnicas de aprendizado profundo frequentemente vêm com o preço do big data e nas pesquisas em que esses grandes volumes de dados não estão disponíveis, uma nova solução deve ser encontrada. Esse é o caso do discurso marcado e com forte pronúncia, para o qual não existem grandes bases de dados; o uso de técnicas de aumento de dados (data augmentation), que não são perfeitas, apresentam um obstáculo ainda maior. Outro problema encontrado é que os resultados do estado da arte raramente são reprodutíveis porque os métodos usam conjuntos de dados proprietários, redes prétreinadas e/ou inicializações de peso de outras redes maiores. Um exemplo de um cenário de poucos recursos existe mesmo no quinto maior país do mundo em território; lar da maioria dos falantes da sétima língua mais falada do planeta. O Brasil é o líder na economia latino-americana e, como um país do BRIC, deseja se tornar um participante cada vez mais forte no mercado global. Ainda assim, a proficiência em inglês é baixa, mesmo para profissionais em empresas e universidades. Baixa inteligibilidade e forte pronúncia podem prejudicar a credibilidade profissional. É aceito na literatura para ensino de línguas estrangeiras que é importante que os alunos adultos sejam informados de seus erros, conforme descrito pela Noticing Theory, que explica que um aluno é mais bem sucedido quando ele é capaz de aprender com seus próprios erros. Um objetivo essencial desta tese é classificar os fonemas do modelo acústico, que é necessário para identificar automaticamente e adequadamente os erros de fonemas. Uma crença comum na comunidade é que o aprendizado profundo requer grandes conjuntos de dados para ser efetivo. Isso acontece porque os métodos de força bruta criam um espaço de hipóteses altamente complexo que requer redes grandes e complexas que, por sua vez, exigem uma grande quantidade de amostras de dados para gerar boas redes. Além disso, as funções de perda usadas no aprendizado neural não fornecem garantias estatísticas de aprendizado e apenas garantem que a rede possa memorizar bem o espaço de treinamento. No caso de fala marcada ou com forte pronúncia, em que uma nova amostra pode ter uma grande variação comparada com as amostras de treinamento, a generalização em tais modelos é prejudicada. O principal objetivo desta tese é investigar como generalizações acústicas mais robustas podem ser obtidas, mesmo com poucos dados e/ou dados ruidosos de fala marcada ou com forte pronúncia. A abordagem utilizada nesta tese visa tirar vantagem da raw feature extraction fornecida por técnicas de aprendizado profundo e obter garantias de aprendizado para conjuntos de dados pequenos para produzir resultados robustos para a modelagem acústica, sem a necessidade de big data. Isso foi feito por meio de seleção cuidadosa e inteligente de parâmetros e arquitetura no âmbito da Teoria do Aprendizado Estatístico. Nesta tese, uma arquitetura baseada em Redes Neurais Convolucionais (RNC) definida de forma inteligente, junto com janelas de contexto e uma árvore hierárquica orientada por conhecimento de classificadores que usam Máquinas de Vetores Suporte (Support Vector Machines - SVMs) obtém resultados de reconhecimento de fonemas baseados em frames quase no estado da arte sem absolutamente nenhum pré-treinamento ou inicialização de pesos de redes externas. Um objetivo desta tese é produzir arquiteturas transparentes e reprodutíveis com alta precisão em nível de frames, comparável ao estado da arte. Adicionalmente, uma análise de convergência baseada nas garantias de aprendizado da teoria de aprendizagem estatística é realizada para evidenciar a capacidade de generalização do modelo. O modelo possui um erro de 39,7% na classificação baseada em frames e uma taxa de erro de fonemas de 43,5% usando raw feature extraction e classificação com SVMs mesmo com poucos dados (menos de 7 horas). Esses resultados são comparáveis aos estudos que usam bem mais de dez vezes essa quantidade de dados. Além da avaliação intrínseca, o modelo também alcança uma precisão de 88% na identificação de epêntese, o erro que é mais difícil para brasileiros falantes de inglês. Este é um ganho relativo de 69% em relação aos valores anteriores da literatura. Os resultados são significativos porque mostram como raw feature extraction pode ser aplicada a cenários de poucos dados, ao contrário da crença popular. Os resultados extrínsecos também mostram como essa abordagem pode ser útil em tarefas como o diagnóstico automático de erros. Outra contribuição é a publicação de uma série de recursos livremente disponíveis que anteriormente não existiam, destinados a auxiliar futuras pesquisas na criação de conjuntos de dados.

Page generated in 0.0554 seconds