• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 11
  • Tagged with
  • 30
  • 30
  • 30
  • 30
  • 30
  • 9
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

[en] COMPARASION BETWEEN LAND USE AND LAND COVER DATA FROM TERRACLASS AND THE AGRICULTURAL CENSUS IN THE MUNICIPALITY OF LÁBREA - AM / [pt] COMPARAÇÃO ENTRE OS DADOS DE USO E COBERTURA DO SOLO DO TERRACLASS E O CENSO AGROPECUÁRIO NO MUNICÍPIO DE LÁBREA - AM

PRISCILA RIBEIRO DE CARVALHO DE MEDEIROS 06 March 2020 (has links)
[pt] Este trabalho propõe a comparação entre os dados do TerraClass 2004 e o Censo Agropecuário 2006 para analisar o uso de um na ausência do outro, para compreender o uso e cobertura do solo pela agropecuária na área de estudo. Através dos dados de uso e cobertura do solo do TerraClass 2004 e do Censo Agropecuário 2006, foi feita uma análise das áreas de cada classe que se enquadram como atividade agropecuária e uma comparação dessas áreas nas duas classificações. A análise utilizou o Sistema de Informação Geográfica (SIG) com imagens de satélite Landsat/TM 5 para auxiliar na análise visual qualitativa das classes e obter respostas sobre o uso e ocupação do solo no município de Lábrea. Foram escolhidos 16 setores censitários sobre os quais se tinha dados de classes referentes a agropecuária, analisando e percebendo uma variação percentual considerável em relação as duas classificações. A metodologia de comparação serviu para verificar que os métodos de aquisição dos dados do TerraClass 2004 e do Censo Agropecuário 2006 apresentam diferenças consideráveis nos resultados. Foram encontradas na classificação do TerraClass, através da análise qualitativa utilizando a imagem de satélite, dúvidas quanto a algumas classes sem vegetação, mas que não foram classificadas como atividade agropecuária, como desflorestamento, e essas consideradas duvidosas. Por fim, o presente trabalho conclui que não é adequado utilizar os dados do TerraClass na ausência do Censo Agropecuário, ou vice-versa, tendo em vista a disparidade encontrada em alguns dos setores censitários analisados. Sugere-se para trabalhos futuros um estudo específico para saber as causas das áreas desmatadas das classes consideradas duvidosas. / [en] This work proposes comparing data provided by 2004 s TerraClass and 2006 s Agribusiness Census, analyzing the validity of using one absent the other to comprehend the land cover in relation to said business within the studied area. The areas of the classes related to agribusiness were compared through the land cover reported in each classification. This analysis took place in a GIS environment with the use of Landsat/TM 5 to aid in the visual qualitative comparison of the data. The region of interest was the municipality of the Labrea district in the southern region of the Amazonas state. Sixteen census sector that showed agribusiness information were chose for the comparison of the percentages of area attributed to that business type. The variation of such areas was noteworthy and it was deemed that one should not use the two sources compared interchangeably as the information does not match. Moreover, some classes of the TerraClass classification stood out and regarded as uncertain – such as generic deflorestation and not forest – as, knowing the regions historical occupation and recent expansion of agribusiness, one would suspect that those are indeed related to the agents studied in this work.
22

[en] INTERIMAGE CLOUD PLATFORM: THE ARCHITECTURE OF A DISTRIBUTED PLATFORM FOR AUTOMATIC, OBJECT-BASED IMAGE INTERPRETATION / [pt] PLATAFORMA EM NUVEM INTERIMAGE: A ARQUITETURA DE UMA PLATAFORMA DISTRIBUÍDA PARA A INTERPRETAÇÃO AUTOMÁTICA DE IMAGENS BASEADA EM OBJETOS

RODRIGO DA SILVA FERREIRA 27 April 2016 (has links)
[pt] O objetivo genérico desta tese foi o desenvolvimento de uma arquitetura computacional distribuída para a interpretação automática, baseada em objetos, de grandes volumes de dados de imagem de sensoriamento remoto, com foco na distribuição de dados e processamento em um ambiente de computação em nuvem. Dois objetivos específicos foram perseguidos: (i) o desenvolvimento de uma nova arquitetura distribuída para análise de imagens que é capaz de lidar com vetores e imagens ao mesmo tempo; e (ii) a modelagem e implementação de uma plataforma distribuída para a interpretação de grandes volumes de dados de sensoriamento remoto. Para validar a nova arquitetura, foram realizados experimentos com dois modelos de classificação – um de cobertura da terra e outro de uso do solo – sobre uma imagem QuickBird de uma área do município de São Paulo. Os modelos de classificação, propostos por Novack (Novack09), foram recriados usando as estruturas de representação do conhecimento da nova plataforma. Nos experimentos executados, a plataforma foi capaz de processar todo o modelo de classificação de cobertura da terra para uma imagem de 32.000x32.000 pixels (aproximadamente 3,81 GB), com aproximadamente 8 milhões de objetos de imagem (aproximadamente 23,2 GB), em apenas 1 hora, utilizando 32 máquinas em um serviço de nuvem comercial. Resultados igualmente interessantes foram obtidos para o modelo de classificação de uso do solo. Outra possibilidade de paralelismo oferecida pelas estruturas de representação de conhecimento da plataforma também foi avaliada. / [en] The general objective of this thesis was the development of a distributed computational architecture for the automatic, object-based interpretation of large volumes of remote sensing image data, focusing on data and processing distribution in a cloud computing environment. Two specific objectives were pursued: (i) the development of a novel distributed architecture for image analysis that is able to deal with vectors and rasters at the same time; and (ii) the design and implementation of an open-source, distributed platform for the interpretation of very large volumes of remote sensing data. In order to validate the new architecture, experiments were carried out using two classification models – land cover and land use – on a QuickBird image of an area of the São Paulo municipality. The classification models, proposed by Novack (Novack09), were recreated using the knowledge representation structures available in the new platform. In the executed experiments, the platform was able to process the whole land cover classification model on a 32,000x32,000-pixel image (approximately 3.81 GB), with approximately 8 million image objects (approximately 23.2 GB), in just one hour, using 32 machines in a commercial cloud computing service. Equally interesting results were obtained for the land use classification model. Another possibility of parallelism provided by the platform s knowledge representation structures was also evaluated.
23

[en] A DISTRIBUTED REGION GROWING IMAGE SEGMENTATION BASED ON MAPREDUCE / [pt] SEGMENTAÇÃO DE IMAGENS DISTRIBUÍDA BASEADA EM MAPREDUCE

PATRICK NIGRI HAPP 29 August 2018 (has links)
[pt] A Segmentação de imagens representa uma etapa fundamental na análise de imagens e geralmente envolve um alto custo computacional, especialmente ao lidar com grandes volumes de dados. Devido ao significativo aumento nas resoluções espaciais, espectrais e temporais das imagens de sensoriamento remoto nos últimos anos, as soluções sequenciais e paralelas atualmente empregadas não conseguem alcançar os níveis de desempenho e escalabilidade esperados. Este trabalho propõe um método de segmentação de imagens distribuída capaz de lidar, de forma escalável e eficiente, com imagens grandes de altíssima resolução. A solução proposta é baseada no modelo MapReduce, que oferece uma estrutura altamente escalável e confiável para armazenar e processar dados muito grandes em ambientes de computação em clusters e, em particular, também para nuvens privadas e comerciais. O método proposto é extensível a qualquer algoritmo de crescimento de regiões podendo também ser adaptado para outros modelos. A solução foi implementada e validada usando a plataforma Hadoop. Os resultados experimentais comprovam a viabilidade de realizar a segmentação distribuída sobre o modelo MapReduce por intermédio da computação na nuvem. / [en] Image segmentation is a critical step in image analysis, and generally involves a high computational cost, especially when dealing with large volumes of data. Given the significant increase in the spatial, spectral and temporal resolutions of remote sensing imagery in the last years, current sequential and parallel solutions fail to deliver the expected performance and scalability. This work proposes a distributed image segmentation method, capable of handling very large high-resolution images in an efficient and scalable way. The proposed solution is based on the MapReduce model, which offers a highly scalable and reliable framework for storing and processing massive data in cluster environments and in private and public computing clouds. The proposed method is extendable to any region-growing algorithm and can be adapted to other models. The solution was implemented and validated using the Hadoop platform. Experimental results attest the viability of performing distributed segmentation over the MapReduce model through cloud computing.
24

[en] END-TO-END CONVOLUTIONAL NEURAL NETWORK COMBINED WITH CONDITIONAL RANDOM FIELDS FOR CROP MAPPING FROM MULTITEMPORAL SAR IMAGERY / [pt] TREINAMENTO PONTA A PONTA DE REDES NEURAIS CONVOLUCIONAIS COMBINADAS COM CAMPOS ALEATÓRIOS CONDICIONAIS PARA O MAPEAMENTO DE CULTURAS A PARTIR DE IMAGENS SAR MULTITEMPORAIS

LAURA ELENA CUE LA ROSA 21 May 2024 (has links)
[pt] Imagens de sensoriamento remoto permitem o monitoramento e mapeamento de culturas de maneira precisa, apoiando práticas de agriculturaeficientes e sustentáveis com o objetivo de garantir a segurança alimentar.No entanto, a identificação do tipo de cultura a partir de dados de sensoriamento remoto em regiões tropicais ainda são consideradas tarefas comalto grau de dificuldade. As favoráveis condições climáticas permitem o uso,planejamento e o manejo da terra com maior flexibilidade, o que implica emculturas com dinâmicas mais complexas. Além disso, a presença constantede nuvens dificulta o uso de imagens ópticas, tornando as imagens de radar uma alternativa interessante para o mapeamento de culturas em regiõestropicais. Os modelos de campos aleatórios condicionais (CRFs) têm sidousados satisfatoriamente para explorar o contexto temporal e espacial naclassificação de imagens de sensoriamento remoto. Estes modelos oferecemuma alta precisão na classificação, no entanto, dependem de atributos extraídos manualmente com base em conhecimento especializado do domínio.Neste contexto, os métodos de aprendizado profundo, tais como as redesneurais convolucionais (CNNs), provaram ser uma alternativa robusta paraa classificação de imagens de sensoriamento, pois podem aprender atributosótimos diretamente dos dados. Este trabalho apresenta um modelo híbridobaseado em aprendizado profundo e CRF para o reconhecimento de culturas em áreas de regiões tropicais caracterizadas por ter uma dinâmicaespaço–temporal complexa. O framework proposto consiste em dois módulos: uma CNNs que modela o contexto espacial e temporal dos dados deentrada, e o CRF que modela a dinâmica temporal considerando a dependência entre rótulos para datas adjacentes. Estas dependências podem seraprendidas ou desenhadas por um especialista nas práticas de agriculturalocal. Comparações entre diferentes variantes de como modelar as transiçõestemporais são apresentadas usando sequências de imagens SAR de duas municipalidades no Brasil. Os experimentos mostraram melhorias significativasatingindo ate 30 por cento no F1 score por classe e ate 12 por cento no F1 score medio em relação ao modelo de base que não inclui dependências temporais duranteo processo de aprendizagem. / [en] Remote sensing imagery enables accurate crop mapping and monitoring, supporting efficient and sustainable agricultural practices to ensure food security. However, accurate crop type identification and crop area estimation from remote sensing data in tropical regions are still challenging tasks. Compared to the characteristic conditions of temperate regions, the more favorable weather conditions in tropical regions permit higher flexibility in land use, planning, and management, which implies complex crop dynamics. Moreover, the frequent cloud cover prevents the use of optical data during large periods of the year, making SAR data an attractive alternative for crop mapping in tropical regions. To exploit both spatial and temporal contex, conditional random fields (CRFs) models have been used successfully in the classification of RS imagery. These approaches deliver high accuracies; however, they rely on features engineering manually designed based on domain-specific knowledge. In this context, deep learning methods such as convolutional neural networks (CNNs) proved to be a robust alternative for remote sensing image classification, as they can learn optimal features and classification parameters directly from raw data. This work introduces a novel end-to-end hybrid model based on deep learning and conditional random fields for crop recognition in areas characterized by complex spatio-temporal dynamics typical of tropical regions. The proposed framework consists of two modules: a CNN that models spatial and temporal contexts from the input data and a CRF that models temporal dynamics considering label dependencies between adjacent epochs. These dependencies can be learned or designed by an expert in local agricultural practices. Comparisons between data-driven and prior-knowledge temporal constraints are presented for two municipalities in Brazil, using multi-temporal SAR image sequences. The experiments showed significant improvements in per class F1 score of up to 30 percent and up to 12 percent in average F1 score against a baseline model that doesn t include temporal dependencies during the learning process.
25

[en] REMOTE SENSING IMAGE CLASSIFICATION USING SVM / [pt] CLASSIFICAÇÃO DE IMAGENS DE SENSORIAMENTO REMOTO USANDO SVM

RAPHAEL BELO DA SILVA MELONI 14 September 2017 (has links)
[pt] Classificação de imagens é o processo de extração de informação em imagens digitais para reconhecimento de padrões e objetos homogêneos, que em sensoriamento remoto propõe-se a encontrar padrões entre os pixels pertencentes a uma imagem digital e áreas da superfície terrestre, para uma análise posterior por um especialista. Nesta dissertação, utilizamos a metodologia de aprendizado de máquina support vector machines para o problema de classificação de imagens, devido a possibilidade de trabalhar com grande quantidades de características. Construímos classificadores para o problema, utilizando imagens distintas que contém as informações de espaços de cores RGB e HSB, dos valores altimétricos e do canal infravermelho de uma região. Os valores de relevo ou altimétricos contribuíram de forma excelente nos resultados, uma vez que esses valores são características fundamentais de uma região e os mesmos não tinham sido analisados em classificação de imagens de sensoriamento remoto. Destacamos o resultado final, do problema de classificação de imagens, para o problema de identificação de piscinas com vizinhança dois. Os resultados obtidos são 99 por cento de acurácia, 100 por cento de precisão, 93,75 por cento de recall, 96,77 por cento de F-Score e 96,18 por cento de índice Kappa. / [en] Image Classification is an information extraction process in digital images for pattern and homogeneous objects recognition. In remote sensing it aims to find patterns from digital images pixels, covering an area of earth surface, for subsequent analysis by a specialist. In this dissertation, to this images classification problem we employ Support Vector Machines, a machine learning methodology, due the possibility of working with large quantities of features. We built classifiers to the problem using different image information, such as RGB and HSB color spaces, altimetric values and infrared channel of a region. The altimetric values contributed to excellent results, since these values are fundamental characteristics of a region and they were not previously considered in remote sensing images classification. We highlight the final result, for the identifying swimming pools problem, when neighborhood is two. The results have 99 percent accuracy, 100 percent precision, 93.75 percent of recall, 96.77 percent F-Score and 96.18 percent of Kappa index.
26

[pt] APLICAÇÃO DE REDES TOTALMENTE CONVOLUCIONAIS PARA A SEGMENTAÇÃO SEMÂNTICA DE IMAGENS DE DRONES, AÉREAS E ORBITAIS / [en] APPLYING FULLY CONVOLUTIONAL ARCHITECTURES FOR THE SEMANTIC SEGMENTATION OF UAV, AIRBORN, AND SATELLITE REMOTE SENSING IMAGERY

14 December 2020 (has links)
[pt] A crescente disponibilidade de dados de sensoriamento remoto vem criando novas oportunidades e desafios em aplicações de monitoramento de processos naturais e antropogénicos em escala global. Nos últimos anos, as técnicas de aprendizado profundo tornaram-se o estado da arte na análise de dados de sensoriamento remoto devido sobretudo à sua capacidade de aprender automaticamente atributos discriminativos a partir de grandes volumes de dados. Um dos problemas chave em análise de imagens é a segmentação semântica, também conhecida como rotulação de pixels. Trata-se de atribuir uma classe a cada sítio de imagem. As chamadas redes totalmente convolucionais de prestam a esta função. Os anos recentes têm testemunhado inúmeras propostas de arquiteturas de redes totalmente convolucionais que têm sido adaptadas para a segmentação de dados de observação da Terra. O presente trabalho avalias cinco arquiteturas de redes totalmente convolucionais que representam o estado da arte em segmentação semântica de imagens de sensoriamento remoto. A avaliação considera dados provenientes de diferentes plataformas: veículos aéreos não tripulados, aeronaves e satélites. Cada um destes dados refere-se a aplicações diferentes: segmentação de espécie arbórea, segmentação de telhados e desmatamento. O desempenho das redes é avaliado experimentalmente em termos de acurácia e da carga computacional associada. O estudo também avalia os benefícios da utilização do Campos Aleatórios Condicionais (CRF) como etapa de pósprocessamento para melhorar a acurácia dos mapas de segmentação. / [en] The increasing availability of remote sensing data has created new opportunities and challenges for monitoring natural and anthropogenic processes on a global scale. In recent years, deep learning techniques have become state of the art in remote sensing data analysis, mainly due to their ability to learn discriminative attributes from large volumes of data automatically. One of the critical problems in image analysis is the semantic segmentation, also known as pixel labeling. It involves assigning a class to each image site. The so-called fully convolutional networks are specifically designed for this task. Recent years have witnessed numerous proposals for fully convolutional network architectures that have been adapted for the segmentation of Earth observation data. The present work evaluates five fully convolutional network architectures that represent the state of the art in semantic segmentation of remote sensing images. The assessment considers data from different platforms: unmanned aerial vehicles, airplanes, and satellites. Three applications are addressed: segmentation of tree species, segmentation of roofs, and deforestation. The performance of the networks is evaluated experimentally in terms of accuracy and the associated computational load. The study also assesses the benefits of using Conditional Random Fields (CRF) as a post-processing step to improve the accuracy of segmentation maps.
27

[pt] DESENVOLVIMENTO E VALIDAÇÃO DE SENSOR LIDAR VIRTUAL / [en] DEVELOPMENT AND VALIDATION OF A LIDAR VIRTUAL SENSOR

GUILHERME FERREIRA GUSMAO 25 June 2020 (has links)
[pt] As tecnologias de imageamento em três dimensões (3D) vêm tendo seu uso cada vez mais disseminado no meio acadêmico e no setor industrial, especialmente na forma de nuvens de pontos, uma representação matemática da geometria e superfície de um objeto ou área. No entanto, a obtenção desses dados pode ainda ser cara e demorada, reduzindo a eficiência de muitos procedimentos que são dependentes de um grande conjunto de nuvens de pontos, como a geração de datasets para treinamento de aprendizagem de máquina, cálculo de dossel florestal e inspeção submarina. Uma solução atualmente em voga é a criação de simuladores computacionais de sistemas de imageamento, realizando o escaneamento virtual de um cenário feito a partir de arquivos de objetos 3D. Este trabalho apresenta o desenvolvimento de um simulador de sistema LiDAR (light detection and ranging) baseado em algoritmos de rastreamento de raio com paralelismo (GPU raytracing), com o sensor virtual modelado por parâmetros metrológicos e calibrado por meio de comparação com um sensor real, juntamente com um gerador flexível de cenários virtuais. A combinação destas ferramentas no simulador resultou em uma geração robusta de nuvens de pontos sintéticas em cenários diversos, possibilitando a criação de datasets para uso em testes de conceitos, combinação de dados reais e virtuais, entre outras aplicações. / [en] Three dimensional (3D) imaging technologies have been increasingly used in academia and in the industrial sector, especially in the form of point clouds, a mathematical representation of the geometry and surface of an object or area. However, obtaining this data can still be expensive and time consuming, reducing the efficiency of many procedures dependent on a large set of point clouds, such as the generation of datasets for machine learning training, forest canopy calculation and subsea survey. A trending solution is the development of computer simulators for imaging systems, performing the virtual scanning of a scenario made from 3D object files. At the end of this process, synthetic point clouds are obtained. This work presents the development of a LiDAR system simulator (light detection and ranging) based on parallel ray tracing algorithms (GPU raytracing), with its virtual sensor modeled by metrological parameters. A way of calibrating the sensor is displayed, by comparing it with the measurements of a real LiDAR sensor, in addition to surveying error models to increase the realism of the virtual scan. A flexible scenario creator was also implemented to facilitate interaction with the user. The combination of these tools in the simulator resulted in a robust generation of synthetic point clouds in different scenarios, enabling the creation of datasets for use in concept tests, combining real and virtual data, among other applications.
28

[pt] CONSEQUÊNCIAS AMBIENTAIS DA APLICAÇÃO DO DECRETO ESTADUAL N 42.356/2010 NA DELIMITAÇÃO DE FAIXA MARGINAL DE PROTEÇÃO EM ÁREA URBANA CONSOLIDADA: ESTUDO DE CASO: RIO PIABANHA/RJ - TRECHO 4 / [en] ENVIRONMENTAL CONSEQUENCES OF THE APPLICATION OF STATE DECREE 42.356/2010 IN THE DELIMITATION OF THE PROTECTION MARGINAL STRIP IN A CONSOLIDATED URBAN AREA: CASE STUDY: PIABANHA/RJ RIVER - SECTION 4

JORGE CHAVES JUNIOR 25 February 2021 (has links)
[pt] No Brasil, o Rio de Janeiro é o único Estado com atribuição legal para demarcação de Faixas Marginais de Proteção, amparado pelo Decreto Estadual n.° 42.356/2010 que, para áreas urbanas consolidadas, permite aplicar limites inferiores aos limites mínimos do Código Florestal Brasileiro. As alterações das margens do rio Piabanha são relevantes devido à importância deste corpo hídrico para a melhoria da qualidade das águas do rio Paraíba do Sul que é o principal manancial de abastecimento do Estado do Rio de Janeiro. Por meio do sensoriamento remoto via satélites foi possível identificar que, entre o ano de 2006 e o ano de 2019 a degradação ambiental nas áreas que deixaram de integrar as Faixas Marginais de Proteção do rio Piabanha/RJ foi crescente, apesar de também ter sido identificada regeneração de algumas áreas que, entretanto, não superara o quantitativo de áreas desmatadas ou que poderiam ter sido recuperadas. Assim, pode-se concluir que a revisão do Decreto Estadual n. 42.356/2010 é necessária, o qual não deveria ter sido editado sem previsão de aplicação de instrumentos urbanísticos que considerasse a regeneração e a recuperação das áreas das margens dos corpos hídricos e sem que houvesse um planejamento urbano com alternativas locacionais voltadas às questões das ocupações irregulares e futuras. / [en] The areas on the margins of rivers, due to their hydrological, geological and ecological characteristics, need to be properly demarcated to be monitored and protected against human actions. In this context, the Protection Marginal Strips are of great importance and, thus, discussions about the norms that aim to protect these areas in urban environment become relevant, as many cities appear and grow along water courses without observing the land use and occupation regimes. In the State of Rio de Janeiro, the Instituto Estadual do Ambiente (INEA) uses to demarcate the Protection Marginal Strips of river minimum limits determined by State Decree 42.356/2010 that admits, for consolidated urban areas, lower limits than those established by the Brazilian Forest Code. The Piabanha River, that has its source in the Serra do Mar, in the municipality of Petrópolis, and flows into the municipality of Três Rios, was chosen as the object of work due to its importance as a tributary of the Paraíba do Sul River, one of the main sources of Rio de Janeiro. In addition, it has a large part of its extension in the mountainous region of the state, where flood events are frequent. Therefore, the technical-scientific approach of this work seeks to verify occurrences of removal of natural protection by deforestation and anthropic occupations in areas that have been excluded to Protection Marginal Strips of the Piabanha/RJ river, in consolidated urban areas, after the edition of the State Decree 42.356/2010, when it started to be applied in the demarcation of Protection Marginal Strips of waterbodies in the State of Rio de Janeiro.
29

[pt] MONITORAMENTO SEMIAUTOMÁTICO DO DESMATAMENTO NOS BIOMAS BRASILEIROS AMAZÔNIA E CERRADO: ESTIMATIVA DE INCERTEZA E CARACTERIZAÇÃO DE ÁREAS DE ALTA INCERTEZA / [en] SEMI-AUTOMATIC MONITORING OF DEFORESTATION IN THE BRAZILIAN AMAZON AND CERRADO BIOMES: UNCERTAINTY ESTIMATION AND CHARACTERIZATION OF HIGH UNCERTAINTY AREAS

JORGE ANDRES CHAMORRO MARTINEZ 19 February 2024 (has links)
[pt] O monitoramento oficial do desmatamento na Amazônia brasileira tem dependido tradicionalmente de especialistas humanos que avaliam visualmenteas imagens de sensoriamento remoto e rotulam cada pixel individual comodesmatamento ou não desmatamento. Essa metodologia é obviamente carae demorada devido à vasta área monitorada. A razão para não utilizar métodos totalmente automáticos para a tarefa é a necessidade da maior precisãopossível nos números oficiais de desmatamento. Neste trabalho é propostauma alternativa semi-automática baseada em aprendizagem profunda, naqual uma rede neural profunda é primeiro treinada com imagens existentes e referências de anos anteriores, e empregada para realizar detecção dedesmatamento em imagens recentes. Após a inferência, a incerteza nos resultados em nível de pixel da rede é estimada e assume-se que os resultadosda classificação com baixa incerteza podem ser confiáveis. As demais regiõesde alta incerteza, que correspondem a uma pequena porcentagem da áreade teste, são então submetidas à pós-classificação, por exemplo, um procedimento de auditoria realizado visualmente por um especialista humano.Desta forma, o esforço de etiquetagem manual é bastante reduzido.Investigamos várias estratégias de estimativa de incerteza, incluindo abordagens baseadas em confiança, Monte Carlo Dropout (MCD), conjuntosprofundos e aprendizagem evidencial, e avaliamos diferentes métricas de incerteza. Além disso, conduzimos uma análise abrangente para identificar ascaracterísticas das áreas florestais que contribuem para a elevada incerteza.Ilustramos as principais conclusões da análise em 25 polígonos selecionados em quatro locais-alvo, que exemplificam causas comuns de incerteza.Os sítios-alvo estão localizados em áreas de estudo desafiadoras nos biomasbrasileiros da Amazônia e do Cerrado. Através da avaliação experimental nesses locais, demonstramos que a metodologia semi-automática proposta atinge valores impressionantes de pontuação F1 que excedem 97 por cento, aomesmo tempo que reduz a carga de trabalho de auditoria visual para apenas 3 por cento da área alvo. O código desenvolvido para este estudo está disponível emhttps://github.com/DiMorten/deforestation_uncertainty. / [en] Official monitoring of deforestation in the Brazilian Amazon has relied traditionally on human experts who visually evaluate remote sensing images and label each individual pixel as deforestation or no deforestation. That methodology is obviously costly and time-consuming due to the vast monitored area. The reason for not using fully automatic methods for the task is the need for the highest possible accuracies in the authoritative deforestation figures. In this work, a semi-automatic, deep learning-based alternative is proposed, in which a deep neural network is first trained with existing images and references from previous years, and employed to perform deforestation detection on recent images. After inference, the uncertainty in the network s pixel-level results is estimated, and it is assumed that low-uncertainty classification results can be trusted. The remaining high-uncertainty regions, which correspond to a small percentage of the test area, are then submitted to post classification, e.g., an auditing procedure carried out visually by a human specialist. In this way, the manual labeling effort is greatly reduced. We investigate various uncertainty estimation strategies, including confidence-based approaches, Monte Carlo Dropout (MCD), deep ensembles and evidential learning, and evaluate different uncertainty metrics. Furthermore, we conduct a comprehensive analysis to identify the characteristics of forest areas that contribute to high uncertainty. We illustrate the main conclusions of the analysis upon 25 selected polygons on four target sites, which exemplify common causes of uncertainty. The target sites are located in challenging study areas in the Brazilian Amazon and Cerrado biomes. Through experimental evaluation on those sites, we demonstrate that the proposed semi-automated methodology achieves impressive F1-score values which exceeds 97 percent, while reducing the visual auditing workload to just 3 percent of the target area. The current code is available at https://github.com/DiMorten/deforestation_uncertainty.
30

[pt] SINTETIZAÇÃO DE IMAGENS ÓTICAS MULTIESPECTRAIS A PARTIR DE DADOS SAR/ÓTICOS USANDO REDES GENERATIVAS ADVERSARIAS CONDICIONAIS / [en] SYNTHESIS OF MULTISPECTRAL OPTICAL IMAGES FROM SAR/OPTICAL MULTITEMPORAL DATA USING CONDITIONAL GENERATIVE ADVERSARIAL NETWORKS

JOSE DAVID BERMUDEZ CASTRO 08 April 2021 (has links)
[pt] Imagens óticas são frequentemente afetadas pela presença de nuvens. Com o objetivo de reduzir esses efeitos, diferentes técnicas de reconstrução foram propostas nos últimos anos. Uma alternativa comum é explorar dados de sensores ativos, como Radar de Abertura Sintética (SAR), dado que são pouco dependentes das condições atmosféricas e da iluminação solar. Por outro lado, as imagens SAR são mais difíceis de interpretar do que as imagens óticas, exigindo um tratamento específico. Recentemente, as Redes Adversárias Generativas Condicionais (cGANs - Conditional Generative Adversarial Networks) têm sido amplamente utilizadas para aprender funções de mapeamento que relaciona dados de diferentes domínios. Este trabalho, propõe um método baseado em cGANSs para sintetizar dados óticos a partir de dados de outras fontes, incluindo dados de múltiplos sensores, dados multitemporais e dados em múltiplas resoluções. A hipótese desse trabalho é que a qualidade das imagens geradas se beneficia do número de dados utilizados como variáveis condicionantes para a cGAN. A solução proposta foi avaliada em duas bases de dados. Foram utilizadas como variáveis condicionantes dados corregistrados SAR, de uma ou duas datas produzidos pelo sensor Sentinel 1, e dados óticos de sensores da série Sentinel 2 e LANDSAT, respectivamente. Os resultados coletados dos experimentos demonstraram que a solução proposta é capaz de sintetizar dados óticos realistas. A qualidade das imagens sintetizadas foi medida de duas formas: primeiramente, com base na acurácia da classificação das imagens geradas e, em segundo lugar, medindo-se a similaridade espectral das imagens sintetizadas com imagens de referência. Os experimentos confirmaram a hipótese de que o método proposto tende a produzir melhores resultados à medida que se exploram mais variáveis condicionantes para a cGAN. / [en] Optical images from Earth Observation are often affected by the presence of clouds. In order to reduce these effects, different reconstruction techniques have been proposed in recent years. A common alternative is to explore data from active sensors, such as Synthetic Aperture Radar (SAR), as they are nearly independent on atmospheric conditions and solar lighting. On the other hand, SAR images are more difficult to interpret than optical images, requiring specific treatment. Recently, conditional Generative Adversarial Networks (cGANs) have been widely used to learn mapping functions that relate data of different domains. This work proposes a method based on cGANs to synthesize optical data from data of other sources: data of multiple sensors, multitemporal data and data at multiple resolutions. The working hypothesis is that the quality of the generated images benefits from the number of data used as conditioning variables for cGAN. The proposed solution was evaluated in two databases. As conditioning data we used co-registered data from SAR at one or two dates produced by the Sentinel 1 sensor, and optical images produced by the Sentinel 2 and LANDSAT satellite series, respectively. The experimental results demonstrated that the proposed solution is able to synthesize realistic optical data. The quality of the synthesized images was measured in two ways: firstly, based on the classification accuracy of the generated images and, secondly, on the spectral similarity of the synthesized images with reference images. The experiments confirmed the hypothesis that the proposed method tends to produce better results as we explore more conditioning data for the cGANs.

Page generated in 0.053 seconds