[pt] O monitoramento do desmatamento é altamente dependente de especialistas humanos que analisam imagens ópticas livres de nuvens. O desenvolvimento de metodologias que minimizem a dependência de especialistashumanos bem como da disponibilidade de imagens ópticas livres de nuvenspode contribuir para os esforços de conservação ambiental. Apesar do usomais fácil de imagens ópticas para detecção de desmatamento, a presençade nuvens nessas imagens limita a sua utilização, obrigando a seleção deimagens em épocas específicas do ano em que a presença de nuvens é menor. Porém, mesmo no período mais seco do ano, existem certas regiões daFloresta Amazônica Brasileira onde a presença de nuvens ainda é elevada.Por outro lado, as imagens SAR sofrem menos interferência das nuvens, massão mais difíceis de interpretar. Visando aproveitar ambos, investigamos métodos de fusão desses dados, especialmente usando imagens com condiçõesdiversas de nuvens, que é um assunto inexplorado até onde sabemos. Propusemos o uso de uma estratégia de pré-treinamento a partir de modelosópticos e SAR. Investigamos arquiteturas baseadas em Vision Transformers.Nossos melhores alcançaram o mesmo resultado de F1-Score usando a fusãode imagens SAR com imagens ópticas com condições diversas de nuvens eimagens ópticas livres de nuvens. / [en] Deforestation monitoring is highly dependent on human specialists analyzing cloud-free optical images. Developing methodologies that minimize the
dependency on human specialists and the availability of cloud-free optical
images can contribute to environmental conservation efforts. Despite the
more accessible use of optical images for deforestation detection, the presence of clouds in these images limited the operation, forcing the selection
of images at specific times of the year when the presence of clouds is lower.
However, even in the dryest period of the year, there are certain regions
of the Brazilian Amazon Forest where the cloud presence is still high. On
the other hand, the SAR images suffer less interference from clouds, but
are more challenging to interpret. Aiming to take advantage of both, we
investigated Deep Leaning methods of fusion of these data, especially in diverse cloud presence conditions, which is an unexplored subject, as best as
we know. We proposed using a pre-training strategy from single-modality
optical and SAR models. We investigated ways to combine the SAR images
across the analyzed period. We also investigated Vision Transformer-based
architectures. Our best results reached the same F1-Score result fusing SAR
images with optical images with diverse cloud conditions and with cloud-free
optical images.
Identifer | oai:union.ndltd.org:puc-rio.br/oai:MAXWELL.puc-rio.br:68353 |
Date | 10 October 2024 |
Creators | FELIPE FERRARI |
Contributors | RAUL QUEIROZ FEITOSA |
Publisher | MAXWELL |
Source Sets | PUC Rio |
Language | English |
Detected Language | English |
Type | TEXTO |
Page generated in 0.0028 seconds