Spelling suggestions: "subject:"generativa"" "subject:"degenerativas""
1 |
[en] ATROUS CGAN FOR SAR TO OPTICAL IMAGE TRANSLATION / [pt] ATROUS CGAN PARA TRADUÇÃO DE IMAGENS SAR À ÓTICAJAVIER NOA TURNES 18 November 2020 (has links)
[pt] A captura de cenas de cobertura da Terra com sensores óticos de satélite é frequentemente limitada pela presença de nuvens que corrompem as imagens coletadas. Entre os métodos para recuperar imagens óticas de satélite corrompidas por nuvens, várias abordagens de tradução de imagemimagem
usando Redes Adversárias Generativas (GANs) têm surgido com bons resultados, conseguindo criar imagens óticas realistas a partir de imagens de Radar de Abertura Sintética (SAR). Os métodos baseados
em GANs condicionais (cGAN) propostos até agora para a síntese de imagens SAR-óticas tendem a produzir imagens ruidosas e com pouca nitidez. Neste trabalho, propomos a atrous-cGAN, uma nova arquitetura
que melhora a transformação de imagem SAR em ótica. As redes propostas para o gerador e discriminador contam com convolusões dilatadas (atrous) e incorporam o módulo Pirâmide Espacial Atrous Pooling (ASPP) para realçar detalhes finos na imagem ótica gerada, explorando o contexto espacial em várias escalas. Este trabalho apresenta experimentos realizados para avaliar o desempenho da atrous-cGAN na síntese de imagens Landsat a partir de dados Sentinel-1A, usando quatro bases de dados públicas. A análise experimental indicou que a atrous-cGAN supera o modelo clássico pix2pix como uma ferramenta de aprendizado de atributos para segmentação semântica. A proposta também gera imagens com maior qualidade visual, e em geral com maior semelhança com a verdadeira imagem ótica. / [en] The capture of land cover scenes with optical satellite sensors is often constrained by the presence of clouds that corrupt the collected images. Among the methods for recovering satellite optical images corrupted by clouds, several image to image translation approaches using Generative Adversarial
Networks (GANs) have emerged with profitable results, managing to create realistic optical images from Synthetic Aperture Radar (SAR) data. Conditional GAN (cGAN) based methods proposed so far for SAR-to-optical image synthesis tend to produce noisy and unsharp optical outcomes. In this work, we propose the atrous-cGAN, a novel cGAN architecture that improves the SAR-to-optical image translation. The proposed generator and discriminator networks rely on atrous convolutions and incorporate the Atrous
Spatial Pyramid Pooling (ASPP) module to enhance fine details in the generated optical image by exploiting spatial context at multiple scales. This work reports experiments carried out to assess the performance of atrouscGAN for the synthesis of Landsat images from Sentinel-1A data based on four public datasets. The experimental analysis indicated that the atrouscGAN overcomes the classical pix2pix model as a feature learning tool for semantic segmentation. The proposal also generates higher visual quality images, in general with higher similarity with the true optical image.
|
2 |
[pt] APRIMORANDO A SÍNTESE DE IMAGENS A PARTIR DE TEXTO UTILIZANDO TRANSFERÊNCIA DE APRENDIZADO U2C / [en] IMPROVING TEXT-TO-IMAGE SYNTHESIS WITH U2C - TRANSFER LEARNINGVINICIUS GOMES PEREIRA 06 February 2024 (has links)
[pt] As Redes Generativas Adversariais (GANs) são modelos não supervisionados capazes de aprender a partir de um número indefinidamente grande
de imagens. Entretanto, modelos que geram imagens a partir de linguagem
dependem de dados rotulados de alta qualidade, que são escassos. A transferência de aprendizado é uma técnica conhecida que alivia a necessidade de
dados rotulados, embora transformar um modelo gerativo incondicional em um
modelo condicionado a texto não seja uma tarefa trivial. Este trabalho propõe uma abordagem de ajuste simples, porém eficaz, chamada U2C transfer.
Esta abordagem é capaz de aproveitar modelos pré-treinados não condicionados enquanto aprende a respeitar as condições textuais fornecidas. Avaliamos
a eficiência do U2C transfer ao ajustar o StyleGAN2 em duas das fontes de
dados mais utilizadas para a geração images a partir de texto, resultando
na arquitetura Text-Conditioned StyleGAN2 (TC-StyleGAN2). Nossos modelos alcançaram rapidamente o estado da arte nas bases de dados CUB-200 e
Oxford-102, com valores de FID de 7.49 e 9.47, respectivamente. Esses valores
representam ganhos relativos de 7 por cento e 68 por cento, respectivamente, em comparação
com trabalhos anteriores. Demonstramos que nosso método é capaz de aprender detalhes refinados a partir de consultas de texto, produzindo imagens fotorrealistas e detalhadas. Além disso, mostramos que os modelos organizam o
espaço intermediário de maneira semanticamente significativa. Nossas descobertas revelam que as imagens sintetizadas usando nossa técnica proposta não
são apenas críveis, mas também exibem forte alinhamento com suas descrições
textuais correspondentes. De fato, os escores de alinhamento textual alcançados por nosso método são impressionantemente e comparáveis aos das imagens
reais. / [en] Generative Adversarial Networks (GANs) are unsupervised models that
can learn from an indefinitely large amount of images. On the other hand,
models that generate images from language queries depend on high-quality
labeled data that is scarce. Transfer learning is a known technique that alleviates the need for labeled data, though it is not trivial to turn an unconditional
generative model into a text-conditioned one. This work proposes a simple,
yet effective fine-tuning approach, called Unconditional-to-Conditional Transfer Learning (U2C transfer). It can leverage well-established pre-trained models
while learning to respect the given textual condition conditions. We evaluate
U2C transfer efficiency by fine-tuning StyleGAN2 in two of the most widely
used text-to-image data sources, generating the Text-Conditioned StyleGAN2
(TC-StyleGAN2). Our models quickly achieved state-of-the-art results in the
CUB-200 and Oxford-102 datasets, with FID values of 7.49 and 9.47, respectively. These values represent relative gains of 7 percent and 68 percent compared to prior
work. We show that our method is capable of learning fine-grained details from
text queries while producing photorealistic and detailed images. Our findings
highlight that the images created using our proposed technique are credible
and display a robust alignment with their corresponding textual descriptions.
|
3 |
[en] DEEP GENERATIVE MODELS FOR RESERVOIR DATA: AN APPLICATION IN SMART WELLS / [pt] MODELOS GENERATIVOS PROFUNDOS PARA DADOS DE RESERVATÓRIO: UMA APLICAÇÃO EM POÇOS INTELIGENTESALLAN GURWICZ 27 May 2020 (has links)
[pt] Simulação de reservatório, que por meio de equações complexas emula fluxo em modelos de reservatório, é primordial à indústria de Óleo e Gás. Estimando o comportamento do reservatório dadas diferentes condições de entrada, permite que especialistas otimizem diversos parâmetros na etapa de projeto de campos de petróleo. Entretanto, o tempo computacional necessário para simulações está diretamente correlacionado à complexidade do modelo, que cresce exponencialmente a cada dia que se passa, já que modelos mais detalhados são necessários dada a busca por maior refinamento e redução de incertezas. Deste modo, técnicas de otimização que poderiam
significativamente melhorar os resultados de desenvolvimentos de campo podem se tornar inviáveis. Este trabalho propõe o uso de modelos generativos profundos para a geração de dados de reservatório, que podem então ser utilizados para múltiplos propósitos. Modelos generativos profundos são sistemas capazes de modelar estruturas de dados complexas, e que após treinamento robusto são capazes de amostrar dados que seguem a distribuição do conjunto de dados original. A presente aplicação foca em poços inteligentes, uma tecnologia de completação que traz diversas vantagens, dentre as quais uma melhor habilidade de monitoramento e gerenciamento de reservatórios, apesar de carregar um aumento significativo no investimento do projeto. Assim, essas otimizações previamente mencionadas se tornam indispensáveis, de forma a garantir a adoção da tecnologia, junto ao seu máximo retorno. De modo a tornar otimizações de controle de poços inteligentes viáveis dentro de um prazo razoável, redes generativas adversariais são aqui usadas para
amostrar conjuntos de dados após um número relativamente pequeno de cenários simulados. Esses dados são então utilizados para o treinamento de aproximadores, algoritmos capazes de substituir o simulador de reservatório e acelerar consideravelmente metodologias de otimização. Estudos de caso
foram realizados em modelos referência da indústria, tanto relativamente simples quanto complexos, comparando arquiteturas de redes e validando cada passo da metodologia. No modelo complexo, mais próximo de um cenário real, a metodologia foi capaz de reduzir o erro do aproximador de uma média de 18.93 por cento, para 9.71 por cento. / [en] Reservoir simulation, which via complex equations emulates flow in reservoir models, is paramount to the Oil e Gas industry. By estimating the behavior of the reservoir given different input conditions, it allows specialists to optimize various parameters in the oilfield project stage. Alas, the computational time needed for simulations is directly correlated to the complexity of the model, which grows exponentially with each passing day as more intricate and detailed reservoir models are needed, seeking better refinement and uncertainty reduction. As such, optimization techniques which could greatly improve the results of field developments may be made unfeasible. This work proposes the use of deep generative models for the generation of reservoir data, which may then be used for multiple purposes. Deep generative models are systems capable of modeling complex data structures, which after robust training are capable of sampling data following the same distribution of the original dataset. The present application focuses on smart wells, a technology for completions which brings about a plethora of advantages, among which the better ability for reservoir monitoring and management, although also carrying a significant increase in project investment. As such, these previously mentioned optimizations turn indispensable as to guarantee the adoption of the technology, along with its maximum possible return. As to make smart well control optimizations viable within a reasonable time frame, generative adversarial networks are here used to sample datasets after a
relatively small number of simulated scenarios. These datasets are then used for the training of proxies, algorithms able to substitute the reservoir simulator and considerably speed up optimization methodologies. Case studies were done in both relatively simple and complex industry benchmark
models, comparing network architectures and validating each step of the methodology. In the complex model, closest to a real-world scenario, the methodology was able to reduce the proxy error from an average of 18.93 percent, to 9.71 percent.
|
4 |
[pt] FCGAN: CONVOLUÇÕES ESPECTRAIS VIA TRANSFORMADA RÁPIDA DE FOURIER PARA CAMPO RECEPTIVOS DE ABRANGÊNCIA GLOBAL EM REDES ADVERSÁRIAS GENERATIVAS / [en] FCGAN: SPECTRAL CONVOLUTIONS VIA FFT FOR CHANNEL-WIDE RECEPTIVE FIELD IN GENERATIVE ADVERSARIAL NETWORKSPEDRO HENRIQUE BARROSO GOMES 23 May 2024 (has links)
[pt] Esta dissertação propõe a Rede Generativa Adversarial por Convolução
Rápida de Fourier (FCGAN). Essa abordagem inovadora utiliza convoluções
no domínio da frequência para permitir que a rede opere com um campo receptivo de abrangência global. Devido aos seus campos receptivos pequenos,
GANs baseadas em convoluções tradicionais enfrentam dificuldades para capturar padrões estruturais e geométricos. Nosso método utiliza Convoluções
Rápidas de Fourier (FFCs), que usam Transformadas de Fourier para operar
no domínio espectral, afetando globalmente os canais da imagem. Assim, a
FCGAN é capaz de gerar imagens considerando informações de todas as localizações dos mapas de entrada. Essa nova característica da rede pode levar a um
desempenho errático e instável. Mostramos que a utilização de normalização
espectral e injeções de ruído estabilizam o treinamento adversarial. O uso de
convoluções espectrais em redes convolucionais tem sido explorado para tarefas como inpainting e super-resolução de imagens. Este trabalho foca no seu
potencial para geração de imagens. Nossos experimentos também sustentam a
afirmação que features de Fourier são substitutos de baixo custo operacional
para camadas de self-attention, permitindo que a rede aprenda informações
globais desde camadas iniciais. Apresentamos resultados qualitativos e quantitativos para demonstrar que a FCGAN proposta obtém resultados comparáveis
a abordagens estado-da-arte com profundidade e número de parâmetros semelhantes, alcançando um FID de 18,98 no CIFAR-10 e 38,71 no STL-10 - uma
redução de 4,98 e 1,40, respectivamente. Além disso, em maiores dimensões de
imagens, o uso de FFCs em vez de self-attention permite batch-sizes com até
o dobro do tamanho, e iterações até 26 por cento mais rápidas. / [en] This thesis proposes the Fast Fourier Convolution Generative Adversarial
Network (FCGAN). This novel approach employs convolutions in the frequency
domain to enable the network to operate with a channel-wide receptive field.
Due to small receptive fields, traditional convolution-based GANs struggle
to capture structural and geometric patterns. Our method uses Fast Fourier
Convolutions (FFCs), which use Fourier Transforms to operate in the spectral
domain, affecting the feature input globally. Thus, FCGAN can generate
images considering information from all feature locations. This new hallmark
of the network can lead to erratic and unstable performance. We show that
employing spectral normalization and noise injections stabilizes adversarial
training. The use of spectral convolutions in convolutional networks has been
explored for tasks such as image inpainting and super-resolution. This work
focuses on its potential for image generation. Our experiments further support
the claim that Fourier features are lightweight replacements for self-attention,
allowing the network to learn global information from early layers. We present
qualitative and quantitative results to demonstrate that the proposed FCGAN
achieves results comparable to state-of-the-art approaches of similar depth
and parameter count, reaching an FID of 18.98 on CIFAR-10 and 38.71 on
STL-10 - a reduction of 4.98 and 1.40, respectively. Moreover, in larger image
dimensions, using FFCs instead of self-attention allows for batch sizes up to
twice as large and iterations up to 26 percent faster.
|
5 |
[pt] SINTETIZAÇÃO DE IMAGENS ÓTICAS MULTIESPECTRAIS A PARTIR DE DADOS SAR/ÓTICOS USANDO REDES GENERATIVAS ADVERSARIAS CONDICIONAIS / [en] SYNTHESIS OF MULTISPECTRAL OPTICAL IMAGES FROM SAR/OPTICAL MULTITEMPORAL DATA USING CONDITIONAL GENERATIVE ADVERSARIAL NETWORKSJOSE DAVID BERMUDEZ CASTRO 08 April 2021 (has links)
[pt] Imagens óticas são frequentemente afetadas pela presença de nuvens. Com o objetivo de reduzir esses efeitos, diferentes técnicas de reconstrução foram propostas nos últimos anos. Uma alternativa comum é explorar dados de sensores ativos, como Radar de Abertura Sintética (SAR), dado que são pouco dependentes das condições atmosféricas e da iluminação solar. Por outro lado, as imagens SAR são mais difíceis de interpretar do que as imagens óticas, exigindo um tratamento específico. Recentemente, as Redes Adversárias Generativas Condicionais (cGANs - Conditional Generative Adversarial Networks) têm sido amplamente utilizadas para aprender funções de mapeamento que relaciona dados de diferentes domínios. Este trabalho, propõe um método baseado em cGANSs para sintetizar dados óticos a partir de dados de outras fontes, incluindo dados de múltiplos sensores, dados multitemporais e dados em múltiplas resoluções. A hipótese desse trabalho é que a qualidade das imagens geradas se beneficia do número de dados utilizados como variáveis condicionantes para a cGAN. A solução proposta foi avaliada em duas bases de dados. Foram utilizadas como variáveis condicionantes dados corregistrados SAR, de uma ou duas datas produzidos pelo sensor Sentinel 1, e dados óticos de sensores da série Sentinel 2 e LANDSAT,
respectivamente. Os resultados coletados dos experimentos demonstraram que a solução proposta é capaz de sintetizar dados óticos realistas. A qualidade das imagens sintetizadas foi medida de duas formas: primeiramente, com base na acurácia da classificação das imagens geradas e, em segundo lugar, medindo-se a similaridade espectral das imagens sintetizadas com imagens de referência. Os experimentos confirmaram a hipótese de que o método proposto tende a produzir melhores resultados à medida que se
exploram mais variáveis condicionantes para a cGAN. / [en] Optical images from Earth Observation are often affected by the presence of clouds. In order to reduce these effects, different reconstruction techniques have been proposed in recent years. A common alternative is to explore data from active sensors, such as Synthetic Aperture Radar (SAR), as they are nearly independent on atmospheric conditions and solar lighting. On the other hand, SAR images are more difficult to interpret than optical images, requiring specific treatment. Recently, conditional
Generative Adversarial Networks (cGANs) have been widely used to learn mapping functions that relate data of different domains. This work proposes a method based on cGANs to synthesize optical data from data of other sources: data of multiple sensors, multitemporal data and data at multiple resolutions. The working hypothesis is that the quality of the generated images benefits from the number of data used as conditioning variables for cGAN. The proposed solution was evaluated in two databases. As conditioning data we used co-registered data from SAR at one or two dates produced by the Sentinel 1 sensor, and optical images produced by the Sentinel 2 and LANDSAT satellite series, respectively. The experimental
results demonstrated that the proposed solution is able to synthesize realistic optical data. The quality of the synthesized images was measured in two ways: firstly, based on the classification accuracy of the generated images and, secondly, on the spectral similarity of the synthesized images with reference images. The experiments confirmed the hypothesis that the proposed method tends to produce better results as we explore more conditioning data for the cGANs.
|
Page generated in 0.0517 seconds