• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1435
  • 71
  • 60
  • 60
  • 60
  • 36
  • 36
  • 24
  • 23
  • 22
  • 22
  • 9
  • 2
  • Tagged with
  • 1516
  • 1516
  • 625
  • 620
  • 461
  • 335
  • 244
  • 212
  • 210
  • 194
  • 193
  • 161
  • 160
  • 158
  • 155
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Avaliação de técnicas de compressão de imagens para implementação em FPGA de granularidade fina / Not available

Walter Soto Encinas Junior 28 September 2000 (has links)
Este trabalho analisa a viabilidade de implementação de um sistema de compressão de vídeo em FPGAs com restrições de área e de recursos de roteamento, de modo a estudar as possibilidades oferecidas por pequenas áreas de lógica reconfigurável associadas a processadores clássicos. A técnica de eliminação de redundância espacial adotada é a Transformada Wavelet (WT), ao invés da já bastante explorada Transformada Cosseno (DCT). A arquitetura selecionada para efetuar a DWT é implementada no FPGA Xilinx XC6200, que apresenta características muito interessantes de reconfiguração rápida e dinâmica. Também foi desenvolvido um modelo estatístico dos erros de quantização associados à implementação da Transformada Waveletem aritmética de ponto fixo, auxiliando uma implementação em hardware mais eficiente em termos de área e desempenho. Algumas arquiteturas alternativas para a DWT são implementadas, para avaliação dos méritos de cada uma delas. Para permitir esta implementação, uma biblioteca de funções para processamento de sinais otimizada para o FPGA XC6200 também foi desenvolvida. Os resultados mostram que um sistema completo de compressão, utilizando os filtros propostos por Daubechies pode ser implementado utilizando o equivalente a 2500 portas lógicas e atinge taxas de compressão de aproximadamente 8 vezes sem perda significativa de qualidade em imagens monocromáticas de 256x256 pixels a 30 quadros por segundo / The purpose of this work is to study the problems associated with the implementation of a image compression system implemented with fine-grained FPGAs with scarce routing resources. The study intends to explore possibilities offered by small areas of reconfigurable logic coupled to classical processors. The image compression technique adopted was Discrete Wavelet Transform (DWT), instead the well-known Discrete Cosine Transform. The architecture was built in a Xilinx FPGA, the XC6200, a very interesting device due to its dynamic reconfigurable features. It was also developed a study about quantization errors in DWT processed with fixed point arithmetic. Some other DWT architectures are presented and the advantages are discussed. The implementation of these architectures led to the development of signal processing libraries optimized to XC6200. The implementation was made with only 2500 gates and showed that is possible to reach video rates. Frame sizes are 256x256 with 256 gray levels, and the compression rate is about 8 times
192

Contribuições para segmentação e análise de características de imagens de alta resolução da retina humana / Contributions for segmentation and analysis of characteristics of human retina high resolution images

Arthur, Angélica Moises, 1979- 21 August 2018 (has links)
Orientador: Yuzo Iano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-21T13:38:13Z (GMT). No. of bitstreams: 1 Arthur_AngelicaMoises_M.pdf: 3041531 bytes, checksum: 853fd2e77e1d464c53c93910d6eed4bc (MD5) Previous issue date: 2012 / Resumo: Este trabalho de Mestrado visa a segmentação de imagens de alta resolução da retina humana para favorecer o treinamento de bases de dados e facilitar a identificação automática de patologias. O uso de novas tecnologias na área da oftalmologia vem crescendo à medida que novos equipamentos, que utilizam imagens digitais e que possuem alto poder computacional, têm sido desenvolvidos. Neste trabalho, buscou-se processar as imagens captadas por um novo retinógrafo denominado Retinal Function Imager (RFI), adquirido por meio de um projeto de pesquisa temático FAPESP da FCM (Faculdade de Ciências Médicas) em parceria com a FEEC (Faculdade de Engenharia Elétrica e de Computação), ambas da Unicamp. A microvasculatura da retina humana possui uma única e importante característica de permitir a visualização de parte da circulação humana de forma direta, não invasiva e in vivo, prontamente fotografada e sujeita a análise de imagem digital. A partir disso, a análise automática de diversas patologias, como retinopatia diabética e degeneração macular, tem sido proposta em diversos artigos da literatura nas últimas duas décadas, dispensando muitas vezes o uso de um especialista observador e diminuindo os custos desse diagnóstico. Além disso, medidas quantitativas da topografia vascular da retina usando análise de imagem digital a partir da fotografia da retina, têm sido utilizadas como ferramentas de pesquisa para melhor se compreender a relação entre a microvasculatura da retina e doenças cardiovasculares. O RFI aqui utilizado permite a visualização de estruturas até então não acessíveis. A partir das imagens captadas, foram propostas técnicas para se detectar automaticamente características marcantes do fundo de olho, tais como disco óptico, região foveal e topologia vascular. Por fim, são realizadas segmentações nas imagens para facilitação de treinamento de bases de dados e do diagnóstico automático de patologias. A partir dos testes realizados, 100% das imagens testadas tiveram a região do disco óptico localizada corretamente e em 92% houve sucesso na segmentação da região foveal. Os resultados encontrados mostram que os algoritmos propostos podem ter papel importante para a obtenção de medidas quantitativas da retina humana e também ajudar em pesquisas que buscam a relação entre mudanças de doenças cardiovasculares sistêmicas e vasculares da retina / Abstract: This work aims to segmentation of high resolution human retina images to promote the training database and facilitating automated identification of diseases. The use of new technologies in the field of ophthalmology is growing as new equipment, which use digital images and have high computational power, has been developed. In this work, we process the images captured by a new retinal camera called Retinal Function Imager (RFI), acquired from a FAPESP research project from FCM (Faculty of Medical Sciences) in partnership with FEEC (Faculty of Electrical Engineering and Computer), both of Unicamp. The microvasculature of the human retina has a unique and important feature to allow viewing of the human circulation in a direct, non-invasive, and in vivo way, readily photographed and subjected to digital image analysis. From this, the automatic analysis of several pathologies such as diabetic retinopathy and macular degeneration has been proposed in several articles in the literature over the past two decades, often eliminating the use of an expert observer and reducing the costs of this diagnosis. Moreover, quantitative measurements of the topography retinal vascular using digital image analysis from the retina photograph have been used as research tools to better understand the relationship between micro vascular retinal and cardiovascular diseases. The RFI used in this work allows the visualization of structures not previously accessible. From the captured images are proposed techniques to automatically detect salient features of the optic disc, vessel topology, and fovea. Finally, segmentations are performed on the images to facilitate the training database and the automatic diagnosis of pathologies. From the tests, the optic disc regions were correctly located in 100% of the tested images and the foveal regions were correctly segmented in 92% of the tested images. The results show that the proposed algorithms can be important to obtain quantitative measures of the human retina and also help in research seeking the relationship between changes in systemic cardiovascular and retinal vascular diseases / Mestrado / Telecomunicações e Telemática / Mestra em Engenharia Elétrica
193

Estudo de dois sistemas radiograficos digitais submetidos a diferentes condições de trabalho em relação ao ruido

Paganini, Gisela Andre 31 October 2001 (has links)
Orientador: Francisco Haiter Neto / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Odontologia de Piracicaba / Made available in DSpace on 2018-08-01T08:05:18Z (GMT). No. of bitstreams: 1 Paganini_GiselaAndre_D.pdf: 3622509 bytes, checksum: 0a3a66ef45c71d609b9b77961f928382 (MD5) Previous issue date: 2001 / Resumo: O presente trabalho teve como objetivo avaliar o ruído de imagens digitais dos sistemas Digora e DenOptix em diferentes graus de luminosidade do ambiente onde os sensores eram manipulados para serem introduzidos no scanner e lugares onde os sensores foram posicionados em relação ao monitor com tempos de espera pré-fixados. Foi estudado também o tempo total de dessensibilização da placa de fósforo do sistema DenOptix, expondo-as a negatoscópios de diferentes intensidade de luz. A análise objetiva das imagens de phantoms foi realizada utilizando-se pacote computacional "LISIER". A análise dos resultados mostrou que o sistema Digora ofereceu melhor qualidade de imagem com menor quantidade de ruído em relação ao sistema DenOptix, não se alterando sob as diferentes condições de luminosidade do ambiente. Para o sistema DenOptix, quando a leitura foi realizada em ambiente com a luz acesa, ocorreu um aumento do ruído nas placas, não sendo porém, subjetivamente significante. Com relação ao posicionamento dos sensores, com o acréscimo do tempo houve um aumento na quantidade de ruído detectada na imagem e o ruído foi maior nos sensores posicionados lateralmente ao monitor. Pela análise subjetiva das imagens digitais, não foi possível perceber nenhuma influência da iluminação ou da radiação emitida pelo monitor. Em relação à dessensibilização da placa do sistema DenOptix, negatoscópio. Pode-se concluir que este fator está diretamente relacionado com a dose de radiação aplicada ao sensor de placa de fósforo e com a intensidade da luz do negatoscópio / Abstract: The aim of the present work was to evaluate the noise in the digital images of the systems Digora and DenOptix in different intensity light environment. It was toa studied the time total to erase the plate of system DenOptix. The objective analysis of the phantoms images was carried through by means a computacional programo The results had show that the Digora system had the best image quality with low noise without alteration in different condition of the environment DenOptix system, when the read was realized in environment with light on, it had a increase of the noise but without estatistic difference. With relation on the sensors position, with the increase of the time, increased the noise in the image in lateral position on the sensors wasgreater. Than in front of the monitor the subjective assessment do not show the influence of the environment light or the radiation of the computer. In related a erasing the plate of system DenOptix, it conc1uded that this factor is direct associated to the radiation dose and the intensity of light of the negatoscope / Doutorado / Radiologia Odontologica / Doutor em Radiologia Odontológica
194

Metodo robusto e simples de compressão de imagens baseado no algoritmo EZW

Gusmão, Andrezza Almeida 02 August 2018 (has links)
Orientador : Max Henrique Machado Costa / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-02T08:36:15Z (GMT). No. of bitstreams: 1 Gusmao_AndrezzaAlmeida_M.pdf: 1547214 bytes, checksum: cc9e0a40cf5f63688a8dc84924409c11 (MD5) Previous issue date: 2002 / Mestrado
195

Shell rendering com fatoração shear-warp

Rocha, Leonardo Marques 30 August 2002 (has links)
Orientador: Alexandre Xavier Falcão / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-02T19:18:39Z (GMT). No. of bitstreams: 1 Rocha_LeonardoMarques_M.pdf: 3345889 bytes, checksum: 200f23decfe3475d656f990950731059 (MD5) Previous issue date: 2002 / Resumo: Em visualização de volumes, shell rendering e shear-warp rendering estão entre os métodos mais eficientes. Shell rendering utiliza uma representação mais compacta dos dados volumétricos do que shear-warp rendering. Porém shear-warp rendering permite maior eficiência no rendering por explorar a fatoração shear-warp, da matriz de visualização. Este trabalho propõe uma extensão da estrutura de dados do shell rendering para permitir fatoração shear-warp da matriz de visualização. O novo método, denominado shell rendering com fatoração shear-warp provê o melhor custo x benefício entre os métodos, considerando três aspectos: qualidade de imagem, velocidade de rendering e espaço em memória. Esta dissertação apresenta uma revisão sobre os principais conceitos em visualização de volumes, descreve os métodos shell rendering, shear-warp rendering e shell rendering com fatoração shear-warp apontando suas diferenças nos aspectos computacionais, e apresenta uma análise comparativa entre os três métodos. Uma outra contribuição importante é que esta dissertação aponta um erro conceitual do shell rendering, o qual afeta a corretude do rendering e por conseqüência, a qualidade da imagem gerada / Abstract: In volume visualization, shell rendering and shear-warp rendering are among the most efficient methods. Shell rendering utilizes a more compact data representation than shear warp rendering. On the other hand, shear-warp rendering allows a more efficient rendition due to the shear-warp factorization of the viewing matrix. This work proposes an extension of the data structure of shell rendering to allow shear-warp factorization of the viewing matrix. The new method, named shell rendering with shear-warp factorization, provides the best cost x benefit compromise among the methods, considering three aspects: image quality, speed of rendering, and memory requirements. This dissertation presents a review of the main concepts in volume visualization, describes the methods shell rendering, shear-warp rendering and shell rendering with shear-warp factorization pointing out their differences in the computational aspects, and presents a comparative analysis among them. Another important contribution reported in this dissertation is a conceptual mistake of shell rendering, which affects the correctness of the rendering, and as consequence the final image quality / Mestrado / Mestre em Ciência da Computação
196

Recuperação por conteudo em grandes coleções de imagens heterogeneas

Stehling, Renato de Oliveira 10 October 2002 (has links)
Orientador: Alexandre Xavier Falcão / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T03:11:20Z (GMT). No. of bitstreams: 1 Stehling_RenatodeOliveira_D.pdf: 5975599 bytes, checksum: df48c39ac93a0a8352fd58c115197f1f (MD5) Previous issue date: 2002 / Resumo: A recuperação de imagens por conteúdo (CBIR) é uma área que vem recebendo crescente atenção por parte da comunidade científica por causa do crescimento exponencial do número de imagens que vêm sendo disponibilizadas, principalmente na WWW. À medida que cresce o volume de imagens armazenadas, Cresce também o interesse por sistemas capazes de recuperar eficientemente essas imagens a partir do seu conteúdo visual. Nosso trabalho concentrou-se em técnicas que pudessem ser aplicadas em grandes coleções de imagens heterogêneas. Nesse tipo de coleção, não se pode assumir nenhum tipo de conhecimento sobre o conteúdo semântico e ou visual das imagens, e o custo de utilizar técnicas semi-automáticas (com intervenção humana) é alto em virtude do volume e da heterogeneidade das imagens que precisam ser analisadas. Nós nos concentramos na informação de cor presente nas imagens, e enfocamos os três tópicos que consideramos mais importantes para se realizar a recuperação de imagens baseada em cor: (1) como analisar e extrair informação de cor das imagens de forma automática e eficiente; (2) como representar essa informação de forma compacta e efetiva; e (3) como comparar eficientemente as características visuais que descrevem duas imagens. As principais contribuições do nosso trabalho foram dois algoritmos para a análise automática do conteúdo visual das imagens (CBC e BIC), duas funções de distância para a comparação das informações extraídas das imagens (MiCRoM e dLog) e urna representação alternativa para abordagens que decompõem e representam imagens a partir de células de tamanho fixo (CCIf) / Abstract: Content-based image retrieval (CBIR) is an area that has received increasing attention from the scientific community due to the exponential growing of available images, mainly at the WWW.This has spurred great interest for systems that are able to efficiently retrieve images according to their visual content. Our work has focused in techniques suitable for broad image domains. ln a broad image domain, it is not possible to assume or use any a p1'ior'i knowledge about the visual content and/or semantic content of the images. Moreover, the cost of using semialitomatic image analysis techniques is prohibitive because of the heterogeneity and the amount of images that must be analyzed. We have directed our work to color-based image retrieval, and have focused on the three main issues that should be addressed in order to achieve color-based image retrieval: (1) how to analyze and describe images in an automatic and efficient way; (2) how to represent the image content in a compact and effective way; and (3) how to efficiently compare the visual features extracted from the images. The main contributions of our work are two algorithms to automatically analyze the visual content of the images (CBC and BIC), two distance functions to compare the visual features extracted from the images (MiCRoM and dLog), and an alteruative representation for CBIR approaches that decompose and represent images according to a grid of equalsized cells (CCH) / Doutorado / Doutor em Ciência da Computação
197

Fundamentos geometricos e algebricos da calibração e reconstrução tridimensional : aplicação na analise cinematica de movimentos humanos / Geometric and algebraic basis for calibra tion and threedimensional re construcion. application in the kinematic analysis of human movements

Lago, Olival Cardoso do 13 October 1999 (has links)
Orientador: Euclydes Custodio de Lima Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Educação Fisica / Made available in DSpace on 2018-08-03T14:26:35Z (GMT). No. of bitstreams: 1 Lago_OlivalCardosodo_M.pdf: 1493876 bytes, checksum: c9b6f8952eaf9df7c2dcec2f66a890cb (MD5) Previous issue date: 1999 / Resumo: Obter informações tais como, posição, orientação e tamanho do objeto de interesse através de medidas realizadas na sua imagem, é o principio básico da análise cinemática do movimento humano. Freqüentemente são utilizadas para esta finalidade câmeras filmadoras. O objetivo desta dissertação é estudar conceitos Geométricos e Algébricos dos procedimentos de calibrar as câmeras filmadoras e da reconstrução das coordenadas tridimensionais, aplicados na análise cinemática dos movimentos humanos. Fundamentalmente, a calibração das câmeras consiste em estabelecer a relação geométrica entre o objeto de interesse e a sua imagem. Uma vez conhecido o operador para esta relação, em duas ou mais câmeras, pode-se obter as coordenadas espaciais do objeto estudado a partir das imagens pela reconstrução tridimensional. Desta forma as transformações objeto-imagem e vice-versa assumem um papel de destaque nestes sistemas. O operador projetivo que atua nestas transformações fundamenta-se no Teorema Fundamental da Geometria Projetiva A estrutura algébrica deste teorema é formulado pela equação da Projetividade, de onde obtemos a matriz do operador projetivo, cujos elementos são o parâmetro de calibração das câmeras de filmagem. Considerando as características da transformação de objetos tridimensionais em imagens bidimensionais a reconstrução das coordenadas tridimensionais deste objeto necessita das imagens de pelo menos duas câmeras. Para estimar os parâmetros de calibração de cada câmera são necessários pelo menos seis pontos de referências, com coordenadas conhecidas no espaço 3D e na imagem 2D. Estes pontos de referências são utilizados em um sistema de equações normais e estimados pela técnica dos quadrados mínimos. A questão da seleção dos pontos de referência para a calibração, segundo alguns autores, ainda não está suficientemente resolvida A fim de otimizar a seleção dos pontos de controle, apresentamos um algoritmo o qual foi utilizado em um experimento para determinar explicitamente a configuração otimal dos pontos de controle relativos à posição das câmeras. O conjunto de procedimentos propostos permite classificar os pontos de controle em função da contribuição que cada um traz à qualidade da calibração das câmeras / Abstract: To get information such as position, orientation and size of the object of interest by measuring its image are the basis of the kinematic analysis of the human movement. Video cameras are frequently used for this purpose. The aim of this work is to study Geometric and AIgebraic concepts of the procedures used to calibrate the video cameras and of the reconstruction of the three-dimensional coordinates, applied in the kinematic analysis of the human movements. The calibration of the cameras consists basically of establishing the geometric relationship between the object of interest and its image. Once the operator for this relationship is known, in two or more cameras, the space coordinates of the studied object can be achieved from the images through threedimensional reconstruction. This way the object-image, and vice versa, transformations assume a role of prominence in these systems. The projective operator that acts in these transformations is based on the Basic Theorem of Projective Geometry. The algebraic structure ofthis theorem is formulated by the projective equation, from where we get the matrix of the projective operator, whose elements are the calibration parameters of the video cameras. Considering the characteristics of the threedimensional object transformation into bi-dimensional images, the reconstruction of the three-dimensional coordinates of this object needs the images of at least two cameras. At least six control points with known coordinates in the 3D space and in the 2D image are necessary to estimate the calibration parameters of each camera. These control points are used in a system of normal equations and estimated by the least-squares thecnique. The question of the selection of the calibration control points, according to some authors, is still not sufficiently resolved. In order to optimize the selection of the control points we present an algorithm, which was used in an experiment to determine the optimal configuration of the control points reIative to the position of the cameras. The set ofprocedures considered allows us to classify the control points as a function of the contribution that each one brings to the quality ofthe calibration ofthe cameras / Mestrado / Mestre em Educação Física
198

Um modelo para recuperação por conteudo de imagens de sensoriamento remoto

Val Cura, Luis Mariano del 20 December 2002 (has links)
Orientador: Neucimar Jeronimo Leite / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T17:06:49Z (GMT). No. of bitstreams: 1 ValCura_LuisMarianodel_D.pdf: 5608578 bytes, checksum: ae8a3b45250dc29f9784c6952f5ba29e (MD5) Previous issue date: 2002 / Resumo: O problema da recuperação de imagens por conteúdo tem sido uma área de muito interesse nos últimos anos, com múltiplas aplicações em diferentes domínios de geração de imagens. Uma classe de imagem onde este problema não tem sido resolvido satisfatoriamente referese à classe de Sensoriamento Remoto. Imagens de Sensoriamento Remoto (ISR) são obtidas como combinação do sensoriamento da Terra em múltiplas bandas espectrais. Esta tese aborda o problema da recuperação por em conteúdo das ISR . Este tipo de recuperação parte da caracterização do conteúdo de uma imagem e uma das suas principais abordagens considera modelos matemáticos da área de Processamento de Imagens a ser abordada nesta tese. Neste trabalho, abordamos o processo de recuperação de ISR que utilizando três recursos principais: padrões de textura e cor como elemento básico da consulta, uso de múltiplos modelos matemáticos de representação e caracterização do conteúdo e um mecanismo de retroalimentação para o processo de consulta. As principais contribuições da tese são: (1) uma análise dos problemas da recuperação por conteúdo para ISR; (2) a proposta de um modelo para esta recuperação; (3) um modelo e métrica de similaridade baseado no modelo proposto; (4) proposta de implementação do processamento das consultas que mostra a viabilidade do modelo / Abstract: Content-based retrieval of images is a topic of growing interest given us multiple applications. One kind of images that have not yet been dealt with satisfactorily are the so-called Remote Sensing Images. Remote Sensing Images (RSI) are a especial type of image, created by combination of sensoring on different spectral bands . This work deals with the problem of content-based retrieval of Remote Sensiong Images(RSI). It uses the image retrieval approach based on content representation models from image processing area. This work presents a content-based image retrieval model for RSI, based on three main features: patterns of color and texture as basic query concept, use of multiple content representation modelsanda feedback Televance machanism. The main contributions os these work are: (1) an analysis of content-based RSI pro,. blems; (2) a proposal of a model for RSI retrieval; (3) a proposal of model and metric for similarity measure; (4) a proposal of algorithm for processing of content-based queries / Doutorado / Doutor em Ciência da Computação
199

Assinaturas espectrais de gossans associados a mineralizações de Pb-Zn-Ba na Bacia de Irece (BA) : um estudo baseado em dados de sensores TM e ASTER

Lima, Venissa de Souza 25 August 2003 (has links)
Orientador: Carlos Roberto de Souza Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Geociencias / Made available in DSpace on 2018-08-03T17:25:12Z (GMT). No. of bitstreams: 1 Lima_VenissadeSouza_M.pdf: 8881335 bytes, checksum: 7b49ae92053ea60020a74b97fde806b4 (MD5) Previous issue date: 2003 / Resumo: o objetivo desta dissertação foi o de desenvolver es1ratégias para a detecção de gossans associados a mineralizações de Pb-Zn-Ba na bacia de lrecê, bem como a sua separação de superficies lateriticas genéricas, com base em dados e técnicas de sensoriamento remoto. Amostras de gossans representativas das ocoITências de gossans na bacia foram analisadas por espectroscopia de reflectância, no intervalo entre 35Onm-2500nm, com o espectrorradiômetro FieIdSpec-FR Os constituintes mineralógicos dos gossans, principalmente goethita, limonita e hematita, foram derivados a partir da interpretação interativa e automática das curvas de reflectância espectral, considerando as feições diagnósticas que esses minerais apresentam neste intervalo do espectro. Com base em dados disponíveis na literatura, integrados aos dados de reflectância espectral medidos em laboratório e re-amostrados para as resoluções dos sensores TM e ASTER. o comportamento espectral dos gossans genuinos e de superficies lateriticas genéricas (falsos gossans) foram detectados nas bandas destes sensores. A partir desses dados espectrais, constatou-se que os gossans e lateritas diferem principalmente em fimção de uma feição de absorção em 2,21lm (diagnóstica da ocoITência de caulinita) e de uma feição em tomo de 10flID (relacionada à presença de uma mistura de caulinita e sílica) - essas feições/minerais são característicos nas lateritas e ausentes nos gossans. Os principais intervalos espectrais abordados no processamento dos dados ASTER e TM para a detecção e separabilidade desses dois materiais foram assim definidos: 0,350-I,OOIlIn, cobrindo o espectro visível (VIS) e inftavennelho próximo (NlR) para o mapeamento dos óxidos e hidróxidos de ferro; 1,00-2,501lIn, cobrindo o espectro do inftavermelho de ondas curtas (SWlR) para o mapeamento de caulinita; e 8,OO-I4,OOIlIn, cobrindo o espectro inftavennelho tennal (TlR), para o mapeamento de superficies ricas em caulinita e sflica (somente possível com dados ASTER). A detecção dos gossans, segundo o modelo concebido, foi feita por um critério de exclusão, ou seja, as superficies ricas em compostos de ferro somente, sem conteúdo significativo em caulinita e quartzo (típicos nas lateritas), devem corresponder aos gossans associado à mineralizações. O processamento das imagens adquiridas entre VIS e o SWlR incluiu um rigoroso procedimento de correção atmosférica a partir do software Atmospheric CORrection Now (ACORN). Foi utilizado, um modelo de transferência radiativa (MODTRAN) e dados calibrados dos sensores sob investigação. Para os dados coIetados no espectro refletido foram testadas técnicas como composições coloridas e operações aritméticas (razão de bandas), análises por principais componentes (APC) e técnicas de processamento digital de dados hiperespectrais adaptadas aos dados multiespectrais, incluindo Spectral Angle Mapper (SAM) e Mixture Tuned Matched Filtering (MTMF). Os dados TlR do ASTER foram convertidos para emissividade e processados através de composições coloridas com realce por decorrelação, pseudo-razões adaptadas, Minimum Noise Fraction e técnicas de classificação hiperespectral (SAM e MTMF). Os resultados obtidos, aliando-se os modelos empfricos de detecção às técnicas de processamento digital, foram extremamente positivos, principalmente no caso das imagens do sensor ASTER. nas quais os gossans genuinos puderam ser separados de todas as outras coberturas constatadas na bacia de lrecê. Isso demonstra o potencial do sensor ASTER para aplicações em exploração minera~ mesmo em condições de clima tropical / Abstract: The aim ofthis work was to develop strategies for detection ofgossans associated to Pb-Zn-Ba deposits in the Irece basin (BA), as well as their distinction ftom generic laterites, using remote sensing data and techniques. Samples of gossans collected in the study area were analysed by reflectance spectroscopy methods, using a high resolution FieldSpec FR spectrometer covering nanometric wavebands within the 350nm-250Omn interval. Goethite, limonite and hematite were identified by interactive and software-driven automatic interpretation as the gossan's main mineraIs, based on their diagnostic spectral features. Using data available in the literature combined with lab-measured reflectance data convolved to TM and ASTER sensors, it was possible to realize a spectral signature for both genuine and false gossans in terms of multispectral resolution. Using these data, gossans are clearly distinct ftom laterites by the lack of absorption bands around 2.2~m (linked to the presence of kaolinite) and by the lack of important emissivity features around lO~m (akin to a mixture of kaolinite and silica). Using this notion, the main spectral intervals employed to detect and differentiate these two materiaIs were defined as followed: O,350-1,OO~m, covering visible (VIS) and near-inftared (NIR) wavebands, to detect iron oxides and hydroxides; I,OO-2,50~m, covering shortwave inftared (SWIR) wavebands to map kaolinites; and 8,OO-14,OO~m, covering the thermal inftared (TIR) to map kaolinite- and -silica-rich surfaces (only possible with ASTER thermal multispectral data). The detection of gossans, on the basis ofthe conceptual model, was made by 'exclusion' ofvariables not typically linked to these surfaces, using the following corollary: "iron-rich surfaces that are deficient in kaolinite and silica loads (typical of laterites), are probably genuine gossans, to which metal deposits are also potentially linked". Image processing techniques applied to data gathered in the VIS, NIR and SWIR portion of the spectrum comprised a rigorous procedure for atmospheric correction of the data using the Atmospheric CORrection Now (ACORN) software. A radiative transfer model (MODTRAN) was applied to ASTER and TM calibrated data. Several image processing techniques were functional for the VIS-SWIR data, including color composites, band ratios, principal component analyses and hyperspectral image processing techniques adapted to multispectral data, such as Spectral Angle Mapper (SAM) and Mixture Tuned Matched Filtering (MTMF). ASTER TIR data were converted to emissivity and enhanced via color composites, decorrelation stretch, adapted pseudo-ratios, Minimum Noise Fraction and by hyperspectral image processing (SAM e MTMF) techniques. The integration of the conceptual model and image processing techniques tailored to detect genuine gossans, isolating them ftom other representative surfaces in the Irece basin, proved very successful and the results were substantial using ASTER imagery. These achievements using ASTER multispectral data in the Irece basin demonstrate these data can offer detailed mineralogical information, ftom which abundance maps of key mineral endmembers used in exploration for base-metal deposits can be derived, even under tropical conditions / Mestrado / Geociencias / Mestre em Geociências
200

Segmentação interativa de volumes baseada em regiões

Bergo, Felipe Paulo Guazzi, 1978- 03 August 2018 (has links)
Orientador: Alexandre Xavier Falcão / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-03T19:18:14Z (GMT). No. of bitstreams: 1 Bergo_FelipePauloGuazzi_M.pdf: 2903070 bytes, checksum: f8902d34fd2d17a55acd13552cd66d54 (MD5) Previous issue date: 2004 / Mestrado

Page generated in 0.2257 seconds