• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 453
  • 50
  • 47
  • 47
  • 47
  • 32
  • 15
  • 15
  • 14
  • 14
  • 8
  • 1
  • 1
  • Tagged with
  • 468
  • 468
  • 439
  • 332
  • 187
  • 156
  • 127
  • 108
  • 101
  • 91
  • 81
  • 78
  • 73
  • 73
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Entre mapas, entre espaços = itinerários abertos / Among maps, among spaces : open itineraries

Guideroli, Ilma Carla Zarotti 16 August 2018 (has links)
Orientador: Regina Helena Pereira Johas / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Artes / Made available in DSpace on 2018-08-16T14:23:39Z (GMT). No. of bitstreams: 1 Guideroli_IlmaCarlaZarotti_M.pdf: 37001017 bytes, checksum: c43b5a3b57dfe1e23b24169201dd8910 (MD5) Previous issue date: 2010 / Resumo: A pesquisa Entre Mapas, Entre Espaços: Itinerários Abertos consiste no mapeamento de minha produção plástica no período entre o início de 2008 e o início de 2010. É formada por quatro livros de artista intitulados Lugares Imaginários I, II, III e IV e Espaços Afluentes, composto por dezoito imagens digitais divididas entre as séries Rotas Imaginárias, São Paulo, Intersecções I, Paisagens Mapeadas, UnHorizont e Paisagem Oceânica. Ambos partilham o mesmo campo de investigações, composto de três eixos norteadores que sustentam pensamento e processo criativo. O primeiro destes eixos trata de TranSituAções, conceito que abrange as diferentes maneiras de conceber espaço e lugar, apresentado a partir da reflexão de autores que discutiram este tema. O segundo eixo estrutura a proposição Espaços Empilhados, tratados a partir da definição do virtual segundo Pierre Lévy e do conceito de remix cunhado por Lev Manovich e citado, por sua vez, por autores brasileiros que destrincharam o assunto, como André Lemos e Marcus Bastos. O terceiro e último eixo aborda a questão dos mapas, sendo que a primeira parte compreende uma breve história da cartografia com seu surgimento e características específicas; e a segunda parte consiste na investigação dos mapas deturpados, ou seja, como alguns escritores, artistas e cineastas fizeram uso dos mapas convencionais, tirando deles a função utilitária de localização em relação ao lugar físico. O corpo prático reflexivo aqui apresentado pretende situar meus trabalhos dentro de questionamentos pertinentes ao nosso tempo, e inserir tal pesquisa como resultado de uma investigação que não se encerra, mas continua infinitamente / Abstract: The research Among Maps, Among Spaces: Open Itineraries consists in mapping my artistic practice from the beginning of 2008 until the beginning of 2010. It is composed of four artist's books entitled Imaginary Places I, II, III, and IV, and Affluent Spaces, composed of eighteen digital images divided in the series Imaginary Routes, São Paulo, Intersections I, Mapped Landscapes, UnHorizont, and Oceanic Landscape. Both works share the same investigations, composed of three guiding axes that support thoughts and the creative process. The first axis approaches TranSituActions, a concept that comprises different ways of conceiving space and place, presented from the reflection of authors that investigate this theme. The second axis structures the proposition Heaped Spaces, treated from the definition of virtual according to Pierre Lévy and the concept of remix, coined by Lev Manovich and cited by Brazilian authors that explained the subject, like André Lemos e Marcus Bastos. The last axis approaches the question of maps: the first part comprehends a brief history of cartography with its appearance and specific characteristics and the second one consists of investigating the corrupted maps, that is, how some writers, artists and filmmakers used conventional maps, extracting from them the utilitarian function of localization in relation to a geographic place. The practical-reflexive body presented here intends to place my works inside relevant questions to our time, and introduce such research as a result of an investigation that does not close but continues infinitely / Mestrado / Artes / Mestre em Artes
362

Processamento largamente linear em arranjo de antenas = proposta, avaliação e implementação prática de algoritmos / Widely linear processing in antenna arrays : proposal, evaluation and practical implementation of algorithms

Chinatto Júnior, Adilson Walter 02 November 2011 (has links)
Orientadores: João Marcos Travassos Romano, Cynthia Cristina Martins Junqueira / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-17T17:05:38Z (GMT). No. of bitstreams: 1 ChinattoJunior_AdilsonWalter_M.pdf: 7887281 bytes, checksum: 23d4e34e4a2b77a46e1707773d7b5fdf (MD5) Previous issue date: 2011 / Resumo: O Processamento Largamente Linear, desenvolvido durante a década de 1990, tem levado a uma melhoria no desempenho de algoritmos adaptativos para determinadas situações que empregam sinais impróprios. Quando aplicado a arranjos de antenas, esse tipo de processamento apresenta a potencialidade ser mais robusto e eficiente que as técnicas clássicas de filtragem. Dessa forma, este trabalho busca estender uma série de algoritmos adaptativos clássicos de conformação de feixe para a forma largamente linear, verificando através de simulações os eventuais ganhos em desempenho obtidos na tarefa de mitigação de interferentes através de arranjos de antenas. São avaliados algoritmos treinados, com restrições e cegos, cobrindo um leque relativamente amplo de cenários de utilização. Visando o uso de arranjos de antenas em cenários em que os sinais incidentes possuam modulação real, são propostas otimizações para os algoritmos largamente lineares que levam a uma redução da complexidade computacional, mantendo o desempenho do algoritmo original. Essas otimizações são aplicadas para algoritmos treinados, com restrições e cegos, sendo seus desempenhos comparados através de simulações com os desempenhos obtidos através dos algoritmos largamente lineares originais e dos algoritmos estritamente lineares. Por fim, uma plataforma para testes de arranjos de antenas é implementada em hardware provido de dispositivo de lógica programável (FPGA), permitindo que sejam realizados ensaios práticos envolvendo caracterização de antenas, conformação de feixe não adaptativa e mitigação de interferentes através de algoritmos adaptativos / Abstract: Widely Linear Processing, developed during the 1990s, has led to an improved performance of adaptive algorithms under certain situations that involve improper signals. When applied to antenna arrays, this type of processing shows to be potentially more robust and efficient than the classical filtering techniques. The objective of this work is to extend several classic adaptive beamforming algorithms to the widely linear form, verifying by means of simulations the potential gains in performance when applied to the task of mitigating interference in antenna arrays. Trained, restricted and blind algorithms are considered, covering a relatively broad range of feasible scenarios. Addressing the use of antenna arrays in scenarios in which the incident signals involved have real modulation, optimizations for the widely linear algorithms are proposed, thereby promoting reductions in the computational complexity, while maintaining the original algorithm performance. These optimizations are applied to trained, restricted and blind algorithms, and their performance is compared through simulations with the performances obtained using the original algorithms in their largely linear and strictly linear versions. Finally, an antenna array test platform is implemented in the hardware, allowing practical tests to be carried out. A set of measures taken with the antenna array test platform is exhibited, which include characterization of antennas, non-adaptive beamforming and interference mitigation using adaptive algorithms / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
363

Codificação distribuida de video digital utilizando codigos turbo e Waveletes de segunda geração / Distributed coding turbo codes and second generation wavelets

Ponchet, Andre da Fontoura, 1975- 01 December 2006 (has links)
Orientador: Yuzo Iano / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e Computação / Made available in DSpace on 2018-08-06T03:07:07Z (GMT). No. of bitstreams: 1 Ponchet_AndredaFontoura_M.pdf: 26328595 bytes, checksum: c9274a3ea90909625472bd920293d379 (MD5) Previous issue date: 2006 / Resumo: A codificação distribuída de vídeo constitui um novo paradigma em compressão de vídeo frente aos codificadores híbridos da família MPEG-x e H.26x. Nesses codificadores, a estimação de movimento é a principal etapa do processo de compressão do sinal de vídeo. Desta forma, a codificação demanda um alto custo computacional exigindo desempenho do codificador. Neste trabalho é apresentado um codec de vídeo baseado na teoria da codificação distribuída com perdas. O compressor apresentado codifica os quadros ímpares e os quadros pares separadamente utilizando códigos turbo e a transformada wavelet. O processo de decodificação é feito de forma iterativa e explora a dependência estatística entre os quadros da seqüência de vídeo original. Esta abordagem permite uma redução bastante significativa no tempo de processamento envolvido na compressão do sinal de vídeo, tornando viável a implementação deste tipo de codificador em dispositivos com recursos escassos de processamento e memória. Os resultados obtidos em simulações comprovam o bom desempenho do codec proposto em relação ao padrão estado da arte em compressão de vídeo, o H.264/AVC / Abstract: Distributed video coding is a new paradigm for video compression in opposition over the existing video coding standards like MPEG-x and H.26x families. These codecs make use of motion estimation algorithms, the main part of the compression process of the video signal. Hence, the compression process demands a high computational cost and high performance of the encoder. The present work proposes a video compression scheme based on the lossy distributed source coding theory. The proposed compressor encodes the odd frames and the even frames separately using turbo codes and the discrete wavelet transform. The decoding process is performed in an iterative manner and explores the statistical dependency of the video frames of the original sequence. This approach gives a great encoding runtime reduction and allows the implementation at devices with limited computation power and memory. Simulation results show the good performance of the proposed codec in comparison with the state of the art video compression standard H.264/AVC / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
364

Projeto e desenvolvimento de um condicionador de sinais com saida 4-20mA com isolamento optico / Design and development of 4-20mA signal conditioner with optical isolation

Oliveira, Alex Venancio de 29 March 2006 (has links)
Orientador: Jose Antonio Siqueira Dias / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-06T12:42:34Z (GMT). No. of bitstreams: 1 Oliveira_AlexVenanciode_M.pdf: 3915758 bytes, checksum: 2659008da021c19c0fea44959159f885 (MD5) Previous issue date: 2006 / Resumo: O presente trabalho tem por objetivo o projeto, desenvolvimento e montagem de um Condicionador de Sinais de baixo custo, versátil e com recursos básicos comparáveis aos equipamentos semelhantes existentes no mercado nacional, que são na sua grande maioria importados. O equipamento faz a conversão, filtragem, isolação e condicionamento de pequenos sinais de controle provenientes de diversos tipos de sensores e transdutores, comuns em ambiente industrial, utilizando uma tecnologia bem consolidada de transporte de sinais em malhas de controle industriais: o transporte no modo corrente de 4-20mA. Esta tecnologia, mesmo frente à novos desenvolvimentos digitais na área de controle e transmissão de sinais em ambiente industrial, resiste como alternativa econômica e de ótimos resultados, mesmo em ambientes extremamente agressivos, com altos níveis de interferência / Abstract: In this work it is presented the design, development and implementation of a low cost and versatile signal conditioner which is similar to the products available in the Brazilian market, most of them imported. The developed equipment performs the conversion, filtering, isolation and conditioning of small control signals from various types of sensors and transducers commonly used in industrial environments, by using a mature technology of signal transport in industrial control loops: current mode of 4-20mA. This technology, despite of new digital developments in the area of control and signal transmission in industrial environments, resists as an economic alternative with excellent results, especially in extremely aggressive environments with high levels of interference / Mestrado / Eletrônica, Microeletrônica e Optoeletrônica / Mestre em Engenharia Elétrica
365

Metodo de posicionamento e dimensionamento 3D baseado em imagens digitais / 3D positioning and dimensioning method based on digital images

Rudek, Marcelo 14 July 2006 (has links)
Orientador: Paulo Roberto Gardel Kurka / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-07T00:20:23Z (GMT). No. of bitstreams: 1 Rudek_Marcelo_D.pdf: 2300973 bytes, checksum: e02ac88751e4619e52590e1ee9fb82b5 (MD5) Previous issue date: 2006 / Resumo: O trabalho apresenta um método baseado em imagens digitais para a determinação da posição espacial e do volume ocupado por um sólido. O objetivo é conhecer estes parâmetros sem a necessidade da reconstrução tridimensional completa do objeto. A aplicação da técnica proposta é baseada nas projeções da imagem do objeto a ser medido. O processo se baseia na utilização de uma caixa de contorno (bounding box) que pode ser ajustada sobre uma região de interesse na imagem. A posição desta caixa de contorno descreve a orientação espacial do objeto, e as suas dimensões espaciais definem o volume aproximado do sólido. O trabalho propõe um método para ajustar as arestas da caixa de contorno sobre as bordas do objeto, usando como referencial os pontos de fuga que formam os vértices da caixa de contorno. Os vértices formam um conjunto reduzido de pontos e a reconstrução tridimensional destes pontos permite definir um polígono retangular no espaço que representa as informações métricas do objeto real. O contexto do trabalho se situa no campo da visão computacional e processamento de imagens utilizando um conjunto de ferramentas aplicadas à teoria de reconstrução 3D. São apresentados os resultados obtidos da aplicação do método para imagens reais, bem como é descrita uma aplicação do método em um ambiente de manufatura integrada / Abstract: This work presents a method based on digital images to determine the spatial position and volume occupied by a solid. The objective is to find these parameters without a complete tri­dimensional reconstruction of the object. The application of this technique is based on the image projections of a solid target. The process is based on a contour bounding box that is adjusted around a region of interest. The box position describes the object spatial orientation and its spatial dimensions can define the approximated volume. The work proposes a method to adjust the contour box lines on the object borders using vanishing points as reference to form each vertex of the bounding box. The vertices form a reduced set of points and the 3D reconstruction of such points can define a rectangular polygon in the space representing the metric information about the real object. The work is within the context of computer vision and image processing by the use of a set of 3D reconstruction tools. Results obtained of the application of this method to real images are presented, as well as an application to an integrated manufacturing process / Doutorado / Projeto Mecanico / Doutor em Engenharia Mecânica
366

Tomografia computadorizada de raios-X como tecnica de ensaios não destrutivos de materiais

Maschio, Célio 24 June 1997 (has links)
Orientadores: Antonio Celso Fonseca de Arruda, Roberto de Alencar Lotufo / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-07-22T16:25:26Z (GMT). No. of bitstreams: 1 Maschio_Celio_M.pdf: 7517102 bytes, checksum: b541bb4f611106b935e681d6189f03a7 (MD5) Previous issue date: 1997 / Resumo: A tomografia computadorizada de raios-x tem extrapolado a área médica e ganhado campo em inúmeras aplicações onde se faz necessária a interpretação (qualitativa e quantitativa) da estrutura interna de um material opaco, sem destruí-lo. O presente trabalho demonstra a aplicação desta técnica em ensaios não destrutivos, utilizando-se amostras de materiais e componentes de diferentes densidades e geometrias, com defeitos simulados e reais, ensaiados em tomógrafos médicos. Demonstra-se, também, o uso da técnica na caracterização de filtros eletroquímicos usados para remoção de agentes contaminantes (no caso, zinco) de efluentes industriais. Foram usadas técnicas de processamento digital de imagens (sistema Khoros) para a caracterização dos defeitos encontrados, através da medida do coeficiente de atenuação do material em regiões de interesse, e por meio do cálculo de parâmetros dimensionais tais como área e perímetro. Foram aplicadas operações de filtragem matemática para a correção do efeito de endurecimento de feixe, verificado nas imagens de materiais metálicos, sobretudo no alumínio. Devido à sua natureza qualitativa e quantitativa, a tomografia computadorizada de raios-x demonstrou ser uma ferramenta promissora em ensaios não destrutivos de materiais. Este trabalho demonstra e reforça sua aplicabilidade através do uso de processamento digital de imagens / Abstract: X-ray computed tomography (XCT), originally developed for medical purposes is becoming increasingly applied to several applications where it is necessary the interpretation of the internal structure of an object nondestructively. The present work shows the application of this technique to nondestructive testing using materiaIs and components of different density and geometry, with simulated and real defects tested in a medical scanner. Characterization of electrochemical filters used to remove contamination agents (in this case, zinc) in industrial effluents, by XCT technique is also described. Digital image processing have been used (software Khoros) for defects characterization, determining the attenuation coefficient in regions of interest and measuring parameters like area and perimeter. Digital filtering operations have been applied for beam hardening correction in metallic materiaIs images, mainly aluminum. Due its qualitative and quantitative nature, XCT technique established to be a promising tool of nondestructive materiaIs evaluation and this work emphasizes its applicability through digital image processing / Mestrado / Materiais e Processos de Fabricação / Mestre em Engenharia Mecânica
367

Reconhecimento automatico de fala continua empregando modelos hibridos ANN +HMM

Morais, Edmilson da Silva 17 December 1997 (has links)
Orientador: Fabio Violaro / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-23T09:17:49Z (GMT). No. of bitstreams: 1 Morais_EdmilsondaSilva_M.pdf: 6382080 bytes, checksum: 5ff91ddf6858cdc6b90fb32d2b42eb71 (MD5) Previous issue date: 1997 / Resumo: Atualmente, os sistemas que representam o estado-da-arte em reconhecimento de fala contínua baseiam-se em modelos ocultos de Markov - HMM("Hidden MarkovModels"), uma estrutura duplamente estocástica capaz de modelar tanto as variabilidades acústicas como temporais do sinal de fala. Porém, para viabilizar o modelamento matemático de um HMM, são realizadas inúmeras suposições simplificadoras que limitam o seu potencial efetivo. Redes neurais artificiais - ANN ("Artificial Neural Networks") não necessitam fazer uso de muitas destas suposições, podem aprender e generalizar superfícies complexas de decisão, tolerar ruídos e suportar paralelismo. Todas estas vantagens tornam as ANNs extremamente poderosas para modelar as variabilidades acústicas da fala. Entretanto, ao contrário dos HMMs, as ANNs não têm se mostrado eficientes para o modelamento das variabilidades temporais. Com o objetivo de unir em uma única estrutura o que há de melhor nas tecnologias de redes neurais artificiais e de modelos ocultos de Markov, têm sido estudados e avaliados nos últimos sete anos [36, 14,3,33,21,8, 1], modelos híbridos ANN-HMM nos quais o modelamento das variabilidades acústicas é confiado à ANN enquanto o HMM responsabiliza-se pela absorção das variabilidades temporais... Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: Not informed. / Mestrado / Mestre em Engenharia Elétrica
368

Desenvolvimento de metodos para avaliação de processos de filtração por meio de simulação por meio de simulação numerica e tomografia de raios-x / Development of methods for evaluation of filtration process through numerical simulation and x-ray tomography

Maschio, Célio 30 August 2001 (has links)
Orientador: Antonio Celso Fonseca de Arruda / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-07-31T14:51:24Z (GMT). No. of bitstreams: 1 Maschio_Celio_D.pdf: 13410400 bytes, checksum: bcad1a44963fabb3c498533b4663302a (MD5) Previous issue date: 2001 / Resumo: O objetivo deste trabalho foi o desenvolvimento de metodologias para o estudo de filtros e processos de filtração, utilizando a tomografia de raios-X, técnicas de processamento digital de imagens e simulação numérica. Os ensaios convencionais utilizados pelos fabricantes são realizados através da medida de parâmetros, tais como pressão e vazão, em pontos localizados a montante e a jusante do filtro. Estes ensaios não são eficientes na caracterização de defeitos e não revelam como ocorre o processo de saturação no interior do filtro. Neste trabalho, a tomografia de raios-X foi utilizada para duas finalidades básicas: estudar a distribuição de contaminantes e analisar defeitos no interior de elementos filtrantes. Os modelos de filtração encontrados na literatura não levam em conta o efeito do acúmulo de contaminantes no desempenho do filtro ao longo do processo de filtração. Neste trabalho, foi desenvolvido um modelo acoplando-se as equações de filtração com as equações fenomenológicas (lei de Darcy e equação da continuidade), de tal forma que o acúmulo de partículas no meio poroso (filtro) fosse considerado na simulação do processo de filtração. Os resultados demonstraram que o processo de saturação no interior dos elementos analisados não ocorre de forma homogênea, ou seja, o acúmulo de partículas é predominante em determinadas regiões. Em geral, há formação de canais preferenciais e o espaço interno do filtro não é totalmente utilizado na captura de partículas. Demonstrou-se também que, em alguns casos, o comportamento do filtro não é coerente com a especificação do fabricante. Foi possível, por fim, a utilização dos dados experimentais, obtidos via tomografia, para a validação do modelo teórico desenvolvido / Abstract: The development of methods for analysis of filters and filtration process, using X-ray computerized tomography, digital image processing and numerical simulation, was the objective of this work. Tests conventionally used by filter manufacturers are made through the measurement ofparameters, such as flow and pressure, at upstream and downstream ofthe filter. These tests are not efficient in the characterization of defects and do not reveal how the saturation process occurs within the filter. In this work, X-ray computerized tomography was used for two basic purposes: to evaluate contaminant distribution and to detect defects within the interior of the filter elements. The filtration models found in the literature do not consider the effect of contaminant concentration on the filter efficiency during the filtration processo In this work, filtration equations and phenomenological equations (Darcy's law and continuity equation) were coupled and a model that takes into account the contaminant accumulation on the filter performance was developed. The results demonstrated that the saturation process within the analyzed filters is not homogeneous, that is, the accumulation of partic1es is predominant in some regions. Generally, there are preferential channels and the interior of the filter elements is not totally utilized. In some cases, it was also demonstrated that the filter behavior does not agree with the manufacturer specifications. Finally, it was possible to use the experimental data obtained with X-ray computerized tomography, in order to validate the theoretical developed model / Doutorado / Materiais e Processos de Fabricação / Doutor em Engenharia Mecânica
369

Metodos de classificação não-supervisionada de imagens de sensoriamento remoto usando mapas auto-organizaveis de Kohonen / Unsupervised methods of classifying remotely sensed imges using Kohonen self-organizing maps

Gonçalves, Marcio Leandro 03 November 2009 (has links)
Orientadores: Marcio Luiz de Andrade Netto, Jose Alfredo Ferreira Costa / Acompanha Anexo A: Midia com informações adicionais em CD-R / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-13T08:13:27Z (GMT). No. of bitstreams: 1 Goncalves_MarcioLeandro_D.pdf: 17165173 bytes, checksum: 5d69834b0b51b236f01317b4de54a2b3 (MD5) Previous issue date: 2009 / Resumo: Esta tese propõe novas metodologias de classificação não-supervisionada de imagens de sensoriamento remoto que particularmente exploram as características e propriedades do Mapa Auto-organizável de Kohonen (SOM - Self-Organizing Map). O ponto chave dos métodos de classificação propostos é realizar a análise de agrupamentos das imagens através do mapeamento produzido pelo SOM, ao invés de trabalhar diretamente com os padrões originais das cenas. Tal estratégia reduz significativamente a complexidade da análise dos dados, tornando possível a utilização de técnicas normalmente consideradas computacionalmente inviáveis para o processamento de imagens de sensoriamento remoto, como métodos de agrupamentos hierárquicos e índices de validação de agrupamentos. Diferentemente de outras abordagens, nas quais o SOM é utilizado como ferramenta de auxílio visual para a detecção de agrupamentos, nos métodos de classificação propostos, mecanismos para analisar de maneira automática o arranjo de neurônios de um SOM treinado são aplicados e aprimorados com o objetivo de encontrar as melhores partições para os conjuntos de dados das imagens. Baseando-se nas propriedades estatísticas do SOM, modificações nos cálculos de índices de validação agrupamentos são propostas com o objetivo de reduzir o custo computacional do processo de classificação das imagens. Técnicas de análise de textura em imagens são aplicadas para avaliar e filtrar amostras de treinamento e/ou protótipos do SOM que correspondem a regiões de transição entre classes de cobertura terrestre. Informações espaciais a respeito dos protótipos do SOM, além das informações de distância multiespectral, também são aplicadas em critérios de fusão de agrupamentos procurando facilitar a discriminação de classes de cobertura terrestre que apresentam alto grau de similaridade espectral. Resultados experimentais mostram que os métodos de classificação propostos apresentam vantagens significativas em relação às técnicas de classificação não-supervisionada mais freqüentemente utilizadas na área de sensoriamento remoto. / Abstract: This thesis proposes new methods of unsupervised classification for remotely sensed images which particularly exploit the characteristics and properties of the Kohonen Self-Organizing Map (SOM). The key point is to execute the clustering process through a set of prototypes of SOM instead of analyzing directly the original patterns of the image. This strategy significantly reduces the complexity of data analysis, making it possible to use techniques that have not usually been considered computationally viable for processing remotely sensed images, such as hierarchical clustering methods and cluster validation indices. Unlike other approaches in which SOM is used as a visual tool for detection of clusters, the proposed classification methods automatically analyze the neurons grid of a trained SOM in order to find better partitions for data sets of images. Based on the statistical properties of the SOM, clustering validation indices calculated in a modified manner are proposed with the aim of reducing the computational cost of the classification process of images. Image texture analysis techniques are applied to evaluate and filter training samples and/or prototypes of the SOM that correspond to transition regions between land cover classes. Spatial information about the prototypes of the SOM, in addition to multiespectral distance information, are also incorporated in criteria for merging clusters with aim to facilitate the discrimination of land cover classes which have high spectral similarity. Experimental results show that the proposed classification methods present significant advantages when compared to unsupervised classification techniques frequently used in remote sensing. / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
370

Impacto da utilização de tecnicas de lifting explorando diferença entre ferramentas interpretada e compilada na velocidade computacional da codificação wavelet de imagens estaticas / Impact of using lifting techniques to explore the differences between interpreted and compiled tools in the computational speed of wavelet static image coding

Oliveira, Lucas de 14 August 2018 (has links)
Orientadores: Yuzo Iano, Ana Lucia Mendes Cruz Silvestre da Silva / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-14T10:02:55Z (GMT). No. of bitstreams: 1 Oliveira_Lucasde_M.pdf: 5052260 bytes, checksum: 34b1fa9e0e25d00990c118c6c93f964c (MD5) Previous issue date: 2009 / Resumo: O campo de análise e compressão de imagens tem recebido especial atenção da comunidade científica recentemente por abranger os principais sistemas de TV digital, comunicações via satélite e comunicações móveis. Neste contexto, as Transformadas Wavelets Discretas (TWD) surgem como uma ferramenta poderosa e suas inúmeras vantagens permitiram sua inserção em importantes padrões tais como JPEG2000, MPEG4 e MPEG7. O método lifting realiza a TWD sub-amostrando o sinal antes do processo de filtragem, implicando em rápido processamento por fazer uso das similaridades entre filtros passa-alta e passa-baixa, acelerando o cálculo dos coeficientes. Na literatura, ganhos aritméticos teóricos de diferentes proporções foram obtidos sobre o método tradicional, destacando-se os trabalhos de Daubechies e Sweldens e de Reichel. O objetivo desta pesquisa consiste em estender esta discussão de resultados teóricos quando implementados através de ferramentas, interpretada e compilada, focando no tempo de processamento necessário para a realização (decomposição e reconstrução) de diferentes imagens estáticas empregando wavelets pertencentes às famílias de Daubechies, Symlets e Biortogonais. Medidas de PSNR foram utilizadas de forma a corroborar a perfeita implementação do lifting, dado que o mesmo não pode implicar em deterioração na imagem reconstruída. / Abstract: The field of analysis and compression of images has been received special attention of the scientific community because of including in the main systems of digital TV, satellite communications and mobile communications. In this context, the Discrete Transform Wavelet (TWD) arise how a powerful tool and its many advantages allowed your insertion in important standards such as JPEG2000, MPEG4 and MPEG7. The lifting method realizes the TWD sub-sampling the signal before the filtering, resulting in faster processing by using the similarities between high and low pass filters, speeding up the calculation of coefficients. In the literature, arithmetic theoretical gains of different proportions were obtained on the traditional method, especially the works of Daubechies and Sweldens and of Reichel. The objective of this research is to extend this discussion of theoretical results when implemented through tools, interpreted and compiled, targeting the processing time required to perform (decomposition and reconstruction) of different images using wavelets belonging to the families of Daubechies, and Symlets Biortogonais. Measures of PSNR were used to corroborate the perfect implementation of the lifting, since that cannot result in deterioration in the reconstructed image. / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica

Page generated in 0.0761 seconds