• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 183
  • 30
  • 14
  • 10
  • 8
  • 5
  • 5
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 310
  • 310
  • 79
  • 64
  • 58
  • 47
  • 47
  • 42
  • 40
  • 37
  • 36
  • 32
  • 31
  • 30
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Compress?o Seletiva de Imagens Coloridas com Detec??o Autom?tica de Regi?es de Interesse

Gomes, Diego de Miranda 05 January 2006 (has links)
Made available in DSpace on 2014-12-17T14:56:22Z (GMT). No. of bitstreams: 1 DiegoMG.pdf: 1982662 bytes, checksum: e489eb42e914d358aaeb197489ceb5e4 (MD5) Previous issue date: 2006-01-05 / There has been an increasing tendency on the use of selective image compression, since several applications make use of digital images and the loss of information in certain regions is not allowed in some cases. However, there are applications in which these images are captured and stored automatically making it impossible to the user to select the regions of interest to be compressed in a lossless manner. A possible solution for this matter would be the automatic selection of these regions, a very difficult problem to solve in general cases. Nevertheless, it is possible to use intelligent techniques to detect these regions in specific cases. This work proposes a selective color image compression method in which regions of interest, previously chosen, are compressed in a lossless manner. This method uses the wavelet transform to decorrelate the pixels of the image, competitive neural network to make a vectorial quantization, mathematical morphology, and Huffman adaptive coding. There are two options for automatic detection in addition to the manual one: a method of texture segmentation, in which the highest frequency texture is selected to be the region of interest, and a new face detection method where the region of the face will be lossless compressed. The results show that both can be successfully used with the compression method, giving the map of the region of interest as an input / A compress?o seletiva de imagens tende a ser cada vez mais utilizada, visto que diversas aplica??es fazem uso de imagens digitais que em alguns casos n?o permitem perdas de informa??es em certas regi?es. Por?m, existem aplica??es nas quais essas imagens s?o capturadas e armazenadas automaticamente, impossibilitando a um usu?rio indicar as regi?es da imagem que devem ser comprimidas sem perdas. Uma solu??o para esse problema seria a detec??o autom?tica das regi?es de interesse, um problema muito dif?cil de ser resolvido em casos gerais. Em certos casos, no entanto, pode-se utilizar t?cnicas inteligentes para detectar essas regi?es. Esta disserta??o apresenta um compressor seletivo de imagens coloridas onde as regi?es de interesse, previamente fornecidas, s?o comprimidas totalmente sem perdas. Este m?todo faz uso da transformada wavelet para descorrelacionar os pixels da imagem, de uma rede neural competitiva para realizar uma quantiza??o vetorial, da morfologia matem?tica e do c?digo adaptativo de Huffman. Al?m da op??o da sele??o manual das regi?es de interesse, existem duas op??es de detec??o autom?tica: um m?todo de segmenta??o de texturas, onde a textura com maior freq??ncia ? selecionada para ser a regi?o de interesse, e um novo m?todo de detec??o de faces onde a regi?o da face ? comprimida sem perdas. Os resultados mostram que ambos os m?todos podem ser utilizados com o algoritmo de compress?o, fornecendo a este o mapa de regi?o de interesse
302

Uma combinação entre os critérios objetivo e subjetivo na classificação de imagens mamográficas comprimidas pelo método fractal

Vergütz, Stéphany 29 November 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Images are relevant sources of information in many areas of science and technology. The processing of such information improves and optimizes its use. The image compression causes the information representation is more efficient, reducing the amount of data required to represent an image. The objective of this study is to evaluate the performance of Fractal Compression technique onto mammograms through an association between the objective criteria, provided by Peak Signal Noise Ration (PSNR); and the subjective criteria, given by visual analysis of an expert physician. Visual analysis was performed comparing mammograms compressed to different extents (compression rate) with the original image, where experts classified the compressed images as unacceptable , acceptable , good or great . In doing so, the optimal compression rate and PSNR values of mammograms was achieved, where images are considered acceptable according to experts. In order to compare the performance of fractal compression technique with another compression method, visual analysis was also done on images compressed by JPEG2000 method. / As imagens são fontes relevantes de informação em diversas áreas da ciência e tecnologia. O processamento dessas informações melhora e otimiza sua utilização. A compressão de imagens faz com que a representação da informação seja mais eficiente, reduzindo a quantidade de dados necessários para representar uma imagem. O objetivo deste trabalho é apresentar a avaliação do desempenho da compressão fractal aplicada a imagens mamográficas, pela combinação entre o critério objetivo, fornecido pela relação sinal ruído de pico (Peak Signal Noise Ratio - PSNR), e o critério subjetivo, especificado pela análise visual de médicos especialistas. A análise visual foi realizada comparando as imagens mamográficas comprimidas com diferentes taxas de compressão e a imagem original. Os especialistas classificaram as imagens comprimidas como \"inaceitável\", \"aceitável\", \"boa\" ou \"ótima\". Dessa maneira, conseguiu-se combinar a taxa de compressão e o valor de PSNR, para que as imagens comprimidas sejam consideradas aceitáveis pelos especialistas. Para avaliar o desempenho da compressão fractal foram realizados testes e análises visuais com as mesmas imagens utilizando o método de compressão JPEG2000. / Mestre em Ciências
303

Procedimentos para tratamento e compressão de imagens e video utilizando tecnologia fractal e transformadas wavelet

Silva, Fernando Silvestre da 23 September 2005 (has links)
Orientador: Yuzo Iano / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-05T13:46:30Z (GMT). No. of bitstreams: 1 Silva_FernandoSilvestreda_D.pdf: 35017484 bytes, checksum: fb460a6a42e44fe0a50e94599ac027fc (MD5) Previous issue date: 2005 / Resumo: A excelente qualidade visual e taxa de compressão dos codificadores fractais de imagem tem aplicações limitadas devido ao exaustivo tempo de codificação inerente. Esta pesquisa apresenta um novo codificador híbrido de imagens que aplica a velocidade da transformada wavelet à qualidade da compressão fractal. Neste esquema, uma codificação fractal acelerada usando a classificação de domínios de Fisher é aplicada na sub-banda passa-baixas de uma imagem transformada por wavelet e uma versão modificada do SPIHT (Set Partitioned in Hierarchical Trees) é aplicada nos coeficientes remanescentes. Os detalhes de imagem e as características de transmissão progressiva da transformada wavelet são mantidas; nenhum efeito de bloco comuns às técnicas fractais é introduzido, e o problema de fidelidade de codificação comuns aos codificadores híbridos fractal-wavelet é resolvido. O sistema proposto reduz o tempo médio de processamento das imagens em 94% comparado com o codificador fractal tradicional e um ganho de 0 a 2,4dB em PSNR sobre o algoritmo SPIHT puro. Em ambos os casos, o novo esquema proposto apresentou melhorias em temos de qualidade subjetiva das imagens para altas, médias e baixas taxas de compressão / Abstract: The excellent visual quality and compression rate of fractal image coding have limited applications due to exhaustive inherent encoding time. This research presents a new fast and efficient image coder that applies the speed of the wavelet transform to the image quality of the fractal compression. In this scheme, a fast fractal encoding using Fisher¿s domain classification is applied to the lowpass subband of wavelet transformed image and a modified SPIHT coding (Set Partitioning in Hierarchical Trees), on the remaining coefficients. The image details and wavelet progressive transmission characteristics are maintained; no blocking effects from fractal techniques are introduced; and the encoding fidelity problem common in fractal-wavelet hybrid coders is solved. The proposed scheme provides an average of 94% reduction in encoding-decoding time compared to the pure accelerated Fractal coding results, and a 0-2,4dB gain in PSNR over the pure SPIHT coding. In both cases, the new scheme improves the subjective quality of pictures for high, medium and low bit rates / Doutorado / Telecomunicações e Telemática / Doutor em Engenharia Elétrica
304

Uma abordagem de compressão de imagens através de sistemas de funções iteradas

Reis, Glauco dos Santos 22 August 2011 (has links)
Made available in DSpace on 2016-03-15T19:37:38Z (GMT). No. of bitstreams: 1 Glauco dos Santos Reis.pdf: 1334999 bytes, checksum: d2d72d3f95a449c19482f55f82b7f61e (MD5) Previous issue date: 2011-08-22 / Fundo Mackenzie de Pesquisa / A new image compression technique is proposed, based on the affine transformations (ATs) that define an iterated function system (IFS). Previous related research in the field has shown that an image may be approximated by iteratively subjecting a set of sub-regions to a group of ATs. In this case, the original image should be partitioned in regions, and each one of the active pixels are transformed by the AT. The new transformed set should be approximated to other image regions. This iterated execution to find ATs for the best set of areas might result in smaller storage space since the similar areas might be replaced by AT coefficients. Despite this advantage, the technique is computationally intensive, because both the sub-regions and the corresponding ATs that have to be searched for. Here, a new form of similarity is proposed, based on the successive points generated by the iteration of affine transformations. By understanding an AT as a discrete dynamical system, with each image point represented by an iteration of the AT, the method captures similarities between these points, namely, those with the same color in the image; by saving the starting point and the transformations coefficients, the points can be iterated back, to reconstruct the original image. This results in lighter computational effort, since the comparison is made point by point, instead of region by region. Experiments were made on a group of 10 images, representing a broad set of distinct features and resolutions. The proposed algorithm competes in terms of storage size, when compared to JPEG, mainly when the image size is small, and the number of colors are reduced, as currently happens for most images used in the Internet. Although the proposed method is faster than the traditional method for IFS compression, it is slower than common file formats like JPEG. / Uma nova técnica para compressão de imagens é proposta, baseada em conjuntos de transformações afins (affine transformations - ATs), normalmente conhecidos como sistemas de funções iteradas (iterated function system -IFS). Pesquisas anteriores mostraram que uma imagem poderia ser aproximada pela aplicação de um grupo de ATs em conjuntos de sub-regiões da imagem, de forma iterativa. Através deste processo, a imagem original seria subdividida em regiões e sobre a coordenada de cada ponto habilitado de cada região seria aplicada uma transformação afim. O resultado representaria um novo conjunto de pontos similares a outras regiões da imagem. A execução de forma iterada deste processo de identificação das ATs para o maior conjunto de regiões similares de uma determinada imagem permitiria uma redução no armazenamento, já que as regiões similares poderiam ser armazenadas como os coeficientes das transformações afins. Apesar desta vantagem em termos de compressão, a técnica é computacionalmente intensiva, pela busca exaustiva de sub-regiões e das ATs geradoras, de forma a proporcionar o melhor preenchimento em outras regiões da imagem. Esta pesquisa propõe uma nova forma de compressão baseada em ATs, utilizando a sequência de pontos gerada pela iteração das ATs. Entendendo uma AT como um sistema dinâmico em tempo discreto, cada novo ponto identificado é consequência direta da iteração da AT sobre o ponto anterior, permitindo a captura de similaridades nesta sequência de pontos. Através do salvamento dos coeficientes das ATs e das coordenadas iniciais, é possível a reconstrução da imagem pela iteração da AT a partir do ponto inicial. Isto pode resultar em menor esforço computacional, pois apenas comparações simples de pontos são necessárias, ao invés de comparações entre os pontos de regiões da imagem. Foram feitos experimentos em um conjunto de 10 classes de imagens, representando um espectro de diferentes características gerais e resoluções. O algoritmo proposto rivaliza em termos de armazenamento quando comparado ao formato JPEG, principalmente para imagens de pequeno tamanho e com número de cores reduzidas, como as utilizadas com frequência na Internet. Apesar de ser mais rápido para a compressão do que outros métodos baseados em IFS, ele é mais lento do que métodos clássicos como o JPEG.
305

Uma abordagem de compressão de imagens através de sistemas de funções iteradas

Reis, Glauco dos Santos 22 August 2011 (has links)
Made available in DSpace on 2016-03-15T19:37:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-08-22 / Fundo Mackenzie de Pesquisa / A new image compression technique is proposed, based on the affine transformations (ATs) that define an iterated function system (IFS). Previous related research in the field has shown that an image may be approximated by iteratively subjecting a set of sub-regions to a group of ATs. In this case, the original image should be partitioned in regions, and each one of the active pixels are transformed by the AT. The new transformed set should be approximated to other image regions. This iterated execution to find ATs for the best set of areas might result in smaller storage space since the similar areas might be replaced by AT coefficients. Despite this advantage, the technique is computationally intensive, because both the sub-regions and the corresponding ATs that have to be searched for. Here, a new form of similarity is proposed, based on the successive points generated by the iteration of affine transformations. By understanding an AT as a discrete dynamical system, with each image point represented by an iteration of the AT, the method captures similarities between these points, namely, those with the same color in the image; by saving the starting point and the transformations coefficients, the points can be iterated back, to reconstruct the original image. This results in lighter computational effort, since the comparison is made point by point, instead of region by region. Experiments were made on a group of 10 images, representing a broad set of distinct features and resolutions. The proposed algorithm competes in terms of storage size, when compared to JPEG, mainly when the image size is small, and the number of colors are reduced, as currently happens for most images used in the Internet. Although the proposed method is faster than the traditional method for IFS compression, it is slower than common file formats like JPEG. / Uma nova técnica para compressão de imagens é proposta, baseada em conjuntos de transformações afins (affine transformations - ATs), normalmente conhecidos como sistemas de funções iteradas (iterated function system - IFS). Pesquisas anteriores mostraram que uma imagem poderia ser aproximada pela aplicação de um grupo de ATs em conjuntos de sub-regiões da imagem, de forma iterativa. Através deste processo, a imagem original seria subdividida em regiões e sobre a coordenada de cada ponto habilitado de cada região seria aplicada uma transformação afim. O resultado representaria um novo conjunto de pontos similares a outras regiões da imagem. A execução de forma iterada deste processo de identificação das ATs para o maior conjunto de regiões similares de uma determinada imagem permitiria uma redução no armazenamento, já que as regiões similares poderiam ser armazenadas como os coeficientes das transformações afins. Apesar desta vantagem em termos de compressão, a técnica é computacionalmente intensiva, pela busca exaustiva de sub-regiões e das ATs geradoras, de forma a proporcionar o melhor preenchimento em outras regiões da imagem. Esta pesquisa propõe uma nova forma de compressão baseada em ATs, utilizando a sequência de pontos gerada pela iteração das ATs. Entendendo uma AT como um sistema dinâmico em tempo discreto, cada novo ponto identificado é consequência direta da iteração da AT sobre o ponto anterior, permitindo a captura de similaridades nesta sequência de pontos. Através do salvamento dos coeficientes das ATs e das coordenadas iniciais, é possível a reconstrução da imagem pela iteração da AT a partir do ponto inicial. Isto pode resultar em menor esforço computacional, pois apenas comparações simples de pontos são necessárias, ao invés de comparações entre os pontos de regiões da imagem. Foram feitos experimentos em um conjunto de 10 classes de imagens, representando um espectro de diferentes características gerais e resoluções. O algoritmo proposto rivaliza em termos de armazenamento quando comparado ao formato JPEG, principalmente para imagens de pequeno tamanho e com número de cores reduzidas, como as utilizadas com frequência na Internet. Apesar de ser mais rápido para a compressão do que outros métodos baseados em IFS, ele é mais lento do que métodos clássicos como o JPEG.
306

Étude et implantation d'algorithmes de compression vidéo optimisés H.264/AVC dans un environnement conjoint matériel et logiciel / Study and Implementation of Algorithms for H.264/AVC Compression in a Hardware and Software Environment

Kthiri, Moez 04 April 2012 (has links)
La contribution de cette thèse concerne le développement et la conception d’un système multimédia embarqué basé sur l’approche de conception conjointe matérielle/logicielle (codesign). Il en résulte ainsi la constitution d’une bibliothèque de modules IP (Intellectual Property) pour les applications vidéo. Dans ce contexte, une plateforme matérielle de validation a été réalisée servant au préalable à l’évaluation de l’approche de conception en codesign pour l’étude d’algorithmes de traitement vidéo. Nous nous sommes ainsi intéressés en particulier à l’étude et à l’implantation de la norme de décompression vidéo H.264/AVC. Pour la validation fonctionnelle, l’ensemble du développement a été réalisé autour d’une carte Xilinx à base d’un circuit programmable FPGA Xilinx Virtex-5en mettant en œuvre le processeur hardcore PowerPC du circuit programmable dans l’environnement logiciel Linux pour l’embarqué. Le décodeur H.264/AVC ainsi développé comporte différents accélérateurs matériels pour la transformation inverse ainsi que le filtre anti-blocs. Nous avons pu tester les performances au regard du respect des contraintes temporelles en intégrant une extension temps réel à la plateforme de validation suivant différentes conditions de stress du système. L’extension temps réel Xenomai fournit ainsi une réponse adéquate aux problématiques de charge du système et de maîtrise des contraintes temporelles inhérentes à tout système de traitement vidéo tout en autorisant aussi l’utilisation d’applications classiques mises en œuvre dans l’environnement standard Linux embarqué. / The main contribution of this thesis concerns the development and the design of an embedded system for multimedia based on the codesign approach (HW/SW). Towards this end, a library off lexible IP cores (Intellectual Property) for video applications was created. In this context, a hardware platform was used for evaluation of the codesign-based approach in order to study video processingalgorithms. Thus, we particularly focused on the study and the implementation of H.264/AVC decoder. For functional validation, the entire development was carried out around a FPGA Virtex-5 Xilinx board embedding a hardcore PowerPC processor running embedded Linux operating system. The H.264/AVC developed decoder consists of hardware accelerators for the inverse transformation and the deblocking filter. We evaluated the performances in terms of respect of temporal constraints by integrating a real-time extension to the validation platform under different stress conditions. The Xenomai real-time extension has proven its high performance level of compliance with hard real-time constraints. This extension offers a real solution for real-time behavior without limiting the use of conventional applications implemented traditionally in a time sharing environment.
307

Aplikace waveletové transformace v software Mathematica a Sage / Applications of wavelet transform in Mathematica and Sage

Novotný, Radek January 2013 (has links)
This thesis focuses on image processing using wavelet transform. The usage of wavelet transform is analysed especially for image compression and image noise reduction purposes. The analysis describes in detail aspects and application of the following wavelet transform methods: CWT, DWT, DTWT, 2D DWT. The thesis further explains the meaning of the mother wavelet and studies certain specific kinds of wavelets, kinds of thresholding and its purposes and also touches on the JPEG2000 standard. Mathematica and Sage software packages were used to design algorithms for image compression and image noise reduction, utilising relevant wavelet transform findings. The concluding part of the thesis compares the two software packages and results obtained using different algorithms.
308

Aplikace waveletové transformace v software Mathematica a Sage / Applications of wavelet transform in Mathematica and Sage

Novotný, Radek January 2013 (has links)
This thesis focuses on image processing using wavelet transform. The usage of wavelet transform is analysed especially for image compression and image noise reduction purposes. The analysis describes in detail aspects and application of the following wavelet transform methods: CWT, DWT, DTWT, 2D DWT. The thesis further explains the meaning of the mother wavelet and studies certain specific kinds of wavelets, kinds of thresholding and its purposes and also touches on the JPEG2000 standard. Mathematica and Sage software packages were used to design algorithms for image compression and image noise reduction, utilising relevant wavelet transform findings. The concluding part of the thesis compares the two software packages and results obtained using different algorithms.
309

Rekonstrukce blízkého pole antén / Reconstruction of the Antenna Near-Field

Puskely, Jan January 2011 (has links)
Cílem disertační práce je navrhnout efektivně pracující algoritmus, který na základě bezfázového měření v blízkém poli antény bude schopen zrekonstruovat komplexní blízké pole antény resp. vyzařovací diagram antény ve vzdáleném poli. Na základě těchto úvah byly zkoumány vlastnosti minimalizačního algoritmu. Zejména byl analyzován a vhodně zvolen minimalizační přistup, optimalizační metoda a v neposlední řadě i optimalizační funkce tzv. funkcionál. Dále pro urychlení celého minimalizačního procesu byly uvažovány prvotní odhady. A na závěr byla do minimalizačního algoritmu zahrnuta myšlenka nahrazující hledané elektrické pole několika koeficienty. Na základě předchozích analýz byla navržená bezfázová metoda pro charakterizaci vyzařovacích vlastností antén. Tato metoda kombinuje globální optimalizaci s obrazovou kompresní metodou a s lokální metodou ve spojení s konvečním amplitudovým měřením na dvou površích. V našem případě je globální optimalizace použita k nalezení globálního minima minimalizovaného funkcionálu, kompresní metoda k redukci neznámých proměnných na apertuře antény a lokální metoda zajišťuje přesnější nalezení minima. Navržená metoda je velmi robustní a mnohem rychlejší než jiné dostupné minimalizační algoritmy. Další výzkum byl zaměřen na možnosti využití měřených amplitud pouze z jednoho měřícího povrchu pro rekonstrukci vyzařovacích charakteristik antén a využití nového algoritmu pro rekonstrukci fáze na válcové geometrii.
310

On the design of fast and efficient wavelet image coders with reduced memory usage

Oliver Gil, José Salvador 06 May 2008 (has links)
Image compression is of great importance in multimedia systems and applications because it drastically reduces bandwidth requirements for transmission and memory requirements for storage. Although earlier standards for image compression were based on the Discrete Cosine Transform (DCT), a recently developed mathematical technique, called Discrete Wavelet Transform (DWT), has been found to be more efficient for image coding. Despite improvements in compression efficiency, wavelet image coders significantly increase memory usage and complexity when compared with DCT-based coders. A major reason for the high memory requirements is that the usual algorithm to compute the wavelet transform requires the entire image to be in memory. Although some proposals reduce the memory usage, they present problems that hinder their implementation. In addition, some wavelet image coders, like SPIHT (which has become a benchmark for wavelet coding), always need to hold the entire image in memory. Regarding the complexity of the coders, SPIHT can be considered quite complex because it performs bit-plane coding with multiple image scans. The wavelet-based JPEG 2000 standard is still more complex because it improves coding efficiency through time-consuming methods, such as an iterative optimization algorithm based on the Lagrange multiplier method, and high-order context modeling. In this thesis, we aim to reduce memory usage and complexity in wavelet-based image coding, while preserving compression efficiency. To this end, a run-length encoder and a tree-based wavelet encoder are proposed. In addition, a new algorithm to efficiently compute the wavelet transform is presented. This algorithm achieves low memory consumption using line-by-line processing, and it employs recursion to automatically place the order in which the wavelet transform is computed, solving some synchronization problems that have not been tackled by previous proposals. The proposed encode / Oliver Gil, JS. (2006). On the design of fast and efficient wavelet image coders with reduced memory usage [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1826

Page generated in 0.0964 seconds