• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 11
  • 4
  • 4
  • 2
  • Tagged with
  • 47
  • 21
  • 20
  • 17
  • 12
  • 12
  • 10
  • 10
  • 8
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Image coding with H.264 I-frames / Stillbildskodning med H.264 I-frames

Eklund, Anders January 2007 (has links)
<p>In this thesis work a part of the video coding standard H.264 has been implemented. The part of the video coder that is used to code the I-frames has been implemented to see how well suited it is for regular image coding. The big difference versus other image coding standards, such as JPEG and JPEG2000, is that this video coder uses both a predictor and a transform to compress the I-frames, while JPEG and JPEG2000 only use a transform. Since the prediction error is sent instead of the actual pixel values, a lot of the values are zero or close to zero before the transformation and quantization. The method is much like a video encoder but the difference is that blocks of an image are predicted instead of frames in a video sequence.</p> / <p>I det här examensarbetet har en del av videokodningsstandarden H.264 implementerats. Den del av videokodaren som används för att koda s.k. I-bilder har implementerats för att testa hur bra den fungerar för ren stillbildskodning. Den stora skillnaden mot andra stillbildskodningsmetoder, såsom JPEG och JPEG2000, är att denna videokodaren använder både en prediktor och en transform för att komprimera stillbilderna, till skillnad från JPEG och JPEG2000 som bara använder en transform. Eftersom prediktionsfelen skickas istället för själva pixelvärdena så är många värden lika med noll eller nära noll redan innan transformationen och kvantiseringen. Metoden liknar alltså till mycket en ren videokodare, med skillnaden att man predikterar block i en bild istället för bilder i en videosekvens.</p>
42

Design and Implementation of an Embedded NIOS II System for JPEG2000 Tier II Encoding

McNichols, John M. 21 August 2012 (has links)
No description available.
43

Image coding with H.264 I-frames / Stillbildskodning med H.264 I-frames

Eklund, Anders January 2007 (has links)
In this thesis work a part of the video coding standard H.264 has been implemented. The part of the video coder that is used to code the I-frames has been implemented to see how well suited it is for regular image coding. The big difference versus other image coding standards, such as JPEG and JPEG2000, is that this video coder uses both a predictor and a transform to compress the I-frames, while JPEG and JPEG2000 only use a transform. Since the prediction error is sent instead of the actual pixel values, a lot of the values are zero or close to zero before the transformation and quantization. The method is much like a video encoder but the difference is that blocks of an image are predicted instead of frames in a video sequence. / I det här examensarbetet har en del av videokodningsstandarden H.264 implementerats. Den del av videokodaren som används för att koda s.k. I-bilder har implementerats för att testa hur bra den fungerar för ren stillbildskodning. Den stora skillnaden mot andra stillbildskodningsmetoder, såsom JPEG och JPEG2000, är att denna videokodaren använder både en prediktor och en transform för att komprimera stillbilderna, till skillnad från JPEG och JPEG2000 som bara använder en transform. Eftersom prediktionsfelen skickas istället för själva pixelvärdena så är många värden lika med noll eller nära noll redan innan transformationen och kvantiseringen. Metoden liknar alltså till mycket en ren videokodare, med skillnaden att man predikterar block i en bild istället för bilder i en videosekvens.
44

PCA and JPEG2000-based Lossy Compression for Hyperspectral Imagery

Zhu, Wei 30 April 2011 (has links)
This dissertation develops several new algorithms to solve existing problems in practical application of the previously developed PCA+JPEG2000, which has shown superior rate-distortion performance in hyperspectral image compression. In addition, a new scheme is proposed to facilitate multi-temporal hyperspectral image compression. Specifically, the uniqueness in each algorithm is described as follows. 1. An empirical piecewise linear equation is proposed to estimate the optimal number of major principal components (PCs) used in SubPCA+JPEG2000 for AVIRIS data. Sensor-specific equations are presented with excellent fitting performance for AVIRIS, HYDICE, and HyMap data. As a conclusion, a general guideline is provided for finding sensor-specific piecewise linear equations. 2. An anomaly-removal-based hyperspectral image compression algorithm is proposed. It preserves anomalous pixels in a lossless manner, and yields the same or even improved rate-distortion performance. It is particularly useful to SubPCA+JPEG2000 when compressing data with anomalies that may reside in minor PCs. 3. A segmented PCA-based PCA+JPEG2000 compression algorithm is developed, which spectrally partitions an image based on its spectral correlation coefficients. This compression scheme greatly improves the rate-distortion performance of PCA+JPEG2000 when the spatial size of the data is relatively smaller than its spectral size, especially at low bitrates. A sensor-specific partition method is also developed for fast processing with suboptimal performance. 4. A joint multi-temporal image compression scheme is proposed. The algorithm preserves change information in a lossless fashion during the compression. It can yield perfect change detection with slightly degraded rate-distortion performance.
45

Quality strategy and method for transmission : application to image / Évaluation de la qualité des images dans un contexte de transmission

Xie, Xinwen 10 January 2019 (has links)
Cette thèse porte sur l’étude des stratégies d’amélioration de la qualité d’image dans les systèmes de communication sans fil et sur la conception de nouvelles métriques d’évaluation de la qualité. Tout d'abord, une nouvelle métrique de qualité d'image à référence réduite, basée sur un modèle statistique dans le domaine des ondelettes complexes, a été proposée. Les informations d’amplitude et de phase relatives des coefficients issues de la transformée en ondelettes complexes sont modélisées à l'aide de fonctions de densité de probabilité. Les paramètres associés à ces fonctions constituent la référence réduite qui sera transmise au récepteur. Ensuite, une approche basée sur les réseaux de neurones à régression généralisée est exploitée pour construire la relation de cartographie entre les caractéristiques de la référence réduite et le score objectif.Deuxièmement, avec la nouvelle métrique, une nouvelle stratégie de décodage est proposée pour la transmission d’image sur un canal de transmission sans fil réaliste. Ainsi, la qualité d’expérience (QoE) est améliorée tout en garantissant une bonne qualité de service (QoS). Pour cela, une nouvelle base d’images a été construite et des tests d’évaluation subjective de la qualité de ces images ont été effectués pour collecter les préférences visuelles des personnes lorsqu’elles sélectionnent les images avec différentes configurations de décodage. Un classificateur basé sur les algorithmes SVM et des k plus proches voisins sont utilisés pour la sélection automatique de la meilleure configuration de décodage.Enfin, une amélioration de la métrique a été proposée permettant de mieux prendre en compte les spécificités de la distorsion et la préférence des utilisateurs. Pour cela, nous avons combiné les caractéristiques globales et locales de l’image conduisant ainsi à une amélioration de la stratégie de décodage.Les résultats expérimentaux valident l'efficacité des métriques de qualité d'image et des stratégies de transmission d’images proposées. / This thesis focuses on the study of image quality strategies in wireless communication systems and the design of new quality evaluation metrics:Firstly, a new reduced-reference image quality metric, based on statistical model in complex wavelet domain, has been proposed. The magnitude and the relative phase information of the Dual-tree Complex Wavelet Transform coefficients are modelled by using probability density function and the parameters served as reduced-reference features which will be transmitted to the receiver. Then, a Generalized Regression Neural Network approach is exploited to construct the mapping relation between reduced-reference feature and the objective score.Secondly, with the new metric, a new decoding strategy is proposed for a realistic wireless transmission system, which can improve the quality of experience (QoE) while ensuring the quality of service (QoS). For this, a new database including large physiological vision tests has been constructed to collect the visual preference of people when they are selecting the images with different decoding configurations, and a classifier based on support vector machine or K-nearest neighboring is utilized to automatically select the decoding configuration.Finally, according to specific property of the distortion and people's preference, an improved metric has been proposed. It is the combination of global feature and local feature and has been demonstrated having a good performance in optimization of the decoding strategy.The experimental results validate the effectiveness of the proposed image quality metrics and the quality strategies.
46

Digitální knihovna / Digital Library

Krbeček, Daniel January 2008 (has links)
The thesis contains basic information about image documents digitalization. A brief list of common used standards in Czech republic is shown. The standards can be used in description of digitalized documents by institutions such as libraries, scientific departments and universities. The thesis specifically solves the dilemma of the preservation and the accessing of B.P.Molls large map collection stored in Moravian Library in Brno city. It analyses step by step the characteristics of the saved documents, style of their interlacing and data representation. In terms of deposition and manipulation it comes with description list of open-source digital libraries and it chooses the Fedora repository. It solves methods of object-model implementation while using this digital library. The functional parts are web presentation of the mentioned map collection and an effectiveness test showing large-scale maps using the flash Zoomify browser. Web presentation uses the repository services as often as possible, and thus allows searching and searching through the bibliographic records of the presented documents. The end of the thesis sums up the obtained results and presents the incoming development course of presentation and popularization of the map collection.
47

Visualisation 3D adaptée par insertion synchronisée de données cachées

Hayat, Khizar 22 June 2009 (has links) (PDF)
L'objectif principal de ces travaux de thèse est d'unifier différentes informations 2D et 3D afin de réaliser une visualisation adaptée dans un environnement client/serveur hétérogène en termes de réseau, de traitement et de ressources mémoire. Dans ce contexte, nous avons exploité la nature multi-résolution de la transformée en ondelettes discrètes (TOD) du codeur JPEG2000. L'unification des données est réalisée par insertion aveugle, synchrone ou partiellement synchrone, des données cachées dans le domaine des ondelettes. Une visualisation 3D classique nécessite au moins deux types de données : une image 2D d'intensité, appelé texture, et une forme 3D pouvant être représentée par une image, un modèle 3D ombré ou un maillage de points. Ce type d'image, parfois également appelé carte de profondeur est une image dans laquelle la valeur des pixels reflète la distance du capteur à la surface par imagerie. La texture est une image 2D couleur qui est apposée sur le modèle 3D après triangulation. Au niveau de l'insertion des données cachées, la carte de profondeur est d'abord transformée dans le domaine des ondelettes tandis que la texture est insérée dans le codeur JPEG2000. Le processus de codage JPEG2000 de la texture est interrompue, et les coefficients 3D sont insérés dans la totalité ou dans un sous-ensemble des sous-bandes de la texture. Les données sont re-intégrées dans le codeur standard de JPEG2000 à l'endroit où l'interruption a été faite. Le fichier résultant peut alors être envoyé à travers tous types de canal de communication comme un autre fichier standard issu du codeur JPEG2000. Les différents niveaux de résolution et le caractère synchronisé de nos algorithmes permettent une visualisation en 3D, même avec peu de sous-bandes de résolution suite à un transfert partiel ou retardé. La méthode permet ainsi d'effectuer une visualisation à partir uniquement d'une fraction des données. Dans ce cas nous remplaçons par des zéros les coefficients des sous-bandes manquantes. La première phase de ce travail a concerné l'imperceptibilité; c'est la raison pour laquelle l'insertion a été réalisée dans les bits de poids plus faibles. La deuxième phase de ces travaux a concerné la robustesse, c'est pourquoi une stratégie d'insertion par étalement de spectres a été utilisée. Au cours de la seconde phase, l'imperceptibilité n'a pas été complètement ignorée, du fait que l'insertion des données est effaçable après l'extraction. Les deux applications principales sont la visualisation 3D de modèles numériques de terrains et de visages. Dans la troisième et dernière phase de ces travaux de thèse, nous avons élargi le problème en essayant de prendre en compte le problème d'assemblage de dalles de niveaux de résolutions différentes sans soudure apparente. Ceci a eté assuré par des fonctions de lissage dans le domaine des ondelettes.

Page generated in 0.0488 seconds