• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1345
  • 397
  • 363
  • 185
  • 104
  • 47
  • 36
  • 31
  • 26
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • Tagged with
  • 3040
  • 532
  • 464
  • 416
  • 409
  • 358
  • 327
  • 276
  • 264
  • 222
  • 219
  • 201
  • 169
  • 161
  • 157
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
501

Parental finite state vector quantizer and vector wavelet transform-linear predictive coding.

January 1998 (has links)
by Lam Chi Wah. / Thesis submitted in: December 1997. / Thesis (M.Phil.)--Chinese University of Hong Kong, 1998. / Includes bibliographical references (leaves 89-91). / Abstract also in Chinese. / Chapter Chapter 1 --- Introduction to Data Compression and Image Coding --- p.1 / Chapter 1.1 --- Introduction --- p.1 / Chapter 1.2 --- Fundamental Principle of Data Compression --- p.2 / Chapter 1.3 --- Some Data Compression Algorithms --- p.3 / Chapter 1.4 --- Image Coding Overview --- p.4 / Chapter 1.5 --- Image Transformation --- p.5 / Chapter 1.6 --- Quantization --- p.7 / Chapter 1.7 --- Lossless Coding --- p.8 / Chapter Chapter 2 --- Subband Coding and Wavelet Transform --- p.9 / Chapter 2.1 --- Subband Coding Principle --- p.9 / Chapter 2.2 --- Perfect Reconstruction --- p.11 / Chapter 2.3 --- Multi-Channel System --- p.13 / Chapter 2.4 --- Discrete Wavelet Transform --- p.13 / Chapter Chapter 3 --- Vector Quantization (VQ) --- p.16 / Chapter 3.1 --- Introduction --- p.16 / Chapter 3.2 --- Basic Vector Quantization Procedure --- p.17 / Chapter 3.3 --- Codebook Searching and the LBG Algorithm --- p.18 / Chapter 3.3.1 --- Codebook --- p.18 / Chapter 3.3.2 --- LBG Algorithm --- p.19 / Chapter 3.4 --- Problem of VQ and Variations of VQ --- p.21 / Chapter 3.4.1 --- Classified VQ (CVQ) --- p.22 / Chapter 3.4.2 --- Finite State VQ (FSVQ) --- p.23 / Chapter 3.5 --- Vector Quantization on Wavelet Coefficients --- p.24 / Chapter Chapter 4 --- Vector Wavelet Transform-Linear Predictor Coding --- p.26 / Chapter 4.1 --- Image Coding Using Wavelet Transform with Vector Quantization --- p.26 / Chapter 4.1.1 --- Future Standard --- p.26 / Chapter 4.1.2 --- Drawback of DCT --- p.27 / Chapter 4.1.3 --- "Wavelet Coding and VQ, the Future Trend" --- p.28 / Chapter 4.2 --- Mismatch between Scalar Transformation and VQ --- p.29 / Chapter 4.3 --- Vector Wavelet Transform (VWT) --- p.30 / Chapter 4.4 --- Example of Vector Wavelet Transform --- p.34 / Chapter 4.5 --- Vector Wavelet Transform - Linear Predictive Coding (VWT-LPC) --- p.36 / Chapter 4.6 --- An Example of VWT-LPC --- p.38 / Chapter Chapter 5 --- Vector Quantizaton with Inter-band Bit Allocation (IBBA) --- p.40 / Chapter 5.1 --- Bit Allocation Problem --- p.40 / Chapter 5.2 --- Bit Allocation for Wavelet Subband Vector Quantizer --- p.42 / Chapter 5.2.1 --- Multiple Codebooks --- p.42 / Chapter 5.2.2 --- Inter-band Bit Allocation (IBBA) --- p.42 / Chapter Chapter 6 --- Parental Finite State Vector Quantizers (PFSVQ) --- p.45 / Chapter 6.1 --- Introduction --- p.45 / Chapter 6.2 --- Parent-Child Relationship Between Subbands --- p.46 / Chapter 6.3 --- Wavelet Subband Vector Structures for VQ --- p.48 / Chapter 6.3.1 --- VQ on Separate Bands --- p.48 / Chapter 6.3.2 --- InterBand Information for Intraband Vectors --- p.49 / Chapter 6.3.3 --- Cross band Vector Methods --- p.50 / Chapter 6.4 --- Parental Finite State Vector Quantization Algorithms --- p.52 / Chapter 6.4.1 --- Scheme I: Parental Finite State VQ with Parent Index Equals Child Class Number --- p.52 / Chapter 6.4.2 --- Scheme II: Parental Finite State VQ with Parent Index Larger than Child Class Number --- p.55 / Chapter Chapter 7 --- Simulation Result --- p.58 / Chapter 7.1 --- Introduction --- p.58 / Chapter 7.2 --- Simulation Result of Vector Wavelet Transform (VWT) --- p.59 / Chapter 7.3 --- Simulation Result of Vector Wavelet Transform - Linear Predictive Coding (VWT-LPC) --- p.61 / Chapter 7.3.1 --- First Test --- p.61 / Chapter 7.3.2 --- Second Test --- p.61 / Chapter 7.3.3 --- Third Test --- p.61 / Chapter 7.4 --- Simulation Result of Vector Quantization Using Inter-band Bit Allocation (IBBA) --- p.62 / Chapter 7.5 --- Simulation Result of Parental Finite State Vector Quantizers (PFSVQ) --- p.63 / Chapter Chapter 8 --- Conclusion --- p.86 / REFERENCE --- p.89
502

Codage de source ciblé : Transmission sécurisée, détection / Task-oriented source coding : Secure transmission, detection

Villard, Joffrey 01 December 2011 (has links)
Cette thèse porte sur quelques problèmes de codage de source ciblé. Il s'agit de compresser/quantifier une source d'information dans le but de réaliser une tâche déterminée. Contrairement aux méthodes mises en œuvre dans les systèmes de communication classiques, où la bonne reconstruction de la source au récepteur est l'objectif principal, l'opération effectuée in fine est ici prise en compte tout au long du processus (de l'observation des données à leur transmission). En particulier, nous démontrons des résultats fondamentaux sur le codage de source dans les transmissions sécurisées (suivant l'approche de Shannon) et la quantification haute-résolution pour la détection (suivant l'approche de Bennett). Dans les deux cas, les caractéristiques de l'environnement peuvent être judicieusement prises en compte pour améliorer les performances du système. Ces résultats trouvent des applications dans de nombreux domaines pratiques (par ex. pour les contrôles en cours de production, la surveillance, la veille environnementale, la diffusion de contenus multimédia, etc.). / This thesis investigates some task-oriented source coding problems. In this framework, an information source is compressed/quantized in view of the task for which it is to be used. While the methods implemented in traditional communication systems aim at enabling good reconstruction of the source, the eventual use of the data is here considered all along the process (from their observation to their transmission). In particular, we derive fundamental results on source coding for secure transmission (following Shannon's approach) and high-rate quantization for detection (following Bennett's approach). In both cases, the characteristics of the environment are used in a smart way to enhance the overall performance of the system. Applications of these results arise in many practical contexts (e.g. for production control, field surveillance, environmental monitoring, multimedia broadcasting, etc.).
503

Contributions à la cryptographie ADN : applications à la transmission sécurisée du texte et de l'image / Contributions to DNA cryptography : applications to text and image secure transmission

Tornea, Olga 13 November 2013 (has links)
La cryptographie ADN est un domaine nouveau et prometteur pour la sécurité de l'information. C'est une combinaison des solutions classiques de cryptographie avec les avantages du matériel génétique. En effet, il est possible de bénéficier des avantages des systèmes cryptographiques classiques et de les rendre plus efficaces sur certaines méthodes grâce à l’utilisation de l'ADN. Il y a différentes façons d'utiliser l'ADN pour sécuriser le contenu de l'information. Cette thèse propose deux solutions différentes pour utiliser l'ADN dans la cryptographie : sous sa forme biologique ou alors sous forme numérique. D ‘une part, l'ADN biologique peut être utilisé pour le stockage et pour cacher des données à l'intérieur de celui-ci. L'information secrète est placée dans une molécule de l'ADN et caché parmi d'autres molécules d'ADN. D’autre part, les nombres aléatoires peuvent être générés à partir de séquences numériques d'ADN. Ils représentent une solution pour la génération et la transmission des clés OTP (One-Time-Pad) symétriques. La transmission d'une très longue clé de cryptage n'est pas nécessaire, car chaque séquence possède un numéro d'identification unique dans la base de données. Ce numéro, ou une combinaison de ces numéros, peut alors être transmis. Enfin, la sécurité et la compression sont très importantes lors de la transmission et du stockage des données informatiques. Cependant, la plupart des systèmes de cryptage peuvent augmenter la taille des données, ou encore augmenter la complexité calcul. Ces inconvénients peuvent être résolus en combinant la compression de données avec le cryptage dans un seul processus ou en effectuant le cryptage sélectif des données. / DNA cryptography is a new and promising field in information security. It combines classical solutions in cryptography with the strength of the genetic material. By introducing DNA into the common symmetric key cryptography, it is possible to benefit from the advantages of the classical cryptosystems and solve some of its limitations. There are different ways how DNA can be used to secure information content. It is about using the biological medium of DNA for storing and hiding data. Secret information can be placed in microscopic size of DNA and hidden among a great amount of other DNA structures. Biomolecular computation is possible with specially designed DNA structures. Random numbers can be generated from DNA sequences which can be found in genetic databases in digital form. Genetic databases represent a feasible solution to the One-Time-Pad (OTP) symmetric key generation and transmission problem. The one-time use is ensured due to the great variety of the publicly available, very long (thousands of bases) sequences. Transmission of a very long key is not required because each sequence has a unique identification number in the database and this number can be sent instead. Compression along with information security have always been topics of interest because, as technology advances, the amount of data that is desired to be transmitted, stored, or used in real time applications is becoming greater. Some of the encryption schemes can increase the size of the data, or bring unwanted additional computations. These drawbacks can be solved by several techniques to combine compression with encryption in one process or by performing a selective encryption of the data.
504

Modèle biomécanique du sein pour l’évaluation de la compression et de la perception d’inconfort en mammographie / A biomechanical breast model for the evaluation of the compression and the discomfort perception in mammography.

Mira, Anna 05 July 2018 (has links)
Contexte: La mammographie est une modalité d’imagerie médicale à faible dose permettant la détection du cancer mammaire à un stade précoce. Lors de l'examen, le sein est comprimé entre deux plaques afin d'uniformiser son épaisseur et d'étaler les tissus. Cette compression améliore la qualité clinique de l'examen mais elle est également source d'inconfort chez les patientes. Bien que la mammographie soit la méthode de dépistage la plus efficace du cancer du sein, l’inconfort ressenti peut dissuader les femmes de passer cet examen. Par conséquent, une technique alternative de compression du sein prenant en compte le confort de la patiente, en plus de l’amélioration de la qualité d'image, présente un grand intérêt.Méthodes: Dans ce travail, nous avons proposé un nouvel environnement de simulation permettant l'évaluation de différentes techniques de compression du sein. La qualité de la compression a été caractérisée en termes de confort de la patiente, de la qualité d'image et de la dose glandulaire moyenne délivrée. Afin d'évaluer la déformation du sein lors de la compression, un modèle biomécanique par éléments finis du sein a été développé. Ce dernier a été calibré et évalué en utilisant des volumes IRM d'une volontaire dans trois configurations différentes (sur le dos, le ventre et de côté). Par ailleurs, la qualité d'image a été évaluée en utilisant un environnement de simulation d'imagerie auparavant validé pour la simulation de l'acquisition d'images en mammographie.Résultats: La capacité de notre modèle biomécanique à reproduire les déformations réelles des tissus a été évaluée. Tout d'abord, la géométrie du sein dans les trois configurations a été estimée en utilisant des matériaux Néo-Hookeens pour la modélisation des tissus mous. Les propriétés mécaniques des différents constituants du sein ont été estimés afin que les géométries du sein dans les positions couchée sur le ventre et couchée soient le plus proches possibles des mesures. La distance de Hausdorff entre les données estimées et les données mesurées est égale à 2.17 mm en position couché sur le ventre et 1.72 mm en position couché sur le dos. Le modèle a ensuite été évalué dans une troisième configuration sur le côté, avec une distance de Hausdorff étant alors égale à 6.14 mm. Cependant, nous avons été montré que le modèle Néo-Hookeen ne peut pas décrire intégralement le comportement mécanique riche des tissus mous. Par conséquent, nous avons introduit d'autres modèles de matériaux basés sur la fonction d'énergie de Gent. Cette dernière hypothèse a permis de réduire l'erreur maximale dans la configuration couchée sur le ventre et dos incliné d’environ 10 mm.Le couplage entre la simulation de la mécanique du sein et la simulation d'aquisition d'image nous ont permis d'effectuer deux études préliminaires. Dans la première étude, les différences entre les pelotes de compression standard rigide et flex ont été évaluées. Selon les simulations effectuées, l'utilisation de la pelote flex pour la compression du sein a le potentiel d'améliorer le confort de la patiente sans affecter la qualité de l'image ou la dose glandulaire moyenne.Dans la seconde étude, l'impact du positionnement du sein sur la mécanique globale de la compression mammaire a été étudié. Nos simulations confirment que rapprocher la pelote de compression de la cage thoracique peut augmenter l'inconfort de la patiente. Selon les données estimées, pour une même épaisseur du sein sous compression, la force appliqée au sein peut être s'accroitre de 150%.Conclusion: L'estimation réaliste de la géométrie du sein pour différentes configurations sous l'effet de la gravité, ainsi que les résultats conformes aux descriptions cliniques sur la compression du sein, ont confirmé l'interêt d'un environnement de simulation dans le cadre de nos études. / Background: Mammography is a specific type of breast imaging that uses low-dose X-rays to detect breast cancer at early stage. During the exam, the women breast is compressed between two plates in order to even out the breast thickness and to spread out the soft tissues. This compression improves the exam quality but can also be a source of discomfort. Though mammography is the most effective breast cancer screening method, the discomfort perceived during the exam might deter women from getting the test. Therefore, an alternative breast compression technique considering the patient comfort in addition to an improved clinical image quality is of large interest.Methods: In this work, a simulation environment allowing the evaluation of different breast compression techniques was put forward. The compression quality was characterized in terms of patient comfort, image quality and average glandular dose. To estimate the breast deformation under compression, a subject-specific finite element biomechanical model was developed. The model was calibrated and evaluated using MR images in three different breast configurations (supine, prone and supine tilted). On the other hand, image quality was assessed by using an already validated simulation framework. This framework was largely used to mimic image acquisitions in mammography.Findings: The capability of our breast biomechanical model to reproduce the real breast deformations was evaluated. To this end, the geometry estimates of the three breast configurations were computed using Neo-Hookean material models. The subject specific mechanical properties of each breast's structures were assessed, such as the best estimates of the supine and prone configurations were obtained. The Hausdorff distances between the estimated and the measured geometries were equal to 2.17 mm and 1.72 mm respectively. Then, the model was evaluated using a supine tilted configuration; with a Hausdorff distance of 6.14 mm was obtained in that case. However, we have showed that the Neo-Hookean strain energy function cannot totally describe the rich mechanical behavior of breast soft tissues. Therefore, alternative material models based on the Gent strain energy function were proposed. The latter assumption reduced the maximal error in supine tilted breast configuration by about 10 mm.The coupling between the simulations of the breast mechanics and the X-ray simulations allowed us to run two preliminary studies. In the first study, the differences between standard rigid and flex compression paddles were assessed. According to the performed simulations, using the flex paddle for breast compression may improve the patient comfort without affecting the image quality and the delivered average glandular dose.In the second study, the impact of breast positioning on the general compression mechanics was described. Our simulations confirm that positioning the paddle closer to the chest wall is suspected to increase the patient discomfort. Indeed, based on the estimated data, for the same breast thickness under compression, the force applied to the breast may increase by 150%.Conclusion: The good results we get for the estimation of breast deformation under gravity, as well as the conforming results on breast compression quality with the already published clinical statements, have shown the feasibility of such studies by the means of a simulation framework.
505

Contribution au développement et à l'industrialisation d'un système non-tissé 3D / Contribution to the development and the indistrialization of a 3D nonwoven system

Njeugna Yotchou, Nicole Suzie 30 November 2009 (has links)
Réalisé dans le cadrr du pôle de compétitivité Véhicule du Futur » de la région ,11k.c Franche Comté_ cc uas_ul de thèse porta sur la hmblcmatsque du remplacement des étoffes complexes textiles utilisées dans les applications d'habillage intérieur automobile. La législation sur les véhicules hors d'usage impose des produits automobiles a 1 $ "), rccyclablcs et t 95' réutilisables dl ici janvier 2015. Alin de rebondie u la problématique posée ainsi qua la législation Europécnnc, des industriels et des acteurs de la recherche de la regain mulhousienne ont lias aillé ensemble dans le cadre du poilez VERTILAP" sur le développement d'un nouveau textile non-tissé 3D. Ce travail de thèse a eu pour objectif de développer le proucde de ! abris ation de ces nouveaux matériaux ainsi que les produits non-tisses 3D obtenus. La démarche de développements procédé produits a consisté Ii faire évoluer le prototype expérimental VERTILAP' au travers de la caractérisation physique et mécanique en compression des produits obtenus. Des méthodes ci dcsj outils de caractérisations adaptés a ces nouveaux produits ont etc mis au point. L'analyse de résultats obtenus s'est appuyée sur les outils statistiques i abn de valider ces résultats. Une étude comparative avec les produits contenant de la mousse polyuréthane (PU) a permis de montrer que ces nouveaux non-tissés 3D pouvaient être utilisés en remplacement des mousses PU. La réalisation de prototypes pour des applications d'habitacle autinnobilu a été faite et a prouvé la faisabilité industrielle d'un tel remplacement. Les résultats de ce travail ont été utilisés pour [élaboration du cahier des charges d'ur prototype semi industriel VERTILAP". / The question of the recycling of the laminated textile fabrics especially in the automotive indusuy represents one of the main requests and challenge of the car manufactures and the OEM's sine 2000. indced, it is nowadays impérative l'or car industry to promote ecological methods of developinent in regard to new consumer sensibility. Rcgarding the Europcan directives 2000 CE53, the automotive products should be at 85% recyclable and at 95% reusable by January 2015. In order to answer this issue, sonie textile industrialists and researchers are working together, through the VERTILAP projet to develop a new material as a 3D nonwoven which will be used to substitute polyuréthane (PU) foam. This work aims to develop the VERTILAP experimental prototype through the physical and mechanical characterizations in compression of thosc new 3D nonwovens. Methods and tools have been canied out to reach Chat goal. Statistical analyses have been used to validate the obtained experimental data. A comparative study between the VERTILAP" products, issued from the VERTILAP" process, and the automotive PU foams bas shows that the new 3D nonwovens can be used to substitute the PU foams. VERTILAP" experimental prototypes such as headrest upholstery and door panel have been developed and have proved the feasibility of the foam exchange. The already obtained results of this work have been taking alto accourt in the spécifications of the new VERTILAP" serai industrial prototype.
506

La génération d'impulsions courtes d'ondes acoustiques de surface sur un matériau piézo-électrique / Generation of short pulses of surface acoustic waves on a piezoelectric material

Shaw, Anurupa 14 December 2017 (has links)
La génération d’impulsions courtes d’ondes acoustiques de surface est étudiée, en s’inspirant du principe de l’amplification des impulsions chirpées qui est utilisée pour la génération d’impulsions laser ultrabrèves. La compression temporelle des impulsions est généralement réalisée à l’aide d’éléments dispersifs. Dans ce travail, un transducteur à ondes acoustiques de surface pouvant émettre des impulsions brèves est utilisé comme élément dispersif. Une étude comparative des transducteurs à peignes interdigités chirpés est menée avec un modèle du premier ordre et un modèle dit de matrice mixte. Des dispositifs à ondes acoustiques de surface sont conçus et réalisés à partir des résultats de simulation numérique. La façon de distribuer la période dans le transducteur est étudiée. L’apparition de bandes interdites dues aux réflexions internes dans le transducteur chirpé et son effet sur l’émission directionnelle des ondes surface sont en particulier observées et étudiées.Un interféromètre optique différentiel dans le domaine temporel et stabilisé est ensuite proposé afin de caractériser les impulsions brèves. Le transducteur à ondes acoustiques de surface est placé à l’extérieur de l’interféromètre. Des expériences sont conduites avec un transducteur à peignes interdigités chirpé ayant une bande opérationnelle couvrant la gamme de fréquences 200 MHz – 400 MHz et produisant des impulsions de 10 ns avec un déplacement hors-plan maximal de 36 nm. La réponse interférométrique est comparée à une mesure électrique directe obtenue à l’aide d’un transducteur de réception large bande ; une bonne correspondance des deux mesures est observée. Les influences de la différence de chemin optique dans l’interféromètre et du choix du point d’observation sur la surface sont discutées. La compression de l’impulsion le long du transducteur chirpé est observée expérimentalement.Finalement, une étude comparative de différents filtres de compression temporelle est présentée, dans l’objectif d’obtenir des impulsions optimales à la fois courtes temporellement et de forte intensité, pour un élément dispersif donné. Le filtre inverse est identifié comme le plus efficace et nous permet de produire les impulsions de plus grande amplitude. Afin d’optimiser la compression de l’impulsion pour les dispositifs fabriqués, des expériences sont conduites pour trouver les courbes de compromis optimal dans chaque cas de modulation de la période du transducteur. / Generation of short pulses with surface acoustic waves (SAW) is studied, in analogy with the principle of chirped pulse amplification (CPA) used to produce ultrashort laser pulses. Temporal compression of pulses is generally achieved with dispersive elements. A SAW transducer emitting short SAW pulses is used as a dispersive element in this work. A comparative study of chirped inter digital transducers (CIDTs) using the first order model and the p-matrix model is presented. SAW devices are designed and fabricated using the simulation results and the effect of the varying pitch of the CIDts on the response is studied. Appearance of band gaps due to internal reflections within the CIDts and its effect on the directionality of the CIDTs are in particular found and studied.A stabilized time-domain differential optical interferometer is then proposed in order to characterize short pulses, with the surface acoustic wave (SAW) sample placed outside the interferometer. Experiments are conducted with surface acoustic waves excited by a chirped inter-digital transducer on a piezoelectric lithium niobate substrate having an operational bandwidth covering the 200 MHz – 400 MHz frequency range and producing 10 ns pulses with 36 nm maximum out-of-plane displacement. The interferometric response is compared with a direct electrical measurement obtained with a receiving wide bandwidth inter-digital transducer and good correspondence is observed. The effects of varying the path difference of the interferometer and the measurement position on the surface are discussed. Pulse compression along the chirped inter-digital transducer is observed experimentally.Finally, a comparative study of different filter designs for generating short pulses is presented with an objective to find a design to produce the optimal pulse which is short in width and high in amplitude, for a given dispersive element. The inverse filter is found to be the most efficient as it produces a short pulse with the highest amplitude. To optimize the pulse compression for the fabricated devices, experiments are conducted to find the optimal trade-off curve for each chirp case.
507

Graph based transforms for compression of new imaging modalities / Transformées basées graphes pour la compression de nouvelles modalités d’image

Rizkallah, Mira 26 April 2019 (has links)
En raison de la grande disponibilité de nouveaux types de caméras capturant des informations géométriques supplémentaires, ainsi que de l'émergence de nouvelles modalités d'image telles que les champs de lumière et les images omnidirectionnelles, il est nécessaire de stocker et de diffuser une quantité énorme de hautes dimensions. Les exigences croissantes en matière de streaming et de stockage de ces nouvelles modalités d’image nécessitent de nouveaux outils de codage d’images exploitant la structure complexe de ces données. Cette thèse a pour but d'explorer de nouvelles approches basées sur les graphes pour adapter les techniques de codage de transformées d'image aux types de données émergents où les informations échantillonnées reposent sur des structures irrégulières. Dans une première contribution, de nouvelles transformées basées sur des graphes locaux sont conçues pour des représentations compactes des champs de lumière. En tirant parti d’une conception minutieuse des supports de transformées locaux et d’une procédure d’optimisation locale des fonctions de base , il est possible d’améliorer considérablement le compaction d'énergie. Néanmoins, la localisation des supports ne permettait pas d'exploiter les dépendances à long terme du signal. Cela a conduit à une deuxième contribution où différentes stratégies d'échantillonnage sont étudiées. Couplés à de nouvelles méthodes de prédiction, ils ont conduit à des résultats très importants en ce qui concerne la compression quasi sans perte de champs de lumière statiques. La troisième partie de la thèse porte sur la définition de sous-graphes optimisés en distorsion de débit pour le codage de contenu omnidirectionnel. Si nous allons plus loin et donnons plus de liberté aux graphes que nous souhaitons utiliser, nous pouvons apprendre ou définir un modèle (ensemble de poids sur les arêtes) qui pourrait ne pas être entièrement fiable pour la conception de transformées. La dernière partie de la thèse est consacrée à l'analyse théorique de l'effet de l'incertitude sur l'efficacité des transformées basées graphes. / Due to the large availability of new camera types capturing extra geometrical information, as well as the emergence of new image modalities such as light fields and omni-directional images, a huge amount of high dimensional data has to be stored and delivered. The ever growing streaming and storage requirements of these new image modalities require novel image coding tools that exploit the complex structure of those data. This thesis aims at exploring novel graph based approaches for adapting traditional image transform coding techniques to the emerging data types where the sampled information are lying on irregular structures. In a first contribution, novel local graph based transforms are designed for light field compact representations. By leveraging a careful design of local transform supports and a local basis functions optimization procedure, significant improvements in terms of energy compaction can be obtained. Nevertheless, the locality of the supports did not permit to exploit long term dependencies of the signal. This led to a second contribution where different sampling strategies are investigated. Coupled with novel prediction methods, they led to very prominent results for quasi-lossless compression of light fields. The third part of the thesis focuses on the definition of rate-distortion optimized sub-graphs for the coding of omni-directional content. If we move further and give more degree of freedom to the graphs we wish to use, we can learn or define a model (set of weights on the edges) that might not be entirely reliable for transform design. The last part of the thesis is dedicated to theoretically analyze the effect of the uncertainty on the efficiency of the graph transforms.
508

Temporal motion models for video mosaicing and synthesis

Owen, Michael, Information Technology & Electrical Engineering, Australian Defence Force Academy, UNSW January 2008 (has links)
Video compression aims to reduce video file size without impacting visual quality. Existing algorithms mostly use transform coders to convert information from the spatial to frequency domain, and attenuate or remove high frequency components from the sequence. This enables the omission of a large proportion of high frequency information with no discernible visual impact. Sprite-based compression encodes large portions of a scene as a single object in the video sequence, recreating the object in subsequent frames by warping or morphing the sprite to mimic changes in subsequent frames. This thesis sought to improve several aspects of existing sprite based compression approaches, employing a temporal motion model using a low order polynomial to represent the motion of an object across multiple frames in a single model rather than a series of models. The main outcome is the demonstration that motion models used by sprite based video compression can be extended to a full three dimensional model, reducing the overall size of the model, and improving the quality of the sequence at low bit rates. A second outcome is the demonstration that super-resolution processing is not necessary if lanczos spatial interpolation is used instead of bilinear or bi-cubic interpolation, resulting in a savings in computational time and resources. A third outcome is the introduction of a new blending model used to generate image mosaics that improves the quality of the synthesised sequence when zoom is present in the sequence for a given bit-rate. A final outcome is demonstrating that performing superresolution processing and sub-sampling back to the original resolution prior to compression provides benefits in some circumstances.
509

Error resilience in JPEG2000

Natu, Ambarish Shrikrishna, Electrical Engineering & Telecommunications, Faculty of Engineering, UNSW January 2003 (has links)
The rapid growth of wireless communication and widespread access to information has resulted in a strong demand for robust transmission of compressed images over wireless channels. The challenge of robust transmission is to protect the compressed image data against loss, in such a way as to maximize the received image quality. This thesis addresses this problem and provides an investigation of a forward error correction (FEC) technique that has been evaluated in the context of the emerging JPEG2000 standard. Not much effort has been made in the JPEG2000 project regarding error resilience. The only techniques standardized are based on insertion of marker codes in the code-stream, which may be used to restore high-level synchronization between the decoder and the code-stream. This helps to localize error and prevent it from propagating through the entire code-stream. Once synchronization is achieved, additional tools aim to exploit as much of the remaining data as possible. Although these techniques help, they cannot recover lost data. FEC adds redundancy into the bit-stream, in exchange for increased robustness to errors. We investigate unequal protection schemes for JPEG2000 by applying different levels of protection to different quality layers in the code-stream. More particularly, the results reported in this thesis provide guidance concerning the selection of JPEG2000 coding parameters and appropriate combinations of Reed-Solomon (RS) codes for typical wireless bit error rates. We find that unequal protection schemes together with the use of resynchronization makers and some additional tools can significantly improve the image quality in deteriorating channel conditions. The proposed channel coding scheme is easily incorporated into the existing JPEG2000 code-stream structure and experimental results clearly demonstrate the viability of our approach
510

Winpaz : Ett GUI till en ny komprimeringsalgoritm / Winpaz : A GUI for a new compression algorithm

Svensson, Andreas, Olsson, Björn January 2007 (has links)
<p>Detta är ett 10-poängs examensarbete på C-nivå, som vi under vårterminen avlagt vid Karlstads universitet. Målet med vårt projekt var att skapa ett nytt grafiskt gränssnitt till en komprimeringsalgoritm vid namn PAZ. Nuförtiden finns en hel uppsjö av grafiska gränssnitt till komprimeringsalgoritmer, men inget av dem stöder möjligheten att plugga in en egenutvecklad algoritm. Därför var vi tvungna att skapa vårt eget gränssnitt, som förutom PAZ också skulle stödja ZIP, RAR och andra etablerade algoritmer. Vi har alltså skapat ett grafiskt gränssnitt, vilket är anpassat för en implementation av den nya PAZ-algoritmen.</p><p>Algoritmen har utvecklats av vår uppdragsgivare Martin Larsson. Gränssnittet har vi, i samarbete med Martin, valt att kalla för Winpaz. Vi började med att göra två prototyper, som vi bland annat delade ut till personer på universitetet för att få respons på användarvänligheten hos gränssnitten. Med utgångspunkt från resultaten av dessa tester, konstruerade vi sedan vårt slutgiltiga gränssnitt.</p><p>Kravet vi hade på oss var att skapa ett användarvänligt grafiskt gränssnitt, som skulle stödja de vanligaste algoritmerna. Vi nådde målet att implementera stöd för algoritmerna ZIP och TAR. Dock fick vi göra avkall på implementationen av algoritmerna PAZ och RAR på grund av tidsbrist, men anpassade gränssnittet så att en senare inpluggning av dessa algoritmer är möjlig.</p><p>Vi är nöjda med vår slutprodukt, men inser också att det troligen krävs en del ytterligare funktionalitet för att gränssnittet ska fungera exemplariskt. Under projektet har vi, förutom att vi stärkte våra kunskaper i C++-programmering, även lärt oss att använda utvecklingsverktyget wx-DevCpp. Utöver detta har vi lärt oss att programmera grafiska gränssnitt med hjälp av wxWidgets.</p> / <p>This is a bachelor´s project that we have been working on during a period of ten weeks, full time. The goal of our project was to design and implement a GUI for a new data compression algorithm called PAZ. At present, a vast array of compression/extraction GUIs is available, but none of them provide the possibility to incorporate a user developed algorithm. Thus, we had to create our own, with support for not only PAZ, but also ZIP, RAR, and other well known archiving algorithms. And so, we have created a GUI that is well suited for an implementation of the new PAZ algorithm.</p><p>The PAZ algorithm has been developed by Martin Larsson. We chose, in collaboration with Martin, to name the GUI application Winpaz. We began by implementing two separate prototypes, which we sent out to be tested by a closed group of beta testers. The reason for this test was to investigate how to design various parts of the application to be user friendly. Using the results from the testers, we then began the development of our final version of the GUI.</p><p>Our goals were to implement a user friendly GUI, that supported PAZ as well as the most widespread algorithms already in use. We achieved our first goal, to design a user friendly GUI, and we implemented support for both ZIP and TAR, but had to abandon our efforts in implementing RAR and PAZ support due to lack of time. The interface is however designed with the future incorporation of these algorithms in mind.</p><p>We are fairly pleased with our work, but we also recognize the need for added functionality in order to make the GUI a commercial grade product. During this project we have, apart from broadening our knowledge and skill in C++ programming, also learned to use the IDE wxDevCpp, a powerful open source tool for developing GUI applications based on the wxWidgets framework.</p>

Page generated in 0.0521 seconds