• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1345
  • 397
  • 363
  • 185
  • 104
  • 47
  • 36
  • 31
  • 26
  • 22
  • 22
  • 16
  • 14
  • 13
  • 13
  • Tagged with
  • 3040
  • 532
  • 464
  • 416
  • 409
  • 358
  • 327
  • 276
  • 264
  • 222
  • 219
  • 201
  • 169
  • 161
  • 157
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Hiding Depth Map in JPEG Image and MPEG-2 Video

Wang, Wenyi January 2011 (has links)
Digital watermarking of multimedia content has been proposed as a method for different applications such as copyright protection, content authentication, transaction tracking and data hiding. In this thesis, we propose a lossless watermarking approach based on Discrete Cosine Transform (DCT) for a new application of watermarking. A depth map obtained from a stereoscopic image pair is embedded into one of the two images using a reversible watermarking algorithm. Different from existing approaches which hide depth map in spatial domain, the depth information is hidden in the quantized DCT domain of the stereo image in our method. This modification makes the watermarking algorithm compatible with JPEG and MPEG-2 compression. After the investigation of the quantized DCT coefficients distribution of the compressed image and video, The bit-shift operation is utilized to embed the depth map into its associated 2D image reversibly for the purpose of achieving high compression efficiency of the watermarked image and/or video and high visual quality of stereo image and/or video after the depth map is extracted. We implement the proposed method to analyze its performance. The experimental results show that a very high payload of watermark (e.g. depth map) can be embedded into the JPEG compressed image and MPEG-2 video. The compression efficiency is only slightly reduced after the watermark embedding and the quality of the original image or video can be restored completely at the decoder side.
182

Deep learning for image compression / Apprentissage profond pour la compression d'image

Dumas, Thierry 07 June 2019 (has links)
Ces vingt dernières années, la quantité d’images et de vidéos transmises a augmenté significativement, ce qui est principalement lié à l’essor de Facebook et Netflix. Même si les capacités de transmission s’améliorent, ce nombre croissant d’images et de vidéos transmises exige des méthodes de compression plus efficaces. Cette thèse a pour but d’améliorer par l’apprentissage deux composants clés des standards modernes de compression d’image, à savoir la transformée et la prédiction intra. Plus précisément, des réseaux de neurones profonds sont employés car ils ont un grand pouvoir d’approximation, ce qui est nécessaire pour apprendre une approximation fidèle d’une transformée optimale (ou d’un filtre de prédiction intra optimal) appliqué à des pixels d’image. En ce qui concerne l’apprentissage d’une transformée pour la compression d’image via des réseaux de neurones, un défi est d’apprendre une transformée unique qui est efficace en termes de compromis débit-distorsion, à différents débits. C’est pourquoi deux approches sont proposées pour relever ce défi. Dans la première approche, l’architecture du réseau de neurones impose une contrainte de parcimonie sur les coefficients transformés. Le niveau de parcimonie offre un contrôle sur le taux de compression. Afin d’adapter la transformée à différents taux de compression, le niveau de parcimonie est stochastique pendant la phase d’apprentissage. Dans la deuxième approche, l’efficacité en termes de compromis débit-distorsion est obtenue en minimisant une fonction de débit-distorsion pendant la phase d’apprentissage. Pendant la phase de test, les pas de quantification sont progressivement agrandis selon un schéma afin de compresser à différents débits avec une unique transformée apprise. Concernant l’apprentissage d’un filtre de prédiction intra pour la compression d’image via des réseaux de neurones, le problème est d’obtenir un filtre appris qui s’adapte à la taille du bloc d’image à prédire, à l’information manquante dans le contexte de prédiction et au bruit de quantification variable dans ce contexte. Un ensemble de réseaux de neurones est conçu et entraîné de façon à ce que le filtre appris soit adaptatif à ces égards. / Over the last twenty years, the amount of transmitted images and videos has increased noticeably, mainly urged on by Facebook and Netflix. Even though broadcast capacities improve, this growing amount of transmitted images and videos requires increasingly efficient compression methods. This thesis aims at improving via learning two critical components of the modern image compression standards, which are the transform and the intra prediction. More precisely, deep neural networks are used for this task as they exhibit high power of approximation, which is needed for learning a reliable approximation of an optimal transform (or an optimal intra prediction filter) applied to image pixels. Regarding the learning of a transform for image compression via neural networks, a challenge is to learn an unique transform that is efficient in terms of rate-distortion while keeping this efficiency when compressing at different rates. That is why two approaches are proposed to take on this challenge. In the first approach, the neural network architecture sets a sparsity on the transform coefficients. The level of sparsity gives a direct control over the compression rate. To force the transform to adapt to different compression rates, the level of sparsity is stochastically driven during the training phase. In the second approach, the rate-distortion efficiency is obtained by minimizing a rate-distortion objective function during the training phase. During the test phase, the quantization step sizes are gradually increased according a scheduling to compress at different rates using the single learned transform. Regarding the learning of an intra prediction filter for image compression via neural networks, the issue is to obtain a learned filter that is adaptive with respect to the size of the image block to be predicted, with respect to missing information in the context of prediction, and with respect to the variable quantization noise in this context. A set of neural networks is designed and trained so that the learned prediction filter has this adaptibility.
183

Compression d'images et de vidéos inspirée du fonctionnement de la rétine / Retina-inspired image and video coding

Doutsi, Effrosyni 22 March 2017 (has links)
Cette thèse vise à proposer une nouvelle architecture de codage vidéo qui s’inspire du système visuel des mammifères et de la rétine. La rétine peut être considérée comme une machine intelligente qui traite le stimulus visuel de façon très efficace. De ce fait, elle représente une grande source d'inspiration pour développer de nouveaux systèmes de traitement d’image. Il y a plusieurs raisons pour cela : elle consomme peu d’énergie, elle traite des entrées haute résolution et sa façon de transformer et d’encoder de manière dynamique le stimulus visuel dépasse les normes actuelles. Nous avons souhaité étudier et proposer un codec vidéo inspiré de la rétine. L’algorithme proposé a été appliqué à un flux vidéo d'une manière simple, suivant le principe des standards de codage MJPEG ou MJPEG2000. Cette approche permet au lecteur d’étudier et d’explorer tous les avantages du traitement dynamique de la rétine en termes de compression et de traitement d’image. La performance actuelle du codec que nous avons développé est très prometteuse. Les résultats montrent des performances supérieures à MJPEG pour des débits inférieurs à 100 kbps et MPEG-2 pour des débits supérieurs à 70 kpbs. De plus, à faibles débits, le codec proposé décrit mieux le contenu de la scène d’entrée. De nombreuses perspectives sont proposées afin d'améliorer ce codec inspiré de la rétine qui semblent conduire à un nouveau paradigme en compression vidéo. / The goal of this thesis is to propose a novel video coding architecture which is inspired by the mammalian visual system and the retina. If one sees the retina as a machine which processes the visual stimulus, it seems an intelligent and very efficient model to mimic. There are several reasons to claim that, first of all because it consumes low power, it also deals with high resolution inputs and the dynamic way it transforms and encodes the visual stimulus is beyond the current standards. We were motivated to study and release a retina-inspired video codec. The proposed algorithm was applied to a video stream in a very simple way according to the coding standards like MJPEG or MJPEG2000. However, this way allows the reader to study and explore all the advantages of the retina dynamic processing way in terms of compression and image processing. The current performance of the retina-inspired codec is very promising according to some final results which outperform MJPEG for bitrates lo wer than 100 kbps and MPEG-2 for bitrates higher than 70 kpbs. In addition, for lower bitrates, the retina-inspired codec outlines better the content of the input scene. There are many perspectives which concern the improvement of the retina-inspired video codec which seem to lead to a groundbreaking compression architecture. Hopefully, this manuscript will be a useful tool for all the researchers who would like to study further than the perceptual capability of the mammalian visual system and understand how the structure and the functions of the retina can in practice improve the coding algorithms.
184

Sous-structures dans les graphes dirigés / Substructures in digraphs

Lochet, William 19 July 2018 (has links)
Le but principal de cette thèse est de présenter des conditions suffisantes pour garantir l'existence de subdivisions dans les graphes dirigés. Bien que ce genre de questions soit assez bien maitrisé dans le cas des graphes non orientés, très peu de résultats sont connus sur le sujet des graphes dirigés. La conjecture la plus célèbre du domaine est sans doute celle attribuée à Mader en 1985 qui dit qu'il existe une fonction f tel que tout graphe dirigé de degré sortant minimal supérieur à f(k) contient le tournoi transitif sur k sommets comme subdivision. Cette question est toujours ouverte pour k=5. Cette thèse présente quelques résultats intermédiaires tendant vers cette conjecture. Il y est d'abords question de montrer l'existence de subdivisions de graphes dirigés autre que les tournois, en particulier les arborescences entrantes. Il y a aussi la preuve que les graphes dirigés de grand degré sortant contiennent des immersions de grand tournois transitifs, question qui avait été posée en 2011 par DeVos et al. En regardant un autre paramètre, on montre aussi qu'un grand nombre chromatique permet de forcer des subdivisions de certains cycles orientés, ainsi que d'autre structures, pour des graphes dirigés fortement connexes. Cette thèse présente également la preuve de la conjecture de Erd\H{o}s-Sands-Sauer-Woodrow qui dit que les tournois dont les arcs peuvent être partitionnés en k graphes dirigés transitifs peuvent être dominé par un ensemble de sommet dont la taille dépend uniquement de k. Pour finir, cette thèse présente la preuve de deux résultats, un sur l'orientation des hypergraphes et l'autre sur la coloration AVD,utilisant la technique de compression d'entropie. / The main purpose of the thesis was to exhibit sufficient conditions on digraphs to find subdivisions of complex structures. While this type of question is pretty well understood in the case of (undirected) graphs, few things are known for the case of directed graphs (also called digraphs). The most notorious conjecture is probably the one due to Mader in 1985. He asked if there exists a function f such that every digraph with minimum outdegree at least f(k) contains a subdivision of the transitive tournament on k vertices. The conjecture is still wide open as even the existence of f(5) remains open. This thesis presents some weakening of this conjecture. Among other results, we prove that digraphs with large minimum outdegree contain large in-arborescences. We also prove that digraphs with large minimum outdegree contain large transitive tournaments as immersions, which was conjectured by DeVos et al. in 2011. Changing the parameter, we also prove that large chromatic number can force subdivision of cycles and other structures in strongly connected digraphs. This thesis also presents the proof of the Erd\H{o}s-Sands-Sauer-Woodrow conjecture that states that the domination number of tournaments whose arc set can be partitioned into k transitive digraphs only depends on k. The conjecture, asked in 1982, was still open for k=3. Finally this thesis presents proofs for two results, one about orientation of hypergraphs and the other about AVD colouring using the recently developed probabilistic technique of entropy compression.
185

Spinal compression in childhood : the University of Cape Town experience

Buwembo, Joseph E 03 April 2017 (has links)
Aim: A retrospective study of cases of childhood spinal compression over a 30-year period (1963-1992) was undertaken in order to determine the trend in incidence, aetiology, diagnosis, treatment and prognosis. Patients and Methods: The study includes children less than 15 years of age who were treated for spinal compression at the Red Cross War Memorial Children's Hospital, Maitland Cottage Hospital and Groote Schuur Hospital. Children who had tuberculosis of the spine without a neurological deficit, were excluded. The study also excludes dysraphism and non-compressive causes of paraplegia, such as Guillain-Barre Syndrome and poliomyelitis.
186

Un système de compression vidéo et de synchronisation multimodale des EEGs pour la télémédecine / A video compression and multimodal synchronization system of EEG exams for telemedicine

Lambert, Laurent 07 December 2017 (has links)
L'examen EEG est un examen fonctionnel essentiel de la médecine moderne. Il consiste dans l'acquisition de signaux physiologique d'un patient afin de diagnostiquer ses troubles neurologiques. À cause d'une mauvaise répartition des experts et d'une diversification des spécialités de neurophysiologie, la téléexpertise s'impose comme une solution pour apporter des soins pour tous. Cette thèse aborde la problématique de téléexpertise d'un examen EEG tout en repoussant les limitations des équipements d'EEG actuelle. Ces limitations, observées par les médecins, sont l'imprécision de la synchronisation entre les signaux physiologiques et l'enregistrement vidéo et la faible qualité de cet enregistrement vidéo. La première limitation nous a conduit à développer un mécanisme de synchronisation matérielle déterministe ainsi que de définir un nouveau format de fichier capable de stocker les signaux physiologiques ainsi que la vidéo de manière uniforme. La seconde limitation a mené en la définition d'un nouvel algorithme de compression nommé ROI-Waaves. Cet algorithme, utilisant la transformée en ondelettes et le codeur entropique HENUC, est capable d'encoder des zones de l'image avec une qualité supérieure afin de conserver les détails des mains et du visage du patient. Finalement, nous avons développé deux implémentations mettant en place les solutions proposées et permettant de réaliser un examen EEG synchronisé et compressé. De plus, nous avons proposé une architecture matérielle compressant un flux vidéo à 100 images par seconde en temps réel en utilisant ROI-Waaves. / The EEG exam is an essential functional exam in modern medicine. It involves the acquisition of biological signals of a patient to diagnose his neurological disorders. Because of a poor spread of experts and diversification of neurophysiological specialties, remote expertise imposes itself as a solution to bring health care to most people. The thesis approaches the problematic of remote diagnosis of EEG exams while pushing back the current EEG device limitations. Those limitations, observed by doctors, are the imprecise synchronization between biological signals and the video recording and the low quality of this video recording. The first limitation has led us to develop a hardware determinist synchronization as well as to define a novel file format to store biological signals alongside the video. Thanks to those two mechanisms, we guarantee the correct synchronization when reviewing a EEG file. The second limitation has driven us to define a new compression algorithm named ROI-Waaves. The algorithm uses wavelet transform and the HENUC coding scheme and encodes one or many regions of an image with higher quality to preserve details. Those regions are defined as the hands and head of the patient and help doctors to perform correct diagnoses. Lastly, we have developed two implementations which use the proposed solutions and allowing to carry out a synchronized and compressed EEG exam. The produced exams by these devices are complete and can be used for review or long-time storage. In addition, we have proposed a hardware architecture that compresses 100 frames per second video stream in real time using ROI-Waaves.
187

Abstraction et traitement de masses de données 3D animées / Abstraction and processing of large amounts of animated 3D data

Buchholz, Bert 20 December 2012 (has links)
Dans cette thèse, nous explorons des structures intermédiaires ainsi que le rapport entre eux et des algorithmes utilisés dans le contexte du rendu photoréaliste (RP) et non photoréaliste (RNP). Nous présentons des nouvelles structures pour le rendu et l'utilisation alternative des structures existantes. Nous présentons trois contributions principales dans les domaines RP et RNP: Nous montrons une méthode pour la génération des images stylisées noir et blanc. Notre approche est inspirée par des bandes dessinées, utilisant l'apparence et la géometrie dans une formulation d'énérgie basée sur un graphe 2D. En contrôlant les énérgies, l'utilisateur peut générer des images de differents styles et représentations. Dans le deuxième travail, nous proposons une nouvelle méthode pour la paramétrisation temporellement cohérente des lignes animées pour la texturisation. Nous introduisons une structure spatiotemporelle et une formulation d'énérgie permettant une paramétrisation globalement optimale. La formulation par une énérgie donne un contrôle important et simple sur le résultat. Finalement, nous présentons une extension sur une méthode de l'illumination globale (PBGI) utilisée dans la production de films au cours des dernières années. Notre extension effectue une compression par quantification de données générées par l'algorithme original. Le coût ni de memoire ni de temps excède considérablement celui de la méthode d'origin et permet ainsi le rendu des scènes plus grande. L'utilisateur a un contrôle facile du facteur et de la qualité de compression. Nous proposons un nombre d'extensions ainsi que des augmentations potentielles pour les méthodes présentées. / In this thesis, we explore intermediary structures and their relationship to the employed algorithms in the context of photorealistic (PR) and non-photorealistic (NPR) rendering. We present new structures for rendering as well as new uses for existing structures. We present three original contributions in the NPR and PR domain: First, we present binary shading, a method to generate stylized black and white images, inspired by comic artists, using appearance and geometry in a graph-based energy formulation. The user can control the algorithm to generate images of different styles and representations. The second work allows the temporally coherent parameterization of line animations for texturing purposes. We introduce a spatio-temporal structure over the input data and an energy formulation for a globally optimal parameterization. Similar to the work on binary shading, the energy formulation provides a an important and simple control over the output. Finally, we present an extension to Point-based Global Illumination, a method used extensively in movie production during the last years. Our work allows compressing the data generated by the original algorithm using quantification. It is memory-efficient and has only a neglegible time overhead while enabling the rendering of larger scenes. The user can easily control the strength and quality of the compression. We also propose a number of possible extensions and improvements to the methods presented in the thesis.
188

Assessing the intelligibility and acoustic changes of time-processed speech

Taleb, Nardine 02 June 2020 (has links)
No description available.
189

An examination of the sub-optimality of the state-sorting algorithm in tabled asymmetric numeral systems

Rezaei, Sheida 15 February 2024 (has links)
Titre de l'écran-titre (visionné le 7 février 2024) / La croissance rapide des données dans différentes applications telles que la communication en temps réel, les systèmes automobiles et la visioconférence a souligné la nécessité de techniques efficaces de compression des données. La compression des données réduit les besoins de stockage et de transmission des données. La codification d'entropie, qui est une compression de données sans perte, est une méthode largement utilisée. La codification d'entropie consiste à coder des symboles d'une séquence d'entrée en utilisant moins de bits pour les représenter, ce qui réduit la taille totale des données. La codification de Huffman, qui est une technique rapide de codage d'entropie, est utilisée pour sa vitesse et son accélération matérielle. Cependant, son taux de compression n'est pas toujours optimal. Cela devient évident lorsqu'il s'agit de petits alphabets et de symboles avec des probabilités d'occurrence élevées. La codification arithmétique, une méthode alternative, offre de meilleurs taux de compression, mais elle a une complexité computationnelle élevée. Les systèmes de numération asymétriques (ANS), qui sont une approche de codage d'entropie, visent à approcher la limite théorique de la compression des données tout en maintenant une complexité computationnelle inférieure par rapport à la codification arithmétique. ANS comprend deux versions principales : ANS à plage et ANS tabulé. Ce dernier, appelé tANS, utilise une table pour les procédures de codage et de décodage, ce qui le rend plus adapté à une implémentation matérielle. Cependant, bien qu'ANS présente des avantages, des défis subsistent. Trouver une table de codage appropriée, ou un segment clé, pour tANS est important pour son efficacité. Des recherches récentes explorent différentes techniques pour concevoir des segments clés optimaux, en tenant compte de facteurs tels que les probabilités des symboles, l'alphabet source et la taille de la table souhaitée. Le défi consiste à construire un segment clé qui satisfait aux conditions de codage et qui conduit à une longueur moyenne minimale des codes. La technique de tri d'états proposée par Yokoo et Dubé vise à optimiser les segments clés en triant les états en fonction de leurs probabilités stationnaires. Cependant, cette méthode est sous-optimale dans certains cas. L'objectif de cette recherche est d'étudier les limitations et la sous-optimalité de l'algorithme de tri des états en présentant un exemple dans lequel la stratégie de Yokoo et Dubé ne créera pas le segment optimal. Cela permettra une meilleure compréhension des complexités de la conception de clés tANS optimales. Cette étude contribue à l'avancement des techniques de compression des données en abordant les défis et les améliorations possibles dans le contexte du codage d'entropie, en particulier dans le cadre d'ANS et de ses variantes. Cette recherche vise à améliorer notre compréhension de la conception de clés pour tANS et à ouvrir la voie à des solutions plus efficaces pour la compression et la transmission des données dans le paysage numérique en constante évolution. / In the modern world, the significant increase of data has resulted in the demand for efficient data handling in terms of transfer and storage. As hardware advances, data compression has become an essential research field to address this challenge. Rooted in the fusion of mathematics and computer science, data compression utilizes algorithms to reduce data size and optimize storage capacity. This process involves both compression and reconstruction algorithms, seeking to keep similarity of the original data and the reconstructed data. By compression data, the speed of data transfer increases significantly, while the costs of storage hardware and network bandwidth decrease. Data compression divides into two categories: lossy and lossless compression. In lossy compression we may have some loss of information during reconstruction. Contrarily, lossless compression, in which input and output remain equal, is suited for systems involving sensitive data or databases. This thesis focuses on addressing weaknesses of the tANS method, with a particular emphasis on investigating the sub-optimality of the state-sorting technique presented by Yokoo and Dubé. The study discusses the limitations of this technique and explains ANS methods, particularly the theoretical analysis of tANS. The research illustrates an example emphasizing sub-optimality in the state-sorting technique. In conclusion, this research offers valuable insights into the challenges and potential enhancements of tANS compression technique. By delving deeper into the intricacies of ANS-based methods, researchers can contribute to the development of more efficient compression strategies, providing better data handling in an increasingly digitized world.
190

Video data compression for telescience

Walker, Wendy Tolle, 1959- January 1988 (has links)
This paper recommends techniques to use for data compression of video data used to point a telescope and from a camera observing a robot, for transmission from the proposed U.S. Space Station to Earth. The mathematical basis of data compression is presented, followed by a general review of data compression techniques. A technique that has wide-spread use in data compression of videoconferencing images is recommended for the robot observation data. Bit rates of 60 to 400 kbits/sec can be achieved. Several techniques are modelled to find a best technique for the telescope data. Actual starfield images are used for the evaluation. The best technique is chosen on the basis of which model provides the most compression while preserving the important information in the images. Compression from 8 bits per pel to 0.015 bits per pel is achieved.

Page generated in 0.2359 seconds