1 |
Techniques avancées pour la compression d'images médicalesTaquet, Jonathan 15 December 2011 (has links) (PDF)
La compression d'images médicales et biologiques, en particulier sur les modalités d'imagerie telles que la tomodensitométrie (TDM), l'imagerie par résonance magnétique (IRM) et les lames virtuelles en anatomo-pathologie (LV), est un enjeu économique important, notamment pour leur archivage et pour leur transmission. Cette thèse dresse un panorama des besoins et des solutions existantes en compression, et cherche à proposer, dans ce contexte, de nouveaux algorithmes de compression numérique efficaces en comparaison aux algorithmes de référence standardisés. Pour les TDM et IRM, les contraintes médico-légales imposent un archivage de très bonne qualité. Ces travaux se sont donc focalisés sur la compression sans perte et presque sans perte. Il est proposé de i) fusionner le modèle prédictif hiérarchique par interpolation avec le modèle prédictif DPCM adaptatif afin de fournir une représentation scalable en résolution efficace pour la compression sans perte et surtout presque sans perte, ii) s'appuyer sur une optimisation pour la compression sans perte d'une décomposition en paquets d'ondelettes, spécifique au contenu de l'image. Les résultats de ces deux contributions montrent qu'il existe encore une marge de progression pour la compression des images les plus régulières et les moins bruitées. Pour les LV, la lame physique peut être conservée, la problématique concerne donc plus le transfert pour la consultation à distance que l'archivage. De par leur contenu, une approche basée sur l'apprentissage des spécificités structurelles de ces images semble intéressante. Cette troisième contribution vise donc une optimisation hors-ligne de K transformées orthonormales optimales pour la décorrélation des données d'apprentissage (K-KLT). Cette méthode est notamment appliquée pour réaliser un apprentissage concernant des post-transformées sur une décomposition en ondelettes. Leur application dans un modèle de compression scalable en qualité montre que l'approche peut permettre d'obtenir des gains de qualité intéressants en terme de PSNR.
|
2 |
Encodage entropique des indices binaires d'un quantificateur algébrique encastréLakhdhar, Khaled January 2009 (has links)
Ce mémoire propose un algorithme de compression sans perte des indices binaires d'un quantificateur algébrique encastré utilisé par le codec AMR-WB+ pour encoder certaines des trames d'un signal audio. Une étude détaillée des statistiques a été menée dans le but de développer un algorithme efficace de compression et réduire par conséquent la longueur moyenne du code binaire utilisé par le codec AMR-WB+. En se basant sur cette étude des statistiques, deux techniques ont été combinées : l'encodage par plage et l'encodage par contexte qui se sont montrés très efficaces pour estimer les probabilités des différents indices. En utilisant l'encodage arithmétique en version entière pour générer le code binaire, l'algorithme proposé permet de réduire sans perte jusqu'à 10% de la longueur du code utilisé par le AMR-WB+ tout en respectant la contrainte d'une application temps réel destinée à des terminaux GSM.
|
3 |
Lossless and nearly-lossless image compression based on combinatorial transforms / Compression d'images sans perte ou quasi sans perte basée sur des transformées combinatoiresSyahrul, Elfitrin 29 June 2011 (has links)
Les méthodes classiques de compression d’image sont communément basées sur des transformées fréquentielles telles que la transformée en Cosinus Discret (DCT) ou encore la transformée discrète en ondelettes. Nous présentons dans ce document une méthode originale basée sur une transformée combinatoire celle de Burrows-Wheeler(BWT). Cette transformée est à la base d’un réagencement des données du fichier servant d’entrée au codeur à proprement parler. Ainsi après utilisation de cette méthode sur l’image originale, les probabilités pour que des caractères identiques initialement éloignés les uns des autres se retrouvent côte à côte sont alors augmentées. Cette technique est utilisée pour la compression de texte, comme le format BZIP2 qui est actuellement l’un des formats offrant un des meilleurs taux de compression. La chaîne originale de compression basée sur la transformée de Burrows-Wheeler est composée de 3 étapes. La première étape est la transformée de Burrows-Wheeler elle même qui réorganise les données de façon à regrouper certains échantillons de valeurs identiques. Burrows et Wheeler conseillent d’utiliser un codage Move-To-Front (MTF) qui va maximiser le nombre de caractères identiques et donc permettre un codage entropique (EC) (principalement Huffman ou un codeur arithmétique). Ces deux codages représentent les deux dernières étapes de la chaîne de compression. Nous avons étudié l’état de l’art et fait des études empiriques de chaînes de compression basées sur la transformée BWT pour la compression d’images sans perte. Les données empiriques et les analyses approfondies se rapportant aux plusieurs variantes de MTF et EC. En plus, contrairement à son utilisation pour la compression de texte,et en raison de la nature 2D de l’image, la lecture des données apparaît importante. Ainsi un prétraitement est utilisé lors de la lecture des données et améliore le taux de compression. Nous avons comparé nos résultats avec les méthodes de compression standards et en particulier JPEG 2000 et JPEG-LS. En moyenne le taux de com-pression obtenu avec la méthode proposée est supérieur à celui obtenu avec la norme JPEG 2000 ou JPEG-LS / Common image compression standards are usually based on frequency transform such as Discrete Cosine Transform or Wavelets. We present a different approach for loss-less image compression, it is based on combinatorial transform. The main transform is Burrows Wheeler Transform (BWT) which tends to reorder symbols according to their following context. It becomes a promising compression approach based on contextmodelling. BWT was initially applied for text compression software such as BZIP2 ; nevertheless it has been recently applied to the image compression field. Compression scheme based on Burrows Wheeler Transform is usually lossless ; therefore we imple-ment this algorithm in medical imaging in order to reconstruct every bit. Many vari-ants of the three stages which form the original BWT-based compression scheme can be found in the literature. We propose an analysis of the more recent methods and the impact of their association. Then, we present several compression schemes based on this transform which significantly improve the current standards such as JPEG2000and JPEG-LS. In the final part, we present some open problems which are also further research directions
|
4 |
Compression progressive et sans perte de structures géométriquesPierre-Marie, Gandoin 13 September 2001 (has links) (PDF)
En quelques années, les maillages ont conquis une position prédominante parmi les différents modes de représentation informatique d'objets géométriques. Plus particulièrement, les maillages à base de simplexes -- les triangles pour la représentation de surfaces plongées en 3D, les tétraèdres pour la représentation de volumes -- semblent être actuellement les plus répandus. Le développe- ment rapide des applications manipulant ces structures géométriques dans des domaines aussi divers que le calcul par éléments finis, la simulation chirurgi- cale, ou les jeux vidéo a très vite soulevé le problème d'un codage efficace et adapté à la visualisation. L'expansion du World Wide Web, qui nécessite une représentation compacte et progressive des données pour garantir la convivial- ité de l'interface homme-machine, a fini de conférer à ce problème une place centrale dans la recherche en informatique. Ainsi, depuis 1995, de nombreux algorithmes ont été proposés pour la com- pression de maillages triangulaires, en utilisant le plus souvent l'approche suiv- ante : les sommets du maillage sont codés dans un ordre établi pour contenir par- tiellement la topologie (ou connectivité) du maillage. Parallèlement, quelques règles simples permettent de prédire la position du sommet courant à partir des positions de ses voisins qui ont déjà été codés. Dans ce mémoire, nous avons choisi de donner plutôt la priorité à la compression des positions des sommets. Nous décrivons un ensemble de méthodes de codage progressif, sans perte d'information, adaptées à une large classe de structures géométriques (non nécessairement triangulaires ni manifold, de genre quelconque), et généralisables à n'importe quelle dimension. Les taux de compression obtenus se positionnent avantageusement par rapport aux méthodes progressives actuelles les plus ef- ficaces : par exemple, pour le cas particulier des maillages triangulaires sur- faciques, des taux moyens autour de 3,6 bits par sommet sont atteints sur des modèles usuels pour le codage de la connectivité.
|
5 |
Algorithmes et structures de données compactes pour la visualisation interactive d’objets 3D volumineux / Algorithms and compact data structures for interactive visualization of gigantic 3D objectsJamin, Clément 25 September 2009 (has links)
Les méthodes de compression progressives sont désormais arrivées à maturité (les taux de compression sont proches des taux théoriques) et la visualisation interactive de maillages volumineux est devenue une réalité depuis quelques années. Cependant, même si l’association de la compression et de la visualisation est souvent mentionnée comme perspective, très peu d’articles traitent réellement ce problème, et les fichiers créés par les algorithmes de visualisation sont souvent beaucoup plus volumineux que les originaux. En réalité, la compression favorise une taille réduite de fichier au détriment de l’accès rapide aux données, alors que les méthodes de visualisation se concentrent sur la rapidité de rendu : les deux objectifs s’opposent et se font concurrence. A partir d’une méthode de compression progressive existante incompatible avec le raffinement sélectif et interactif, et uniquement utilisable sur des maillages de taille modeste, cette thèse tente de réconcilier compression sans perte et visualisation en proposant de nouveaux algorithmes et structures de données qui réduisent la taille des objets tout en proposant une visualisation rapide et interactive. En plus de cette double capacité, la méthode proposée est out-of-core et peut traiter des maillages de plusieurs centaines de millions de points. Par ailleurs, elle présente l’avantage de traiter tout complexe simplicial de dimension n, des soupes de triangles aux maillages volumiques. / Progressive compression methods are now mature (obtained rates are close to theoretical bounds) and interactive visualization of huge meshes has been a reality for a few years. However, even if the combination of compression and visualization is often mentioned as a perspective, very few papers deal with this problem, and the files created by visualization algorithms are often much larger than the original ones. In fact, compression favors a low file size to the detriment of a fast data access, whereas visualization methods focus on rendering speed : both goals are opposing and competing. Starting from an existing progressive compression method incompatible with selective and interactive refinements and usable on small-sized meshes only, this thesis tries to reconcile lossless compression and visualization by proposing new algorithms and data structures which radically reduce the size of the objects while supporting a fast interactive navigation. In addition to this double capability, our method works out-of-core and can handle meshes containing several hundreds of millions vertices. Furthermore, it presents the advantage of dealing with any n-dimensional simplicial complex, which includes triangle soups or volumetric meshes.
|
6 |
Contribution à l'étude des architectures basées sur le multiplexage en temps et en longueur d'onde dans le réseau d'accès, permettant la migration vers la nouvelle génération de PON (NG-PON) à 10 Gbits/sRAHARIMANITRA, Fabia Nirina 13 January 2012 (has links) (PDF)
Ces travaux de recherches visent à étudier et à proposer de nouvelles architectures dans le contexte d'une Nouvelle Génération de Réseau d'Accès Optique Passif (NG-PON). Cette nouvelle génération d'équipements se justifie par l'augmentation des besoins en débit (descendant et/ou montant), ou d'éventuelles futures obligations réglementaires. Elle a pour fil conducteur le souci d'optimiser les coûts de déploiement de l'accès FTTH. Depuis 2010, l'organisme de pré-normalisation, le FSAN (associé à l'ITU) a prévu une action sur le thème du NG-PON qui se décline en XG-PON1 pour la première vague (débit 10 Gbit/s descendant et 2.5 Gbit/s montant) puis en un deuxième volet appelé NG-PON2 (pour une offre viable commerciale basée sur un débit de l'ordre de 1 Gbit/s) pour succéder au G-PON et au XGPONl. Des évaluations ont été menées sur la transmission optique, plus exactement au niveau de la couche physique (mesures de taux d'erreur, budget optique, portée) pour en déduire par la suite la faisabilité et la performance des systèmes. Deux thématiques ont structuré le travail de thèse sur la base de ce périmètre d'analyse : i) la recherche de solutions techniques pour optimiser le nombre de centraux " opticalisés ", ii) la recherche de solutions dans le modem client pour permettre de se connecter à des solutions de type une longueur d'onde par client. Un combineur optique sans pertes répondant au meilleur remplissage des cartes OLTs (Optical Line Termination) au Central Optique a été démontré. Ce combineur optique permet la réduction des sites NRO (Noeud de Raccordement Optique). Cette thèse s'intéresse aussi à l'ONU (Optical Network Unit), l'équipement du côté du client qui est un élément fondamental qui impacte le modèle de coût dans les réseaux d'accès. Les ONU achromatiques (dont les émetteurs sont identiques quelque soit la longueur d'onde d'émission) étudiés sont soit à base de source large à découpage spectral (" Spectrum Slicing ") soit à base de lasers accordables. Ils offrent l'avantage de la simplicité dans une architecture dont le multiplexage et l'accès multiples sont basés sur la longueur d'onde. Le format de modulation avancé de type OFDM et l'emploi de la technique de traitement de signal comme l'égaliseur sont également mis en relief dans ces travaux de thèse. Ces deux aspects correspondent à des mises en oeuvre d'outils de l'état de l'art le plus récent pour compenser les pénalités d'une transmission optoélectronique.
|
7 |
Analyse de Flux de Trames AFDX en Réception et Méthode d’Optimisation Mémoire / AFDX Frame Flow Analysis in Reception and Memory Optimization MethodBaga, Yohan 03 May 2018 (has links)
L’essor des réseaux AFDX comme infrastructure de communication entre les équipements de bord des aéronefs civils motive de nombreux travaux de recherche pour réduire les délais de communication tout en garantissant un haut niveau de déterminisme et de qualité de service. Cette thèse traite de l’effet des accolements de trames sur l’End System de réception, notamment sur le buffer interne afin de garantir une non perte de trames et un dimensionnement mémoire optimal. Une modélisation pire cas du flux de trames est réalisée selon une première méthode pessimiste, basée sur un flux de trames périodiques ; puis une seconde, plus optimiste, basée sur des intervalles de réception et un placement de trames itératif. Une étude probabiliste met en œuvre des distributions gaussiennes pour évaluer les probabilités d’occurrences des pires cas d’accolements et apporte un éclairage qui ouvre une discussion sur la pertinence de ne considérer que la modélisation pire cas pour dimensionner le buffer de réception. Un gain mémoire supplémentaire peut être obtenu par la mise en œuvre de la compression sans perte LZW. / The rise of AFDX networks as a communication infrastructure between on-board equipment of civil aircraft motivates many research projects to reduce communication delays while guaranteeing a high level of determination and quality of service. This thesis deals with the effect of the back-ot-back frame reception on the reception End System, in particular, on the internal buffer, in order to guarantee a non-loss of frames and optimal memory dimensioning. A worst-case modeling of the frame flow is carried out according to a first pessimistic method, based on a periodic frame flow. Then a more optimistic method is presented based on the reception intervals and an iterative frame placement. A probabilistic study implements Gaussian distributions to evaluate the occurrence probabilities of the worst back-to-back frames and provides an illumination that opens a discussion on the relevance of not considering the worst-case modeling to size the reception buffer. Additional memory gain can be achieved by implementing LZW lossless compression.
|
8 |
Synthèse de bancs de filtres adaptés, application à la compression des images.Bekkouche, Hocine 18 June 2007 (has links) (PDF)
Les travaux développés dans cette thèse portent sur les décompositions multirésolution dans un cadre de lifting scheme, appliquées à la compression d'images. Pour commencer, une structure de décomposition consistant en un “lifting scheme généralisé” est proposée. Ce schéma permet d'exploiter toute l'information disponible au décodage dans l'étape de prédiction. Cela est rendu possible par l'ajout d'un filtre de prédiction supplémentaire par rapport à la structure classique de lifting scheme. Le schéma proposé est ensuite associé à deux méthodes d'adaptation. La première, appelée GAE, suppose une stationnarité globale de l'image, tandis que la seconde, LAE ne suppose qu'une stationnarité locale de l'image. Dans ce dernier cas, les filtres prédicteurs sont adaptatifs. Trois applications de ces méthodes en compression d'images sont ensuite proposées. Dans un premier temps, une comparaison des performances en compression sans perte sur des images de textures, synthétiques, gaussiennes, à stationnarités locale et globale (vérifiant les hypothèses plus haut), est réalisée. Sur ces signaux, les mesures d'entropie d'ordre 1 ont montré que les méthodes proposées offrent en moyenne un gain en codage de 0,5 bpp (GAE) et 0,8 bpp (LAE) par rapport à la décomposition en ondelette (9,7), de 0,8 bpp (GAE) et 1,11 bpp (LAE) par rapport à la (5,3) et de 0,41 bpp (GAE) et 0,65 bpp (LAE) par rapport à la méthode de Gerek et Çetin. La deuxième application concerne le codage sans perte d'images réelles de natures variées. Les gains par rapport à l'état de l'art se sont révélés plus faibles que ceux obtenus pour les images synthétiques. Enfin, la dernière application traite les cas du codage progressif et du codage avec perte. Pour la compression avec pertes, nous avons modifié la méthode LAE pour palier aux problèmes de divergence dus à l'impossibilité au niveau du décodeur de reconstruire les filtres prédicteurs à partir d'échantillons quantifiés. Elle se révèle plus efficace que lorsque l'on utilise les filtres usuels de longueur fixe (9,7) et (5,3).
|
9 |
Compilation automatique pour les FPGAsNote, Jean-Baptiste 31 October 2007 (has links) (PDF)
Cette thèse explore les possibilités algorithmiques offertes par la synthèse de haut niveau de circuits dans le cadre de la logique synchrone et à destination d'une Mémoire Active Programmable. Une chaîne de compilation expérimentale permettant de générer automatiquement un circuit reconfigurable à partir d'une spécification de haut niveau y est présentée. Le langage de haut niveau est DSL (Design Source Language). DSL est basé sur le langage fonctionnel Jazz. DSL permet de décrire tout type de circuit dans le modèle de la logique synchrone, d'en faire la simulation et la synthèse, puis de l'exécuter sur une Mémoire Active Programmable. Le compilateur procède par étapes successives pour synthétiser un circuit à partir de son code-source de haut niveau. Chacune des étapes de la compilation génère des annotations qui précisent les propriétés du circuit jusqu'à une forme synthétisable. Les annotations sont pour la plupart ajoutées automatiquement par le compilateur mais sont partie intégrante de la syntaxe de DSL et peuvent ainsi être précisées par le concepteur. DSL prend en charge la génération automatique de l'ensemble des routines systèmes qui permettent au circuit de communiquer avec son hôte. Ce système de prototypage et d'accélération matérielle automatique sur PAM est testé sur des circuits variés, comme des algorithmes de tramage, d'estimation de mouvement et de détection des points de Harris.
|
10 |
Codage de carte de profondeur par déformation de courbes élastiques / Coding of depth maps by elastic deformations of curvesCalemme, Marco 20 September 2016 (has links)
Dans le format multiple-view video plus depth, les cartes de profondeur peuvent être représentées comme des images en niveaux de gris et la séquence temporelle correspondante peut être considérée comme une séquence vidéo standard en niveaux de gris. Cependant les cartes de profondeur ont des propriétés différentes des images naturelles: ils présentent de grandes surfaces lisses séparées par des arêtes vives. On peut dire que l'information la plus importante réside dans les contours de l'objet, en conséquence une approche intéressante consiste à effectuer un codage sans perte de la carte de contour, éventuellement suivie d'un codage lossy des valeurs de profondeur par-objet. Dans ce contexte, nous proposons une nouvelle technique pour le codage sans perte des contours de l'objet, basée sur la déformation élastique des courbes. Une évolution continue des déformations élastiques peut être modélisée entre deux courbes de référence, et une version du contour déformée élastiquement peut être envoyée au décodeur avec un coût de codage très faible et utilisé comme information latérale pour améliorer le codage sans perte du contour réel. Après que les principales discontinuités ont été capturées par la description du contour, la profondeur à l'intérieur de chaque région est assez lisse. Nous avons proposé et testé deux techniques différentes pour le codage du champ de profondeur à l'intérieur de chaque région. La première technique utilise la version adaptative à la forme de la transformation en ondelette, suivie par la version adaptative à la forme de SPIHT. La seconde technique effectue une prédiction du champ de profondeur à partir de sa version sous-échantillonnée et l'ensemble des contours codés. Il est généralement reconnu qu'un rendu de haute qualité au récepteur pour un nouveau point de vue est possible qu’avec la préservation de l'information de contour, car des distorsions sur les bords lors de l'étape de codage entraînerait une dégradation évidente sur la vue synthétisée et sur la perception 3D. Nous avons étudié cette affirmation en effectuant un test d'évaluation de la qualité perçue en comparant, pour le codage des cartes de profondeur, une technique basée sur la compression d'objects et une techniques de codage vidéo hybride à blocs. / In multiple-view video plus depth, depth maps can be represented by means of grayscale images and the corresponding temporal sequence can be thought as a standard grayscale video sequence. However depth maps have different properties from natural images: they present large areas of smooth surfaces separated by sharp edges. Arguably the most important information lies in object contours, as a consequence an interesting approach consists in performing a lossless coding of the contour map, possibly followed by a lossy coding of per-object depth values. In this context, we propose a new technique for the lossless coding of object contours, based on the elastic deformation of curves. A continuous evolution of elastic deformations between two reference contour curves can be modelled, and an elastically deformed version of the reference contours can be sent to the decoder with an extremely small coding cost and used as side information to improve the lossless coding of the actual contour. After the main discontinuities have been captured by the contour description, the depth field inside each region is rather smooth. We proposed and tested two different techniques for the coding of the depth field inside each region. The first technique performs the shape-adaptive wavelet transform followed by the shape-adaptive version of SPIHT. The second technique performs a prediction of the depth field from its subsampled version and the set of coded contours. It is generally recognized that a high quality view rendering at the receiver side is possible only by preserving the contour information, since distortions on edges during the encoding step would cause a sensible degradation on the synthesized view and on the 3D perception. We investigated this claim by conducting a subjective quality assessment test to compare an object-based technique and a hybrid block-based techniques for the coding of depth maps.
|
Page generated in 0.0868 seconds