• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • Tagged with
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation et distribution adaptatives de grandes scènes naturelles / Adaptive Modeling and Distribution of Large Natural Scenes

Mondet, Sébastien 08 June 2009 (has links)
Cette thèse traite de la modélisation et la diffusion de grandes scènes 3D naturelles. Nous visons à fournir des techniques pour permettre à des utilisateurs de naviguer à distance dans une scène 3D naturelle, tout en assurant la cohérence botanique et l'interactivité. Tout d'abord, nous fournissons une technique de compression multi-résolution, fondée sur la normalisation, l'instanciation, la décorrélation, et sur le codage entropique des informations géometriques pour des modèles de plantes. Ensuite, nous étudions la transmission efficace de ces objets 3D. L'algorithme de paquétisation proposé fonctionne pour la plupart des représentations multi-résolution d'objet 3D. Nous validons les techniques de paquétisation par des expériences sur un WAN (Wide Area Network), avec et sans contrôle de congestion (Datagram Congestion Control Protocol). Enfin, nous abordons les questions du streaming au niveau de la scène. Nous optimisons le traitement des requêtes du côté serveur en fournissant une structure de données adaptée et nous préparons le terrain pour nos travaux futurs sur l'évolutivité et le déploiement de systèmes distribués de streaming 3D. / This thesis deals with the modeling and the interactive streaming of large natural 3D scenes. We aim at providing techniques to allow the remote walkthrough of users in a natural 3D scene ensuring botanical coherency and interactivity.First, we provide a compact and progressive representation for botanically realistic plant models. The topological structure and the geometry of the plants are represented by generalized cylinders. We provide a multi-resolution compression scheme, based on standardization and instantiation, on difference-based decorrelation, and on entropy coding. Then, we study efficient transmission of these 3D objects. The proposed packetization scheme works for any multi-resolution 3D representation. We validate our packetization schemes with extensive experiments over a WAN (Wide Area Network), with and without congestion control (Datagram Congestion Control Protocol). Finally, we address issues on streaming at the scene-level. We optimize the viewpoint culling requests on server-side by providing an adapted datastructure and we prepare the ground for our further work on scalability and deployment of distributed 3D streaming systems.
2

Modélisation et distribution adaptatives de grandes scènes naturelles

Mondet, Sebastien 08 June 2009 (has links) (PDF)
Cette thèse traite de la modélisation et la diffusion de grandes scènes 3D naturelles. Nous visons à fournir des techniques pour permettre à des utilisateurs de naviguer à distance dans une scène 3D naturelle, tout en assurant la cohérence botanique et l'interactivité.<br>Tout d'abord, nous fournissons une technique de compression multi-résolution, fondée sur la normalisation, l'instanciation, la décorrélation, et sur le codage entropique des informations géometriques pour des modèles de plantes. Ensuite, nous étudions la transmission efficace de ces objets 3D. L'algorithme de paquétisation proposé fonctionne pour la plupart des représentations multi-résolution d'objet 3D.<br>Nous validons les techniques de paquétisation par des expériences sur un WAN (Wide Area Network), avec et sans contrôle de congestion (Datagram Congestion Control Protocol). <br>Enfin, nous abordons les questions du streaming au niveau de la scène. Nous optimisons le traitement des requêtes du côté serveur en fournissant une structure de données adaptée et nous préparons le terrain pour nos travaux futurs sur l'évolutivité et le déploiement de systèmes distribués de streaming 3D.
3

Synthèse de bancs de filtres adaptés, application à la compression des images.

Bekkouche, Hocine 18 June 2007 (has links) (PDF)
Les travaux développés dans cette thèse portent sur les décompositions multirésolution dans un cadre de lifting scheme, appliquées à la compression d'images. Pour commencer, une structure de décomposition consistant en un “lifting scheme généralisé” est proposée. Ce schéma permet d'exploiter toute l'information disponible au décodage dans l'étape de prédiction. Cela est rendu possible par l'ajout d'un filtre de prédiction supplémentaire par rapport à la structure classique de lifting scheme. Le schéma proposé est ensuite associé à deux méthodes d'adaptation. La première, appelée GAE, suppose une stationnarité globale de l'image, tandis que la seconde, LAE ne suppose qu'une stationnarité locale de l'image. Dans ce dernier cas, les filtres prédicteurs sont adaptatifs. Trois applications de ces méthodes en compression d'images sont ensuite proposées. Dans un premier temps, une comparaison des performances en compression sans perte sur des images de textures, synthétiques, gaussiennes, à stationnarités locale et globale (vérifiant les hypothèses plus haut), est réalisée. Sur ces signaux, les mesures d'entropie d'ordre 1 ont montré que les méthodes proposées offrent en moyenne un gain en codage de 0,5 bpp (GAE) et 0,8 bpp (LAE) par rapport à la décomposition en ondelette (9,7), de 0,8 bpp (GAE) et 1,11 bpp (LAE) par rapport à la (5,3) et de 0,41 bpp (GAE) et 0,65 bpp (LAE) par rapport à la méthode de Gerek et Çetin. La deuxième application concerne le codage sans perte d'images réelles de natures variées. Les gains par rapport à l'état de l'art se sont révélés plus faibles que ceux obtenus pour les images synthétiques. Enfin, la dernière application traite les cas du codage progressif et du codage avec perte. Pour la compression avec pertes, nous avons modifié la méthode LAE pour palier aux problèmes de divergence dus à l'impossibilité au niveau du décodeur de reconstruire les filtres prédicteurs à partir d'échantillons quantifiés. Elle se révèle plus efficace que lorsque l'on utilise les filtres usuels de longueur fixe (9,7) et (5,3).
4

Techniques avancées pour la compression d'images médicales

Taquet, Jonathan 15 December 2011 (has links) (PDF)
La compression d'images médicales et biologiques, en particulier sur les modalités d'imagerie telles que la tomodensitométrie (TDM), l'imagerie par résonance magnétique (IRM) et les lames virtuelles en anatomo-pathologie (LV), est un enjeu économique important, notamment pour leur archivage et pour leur transmission. Cette thèse dresse un panorama des besoins et des solutions existantes en compression, et cherche à proposer, dans ce contexte, de nouveaux algorithmes de compression numérique efficaces en comparaison aux algorithmes de référence standardisés. Pour les TDM et IRM, les contraintes médico-légales imposent un archivage de très bonne qualité. Ces travaux se sont donc focalisés sur la compression sans perte et presque sans perte. Il est proposé de i) fusionner le modèle prédictif hiérarchique par interpolation avec le modèle prédictif DPCM adaptatif afin de fournir une représentation scalable en résolution efficace pour la compression sans perte et surtout presque sans perte, ii) s'appuyer sur une optimisation pour la compression sans perte d'une décomposition en paquets d'ondelettes, spécifique au contenu de l'image. Les résultats de ces deux contributions montrent qu'il existe encore une marge de progression pour la compression des images les plus régulières et les moins bruitées. Pour les LV, la lame physique peut être conservée, la problématique concerne donc plus le transfert pour la consultation à distance que l'archivage. De par leur contenu, une approche basée sur l'apprentissage des spécificités structurelles de ces images semble intéressante. Cette troisième contribution vise donc une optimisation hors-ligne de K transformées orthonormales optimales pour la décorrélation des données d'apprentissage (K-KLT). Cette méthode est notamment appliquée pour réaliser un apprentissage concernant des post-transformées sur une décomposition en ondelettes. Leur application dans un modèle de compression scalable en qualité montre que l'approche peut permettre d'obtenir des gains de qualité intéressants en terme de PSNR.

Page generated in 0.0976 seconds