• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 8
  • 2
  • Tagged with
  • 23
  • 11
  • 6
  • 6
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Adaptation du contenu spatio-temporel des images pour un codage par ondelettes

Le Guen, Benjamin 14 February 2008 (has links) (PDF)
Les limites de l'ondelette séparable standard, dans le cas 2D, sont bien connues. Le support rectangulaire fixe de l'ondelette ne permet pas d'exploiter la géométrie des images et en particulier les corrélations le long de contours courbes. Ceci se traduit par une dispersion de l'énergie des coefficients dans le domaine ondelette et produit un phénomène de rebonds gênant visuellement lors d'une approximation avec un petit nombre de coefficients. Pour y remédier, une seconde génération d'ondelettes est née. L'approche la plus courante est de déformer le noyau d'ondelette pour l'adapter au contenu géométrique d'une image. <br />Dans cette thèse, nous proposons d'aborder le problème d'adaptativité sous un angle différent. L'idée est de déformer le contenu d'une image pour l'adapter au noyau d'ondelette séparable standard. La déformation est modélisée par un maillage déformable et le critère d'adaptation utilisé est le coût de description de l'image déformée. Une minimisation énergétique similaire à une estimation de mouvement est mise en place pour calculer les paramètres du maillage. A l'issue de cette phase d'analyse, l'image est représentée par une image déformée de moindre coût de codage et par les paramètres de déformation. Après codage, transmission et décodage de ces inforrnations, l'image d'origine peut être synthétisée en inversant la déformation. Les performances en compression de ce schéma par analyse-synthèse spatiales sont étudiées et comparées à celles de JPEG2000. Visuellement, on observe une meilleure reconstruction des contours des images avec une atténuation significative de l'effet rebond. <br />Conservant l'idée d'adapter le contenu des images à un noyau de décomposition fixe, nous proposons ensuite un schéma de codage par analyse-synthèse spatio-temporelles dédié à la vidéo. L'analyse prend en entrée un groupe d'images (GOF) et génère en sortie un groupe d'images déformées dont le contenu est adapté à une décomposition 3D horizontale-verticale-temporelle fixe. Le schéma est conçu de sorte qu'une seule géométrie soit estimée et transmise pour l'ensemble du GOF. Des résultats de compression sont présentés en utilisant le maillage déformable pour modéliser la géométrie et le mouvement. Bien qu'une seule géométrie soit encodée, nous montrons que son coût est trop important pour permettre une amélioration significative de la qualité visuelle par rapport à un schéma par analyse-synthèse exploitant uniquement le mouvement.
22

Compression d'images avec et sans perte par la méthode LAR (Locally Adaptive Resolution)

Babel, Marie 22 September 2005 (has links) (PDF)
La diversité des standards actuels en compression d'images vise à la fois à proposer des schémas de codage efficaces et des fonctions de service adaptées à chaque type d'utilisation. Les travaux de cette thèse s'inscrivant dans ce contexte d'une telle compression, leur objectif majeur consiste en l'élaboration d'une méthode unifiée pour un codage avec et sans perte des images fixes et en séquences, intégrant des fonctionnalités avancées du type : scalabilité et représentation en régions hiérarchique, robustesse<br />aux erreurs. <br /><br />La méthode LAR (Locally Adaptive Resolution) de base a été élaborée à des fins de compression avec pertes à bas-débits. Par l'exploitation des propriétés intrinsèques du LAR, la définition d'une représentation en régions auto-extractibles apporte une solution de codage efficace à la fois en termes de débit et en termes de qualité d'images reconstruites. Le codage à débit localement variable est facilité par l'introduction de la notion de région d'intérêt ou encore de VOP (Video Object Plane).<br /><br />L'obtention d'un schéma de compression sans perte s'est effectuée conjointement à l'intégration de la notion de scalabilité, par l'intermédiaire de méthodes pyramidales. Associés à une phase de prédiction, trois codeurs différents répondant à ces exigences ont vu le jour : le LAR-APP, l'Interleaved S+P et le RWHT+P. Le LAR-APP (Approche Pyramidale Prédictive) se fonde sur l'exploitation d'un contexte de prédiction enrichi obtenu par un parcours original des niveaux de la pyramide construite. L'entropie des erreurs d'estimation résultantes (estimation réalisée dans le domaine spatial) s'avère ainsi réduite. Par la définition d'une solution opérant dans le domaine transformé, il nous a été possible d'améliorer plus encore les performances<br />entropiques du codeur scalable sans perte. L'Interleaved S+P se construit ainsi par l'entrelacement de deux pyramides de coefficients transformés. Quant à la méthode RWHT+P, elle s'appuie sur une forme nouvelle de la transformée Walsh-Hadamard bidimensionnelle. Les performances en termes d'entropie brute se révèlent bien supérieures à celles de l'état-de-l'art : des résultats tout à fait remarquables sont obtenus notamment sur les<br />images médicales.<br /><br />Par ailleurs, dans un contexte de télémédecine, par l'association des méthodes pyramidales du LAR et de la transformée Mojette, un codage conjoint source-canal efficace, destiné à la transmission sécurisée des images médicales compressées sur des réseaux bas-débits, a été défini. Cette technique offre une protection différenciée intégrant la nature hiérarchique des flux issus des méthodes multirésolution du LAR pour une qualité de service exécutée de bout-en-bout.<br /><br />Un autre travail de recherche abordé dans ce mémoire vise à l'implantation automatique des codeurs LAR sur des architectures parallèles hétérogènes multi-composants. Par le biais de la description des algorithmes sous le logiciel SynDEx, il nous a été possible en particulier de réaliser le prototypage de<br />l'Interleaved S+P sur des plate-formes multi-DSP et multi-PC.<br /><br />Enfin, l'extension du LAR à la vidéo fait ici l'objet d'un travail essentiellement prospectif. Trois techniques différentes sont proposées, s'appuyant sur un élément commun : l'exploitation de la représentation en régions précédemment évoquée.
23

Simulation de la dynamique des dislocations à très grande échelle / Hybrid parallelism on large scale dislocation dynamic simulation

Etcheverry, Arnaud 23 November 2015 (has links)
Le travail réalisé durant cette thèse vise à offrir à un code de simulation en dynamique des dislocations les composantes essentielles pour permettre le passage à l’échelle sur les calculateurs modernes. Nous abordons plusieurs aspects de la simulation numérique avec tout d’abord des considérations algorithmiques. Pour permettre de réaliser des simulations efficaces en terme de complexité algorithmique pour des grandes simulations, nous explorons les contraintes des différentes étapes de la simulation en offrant une analyse et des améliorations aux algorithmes. Ensuite, une considération particulière est apportée aux structures de données. En prenant en compte les nouveaux algorithmes, nous proposons une structure de données pour bénéficier d’accès performants à travers la hiérarchie mémoire. Cette structure est modulaire pour faire face à deux types d’algorithmes, avec d’un côté la gestion du maillage nécessitant une gestion dynamique de la mémoire et de l’autre les phases de calcul intensifs avec des accès rapides. Pour cela cette structure modulaire est complétée par un octree pour gérer la décomposition de domaine et aussi les algorithmes hiérarchiques comme le calcul du champ de contrainte et la détection des collisions. Enfin nous présentons les aspects parallèles du code. Pour cela nous introduisons une approche hybride, avec un parallélisme à grain fin à base de threads, et un parallélisme à gros grain de type MPI nécessitant une décomposition de domaine et un équilibrage de charge.Finalement, ces contributions sont testées pour valider les apports pour la simulation numérique. Deux cas d’étude sont présentés pour observer et analyser le comportement des différentes briques de la simulation. Tout d’abord une simulation extrêmement dynamique, composée de sources de Frank-Read dans un cristal de zirconium est utilisée, avant de présenter quelques résultats sur une simulation cible contenant une forte densité de défauts d’irradiation. / This research work focuses on bringing performances in 3D dislocation dynamics simulation, to run efficiently on modern computers. First of all, we introduce some algorithmic technics, to reduce the complexity in order to target large scale simulations. Second of all, we focus on data structure to take into account both memory hierachie and algorithmic data access. On one side we build this adaptive data structure to handle dynamism of data and on the other side we use an Octree to combine hierachie decompostion and data locality in order to face intensive arithmetics with force field computation and collision detection. Finnaly, we introduce some parallel aspects of our simulation. We propose a classical hybrid parallelism, with task based openMP threads and domain decomposition technics for MPI.

Page generated in 0.065 seconds