• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 4
  • 2
  • Tagged with
  • 39
  • 39
  • 10
  • 10
  • 8
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Métriques perceptuelles pour la compression d'images : éude et comparaison des algorithmes JPEG et JPEG2000.

Brunet, Dominique 13 April 2018 (has links)
Les algorithmes de compression d'images JPEG et JPEG2000 sont présentés, puis comparés grâce à une métrique perceptuelle. L'algorithme JPEG décompose une image par la transformée en cosinus discrète, approxime les coefficients transformés par une quantisation uniforme et encode le résultat par l'algorithme de Huffman. Pour l'algorithme JPEG2000, on utilise une transformée en ondelettes décomposant une image en plusieurs résolutions. On décrit et justifie la construction d'ondelettes orthogonales ou biorthogonales ayant le maximum de propriétés parmi les suivantes: valeurs réelles, support compact, plusieurs moments, régularité et symétrie. Ensuite, on explique sommairement le fonctionnement de l'algorithme JPEG2000, puis on montre que la métrique RMSE n'est pas bonne pour mesurer l'erreur perceptuelle. On présente donc quelques idées pour la construction d'une métrique perceptuelle se basant sur le fonctionnement du système de vision humain, décrivant en particulier la métrique SSIM. On utilise finalement cette dernière métrique pour conclure que JPEG2000 fait mieux que JPEG. / In the present work we describe the image compression algorithms: JPEG and JPEG2000. We then compare them using a perceptual metric. JPEG algorithm decomposes an image with the discrete cosine transform, the transformed map is then quantized and encoded with the Huffman code. Whereas the JPEG2000 algorithm uses wavelet transform to decompose an image in many resolutions. We describe a few properties of wavelets and prove their utility in image compression. The wavelets properties are for instance: orthogonality or biorthogonality, real wavelets, compact support, number of moments, regularity and symmetry. We then briefly show how does JPEG2000 work. After we prove that RMSE error is clearly not the best perceptual metric. So forth we suggest other metrics based on a human vision system model. We describe the SSIM index and suggest it as a tool to evaluate image quality. Finally, using the SSIM metric, we show that JPEG2000 surpasses JPEG.
22

Modélisation interactive : amélioration du processus de reconstruction d'un modèle 3D par la compression temps réel

Deschênes, Jean-Daniel 13 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / Ces travaux présentent un système interactif de modélisation 3D multirésolution permettant la compression en temps réel de la surface à reconstruire. Les principaux avantages de ce système par rapport à ceux présentés dans le passé sont de pouvoir localement reconstruire la surface à différents niveaux de résolution et de compresser la surface durant l'acquisition des données brutes. Cette utilisation judicieuse de la mémoire rend désormais possible la modélisation d'objets de plus grande taille ou à une résolution plus élevée. Le document est divisé en trois parties. Tout d'abord, nous ferons un retour sur la représentation de surface qui est à la base du système proposé : le champ vectoriel. Nous montrerons tous les avantages d'une telle représentation dans le contexte de la modélisation interactive. Par après, nous aborderons le développement de la représentation multirésolution s'inspirant du champ vectoriel et permettant la compression en temps réel. Nous verrons comment il est possible de faire cohabiter différents niveaux de résolution à l'intérieur d'une même structure de données tout en conservant une représentation cohérente de la surface. Ensuite, nous expliquerons tous les algorithmes nécessaires à la compression en temps réel. La dernière partie de ces travaux aborde la mise au point d'un module de visualisation permettant d'afficher l'état de la surface multirésolution durant l'acquisition des données brutes. L'approche utilisée repose sur une technique de lancer de rayons et offre une grande qualité de rendu tout en conservant l'interactivité du système.
23

Représentation adaptative d'images de télédétection à très haute résolution spatiale une nouvelle approche hybride (la décomposition pyramidale avec des réseaux de neurones)

Cherkashyn, Valeriy January 2011 (has links)
Résumé: De nos jours l’observation de la terre à l’aide d’images satellitaires de très haute résolution spatiale (Ikonos, Quickbird, World View-2) donne de nombreuses possibilités pour gérer de l’information à l’échelle mondiale. Les technologies actuelles d’acquisition d’information sont à l’origine de l’augmentation importante du volume des données. L’objectif général de cette thèse consiste à développer une nouvelle méthode hybride de représentation d’image numérique de très haute résolution spatiale qui améliore la qualité visuelle d’images compressée avec un haut niveau de compression (100 fois et plus). La nouvelle méthode hybride exploite la transformation pyramidale inverse d’image numérique en utilisant des réseaux de neurones artificiels. Elle combine le traitement spatial et la transformation abstraite de l’image. L’emploi de l’approche de la transformation pyramidale inverse a démontré l’efficacité du traitement de l’information à une ou à des échelles spécifiques, sans interférer ou ajouter un temps de calcul inutile. Cette approche est essentielle pour réaliser une transformation progressive d’image. Les résultats montrent une amélioration du rapport signal pur bruit de 4 dB pour chaque couche additionnelle de la transformation progressive. Nous avons réussi à garder une qualité visuelle d’images compressées comparable, jusqu’au niveau de la compression de 107 fois. De plus, pour le niveau de la compression de 274 fois, nous avons obtenu une amélioration de la qualité visuelle en comparaison des méthodes de compression courantes (JPEG, JPEG2000). Les résultats du travail confirment l’hypothèse que les images de télédétection possèdent un haut degré de redondance et que l’utilisation d’un réseau de neurones est un bon moyen pour trouver l’opérateur efficace du regroupement de pixels. Cette nouvelle méthode de représentation d’images à très haute résolution spatiale permet de réduire le volume des données sans détérioration majeure de la qualité visuelle, comparé aux méthodes existantes. Enfin, nous recommandons de poursuivre l’exploration du domaine des calculs distribués tels que les réseaux des neurones artificiels, considérant l’augmentation de la performance des outils informatiques (nanotechnologies et calculs parallèles). || Abstract: Earth observations using very high-resolution satellite imagery, such as from Ikonos, QuickBird or WorldView-2, provide many possibilities for addressing issues on a global scale. However, the acquisition of high-resolution imagery using these technologies also significantly increases the volume of data that must be managed. With the passing of each day, the number of collected satellite images continues to increase. The overall objective of this work is to develop new hybrid methods for numerical data representation that improve the visual quality of compressed satellite visible imagery for compression levels of 100 times and more. Our new method exploits the inverse pyramid transform using artificial neural networks, and thus addresses the trend in the field of remote sensing and image compression towards combining the spatial processing and abstract transformation of an image. Our implementation of the pyramidal inverse transformation demonstrates the effectiveness of information processing for specific levels, without interfering or adding unnecessary computation time. This approach is essential in order to achieve a gradual transformation of an image. The results showed an improvement in the signal to noise ratio of 4dB for each additional layer in the pyramidal image transformation. We managed to keep a similar level of visual quality for the compressed images up to a compression level of 107 times. In addition, for a compression level of 274, we improved the visual quality as compared to standard compression methods (JPEG, JPEG2000). The results of this study confirm the hypothesis that remote sensing images have a high degree of redundancy and that the use of neural networks is a good way to find the effective operator of the pixel combination. This new method for image representation reduces the volume of data without major deterioration in the visual quality of the compressed images, as compared to existing methods. Finally, we recommend further exploration in the field of distributed computing, such as artificial neural networks, considering the rapidly increasing performance of computers in the near future (parallel computing technology and nanotechnology).
24

Schémas de subdivision, analyses multirésolutions non-linéaires. Applications

Dadourian, Karine 03 October 2008 (has links) (PDF)
Les schémas de subdivisions ont été initialement introduits pour construire par itération, des courbes ou des surfaces à partir de points de contrôle. Ils sont apparus comme étant un ingrédient de base dans la définition d'analyses multirésolutions, avec comme application<br />l'approximation et la compression des images. Dans la construction de courbes ou dans la compression d'images, la convergence du schéma de subdivision vers une fonction continue, la régularité de cette fonction, la stabilité et l'ordre du schéma sont des propriétés cruciales. Les schémas linéaires présentant une importante limitation (ils créent des oscillations au voisinage de forts gradients ou de discontinuité qui se traduit par des zones de flous près des contours dans la compression d'images), on s'est alors intéressé à des schémas non-linéaires.<br />S'inscrivant dans la lignée des théories concernant les schémas non- linéaires, on a développé dans ce travail des théorèmes de convergence, de régularité, de stabilité et d'ordre pour une classe de<br />schémas non-linéaires s'écrivant sous la forme d'une somme d'un schéma linéaire et d'une perturbation non-linéaire. <br />Nous avons ensuite appliqué ces résultats à l'étude de propriétés de schémas non-linéaires existants, ou que nous avons contruits pour répondre au problème d'oscillations ou aux problèmes de régularité.<br />Une première application concerne la compression d'images. On s'est proposé d'étudier la stabilité de l'analyse multirésolution bidimensionnelle associée à cette classe de schémas non-linéaires,<br />puis d'appliquer les théorèmes établis et d'observer numériquement, les bénifices obtenus par rapport à des analyses multirésolutions linéaires.<br />Enfin, une deuxième application concerne la construction d'opérateurs aux différences finies ayant une erreur homogène sur des grilles non-uniformes, à partir un opérateur donné et d'un schéma de subdivision.
25

Analyses multirésolutions et problèmes de bords: applications au traitement d'images et à la résolution numérique d'équations aux dérivées partielles

Baccou, Jean 08 December 2004 (has links) (PDF)
Ces travaux sont dédiés au développement de méthodes numériques à base d'ondelettes pour la résolution d'équations aux dérivées partielles et pour le traitement d'images. La première partie est consacrée à la construction d'une nouvelle méthode couplant ondelettes et domaines fictifs pour la résolution d'équations paraboliques 2D définies sur un domaine quelconque. Une analyse complète de la méthode est fournie; elle montre l'efficacité de cette approche en terme de qualité des résultats (borne d'erreur, raffinement local), d'efficacité numérique (conditonnement, préconditionnement simple) et de flexibilité de l'implémentation (implémentation rapide et efficace). Deux applications numériques à la résolution de l'équation de la chaleur définie sur des domaines non polygonaux ou à frontière mobile (problème de Stefan) sont présentées. La seconde partie est consacrée à la construction d'un nouvel algorithme de compression d'images adapté aux contours. On commence par introduire des analyses multi-échelles 1D du type Harten, dépendant d'une famille de points. Ces analyses conduisent à des décompositions multi-échelles efficaces pour la représentation de signaux discontinus. Cette approche est ensuite généralisée au cas bi-dimensionnel et un algorithme de compression multi-directionnel dépendant des contours de l'image est introduit. Il utilise une carte des contours obtenue préalablement. Plusieurs comparaisons avec d'autres approches sont ensuite présentées.
26

Contribution à la comparaison de séquences d'images couleur par outils statistiques et par outils issus de la théorie algorithmique de l'information

Leclercq, Thomas Macaire, Ludovic Delahaye, Jean-Paul Khoudour, Louahdi. January 2007 (has links)
Reproduction de : Thèse de doctorat : Automatique et Informatique industrielle : Lille 1 : 2006. / N° d'ordre (Lille 1) : 3940. Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. [191]-201. Liste des publications.
27

Élaboration des éléments d'une simulation Monte Carlo permettant l'évaluation d'une planification de traitement en radiothérapie externe : compression d'images DICOM à l'aide d'un octree et modélisation de la tête d'un accélérateur linéaire

Hubert-Tremblay, Vincent 11 April 2018 (has links)
L'objectif de ce travail est de développer deux modules pour créer une simulation Monte Carlo ayant comme objectif futur de calculer les doses de radiation d'un traitement en radiothérapie externe. Le premier module permet de lire, modéliser et réduire le nombre de voxels présent dans une série d'images médicales de type DICOM. La réduction doit se faire tout en gardant les informations essentielles pour une simulation Monte Carlo. Un algorithme a été développé pour appliquer une compression de type octree à la distribution des densités électroniques recueillies dans les images de tomodensitométrie. L'image résultante possède ainsi une certaine anisotropie au niveau de la résolution. Des résultats obtenus, la réduction du nombre total de voxels atteinte est de l'ordre de 75% de la taille initiale. Les simulations Monte Carlo démontrent qu'aucune information dosimétrique n'est perdue après la transformation. L'efficacité de la simulation se trouve améliorée tant au niveau de sa rapidité que de son utilisation de la mémoire. Le second module développé est un modèle d'accélérateur linéaire de type Primus (Siemens). Ce modèle permet d'obtenir des distributions de doses pour deux faisceaux de photons d'énergies différentes (6 et 23 megavolts [MV]). Dans les deux cas, les distributions de doses ont été comparées à des mesures expérimentales prises avec une chambre à ionisation. Les distributions de doses dans l'axe central du faisceau ont atteint un niveau de précision de 2%. Au niveau des distributions de doses hors axe, les déviations maximales sont de l'ordre de 5% et de 2mm dans les pénombres. Pour le faisceau de 23 MV, la géométrie présente une asymétrie qui devra être corrigée en modifiant le filtre égalisateur ou en utilisant une source de radiation asymétrique. Dans tous les cas, l'ouverture des collimateurs secondaires devra être optimisée afin d'éliminer les erreurs au niveau de la pénombre. Une fois ces modifications effectuées, les images DICOM compressées avec l'octree pourront être insérées à l'intérieur du modèle de l'accélérateur. Ce faisant, il suffirait d'ajuster la configuration des faisceaux et du patient pour évaluer un traitement en radiothérapie externe.
28

Étude de paramètres géométriques à partir du code de Freeman

Trouillot, Xavier 12 December 2008 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la géométrie discrète 2D avec pour principales applications l'analyse et la caractérisation de formes. Nous nous intéressons ici aux différents codages de contour de formes binaires que nous présentons dans un premier temps. Nous présentons ensuite plus en détail le plus ancien d'entre eux : le codage de Freeman, et nous développons plus particulièrement des algorithmes sur ce qu'il est possible de faire à partir de ce code. Nous étudions donc l'estimation de paramètres géométriques et de paramètres de formes sur une forme binaire comme le périmètre, l'aire, les diamètres apparents, la dimension fractale, et les coefficients de symétrie d'une forme. Nous voyons ensuite les transformations qu'il est possible d'effectuer sur le code de Freeman sans revenir à la représentation classique de la scène. Enfin, nous abordons la notion de morphologie mathématique en proposant une méthode d'obtention du code du dilaté et de l'érodé d'une forme connue par son code de Freeman.
29

Schéma lifting quinconce pour la compression d'images

Gouze, Annabelle 12 December 2002 (has links) (PDF)
Les travaux développés dans cette thèse portent la transformée en ondelettes 2D non-séparable appliquée dans le domaine de la compression d'images. L'implémentation en schéma lifting réduit la complexité de la transformée. Notre premier objectif consiste à factoriser un banc de filtres bidimensionnels non-séparables en schéma lifting quinconce. La solution apportée s'applique aux filtres à symétrie octogonale. Nous proposons une implémentation au fil de l'eau du schéma lifting quinconce. Les coûts de l'implémentation et le gain en mémoire et en complexité par rapport au filtrage par banc de filtres sont évalués. Le second objectif consiste à définir un schéma lifting en fonction des propriétés statistiques de l'image. Le but est de définir un schéma optimisant les performances, en adéquation avec les méthodes d'allocation de débit. Ces méthodes ont pour objectif de fournir un algorithme de compression approprié et efficace pour des images directement échantillonnées en quinconce.
30

Compression d'images dans les réseaux de capteurs sans fil

Makkaoui, Leila 26 November 2012 (has links) (PDF)
Cette thèse forme une contribution au problème de la conservation de l'énergie dans le cas particulier des réseaux de capteurs d'images, où une partie voire tous les nœuds du réseau sont équipés d'une petite caméra à technologie CMOS. Les images engagent des volumes de données très largement supérieurs aux mesures scalaires classiques telles que la température, et donc des dépenses énergétiques plus élevées. L'émetteur radio étant l'un des composants les plus gourmands en énergie, il est évident que la compression de l'image à la source peut réduire significativement l'énergie dépensée pour la transmission de l'image, tant au niveau du nœud caméra que des nœuds formant le chemin jusqu'au point de collecte. Toutefois, les méthodes de compression bien connues (JPEG, JPEG2000, SPIHT) sont mal adaptées à la limitation des ressources de calcul et de mémoire caractéristiques des nœuds-capteurs. Sur certaines plateformes matérielles, ces algorithmes ont même un coût énergétique supérieur au gain qu'ils amènent sur la transmission. Autrement dit, le nœud caméra épuise plus vite sa batterie en envoyant des images compressées que des images non compressées. La complexité de l'algorithme de compression est donc un critère de performance aussi important que le rapport débit-distorsion. Les contributions contenues dans ce mémoire de thèses sont triples : - Tout d'abord, nous avons proposé un algorithme de compression basé sur la transformée en cosinus discrète (DCT 8 points) de complexité réduite, combinant la méthode de DCT rapide la plus efficace de la littérature (DCT de Cordic-Loeffler) à une exécution réduite aux coefficients délimités par une zone carrée de taille k<8, les plus importants dans la reconstruction visuelle. Avec cette approche zonale, le nombre de coefficients à calculer, mais aussi à quantifier et encoder par bloc de 8x8 pixels est réduit à k^2 au lieu de 64, ce qui diminue mécaniquement le coût de la compression. - Nous avons ensuite étudié l'impact de k, donc du nombre de coefficients sélectionnés, sur la qualité de l'image finale. L'étude a été réalisée avec un jeu d'une soixantaine d'images de référence et la qualité des images était évaluée en utilisant plusieurs métriques, le PSNR, le PSNR-HVS et le MMSIM. Les résultats ont servi à identifier, pour un débit donné, la valeur limite de k qu'on peut choisir (statistiquement) sans dégradation perceptible de la qualité, et par conséquent les limites posées sur la réduction de la consommation d'énergie à débit et qualité constants. - Enfin, nous donnons les résultats de performances obtenus par des expérimentations sur une plateforme réelle composée d'un nœud Mica2 et d'une caméra Cyclops afin de démontrer la validité de nos propositions. Dans un scénario considérant des images de 128x128 pixels encodées à 0,5 bpp par exemple, la dépense d'énergie du nœud caméra (incluant compression et transmission) est divisée par 6 comparée au cas sans compression, et par 2 comparée au cas de l'algorithme JPEG standard.

Page generated in 0.1001 seconds