• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 27
  • 4
  • Tagged with
  • 74
  • 35
  • 28
  • 28
  • 27
  • 22
  • 21
  • 19
  • 16
  • 16
  • 16
  • 15
  • 13
  • 12
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Géométrie multi-échelles pour les images et les textures

Peyré, Gabriel 13 December 2005 (has links) (PDF)
Cette thèse est consacrée à la représentation de la géométrie des images. Pour obtenir une représentation efficace il faut modéliser l'information géométrique et on construit des outils pour traiter ce modèle. Ces deux ingrédients vont de paire, s'influençant mutuellement pour obtenir un résultat satisfaisant, c'est à dire un modèle pertinent et des algorithmes rapides et performants.<br>On propose donc une modélisation géométrique des images, l'ambition étant de pouvoir extraire l'information contenue dans les images naturelles, c'est-à-dire les images qui nous entourent. Ce problème est bien sûr difficile car la géométrie des images est complexe et variable.
2

Processus alpha-stables pour le traitement du signal / Alpha-stable processes for signal processing

Fontaine, Mathieu 12 June 2019 (has links)
En traitement du signal audio, le signal observé est souvent supposé être égal à la somme des signaux que nous souhaitons obtenir. Dans le cadre d'une modélisation probabiliste, il est alors primordial que les processus stochastiques préservent leur loi par sommation. Le processus le plus employé et vérifiant cette stabilité est le processus gaussien. Comparé aux autres processus α - stables vérifiant la même stabilité, les processus gaussiens ont la particularité d'admettre des outils statistiques facilement interprétables comme la moyenne et la covariance. L'existence de ces moments permet d'esquisser des méthodes statistiques en séparation des sources sonores (SSS) et plus généralement, en traitement du signal. La faiblesse de ces processus réside néanmoins dans l'incapacité à s'écarter trop loin de leurs moyennes. Cela limite la dynamique des signaux modélisables et peut provoquer des instabilités dans les méthodes d'inférence considérées. En dépit de non-existence d'une forme analytique des densités de probabilités, les processus α - stables jouissent de résultats non valables dans le cas gaussien. Par exemple, un vecteur α - stable non-gaussien admet une représentation spatiale unique. En résumé, le comportement d'une distribution multivariée α - stable est contrôlé par deux opérateurs. Une mesure dite «spectrale» informant sur l'énergie globale venant de chaque direction de l'espace et un vecteur localisant le centroïde de sa densité de probabilité. Ce mémoire de thèse introduit différents modèles α - stables d’un point de vue théorique et les développe dans plusieurs directions. Nous proposons notamment une extension de la théorie de filtrage α - stable monocanal au cas multicanal. En particulier, une nouvelle représentation spatiale pour les vecteurs α - stables est adoptée. Nous développons en outre un modèle de débruitage où le bruit et la parole découlent de distributions α - stables mais ayant un exposant caractéristique α différent. La valeur d' α permet de contrôler la stationnarité de chaque source. Grâce à ce modèle hybride, nous avons également déduit une explication rigoureuse sur des filtrages de Wiener heuristiques esquissés dans les années 80. Une autre partie de ce manuscrit décrit en outre comment la théorie α - stable permet de fournir une méthode pour la localisation de sources sonores. En pratique, elle nous permet d'en déduire si une source est active à un endroit précis de l'espace. / It is classic in signal processing to model the observed signal as the sum of desired signals. If we adopt a probabilistic model, it is preferable that law of the additive processes is stable by summation. The Gaussian process notoriously satisfies this condition. It admits useful statistical operators as the covariance and the mean. The existence of those moments allows to provide a statistical model for SSS. However, Gaussian process has difficulty to deviate from its mean. This drawback limits signal dynamics and may cause unstable inference methods. On the contrary, non-Gaussian α - stable processes are stable under addition, and permit the modeling of signals with considerable dynamics. For the last few decades, α -stable theory have raised mathematical challenges and have already been shown to be effective in filtering applications. This class of processes enjoys outstanding properties, not available in the Gaussian case. A major asset for signal processing is the unique spatial representation of a multivariate α - stable vector, controlled by a so-called spectral measure and a deterministic vector. The spectral measure provides information on the global energy coming from all space directions while the vector localizes the centroid of the probability density function. This thesis introduces several α -stables models, with the aim of extending them in several directions. First, we propose an extension of single-channel α - stable filtering theory to a multichannel one. In particular, a novel spatial representation for α - stable vectors is proposed. Secondly, we develop α - stable models for denoising where each component could admit a different α . This hybrid model provides a rigorous explanation of some heuristic Wiener filters outlined in the 1980s. We also describe how the α - stable theory yields a new method for audio source localization. We use the spectral measure resulting from the spatial representation of α - stable vectors. In practice, it leads to determine whether a source is active at a specific location. Our work consisted in investigating the α -stable theory for signal processing and developing several models for a wide range of applications. The models introduced in this thesis could also be extend to more signal processing tasks. We could use our mutivariate α - stable models to dereverberation or SSS. Moreover, the localization algorithm is implementable for room geometry estimation.
3

Outils de traitement d'images adaptés au traitement d'images omnidirectionnelles

Bigot-Marchand, Stéphanie 15 October 2008 (has links) (PDF)
Cette thèse est consacrée au développement d'outils de traitement adaptés aux images omnidirectionnelles grâce à la "sphère équivalente". En effet, l'utilisation directe de méthodes classiques (c'est-à-dire appropriées aux images réelles) sur des images omnidirectionnelles introduit des erreurs car elle ne prend pas en considération les distorsions introduites par le miroir. Projeter les images omnidirectionnelles sur cette sphère offre l'avantage de pouvoir effectuer les différents traitements sur un espace plus uniforme. Dans un premier temps, nous rappelons le principe de la vision omnidirectionnelle, puis nous nous attardons sur un capteur en particulier, celui composé d'une caméra observant un miroir parabolique. Nous donnons ensuite les éléments de démonstration pour justifier l'existence de la "sphère équivalente". Dans un second temps, nous présentons différents outils mathématiques (harmoniques sphériques, convolution sphérique...) nécessaires au développement de nos méthodes sphériques. Nous proposons ensuite la construction de plusieurs traitements bas-niveaux adaptés aux images sphériques : débruitage et détection de contours. Ces différentes méthodes ont fait l'objet de tests afin de déterminer leurs avantages par rapport aux "méthodes classiques" de traitements d'images omnidirectionnelles. Ces comparaisons ont mis en évidence l'avantage de ces "méthodes sphériques" qui offrent un traitement uniforme sur toute l'image.
4

Méthodes numériques temps-échelle et temps-fréquence pour le traitement du signal et des images

Carré, Philippe 06 January 2000 (has links) (PDF)
Dans ce travail de thèse, nous étudions différentes méthodes d'analyse temps-échelle et temps-fréquence. Nous proposons d'adapter des algorithmes numériques existants ou de concevoir de nouvelles techniques permettant de projeter un signal ou une image dans un espace de représentation le plus adapté possible. Cette décomposition peut ensuite être utilisée dans des problèmes de débruitage, de segmentation, de compression, d'analyse ou de classification. Les différents thèmes abordées durant cette thèse se divisent en quatre principaux “ courants ” : • La décomposition en ondelettes non décimée. Nous reprenons les méthodes de débruitage non décimées pour les étendre à une méthode itérative. • Les maxima d'ondelettes. A partir de cette représentation nous proposons une méthode de débruitage d'images en utilisant l'évolution de l'angle des dérivées à travers les échelles. Ensuite, nous proposons un algorithme de partition de signaux reposant sur une nouvelle méthode de chaînage des maxima. • Les ondelettes de Malvar. Nous introduisons un algorithme rapide de décomposition en ondelettes de Malvar non-dyadique. Puis nous proposons une fonction de coût basée sur les distances spectrales dont la généralisation à la dimension 2 repose sur une décomposition anisotropique. • Les ondelettes de Meyer. Cette décomposition est réalisée par l'intermédiaire d'un fenêtrage dans le plan fréquentiel. Nous introduisons un algorithme de décompostion-reconstruction 1D et 2D en paquets d'ondelettes de Meyer discret. Puis nous définissons une décomposition en paquets d'ondelettes de Meyer non-uniforme. Enfin, en utilisant le principe des doubles arbres nous définissons une décomposition qui est à la fois non-uniforme dans le plan temporel et non-uniforme dans le plan fréquentiel. Chacune des méthodes développées est illustrée par différentes applications
5

Déconvolution Multicanale et Détection de Sources en utilisant des représentations parcimonieuses : application au projet Fermi

Schmitt, Jeremy 07 December 2011 (has links) (PDF)
Ce mémoire de thèse présente de nouvelles méthodologies pour l'analyse de données Poissoniennes sur la sphère, dans le cadre de la mission Fermi. Les objectifs principaux de la mission Fermi, l'étude du fond diffus galactique et l'établissement du catalogue de source, sont com pliqués par la faiblesse du flux de photons et les effets de l'instrument de mesure. Ce mémoire introduit une nouvelle représentation mutli-échelles des données Poissoniennes sur la sphère, la Transformée Stabilisatrice de Variance Multi-Echelle sur la Sphère (MS-VSTS), consistant à combiner une transformée multi-échelles sur la sphère (ondelettes, curvelets), avec une transformée stabilisatrice de variance (VST). Cette méthode est appliquée à la suppression du bruit de Poisson mono et multicanale, à l'interpolation de données manquantes, à l'extraction d'un modèle de fond et à la déconvolution multicanale. Enfin, ce mémoire aborde le problème de la séparation de composantes en utilisant des représentations parcimonieuses (template fitting).
6

Traitements de nuages de points denses et modélisation 3D d'environnements par système mobile LiDAR/Caméra

Deschaud, Jean-Emmanuel 22 November 2010 (has links) (PDF)
Le laboratoire de robotique CAOR de Mines ParisTech a mis au point une technique de numérisation 3D d'environnements extérieurs, utilisant un système mobile appelé LARA3D. Il s'agit d'une voiture équipée de capteurs de localisation (GPS, Centrale Inertielle) et de capteurs de modélisation (lidars et caméras). Ce dispositif permet de construire des nuages de points 3D denses et des images géo-référencées de l'environnement traversé. Dans le cadre de cette thèse, nous avons développé une chaîne de traitement de ces nuages de points et de ces images capable de générer des modèles 3D photo-réalistes. Cette chaîne de modélisation est composée d'une succession d'étapes avec dans l'ordre : le calcul des normales, le débruitage des données, la segmentation en zones planes, la triangulation, la simplification et la texturation. Nous avons testé notre méthode de modélisation sur des données simulées et des données réelles acquises dans le cadre du projet TerraNumerica (en environnement urbain) et du projet Divas (en environnement routier).
7

Analyse de signaux et d'images par bancs de filtres : applications aux géosciences

Gauthier, Jérôme 20 June 2008 (has links) (PDF)
Afin de réaliser des traitements locaux sur des données de diverses natures (volumes, images ou signaux) contenant des éléments informatifs dans certaines bandes de fréquence, nous nous intéressons dans cette thèse à l'étude de bancs de filtres (BdF). Plus précisément, nous étudions l'existence et la synthèse de BdF de réponses impulsionnelles finies (RIF) inverses d'un BdF d'analyse RIF redondant complexe fixé. Nous proposons en particulier des méthodes testant l'inversibilité de la matrice d'analyse et la construction d'un inverse explicite à l'aide de la formulation polyphase. À partir de ce dernier, nous proposons une paramétrisation réduite de l'ensemble des BdF de synthèse permettant d'optimiser leurs réponses selon différents critères. Cette étude est étendue au cas multidimensionnel notamment par l'utilisation de la notion de résultant. Ces outils permettant de représenter efficacement certaines informations structurées dans des données, il devient possible de les préserver tout en rejetant d'éventuelles perturbations. Le premier cadre considéré est celui du bruit gaussien. Nous avons utilisé le principe de Stein pour proposer deux méthodes de débruitage : FB-SURELET-E et FBSURELET-C. Elles sont comparées à des méthodes récentes de débruitage conduisant à de bons résultats en particulier pour des images texturées. Un autre type d'application est ensuite considéré : la séparation des structures orientées. Afin de traiter ce problème, nous avons développé une méthode de filtrage anisotrope. Les algorithmes réalisés sont finalement testés sur des données issues de différents domaines applicatifs (sismique, microscopie, vibrations)
8

Études de Modèles Variationnels et Apprentissage de Dictionnaires

Zeng, Tieyong 09 October 2007 (has links) (PDF)
Ce mémoire porte sur l'utilisation de dictionnaires en analyse et restauration d'images numériques. Nous nous sommes intéressés aux différents aspects mathématiques et pratiques de ce genre de méthodes: modélisation, analyse de propriétés de la solution d'un modèle, analyse numérique, apprentissage du dictionnaire et expérimentation. Après le Chapitre 1, qui retrace les étapes les plus significatives de ce domaine, nous présentons dans le Chapitre 2 notre implémentation et les résultats que nous avons obtenus avec le modèle consistant à résoudre \begin{equation}\label{tv-inf} \left\{\begin{array}{l} \min_{w} TV(w), \\ \mbox{sous les contraintes } |\PS{w-v}{\psi}|\leq \tau, \forall \psi \in \DD \end{array}\right. \end{equation} pour $v\in\RRN$, une donnée initiale, $\tau>0$, $TV(\cdot)$ la variation totale et un dictionnaire {\em invariant par translation} $\DD$. Le dictionnaire est, en effet, construit comme toutes les translations d'un ensemble $\FF$ d'éléments de $\RRN$ (des caractéristiques ou des patchs). L'implémentation de ce modèle avec ce genre de dictionnaire est nouvelle. (Les auteurs avaient jusque là considéré des dictionnaires de paquets d'ondelettes ou de curvelets.) La souplesse de la construction du dictionnaire a permis de conduire plusieurs expériences dont les enseignements sont rapportés dans les Chapitre 2 et 3. Les expériences du Chapitre 2 confirment que, pour obtenir de bons résultats en débruitage avec le modèle ci-dessus, le dictionnaire doit bien représenter la courbure des textures. Ainsi, lorsque l'on utilise un dictionnaire de Gabor, il vaut mieux utiliser des filtres de Gabor dont le support est isotrope (ou presque isotrope). En effet, pour représenter la courbure d'une texture ayant une fréquence donnée et vivant sur un support $\Omega$, il faut que le support, en espace, des filtres de Gabor permette un ``pavage'' avec peu d'éléments du support $\Omega$. Dans la mesure o\`{u}, pour une classe générale d'images, le support $\Omega$ est indépendant de la fréquence de la texture, le plus raisonnable est bien de choisir des filtres de Gabor dont le support est isotrope. Ceci est un argument fort en faveur des paquets d'ondelettes, qui permettent en plus d'avoir plusieurs tailles de supports en espace (pour une fréquence donnée) et pour lesquelles \eqref{tv-inf} peut être résolu rapidement. Dans le Chapitre 3 nous présentons des expériences dans lesquels le dictionnaire contient les courbures de formes connues (des lettres). Le terme d'attache aux données du modèle \eqref{tv-inf} autorise l'apparition dans le résidu $w^*-v$ de toutes les structures, sauf des formes ayant servi à construire le dictionnaire. Ainsi, on s'attend à ce que les forment restent dans le résultat $w^*$ et que les autres structures en soient absente. Nos expériences portent sur un problème de séparation de sources et confirment cette impression. L'image de départ contient des lettres (connues) sur un fond très structuré (une image). Nous montrons qu'il est possible, avec \eqref{tv-inf}, d'obtenir une séparation raisonnable de ces structures. Enfin ce travail met bien en évidence que le dictionnaire $\DD$ doit contenir la {\em courbure} des éléments que l'on cherche à préserver et non pas les éléments eux-mêmes, comme on pourrait le penser na\"{\i}vement. Le Chapitre 4 présente un travail dans lequel nous avons cherché à faire collaborer la méthode K-SVD avec le modèle \eqref{tv-inf}. Notre idée de départ est d'utiliser le fait que quelques itérations de l'algorithme qu'il utilise pour résoudre \eqref{tv-inf} permettent de faire réapparaître des structures absentes de l'image servant à l'initialisation de l'algorithme (et dont la courbure est présente dans le dictionnaire). Nous appliquons donc quelques une de ces itérations au résultat de K-SVD et retrouvons bien les textures perdues. Ceci permet un gain visuel et en PSNR. Dans le Chapitre 5, nous exposons un schéma numérique pour résoudre une variante du Basis Pursuit. Celle-ci consiste à appliquer un algorithme du point proximal à ce modèle. L'intérêt est de transformer un problème convexe non-différentiable en une suite (convergeant rapidement) de problèmes convexes très réguliers. Nous montrons la convergence théorique de l'algorithme. Celle-ci est confirmée par l'expérience. Cet algorithme permet d'améliorer considérablement la qualité (en terme de parcimonie) de la solution par rapport à l'état de l'art concernant la résolution pratique du Basis Pursuit. Nous nous espérons que cet algorithme devrait avoir un impact conséquent dans ce domaine en rapide développement. Dans le Chapitre 6, nous adapte aux cas d'un modèle variationnel, dont le terme régularisant est celui du Basis Pursuit et dont le terme d'attache aux données est celui du modèle \eqref{tv-inf}, un résultat de D. Donoho (voir [55]). Ce résultat montre que, sous une condition liant le dictionnaire définissant le terme régularisant au dictionnaire définissant le terme d'attache aux données, il est possible d'étendre les résultats de D. Donoho aux modèles qui nous intéressent dans ce chapitre. Le résultat obtenu dit que, si la donnée initiale est très parcimonieuse, la solution du modèle est proche de sa décomposition la plus parcimonieuse. Ceci garantie la stabilité du modèle dans ce cadre et fait un lien entre régularisation $l^1$ et $l^0$, pour ce type d'attache aux données. Le Chapitre 7 contient l'étude d'une variante du Matching Pursuit. Dans cette variante, nous proposons de réduire le produit scalaire avec l'élément le mieux corrélé au résidu, avant de modifier le résidu. Ceci pour une fonction de seuillage général. En utilisant des propriétés simples de ces fonctions de seuillage, nons montrons que l'algorithme ainsi obtenu converge vers la projection orthogonale de la donnée sur l'espace linéaire engendré par le dictionnaire (le tout modulo une approximation quantifiée par les caractéristiques de la fonction de seuillage). Enfin, sous une hypothèse faible sur la fonction de seuillage (par exemple le seuillage dur la satisfait), cet algorithme converge en un temps fini que l'on peut déduire des propriétés de la fonction de seuillage. Typiquement, cet algorithme peut-être utilisé pour faire les projections orthogonales dans l'algorithme ``Orthogonal Matching Pursuit''. Ceci nous n'avons pas encore été fait. Le Chapitre 8 explore enfin la problématique de l'apprentissage de dictionnaires. Le point de vue développé est de considerer cette problématique comme un problème d'estimation de paramètres dans une famille de modèles génératifs additifs. L'introduction de switchs aléatoires de Bernoulli activant ou désactivant chaque élément d'un dictionnaire invariant par translation à estimer en permet l'identification dans des conditions assez générales en particulier dans le cas o\`{u} les coefficients sont gaussiens. En utilisant une technique d'EM variationel et d'approximation de la loi a posteriori par champ moyen, nous dérivons d'un principe d'estimation par maximum de vraisemblance un nouvel algorithme effectif d'apprentissage de dictionaire que l'on peut apparenter pour certains aspects à l'algorithme K-SVD. Les résultats expérimentaux sur données synthétiques illustrent la possibilité d'une identification correcte d'un dictionaire source et de plusieurs applications en décomposition d'images et en débruitage.
9

Mise en place de techniques d'imagerie cardiaque par résonance magnétique chez le petit animal / Implementation of cardiac magnetic resonance imaging techniques in small animals

Tricot, Benoit January 2012 (has links)
Résumé: L'imagerie par résonance magnétique (IRM) est un outil de choix en clinique pour la détection des maladies cardiovasculaires. Ses résolutions spatiale et temporelle élevées en font une technique fiable pour l'évaluation de la structure, de la fonction, de la perfusion ou encore de la viabilité du muscle du myocarde. Les modèles animaux, et plus particulièrement le rat et la souris transgénique, sont de plus en plus utilisés pour étudier les gènes et les mécanismes biologiques mis en cause dans les maladies cardiaques. L'IRM est devenue la méthode de référence pour l'étude non-invasive de ces modèles, et ce malgré des différences physiologiques comme la fréquence cardiaque élevée (jusqu'à 600 battements par minute chez la souris) ou la taille de l'animal qui rendent l'acquisition d'images plus ardue que dans le cadre clinique. Cependant, il est possible d'obtenir des images de bonne qualité grâce aux appareils dédiés à haut Champ, à des nouvelles stratégies de synchronisation des acquisitions et à l'utilisation de séquences d'impulsions optimisées pour l'imagerie du petit animal. Les travaux rapportés dans ce mémoire portent sur la mise en place de ces techniques sur l'appareil IRM 7 T du Centre d'Imagerie Moléculaire de Sherbrooke (CIMS). Nous donnons un aperçu des possibilités offertes par l'IRM cardiaque chez le petit animal, puis nous présentons le matériel et les méthodes utilisées pour réaliser l'étude de la fonction cardiaque chez le rat avec l'imagerie cinématique. Dans cette étude, nous proposons l'utilisation d'une technique de débruitage afin d'améliorer l'évaluation quantitative des paramètres de la fonction cardiaque. Enfin, nous détaillons le développement de deux séquences d'impulsions appliquées à un modèle d'infarctus du myocarde chez le rat : une séquence d'inversion-récupération pour l'imagerie de rehaussement tardif au gadolinium et une séquence de préparation T2 pour l'imagerie de pondération T2. // Abstract: Magnetic Resonance Imaging (MRI) is a clinically valuable tool for the detection of cardiovascular diseases. Its high temporal and spatial resolutions have established it as a reliable technique for assessment of cardiac structure, fonction, perfusion, and myocardial viability. Animal models, and particularly rats and transgenic mice, are increasingly used for the study of genes and biological mechanisms involved in heart diseases. MRI has become the gold-standard for the non-invasive examination of these models, despite physiological differences such as the rapid heart rate (up to 600 beats per minute for the mouse) and the animal size, that make its application more challenging than clinical imaging. However, high-quality images can be obtained with dedicated high-field MRI scanners, novel gating strategies and optimised pulse sequences. The work reported in this thesis consists in the implementation of these techniques on the dedicated 7 T MRI scanner at the Sherbrooke Molecular Imaging Center. We first provide an overview of the possibilities offered by cardiac MRI in small animals, then we present the material and methods for the study of cardiac function in rats with cine-imaging. In this study, we propose the use of a denoising technique as a way to improve the evaluation of global cardiac function parameters. Finally, we explain in detail the development of two pulse sequences for their application in a myocardial infarction model : an inversion-recovery sequence for late gadolinium enhancement imaging and a T2-prepared sequence for T2-weighted imaging.
10

Approches bayésiennes pour le débruitage des images dans le domaine des transformées multi-échelles parcimonieuses orientées et non orientées

Boubchir, Larbi 04 July 2007 (has links) (PDF)
Les images issues d'une chaîne d'acquisition sont généralement dégradées par le bruit du capteur. La tâche qui consiste à restaurer une image de bonne qualité à partir de sa version bruitée est communément appelée débruitage. Celui-ci a engendré une importante littérature en pré-traitement des images. Lors de ce travail de thèse, et après avoir posé le problème du débruitage en présence d'un bruit additif gaussien, nous avons effectué un état de l'art méthodique sur ce sujet. Les méthodes présentées cherchent pour la plupart à reconstruire une solution qui présente une certaine régularité. En s'appuyant sur un cadre bayésien, la régularité de la solution, qui peut être imposée de différentes manières, a été formellement mise en place en passant dans le domaine des transformées multi-échelle. Ainsi, afin d'établir un modèle d'a priori, nous avons mené une modélisation des statistiques marginales et jointes des coefficients d'images dans le domaine des transformées multi-échelles orientées (e.g. curvelets) et non-orientées (e.g. ondelettes). Ensuite, nous avons proposé de nouveaux estimateurs bayésiens pour le débruitage. La mise en œuvre de ces estimateurs est effectuée en deux étapes, la première consistant à estimer les hyperparamètres du modèle de l'a priori en présence du bruit et la seconde à trouver une forme analytique pour l'estimateur bayésien correspondant. Dans un premier temps, nous avons mis en place des estimateurs bayésiens univariés en mettant à profit les statistiques marginales des coefficients des images dans des représentations multi-échelle comme les ondelettes. Ces lois marginales ont été analytiquement modélisées par le biais des distributions: ?-stable et les Formes K de Bessel. Dans un second temps, nous avons amélioré les performances de nos estimateurs univariés en introduisant l'information géométrique dans le voisinage des coefficients. Plus précisément, nous avons proposé un cadre statistique bayésien multivarié permettant de prendre en compte les dépendances inter- et intra-échelle des coefficients, en mettant à profit les statistiques jointes de ces derniers dans le domaine des curvelets et des ondelettes non décimées. Ensuite, nous avons mis en place l'estimateur bayésien multivarié correspondant basé sur une extension multivariée de la distribution des Formes K de Bessel. Une large étude comparative a finalement été menée afin de confronter nos algorithmes de débruitage à d'autres débruiteurs de l'état de l'art.

Page generated in 0.0829 seconds