Spelling suggestions: "subject:"traitement duu signal ett dde l'image"" "subject:"traitement duu signal ett dee l'image""
1 |
Statistical modeling and processing of high frequency ultrasound images: application to dermatologic oncologyPereyra, Marcelo Alejandro 04 July 2012 (has links) (PDF)
This thesis studies statistical image processing of high frequency ultrasound imaging, with application to in-vivo exploration of human skin and noninvasive lesion assessment. More precisely, Bayesian methods are considered in order to perform tissue segmentation in ultrasound images of skin. It is established that ultrasound signals backscattered from skin tissues converge to a complex Levy Flight random process with non-Gaussian _-stable statistics. The envelope signal follows a generalized (heavy-tailed) Rayleigh distribution. Based on these results, it is proposed to model the distribution of multiple-tissue ultrasound images as a spatially coherent finite mixture of heavy-tailed Rayleigh distributions. Spatial coherence inherent to biological tissues is modeled by a Potts Markov random field. An original Bayesian algorithm combined with a Markov chain Monte Carlo method is then proposed to jointly estimate the mixture parameters and a label-vector associating each voxel to a tissue. The proposed method is successfully applied to the segmentation of in-vivo skin tumors in high frequency 2D and 3D ultrasound images. This method is subsequently extended by including the estimation of the Potts regularization parameter B within the Markov chain Monte Carlo (MCMC) algorithm. Standard MCMC methods cannot be applied to this problem because the likelihood of B is intractable. This difficulty is addressed by using a likelihood-free Metropolis-Hastings algorithm based on the sufficient statistic of the Potts model. The resulting unsupervised segmentation method is successfully applied to tridimensional ultrasound images. Finally, the problem of computing the Cramer-Rao bound (CRB) of B is studied. The CRB depends on the derivatives of the intractable normalizing constant of the Potts model. This is resolved by proposing an original Monte Carlo algorithm, which is successfully applied to compute the CRB of the Ising and Potts models.
|
2 |
Spectral and spatial methods for the classification of urban remote sensing dataFauvel, Mathieu 28 November 2007 (has links) (PDF)
Lors de ces travaux, nous nous sommes intéressés au problème de la classification supervisée d'images satellitaires de
zones urbaines. Les données traitées sont des images optiques à très hautes résolutions spatiales: données panchromatiques à très haute résolution spatiale (IKONOS, QUICKBIRD, simulations PLEIADES) et des images hyperspectrales (DAIS, ROSIS).
Deux stratégies ont été proposées.
La première stratégie consiste en une phase d'extraction de caractéristiques spatiales et spectrales suivie d'une phase de classification. Ces caractéristiques sont extraites par filtrages morphologiques : ouvertures et fermetures géodésiques et filtrages surfaciques auto-complémentaires. La classification est réalisée avec les machines à vecteurs supports (SVM)
non linéaires. Nous proposons la définition d'un noyau spatio-spectral utilisant de manière conjointe l'information spatiale
et l'information spectrale extraites lors de la première phase.
La seconde stratégie consiste en une phase de fusion de données pre- ou post-classification. Lors de la fusion postclassification,
divers classifieurs sont appliqués, éventuellement sur plusieurs données issues d'une même scène (image panchromat
ique, image multi-spectrale). Pour chaque pixel, l'appartenance à chaque classe est estimée à l'aide des classifieurs. Un schéma de fusion adaptatif permettant d'utiliser l'information sur la fiabilité locale de chaque classifieur, mais aussi l'information globale disponible a priori sur les performances de chaque algorithme pour les différentes classes, est proposé.
Les différents résultats sont fusionnés à l'aide d'opérateurs flous.
Les méthodes ont été validées sur des images réelles. Des
améliorations significatives sont obtenues par rapport aux méthodes publiées dans la litterature.
|
3 |
Bayesian fusion of multi-band images : A powerful tool for super-resolutionWei, Qi 24 September 2015 (has links) (PDF)
Hyperspectral (HS) imaging, which consists of acquiring a same scene in several hundreds of contiguous spectral bands (a three dimensional data cube), has opened a new range of relevant applications, such as target detection [MS02], classification [C.-03] and spectral unmixing [BDPD+12]. However, while HS sensors provide abundant spectral information, their spatial resolution is generally more limited. Thus, fusing the HS image with other highly resolved images of the same scene, such as multispectral (MS) or panchromatic (PAN) images is an interesting problem. The problem of fusing a high spectral and low spatial resolution image with an auxiliary image of higher spatial but lower spectral resolution, also known as multi-resolution image fusion, has been explored for many years [AMV+11]. From an application point of view, this problem is also important as motivated by recent national programs, e.g., the Japanese next-generation space-borne hyperspectral image suite (HISUI), which fuses co-registered MS and HS images acquired over the same scene under the same conditions [YI13]. Bayesian fusion allows for an intuitive interpretation of the fusion process via the posterior distribution. Since the fusion problem is usually ill-posed, the Bayesian methodology offers a convenient way to regularize the problem by defining appropriate prior distribution for the scene of interest. The aim of this thesis is to study new multi-band image fusion algorithms to enhance the resolution of hyperspectral image. In the first chapter, a hierarchical Bayesian framework is proposed for multi-band image fusion by incorporating forward model, statistical assumptions and Gaussian prior for the target image to be restored. To derive Bayesian estimators associated with the resulting posterior distribution, two algorithms based on Monte Carlo sampling and optimization strategy have been developed. In the second chapter, a sparse regularization using dictionaries learned from the observed images is introduced as an alternative of the naive Gaussian prior proposed in Chapter 1. instead of Gaussian prior is introduced to regularize the ill-posed problem. Identifying the supports jointly with the dictionaries circumvented the difficulty inherent to sparse coding. To minimize the target function, an alternate optimization algorithm has been designed, which accelerates the fusion process magnificently comparing with the simulation-based method. In the third chapter, by exploiting intrinsic properties of the blurring and downsampling matrices, a much more efficient fusion method is proposed thanks to a closed-form solution for the Sylvester matrix equation associated with maximizing the likelihood. The proposed solution can be embedded into an alternating direction method of multipliers or a block coordinate descent method to incorporate different priors or hyper-priors for the fusion problem, allowing for Bayesian estimators. In the last chapter, a joint multi-band image fusion and unmixing scheme is proposed by combining the well admitted linear spectral mixture model and the forward model. The joint fusion and unmixing problem is solved in an alternating optimization framework, mainly consisting of solving a Sylvester equation and projecting onto a simplex resulting from the non-negativity and sum-to-one constraints. The simulation results conducted on synthetic and semi-synthetic images illustrate the advantages of the developed Bayesian estimators, both qualitatively and quantitatively.
|
4 |
Inversion Bayésienne : illustration sur des problèmes tomographiques et astrophysiquesRodet, Thomas 20 November 2012 (has links) (PDF)
Nous nous intéressons ici aux problèmes inverses mal posés ainsi qu'à leur résolution dans un cadre bayésien. Dans un premier temps, nous décrirons la démarche que nous avons suivie lors de la résolution d'un problème inverse mal posé. Elle consiste à déterminer simultanément la paramétrisation de l'objet inconnu, le modèle " simplifié " décrivant le principe de formation des données, le choix du modèle de bruit et le choix de l'information a priori introduite. Ces différents choix sont souvent contraints par le temps de calcul nécessaire pour obtenir l'estimateur. On illustrera la démarche en résolvant des problèmes inverses variés dans le domaine de l'imagerie médicale (réduction des artéfacts métalliques) et de l'astrophysique (reconstruction 3D+T de la couronne solaire et reconstruction sur-résolue du rayonnement infra-rouge de l'univers). Dans deuxième temps, nous développerons un aspect plus méthodologique. En effet, nous avons constaté que les approches entièrement bayésiennes étaient difficilement applicables à des problèmes de grandes dimensions (plus d'un million d'inconnues) pour des raisons de coût calculatoire. Nous avons donc mis au point une nouvelle approche bayésienne variationnelle permettant de s'affranchir de ce problème. Pour obtenir notre algorithme, nous avons résolu un problème d'optimisation fonctionnelle dans l'espace des mesures à densité. Puis, nous avons appliqué notre approche sur l'inversion de problèmes linéaires de grandes tailles.
|
5 |
Apport de techniques de traitement du signal super et haute résolution à l'amélioration des performances du radar-chausséeLe Bastard, Cédric 20 November 2007 (has links) (PDF)
Dans le domaine du génie civil, l'auscultation de couches minces de chaussée (de l'ordre de 2 cm d'épaisseur) est mal résolue par les techniques radar de Contrôle Non Destructif. Dans ce contexte, cette thèse a pour objectif d'améliorer, d'un facteur 3 à 6, la résolution temporelle des radars actuels par des techniques de traitement du signal dites super et haute résolution. Dans un premier temps, les méthodes super et haute résolution les plus connues de la littérature (LSMYW, MUSIC, ESPRIT, Min-Norm) sont évaluées à partir de signaux simulés. Les résultats montrent les variations de l'erreur quadratique moyenne sur l'épaisseur estimée de chaussée, en fonction du rapport signal sur bruit et du retard différentiel entre échos. Un critère de précision sur la mesure d'épaisseur permet de déduire la limite de résolution temporelle de chacun des algorithmes. Pour des échos fortement ou totalement corrélés, on propose une optimisation du paramétrage de la technique de moyennage en sous-bande de fréquences. Quel que soit le niveau de corrélation, la limite de résolution temporelle obtenue permet de montrer la faisabilité de l'application. Dans un second temps, le document se focalise sur l'amélioration de techniques haute résolution de complexité calculatoire plus réduite. Tout d'abord, une version généralisée de l'algorithme ESPRIT (G-ESPRIT) est proposée, pour tenir compte de la forme de l'impulsion radar et des caractéristiques d'un bruit quelconque. Ensuite, deux méthodes linéaires à sous-espaces (OPM et SWEDE) sont introduites. Une version polynomiale d'OPM (root-OPM) permettant d'accélérer la recherche des retards de propagation est proposée. La méthode SWEDE est transposée à l'estimation de retards ; une nouvelle procédure de blanchiment permettant d'améliorer ses performances est également suggérée (FBD-SWEDE). Puis, de nouveaux algorithmes sont développés, combinant les avantages calculatoires des algorithmes SWEDE et ESPRIT (ESPRITWED, AV-ESPRITWED, G-ESPRITWED). Enfin, les méthodes de traitement présentées dans ce document sont expérimentées sur des signaux d'un radar impulsionnel et à sauts de fréquence, mesurés sur un 'milieu-modèle' monocouche et bicouche. La mise en oeuvre des algorithmes est détaillée. Les résultats permettent d'une part de valider les résultats théoriques et de montrer la faisabilité de la mesure de couches minces de chaussée à l'aide d'un radar de 2 GHz de largeur de bande.
|
6 |
Contrôle de santé des matériaux et structures par analyse de la coda ultrasonoreZHANG, Yuxiang 20 September 2013 (has links) (PDF)
La coda ultrasonore est constituée d'ondes ultrasonores ayant subi des diffusions multiples lors de leur propagation dans un milieu complexe (milieu hétérogène/milieu homogène ayant une géométrie complexe). La coda ultrasonore présente une haute sensibilité aux perturbations du milieu de propagation. L'analyse de la coda ultrasonore par la méthode dite d’interférométrie de la coda (CWI pour Coda Wave Interferometry) permet d'évaluer la variation de la vitesse de propagation dans un milieu à partir des signaux de coda ultrasonores avec une grande précision (0,001 % en relatif). Une telle variation de la vitesse de propagation peut être utilisée pour l'évaluation et le contrôle non destructif (ECND) d’un matériau ou d'une structure. Un essai expérimental est présenté au début de la thèse comme exemple d’utilisation de la CWI pour l’ECND du béton. Face aux problèmes expérimentaux inhérents au degré de précision de cet essai, nous présentons un protocole expérimental conçu pour améliorer la fiabilité des résultats CWI. Ce protocole a été validé expérimentalement dans une étude d’acousto-élasticité du béton. Les résultats vérifient que ce protocole peut 1) réduire les biais provenant non seulement des fluctuations de température ambiante, mais aussi des procédures expérimentales et 2) améliorer la répétabilité de l’essai. Avec ce protocole de contrôle des biais, une étude du comportement de béton sous un chargement uni-axial en traction directe a été effectuée en utilisant la CWI. Les comportements élastique (l’effet acoustoélastique) et anélastique (l’effet Kaiser) du béton sont observés via les résultats CWI. Un coefficient acoustoélastique effectif (Β) qui décrit le niveau de la non-linéarité élastique du béton a été déterminé et utilisé pour la détection d’un endommagement léger du béton. La CWI est ensuite utilisée pour la détection globale de défauts (fissures) dans un milieu initialement linéaire (verre). Un chargement acoustique (l’onde de pompe) est utilisé pour mettre en jeu les non-linéarités des défauts. L’onde de coda qui se propage simultanément dans le milieu sert comme onde de sonde est modulée non linéairement par l’onde de pompe. L’apparition de la modulation non linéaire est due à la présence des défauts et peut être détectée par la variation des résultats CWI en fonction de l’amplitude de l’onde de pompe. En utilisant une onde de pompe large bande, nous montrons expérimentalement que cette méthode permet la détection des défauts et d’évaluation du niveau d’endommagement (via le niveau effectif de la non-linéarité) d’une manière globale sans zone aveugle.
|
7 |
Multimodal Image Registration applied to Magnetic Resonance and Ultrasound Prostatic ImagesMitra, Jhimli 26 September 2012 (has links) (PDF)
This thesis investigates the employment of different deformable registration techniques to register pre-operative magnetic resonance and inter-operative ultrasound images during prostate biopsy. Accurate registration ensures appropriate biopsy sampling of malignant prostate tissues and reduces the rate of re-biopsies. Therefore, we provide comparisons and experimental results for some landmark- and intensity-based registration methods: thin-plate splines, free-form deformation with B-splines. The primary contribution of this thesis is a new spline-based diffeomorphic registration framework for multimodal images. In this framework we ensure diffeomorphism of the thin-plate spline-based transformation by incorporating a set of non-linear polynomial functions. In order to ensure clinically meaningful deformations we also introduce the approximating thin-plate splines so that the solution is obtained by a joint-minimization of the surface similarities of the segmented prostate regions and the thin-plate spline bending energy. The method to establish point correspondences for the thin-plate spline-based registration is a geometric method based on prostate shape symmetry but a further improvement is suggested by computing the Bhattacharyya metric on shape-context based representation of the segmented prostate contours. The proposed deformable framework is computationally expensive and is not well-suited for registration of inter-operative images during prostate biopsy. Therefore, we further investigate upon an off-line learning procedure to learn the deformation parameters of a thin-plate spline from a training set of pre-operative magnetic resonance and its corresponding inter-operative ultrasound images and build deformation models by applying spectral clustering on the deformation parameters. Linear estimations of these deformation models are then applied on a test set of inter-operative and pre-operative ultrasound and magnetic resonance images respectively. The problem of finding the pre-operative magnetic resonance image slice from a volume that matches the inter-operative ultrasound image has further motivated us to investigate on shape-based and image-based similarity measures and propose for slice-to-slice correspondence based on joint-maximization of the similarity measures.
|
8 |
Estimation du temps de parcours d’un réseau urbain par fusion de données de boucles magnétiques et de véhicules traceurs : Une approche stochastique avec mise en oeuvre d’un filtre de Kalman sans parfumHage, Ré-Mi 25 September 2012 (has links) (PDF)
La notion de temps de parcours est une information simple à intégrer par les usagers des transports et a le potentiel, via des systèmes d’assistance, de réduire la congestion aussi bien de manière temporelle que spatiale. Cette thèse porte sur la problématique de l’estimation du temps de parcours en ville, où la circulation se caractérise par un débit variable et un flux significatif de/vers des voies transversales non équipées de capteurs de trafic, flux qui agit comme perturbation de l’équation de conservation des véhicules. La bibliographie présente des approches déterministes et stochastiques, utilisant, selon les situations expérimentales, soit des boucles inductives, soit des véhicules traceurs, soit les deux. Nous proposons une méthode stochastique du type filtrage de Kalman sans parfum. Son modèle dynamique est basé sur la méthode analytique classique des stocks qui considère le décalage temporel entre les cumuls de véhicules entrants et sortants dans chaque tronçon du réseau. La formulation de ce modèle n’est pas explicite, ce qui justifie l’utilisation d’un filtre sans parfum. Les observations utilisées sont à la fois les boucles magnétiques à la sortie des tronçons et les véhicules traceurs après map-matching sur le réseau. L’algorithme est applicable en temps réel, sans connaissance a priori des affectations aux carrefours, et sous conditions éventuelles de perturbation. En sortie de filtre, on dispose des variances d’estimation, ce qui mesure la confiance dans le temps de parcours estimé et permet de rejeter des mesures aberrantes. La validation a été montrée sur la base de simulations sur un réseau simple à trois intersections, avec des flux variables et des perturbations, et pour quelques pourcents de véhicules traceurs.
|
9 |
Parole de locuteur : performance et confiance en identification biométrique vocaleKahn, Juliette 19 December 2011 (has links) (PDF)
Ce travail de thèse explore l'usage biométrique de la parole dont les applications sont très nombreuses (sécurité, environnements intelligents, criminalistique, surveillance du territoire ou authentification de transactions électroniques). La parole est soumise à de nombreuses contraintes fonction des origines du locuteur (géographique, sociale et culturelle) mais également fonction de ses objectifs performatifs. Le locuteur peut être considéré comme un facteur de variation de la parole, parmi d'autres. Dans ce travail, nous présentons des éléments de réponses aux deux questions suivantes :- Tous les extraits de parole d'un même locuteur sont-ils équivalents pour le reconnaître ?- Comment se structurent les différentes sources de variation qui véhiculent directement ou indirectement la spécificité du locuteur ? Nous construisons, dans un premier temps, un protocole pour évaluer la capacité humaine à discriminer un locuteur à partir d'un extrait de parole en utilisant les données de la campagne NIST-HASR 2010. La tâche ainsi posée est difficile pour nos auditeurs, qu'ils soient naïfs ou plus expérimentés.Dans ce cadre, nous montrons que ni la (quasi)unanimité des auditeurs ni l'auto-évaluation de leurs jugements ne sont des gages de confiance dans la véracité de la réponse soumise.Nous quantifions, dans un second temps, l'influence du choix d'un extrait de parole sur la performance des systèmes automatiques. Nous avons utilisé deux bases de données, NIST et BREF ainsi que deux systèmes de RAL, ALIZE/SpkDet (LIA) et Idento (SRI). Les systèmes de RAL, aussi bienfondés sur une approche UBM-GMM que sur une approche i-vector montrent des écarts de performances importants mesurés à l'aide d'un taux de variation autour de l'EER moyen, Vr (pour NIST, VrIdento = 1.41 et VrALIZE/SpkDet = 1.47 et pour BREF, Vr = 3.11) selon le choix du fichier d'apprentissage utilisé pour chaque locuteur. Ces variations de performance, très importantes, montrent la sensibilité des systèmes automatiques au choix des extraits de parole, sensibilité qu'il est important de mesurer et de réduire pour rendre les systèmes de RAL plus fiables.Afin d'expliquer l'importance du choix des extraits de parole, nous cherchons les indices les plus pertinents pour distinguer les locuteurs de nos corpus en mesurant l'effet du facteur Locuteur sur la variance des indices (h2). La F0 est fortement dépendante du facteur Locuteur, et ce indépendamment de la voyelle. Certains phonèmes sont plus discriminants pour le locuteur : les consonnes nasales, les fricatives, les voyelles nasales, voyelles orales mi-fermées à ouvertes.Ce travail constitue un premier pas vers une étude plus précise de ce qu'est le locuteur aussi bien pour la perception humaine que pour les systèmes automatiques. Si nous avons montré qu'il existait bien une différence cepstrale qui conduisait à des modèles plus ou moins performants, il reste encore à comprendre comment lier le locuteur à la production de la parole. Enfin, suite à ces travaux, nous souhaitons explorer plus en détail l'influence de la langue sur la reconnaissance du locuteur. En effet, même si nos résultats indiquent qu'en anglais américain et en français, les mêmes catégories de phonèmes sont les plus porteuses d'information sur le locuteur, il reste à confirmer ce point et à évaluer ce qu'il en est pour d'autres langues
|
10 |
Compressed sensing and dimensionality reduction for unsupervised learningBourrier, Anthony 13 May 2014 (has links) (PDF)
Cette thèse est motivée par la perspective de rapprochement entre traitement du signal et apprentissage statistique, et plus particulièrement par l'exploitation de techniques d'échantillonnage compressé afin de réduire le coût de tâches d'apprentissage. Après avoir rappelé les bases de l'échantillonnage compressé et mentionné quelques techniques d'analyse de données s'appuyant sur des idées similaires, nous proposons un cadre de travail pour l'estimation de paramètres de mélange de densités de probabilité dans lequel les données d'entraînement sont compressées en une représentation de taille fixe. Nous instancions ce cadre sur un modèle de mélange de Gaussiennes isotropes. Cette preuve de concept suggère l'existence de garanties théoriques de reconstruction d'un signal pour des modèles allant au-delà du modèle parcimonieux usuel de vecteurs. Nous étudions ainsi dans un second temps la généralisation de résultats de stabilité de problèmes inverses linéaires à des modèles tout à fait généraux de signaux. Nous proposons des conditions sous lesquelles des garanties de reconstruction peuvent être données dans un cadre général. Enfin, nous nous penchons sur un problème de recherche approchée de plus proche voisin avec calcul de signature des vecteurs afin de réduire la complexité. Dans le cadre où la distance d'intérêt dérive d'un noyau de Mercer, nous proposons de combiner un plongement explicite des données suivi d'un calcul de signatures, ce qui aboutit notamment à une recherche approchée plus précise.
|
Page generated in 0.1441 seconds