• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • Tagged with
  • 6
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation et traitement statistiques d'images d'ultrasons de haute fréquence. Application à l'oncologie dermatologique

Pereyra, Marcelo 04 July 2012 (has links) (PDF)
Cette thèse étudie le traitement statistique des images d'ultrasons de haute fréquence, avec application à l'exploration in-vivo de la peau humaine et l'évaluation non invasive de lésions. Des méthodes Bayésiennes sont considérées pour la segmentation d'images échographiques de la peau. On y établit que les ultrasons rétrodiffusés par la peau convergent vers un processus aléatoire complexe de type Levy-Flight, avec des statistiques non Gaussiennes alpha-stables. L'enveloppe du signal suit une distribution Rayleigh généralisée à queue lourde. A partir de ces résultats, il est proposé de modéliser l'image d'ultrasons de multiples tissus comme un mélange spatialement cohérent de lois Rayleigh à queues lourdes. La cohérence spatiale inhérente aux tissus biologiques est modélisée par un champ aléatoire de Potts-Markov pour représenter la dépendance locale entre les composantes du mélange. Un algorithme Bayésien original combiné à une méthode Monte Carlo par chaine de Markov (MCMC) est proposé pour conjointement estimer les paramètres du modèle et classifier chaque voxel dans un tissu. L'approche proposée est appliquée avec succès à la segmentation de tumeurs de la peau in-vivo dans des images d'ultrasons de haute fréquence en 2D et 3D. Cette méthode est ensuite étendue en incluant l'estimation du paramètre de régularisation du champ de Potts dans la chaine MCMC. Les méthodes MCMC classiques ne sont pas directement applicables à ce problème car la vraisemblance du champ de Potts ne peut pas être évaluée. Ce problème difficile est traité en adoptant un algorithme Metropolis-Hastings ''sans vraisemblance'' fondé sur la statistique suffisante du Potts. La méthode de segmentation non supervisée, ainsi développée, est appliquée avec succès à des images échographiques 3D. Finalement, le problème du calcul de la borne de Cramer-Rao (CRB) du paramètre de régularisation du champ de Potts est étudié. Cette borne dépend des dérivées de la constante de normalisation du modèle de Potts, dont le calcul est infaisable. Ce problème est résolu en proposant un algorithme Monte Carlo original, qui est appliqué avec succès au calcul de la borne CRB des modèles d'Ising et de Potts.
2

Statistical modeling and processing of high frequency ultrasound images : application to dermatologic oncology / Modélisation et traitement statistiques d’images d’ultrasons de haute fréquence. Application à l’oncologie dermatologique.

Pereyra, Marcelo 04 July 2012 (has links)
Cette thèse étudie le traitement statistique des images d’ultrasons de haute fréquence, avec application à l’exploration in-vivo de la peau humaine et l’évaluation non invasive de lésions. Des méthodes Bayésiennes sont considérées pour la segmentation d’images échographiques de la peau. On y établit que les ultrasons rétrodiffusés par la peau convergent vers un processus aléatoire complexe de type Levy-Flight, avec des statistiques non Gaussiennes alpha-stables. L’enveloppe du signal suit une distribution Rayleigh généralisée à queue lourde. A partir de ces résultats, il est proposé de modéliser l’image ultrason de multiples tissus comme un mélange spatialement cohérent de lois Rayleigh à queues lourdes. La cohérence spatiale inhérente aux tissus biologiques est modélisée par un champ aléatoire de Potts-Markov pour représenter la dépendance locale entre les composantes du mélange. Un algorithme Bayésien original combiné à une méthode Monte Carlo par chaine de Markov (MCMC) est proposé pour conjointement estimer les paramètres du modèle et classifier chaque voxel dans un tissu. L’approche proposée est appliquée avec succès à la segmentation de tumeurs de la peau in-vivo dans des images d’ultrasons de haute fréquence en 2D et 3D. Cette méthode est ensuite étendue en incluant l’estimation du paramètre B de régularisation du champ de Potts dans la chaine MCMC. Les méthodes MCMC classiques ne sont pas directement applicables à ce problème car la vraisemblance du champ de Potts ne peut pas être évaluée. Ce problème difficile est traité en adoptant un algorithme Metropolis-Hastings “sans vraisemblance” fondé sur la statistique suffisante du Potts. La méthode de segmentation non supervisée, ainsi développée, est appliquée avec succès à des images échographiques 3D. Finalement, le problème du calcul de la borne de Cramer-Rao (CRB) du paramètre B est étudié. Cette borne dépend des dérivées de la constante de normalisation du modèle de Potts, dont le calcul est infaisable. Ce problème est résolu en proposant un algorithme Monte Carlo original, qui est appliqué avec succès au calcul de la borne CRB des modèles d’Ising et de Potts. / This thesis studies statistical image processing of high frequency ultrasound imaging, with application to in-vivo exploration of human skin and noninvasive lesion assessment. More precisely, Bayesian methods are considered in order to perform tissue segmentation in ultrasound images of skin. It is established that ultrasound signals backscattered from skin tissues converge to a complex Levy Flight random process with non-Gaussian _-stable statistics. The envelope signal follows a generalized (heavy-tailed) Rayleigh distribution. Based on these results, it is proposed to model the distribution of multiple-tissue ultrasound images as a spatially coherent finite mixture of heavy-tailed Rayleigh distributions. Spatial coherence inherent to biological tissues is modeled by a Potts Markov random field. An original Bayesian algorithm combined with a Markov chain Monte Carlo method is then proposed to jointly estimate the mixture parameters and a label-vector associating each voxel to a tissue. The proposed method is successfully applied to the segmentation of in-vivo skin tumors in high frequency 2D and 3D ultrasound images. This method is subsequently extended by including the estimation of the Potts regularization parameter B within the Markov chain Monte Carlo (MCMC) algorithm. Standard MCMC methods cannot be applied to this problem because the likelihood of B is intractable. This difficulty is addressed by using a likelihood-free Metropolis-Hastings algorithm based on the sufficient statistic of the Potts model. The resulting unsupervised segmentation method is successfully applied to tridimensional ultrasound images. Finally, the problem of computing the Cramer-Rao bound (CRB) of B is studied. The CRB depends on the derivatives of the intractable normalizing constant of the Potts model. This is resolved by proposing an original Monte Carlo algorithm, which is successfully applied to compute the CRB of the Ising and Potts models.
3

Enregistrement d'Image Déformable en Groupe pour l'Estimation de Mouvement en Imagerie Médicale en 4D / Deformable Group-wise Image Registration for Motion Estimation in 4D Medical Imaging

Kornaropoulos, Evgenios 20 June 2017 (has links)
La présente thèse propose des méthodes pour l'estimation du mouvement des organes d'un patient autravers de l'imagerie tomographique. Le but est la correction du mouvement spatio-temporel sur les imagesmédicales tomographiques. En tant que paradigme expérimental, nous considérons le problème de l'estimation dumouvement dans l'imagerie IRM de diffusion, une modalité d'imagerie sensible à la diffusion des molécules d'eaudans le corps. Le but de ces travaux de thèse est l'évaluation des patients atteints de lymphome, car l'eau diffusedifféremment dans les tissus biologiques sains et dans les lésions. L'effet de la diffusion de l'eau peut être mieuxreprésenté par une image paramétrique, grâce au coefficient de diffusion apparente (image à ADC), créé sur la based'une série d'images DWI du même patient (séquence d'images 3D), acquises au moment de la numérisation. Unetelle image paramétrique a la possibilité de devenir un biomarqueur d'imagerie d’IRM et de fournir aux médecinsdes informations complémentaires concernantl'image de FDG-PET qui est la méthode d'imagerie de base pour lelymphome et qui montre la quantité de glucose métabolisée.Nos principales contributions sont au nombre de trois. Tout d'abord, nous proposons une méthode de recalaged'image déformable en groupe spécialement conçue pour la correction de mouvement dans l’IRM de diffusion, carelle est guidée par un modèle physiologique décrivant le processus de diffusion qui se déroule lors de l'acquisitionde l'image. Notre méthode détermine une image à ADC de plus grande précision en termes de représentation dugradient de la diffusion des molécules d'eau par rapport à l` image correspondante obtenue par pratique couranteou par d'autres méthodes de recalage d'image non basé sur un modèle. Deuxièmement, nous montrons qu'enimposant des contraintes spatiales sur le calcul de l'image à ADC, les tumeurs de l'image peuvent être encore mieuxcaractérisées en les classant dans les différentes catégories liées à la maladie. Troisièmement, nous montronsqu'une corrélation entre DWI et FDG-PET doit exister en examinant la corrélation entre les caractéristiquesstatistiques extraites par l'image à ADC lisse découlant de notre méthode du recalage d’image déformable et lesscores de recommandation sur la malignité des lésions, donnés par des experts basés sur une évaluation des imagesFDG-PET correspondantes du patient. / This doctoral thesis develops methods to estimate patient's motion, voluntary and involuntary (organs'motion), in order to correct for motion in spatiotemporal tomographic medical images. As an experimentalparadigm we consider the problem of motion estimation in Diffusion-Weighted Magnetic Resonance Imaging (DWI),an imaging modality sensitive to the diffusion of water molecules in the body. DWI is used for the evaluation oflymphoma patients, since water diffuses differently in healthy tissues and in lesions. The effect of water diffusioncan be better depicted through a parametric map, the so-called apparent diffusion coefficient (ADC map), createdbased on a series of DW images of the same patient (3D image sequence), acquired in time during scanning. Such aparametric map has the potentiality to become an imaging biomarker in DWI and provide physicians withcomplementary information to current state-of-the-art FDG-PET imaging reflecting quantitatively glycosemetaboslism.Our contributions are three fold. First, we propose a group-wise deformable image registration methodespecially designed for motion correction in DWI, as it is guided by a physiological model describing the diffusionprocess taking place during image acquisition. Our method derives an ADC map of higher accuracy in terms ofdepicting the gradient of the water molecules' diffusion in comparison to the corresponding map derived bycommon practice or by other model-free group-wise image registration methods. Second, we show that by imposingspatial constraints on the computation of the ADC map, the tumours in the image can be even better characterized interms of classifying them into the different types of the disease. Third, we show that a correlation between DWI andFDG-PET should exist by examining the correlation between statistical features extracted by the smooth ADC mapderived by our deformable registration method, and recommendation scores on the malignancy of the lesions, givenby experts based on an evaluation of the corresponding FDG-PET images of the patient.
4

Nonconvex Alternating Direction Optimization for Graphs : Inference and Learning / L'algorithme des directions alternées non convexe pour graphes : inférence et apprentissage

Lê-Huu, Dien Khuê 04 February 2019 (has links)
Cette thèse présente nos contributions àl’inférence et l’apprentissage des modèles graphiquesen vision artificielle. Tout d’abord, nous proposons unenouvelle classe d’algorithmes de décomposition pour résoudrele problème d’appariement de graphes et d’hypergraphes,s’appuyant sur l’algorithme des directionsalternées (ADMM) non convexe. Ces algorithmes sontefficaces en terme de calcul et sont hautement parallélisables.En outre, ils sont également très générauxet peuvent être appliqués à des fonctionnelles d’énergiearbitraires ainsi qu’à des contraintes de correspondancearbitraires. Les expériences montrent qu’ils surpassentles méthodes de pointe existantes sur des benchmarkspopulaires. Ensuite, nous proposons une relaxationcontinue non convexe pour le problème d’estimationdu maximum a posteriori (MAP) dans les champsaléatoires de Markov (MRFs). Nous démontrons quecette relaxation est serrée, c’est-à-dire qu’elle est équivalenteau problème original. Cela nous permet d’appliquerdes méthodes d’optimisation continue pour résoudrele problème initial discret sans perte de précisionaprès arrondissement. Nous étudions deux méthodes degradient populaires, et proposons en outre une solutionplus efficace utilisant l’ADMM non convexe. Les expériencessur plusieurs problèmes réels démontrent quenotre algorithme prend l’avantage sur ceux de pointe,dans différentes configurations. Finalement, nous proposonsune méthode d’apprentissage des paramètres deces modèles graphiques avec des données d’entraînement,basée sur l’ADMM non convexe. Cette méthodeconsiste à visualiser les itérations de l’ADMM commeune séquence d’opérations différenciables, ce qui permetde calculer efficacement le gradient de la perted’apprentissage par rapport aux paramètres du modèle.L’apprentissage peut alors utiliser une descente de gradientstochastique. Nous obtenons donc un frameworkunifié pour l’inférence et l’apprentissage avec l’ADMMnon-convexe. Grâce à sa flexibilité, ce framework permetégalement d’entraîner conjointement de-bout-en-boutun modèle graphique avec un autre modèle, telqu’un réseau de neurones, combinant ainsi les avantagesdes deux. Nous présentons des expériences sur un jeude données de segmentation sémantique populaire, démontrantl’efficacité de notre méthode. / This thesis presents our contributions toinference and learning of graph-based models in computervision. First, we propose a novel class of decompositionalgorithms for solving graph and hypergraphmatching based on the nonconvex alternating directionmethod of multipliers (ADMM). These algorithms arecomputationally efficient and highly parallelizable. Furthermore,they are also very general and can be appliedto arbitrary energy functions as well as arbitraryassignment constraints. Experiments show that theyoutperform existing state-of-the-art methods on popularbenchmarks. Second, we propose a nonconvex continuousrelaxation of maximum a posteriori (MAP) inferencein discrete Markov random fields (MRFs). Weshow that this relaxation is tight for arbitrary MRFs.This allows us to apply continuous optimization techniquesto solve the original discrete problem withoutloss in accuracy after rounding. We study two populargradient-based methods, and further propose a more effectivesolution using nonconvex ADMM. Experimentson different real-world problems demonstrate that theproposed ADMM compares favorably with state-of-theartalgorithms in different settings. Finally, we proposea method for learning the parameters of these graphbasedmodels from training data, based on nonconvexADMM. This method consists of viewing ADMM iterationsas a sequence of differentiable operations, whichallows efficient computation of the gradient of the trainingloss with respect to the model parameters, enablingefficient training using stochastic gradient descent. Atthe end we obtain a unified framework for inference andlearning with nonconvex ADMM. Thanks to its flexibility,this framework also allows training jointly endto-end a graph-based model with another model suchas a neural network, thus combining the strengths ofboth. We present experiments on a popular semanticsegmentation dataset, demonstrating the effectivenessof our method.
5

Approches spectro-spatiales pour la classification d'images hyperspectrales

Tarabalka, Yuliya 14 June 2010 (has links) (PDF)
L'imagerie hyperspectrale enregistre un spectre detaillé de la lumière reçue dans chaque position spatiale de l'image. Comme des matières différentes manifestent des signatures spectrales différentes, l'imagerie hyperspectrale est une technologie bien adaptée pour la classification précise des images, ce qui est une tâche importante dans beaucoup de domaines appliqués. Cependant, la grande dimension des données complique l'analyse des images. La plupart des techniques de classification proposées précédemment traitent chaque pixel indépendamment, sans considérer l'information sur les structures spatiales. Cependant, la recherche récente en traitement d'images a souligné l'importance de l'incorporation du contexte spatial dans les classifieurs. Dans cette thèse, nous proposons et développons des nouvelles méthodes et algorithmes spectro-spatiaux pour la classification précise des données hyperspectrales. D'abord, l'intégration de la technique des Machines à Vecteurs de Support (SVM) dans le cadre des Champs Aléatoires de Markov (MRFs) pour la classification contextuelle est étudiée. Les SVM et les modèles markoviens sont les deux outils efficaces pour la classification des données de grande dimension et pour l'analyse contextuelle d'images, respectivement. Dans un second temps, nous avons proposé des méthodes de classification qui utilisent des voisinages spatiaux adaptatifs dérivés des résultats d'une segmentation. Nous avons étudié différentes techniques de segmentation et nous les avons adaptées pour le traitement des images hyperspectrales. Ensuite, nous avons développé des approches pour combiner les régions spatiales avec l'information spectrale dans un classifieur. Nous avons aussi étudié des techniques pour réduire la sur-segmentation en utilisant des marqueurs des structures spatiales d'intérêt afin d'effectuer la segmentation par marqueurs. Notre proposition est d'analyser les résultats de la classification probabiliste afin de sélectionner les pixels les plus fiablement classés comme des marqueurs des régions spatiales. Nous avons proposé plusieurs méthods pour la sélection des marqueurs, qui utilisent soit des classifieurs individuels, soit un ensemble de classifieurs. Ensuite, nous avons développé des techniques pour la segmentation par croissance de régions issues des marqueurs, en utilisant soit la ligne de partage d'eaux, soit une forêt couvrante de poids minimal, qui ont pour résultat les cartes de segmentation et de classification contextuelle. Finalement, nous considerons les possibilités du calcul parallèle à haute performance sur les processeurs d'un usage commode afin de réduire la charge du calcul. Les nouvelles méthodes développées dans cette thèse améliorent les résultats de classification par rapport aux méthodes proposées précédemment, et ainsi montrent un grand potentiel pour les différents scénarios de l'analyse d'image.
6

Localization and quality enhancement for automatic recognition of vehicle license plates in video sequences / Localisation et amélioration de qualité pour reconnaissance automatique de plaques d'immatriculation de véhicules dans les séquences vidéo.

Nguyen, Chu Duc 29 June 2011 (has links)
La lecture automatique de plaques d’immatriculation de véhicule est considérée comme une approche de surveillance de masse. Elle permet, grâce à la détection /localisation ainsi que la reconnaissance optique, d’identifier un véhicule dans les images ou les séquences d’images. De nombreuses applications comme le suivi du trafic, la détection de véhicules volés, le télépéage ou la gestion d’entrée / sortie des parkings utilise ce procédé. Or malgré d’important progrès enregistré depuis l’apparition des premiers prototypes en 1979 accompagné d’un taux de reconnaissance parfois impressionnant, notamment grâce aux avancés en recherche scientifique et en technologie des capteurs, les contraintes imposés pour le bon fonctionnement de tels systèmes en limitent les portées. En effet, l’utilisation optimale des techniques de localisation et de reconnaissance de plaque d’immatriculation dans les scénarii opérationnels nécessite des conditions d’éclairage contrôlées ainsi qu’une limitation dans de la pose, de vitesse ou tout simplement de type de plaque. La lecture automatique de plaques d’immatriculation reste alors un problème de recherche ouvert. La contribution majeure de cette thèse est triple. D’abord une nouvelle approche robuste de localisation de plaque d’immatriculation dans des images ou des séquences d’images est proposée. Puis, l’amélioration de la qualité des plaques localisées est traitée par une adaptation de technique de super-résolution. Finalement, un modèle unifié de localisation et de super-résolution est proposé permettant de diminuer la complexité temporelle des deux approches combinées. / Automatic reading of vehicle license plates is considered an approach to mass surveillance. It allows, through the detection / localization and optical recognition to identify a vehicle in the images or video sequences. Many applications such as traffic monitoring, detection of stolen vehicles, the toll or the management of entrance/ exit parking uses this method. Yet in spite of important progress made since the appearance of the first prototype sin 1979, with a recognition rate sometimes impressive thanks to advanced science and sensor technology, the constraints imposed for the operation of such systems limit laid. Indeed, the optimal use of techniques for localizing and recognizing license plates in operational scenarios requiring controlled lighting conditions and a limitation of the pose, velocity, or simply type plate. Automatic reading of vehicle license plates then remains an open research problem. The major contribution of this thesis is threefold. First, a new approach to robust license plate localization in images or image sequences is proposed. Then, improving the quality of the plates is treated with a localized adaptation of super-resolution technique. Finally, a unified model of location and super-resolution is proposed to reduce the time complexity of both approaches combined.

Page generated in 0.1017 seconds