• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 10
  • 2
  • Tagged with
  • 29
  • 29
  • 16
  • 9
  • 9
  • 8
  • 7
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Skin cancer segmentation and detection using total variation and multiresolution analysis / Segmentation et détection du cancer de la peau en utilisant la variation totale et l'analyse multi-résolution

Adjed, Faouzi 18 December 2017 (has links)
Les décès du cancer de la peau sont majoritairement des mélanomes malins. Il est considéré comme l’un des plus dangereux cancer. A ses débuts, les mélanomes malins sont traités avec des simples biopsies et sont complètement curable. Pour cela, une détection précoce est la meilleure solution pour réduire ses conséquences désastreuses. Imagerie médicale telle que la dermoscopie et les caméras à images standard sont les outils disponibles les plus adaptées pour diagnostiquer précocement les mélanomes. Le diagnostic assisté par ordinateur (CAD) est développé dans le but d’accompagner les radiologistes dans la détection et le diagnostic. Cependant, il y a un besoin d’améliorer la précision de la segmentation et de détection des lésions. Dans ce travail, le modèle de Chan et Vese a été adapté pour segmenter davantage les variations à l’intérieur des lésions avec un résultats très encouragent. La deuxième tâche consiste à extraire des caractéristiques afin de discriminer les mélanomes. Deux méthodes ont été développée, une se basant sur l’irrégularité des bords des lésions et l’autre par la fusion des caractéristiques texturales et structurelles. Les résultats ont montrés de bonnes performances avec une précision de 86.54% et de 86.07%, respectivement. / The vast majority of skin cancer deaths are due to malignant melanoma. It is considered as one of the most dangerous cancers. In its early stages, malignant melanoma is completely curable with a simple biopsy. Therefore, an early detection is the best solution to improve skin cancer prognostic. Medical imaging such as dermoscopy and standard camera images are the most suitable tools available to diagnose melanoma at early stages. To help radiologists in the diagnosis of melanoma cases, there is a strong need to develop computer aided diagnosis (CAD) systems. The accurate segmentation and classification of pigment skin lesions still remains a challenging task due to the various colors and structures developed randomly inside the lesions. The current work focused on two main tasks. Inthe first task, a new approach of the segmentation of skin lesions based on Chan and Vese model is developed. The model is adapted to segment the variations of the pigment inside the lesion and not only the main border. The subjective evaluation, applied on a database of standard camera images, obtained a very encouraging results with 97.62% of true detection rate. In the second main task, two feature extraction methods were developed for the analysis of standard camera and dermoscopy images. The method developed for the standard camera skin cancer images is based on border irregularities, introducing two new concepts, which are valleys and crevasses as first and second level of the border irregularity. The method has been implemented on DermIs and DermQues, two databases of standard camera images, and achieved an accuracy of 86.54% with a sensitivity of 80% and a specificity of 95.45%. The second method consisted of a fusion of structural and textural features. The structural features were extracted from wavelet and curvelet coefficients, while the textural features were obtained from the local binary pattern operator. The method has been implemented on the PH2 database for dermoscopy images with 1000-random sampling cross validation. The obtained results achieved an accuracy, a sensitivity and a specificity of 86:07%, 78.93% and 93.25%. Compared to the existing methods, the proposed methods in this work show very good performances.
2

Composants logiciels et algorithmes de minimisation exacte d'énergies dédiés au traitement des images

Darbon, Jérôme January 2005 (has links) (PDF)
Cette thèse traite principalement de l'optimisation exacte et rapide d'énergies utilisées pour résoudre des problèmes de traitement des images ou de vision par ordinateur. En fonction du type d'énergies considérées, différentes approches sont retenues. Le calcul de coupures minimales, vu comme technique d'optimisation, est la souche commune aux méthodes d'optimisation proposées dans ce manuscrit. Nous présentons tout d'abord un algorithme de minimisation exacte de la variation totale avec une attache aux données modélisée par une fonction convexe. L'idée de notre approche consiste à reformuler cette énergie avec des champs de Markov binaires associés à chaque ensemble de niveaux d'une image. Nous généralisons ensuite cette approche aux cas des énergies dites "nivellées". Une seconde généralisation, différente de la précédente, considère le cas où les termes de régularisation sont convexes. Nous présentons ensuite un algorithme original et rapide pour le cas des modèles dont les attaches aux données et les termes de régularisation sont des fonctions convexes. Le cas particulier de la variation totale avec une attache aux données de type $L^1$ est étudié en détail. Nous montrons en particulier que sa minimisation conduit à un filtre invariant par changement de contraste. Cette invariance est une propriété fondamentale des filtres morphologiques. Ce modèle est alors utilisé pour définir un filtre morphologique vectoriel auto-dual.
3

Décomposition d'image par modèles variationnels : débruitage et extraction de texture

Piffet, Loïc 23 November 2010 (has links) (PDF)
Cette thèse est consacrée dans un premier temps à l'élaboration d'un modèle variationnel dedébruitage d'ordre deux, faisant intervenir l'espace BV 2 des fonctions à hessien borné. Nous nous inspirons ici directement du célèbre modèle de Rudin, Osher et Fatemi (ROF), remplaçant la minimisation de la variation totale de la fonction par la minimisation de la variation totale seconde, c'est à dire la variation totale de ses dérivées. Le but est ici d'obtenir un modèle aussi performant que le modèle ROF, permettant de plus de résoudre le problème de l'effet staircasing que celui-ci engendre. Le modèle que nous étudions ici semble efficace, entraînant toutefois l'apparition d'un léger effet de flou. C'est afin de réduire cet effet que nous introduisons finalement un modèle mixte, permettant d'obtenir des solutions à la fois non constantes par morceaux et sans effet de flou au niveau des détails. Dans une seconde partie, nous nous intéressons au problème d'extraction de texture. Un modèle reconnu comme étant l'un des plus performants est le modèle T V -L1, qui consiste simplement à remplacer dans le modèle ROF la norme L2 du terme d'attache aux données par la norme L1. Nous proposons ici une méthode originale permettant de résoudre ce problème utilisant des méthodes de Lagrangien augmenté. Pour les mêmes raisons que dans le cas du débruitage, nous introduisons également le modèle T V 2-L1, consistant encore une fois à remplacer la variation totale par la variation totale seconde. Un modèle d'extraction de texture mixte est enfin très brièvement introduit. Ce manuscrit est ponctué d'un vaste chapitre dédié aux tests numériques.
4

Méthodes de reconstruction d'images à partir d'un faible nombre de projections en tomographie par rayons x / X-ray CT Image Reconstruction from Few Projections

Wang, Han 24 October 2011 (has links)
Afin d'améliorer la sûreté (dose plus faible) et la productivité (acquisition plus rapide) du système de la tomographie par rayons X (CT), nous cherchons à reconstruire une image de haute qualitée avec un faible nombre de projections. Les algorithmes classiques ne sont pas adaptés à cette situation et la reconstruction est instable et perturbée par des artefacts. L'approche "Compressed Sensing" (CS) fait l'hypothèse que l'image inconnue est "parcimonieuse" ou "compressible", et la reconstruit via un problème d'optimisation (minimisation de la norme TV/L1) en promouvant la parcimonie. Pour appliquer le CS en CT, en utilisant le pixel/voxel comme base de representation, nous avons besoin d'une transformée parcimonieuse, et nous devons la combiner avec le "projecteur du rayon X" appliqué sur une image pixelisée. Dans cette thèse, nous avons adapté une base radiale de famille Gaussienne nommée "blob" à la reconstruction CT par CS. Elle a une meilleure localisation espace-fréquentielle que le pixel, et des opérations comme la transformée en rayons-X, peuvent être évaluées analytiquement et sont facilement parallélisables (sur plateforme GPU par exemple). Comparé au blob classique de Kaisser-Bessel, la nouvelle base a une structure multi-échelle : une image est la somme des fonctions translatées et dilatées de chapeau Mexicain radiale. Les images médicales typiques sont compressibles sous cette base. Ainsi le système de representation parcimonieuse dans les algorithmes ordinaires de CS n'est plus nécessaire. Des simulations (2D) ont montré que les algorithmes TV/L1 existants sont plus efficaces et les reconstructions ont des meilleures qualités visuelles que par l'approche équivalente basée sur la base de pixel-ondelettes. Cette nouvelle approche a également été validée sur des données expérimentales (2D), où nous avons observé que le nombre de projections en général peut être réduit jusqu'à 50%, sans compromettre la qualité de l'image. / To improve the safety (lower dose) and the productivity (faster acquisition) of an X-ray CT system, we want to reconstruct a high quality image from a small number of projections. The classical reconstruction algorithms generally fail since the reconstruction procedure is unstable and the reconstruction suffers from artifacts. The "Compressed Sensing" (CS) approach supposes that the unknown image is in some sense "sparse" or "compressible", and reoncstructs it through a non linear optimization problem (TV/$llo$ minimization) by enhancing the sparsity. Using the pixel/voxel as basis, to apply CS framework in CT one usually needs a "sparsifying" transform, and combine it with the "X-ray projector" applying on the pixel image. In this thesis, we have adapted a "CT-friendly" radial basis of Gaussian family called "blob" to the CS-CT framework. It have better space-frequency localization properties than the pixel, and many operations, such as the X-ray transform, can be evaluated analytically and are highly parallelizable (on GPU platform). Compared to the classical Kaisser-Bessel blob, the new basis has a multiscale structure: an image is the sum of dilated and translated radial Mexican hat functions. The typical medical objects are compressible under this basis, so the sparse representation system used in the ordinary CS algorithms is no more needed. Simulations (2D) show that the existing TV/L1 algorithms are more efficient and the reconstructions have better visual quality than the equivalent approach based on the pixel/wavelet basis. The new approach has also been validated on experimental data (2D), where we have observed that the number of projections in general can be reduced to about 50%, without compromising the image quality.
5

Modèles variationnels et bayésiens pour le débruitage d'images : de la variation totale vers les moyennes non-locales

Louchet, Cécile 10 December 2008 (has links) (PDF)
Le modèle ROF (Rudin, Osher, Fatemi), introduit en 1992 en utilisant la variation totale comme terme de régularisation pour la restauration d'images, a fait l'objet de nombreuses recherches théoriques et numériques depuis. Dans cette thèse, nous présentons de nouveaux modèles inspirés de la variation totale mais construits par analogie avec une méthode de débruitage beaucoup plus récente et radicalement différente : les moyennes non locales (NL-means). Dans une première partie, nous transposons le modèle ROF dans un cadre bayésien, et montrons que l'estimateur associé à un risque quadratique (moyenne a posteriori) peut être calculé numériquement à l'aide d'un algorithme de type MCMC (Monte Carlo Markov Chain), dont la convergence est soigneusement contrôlée compte tenu de la dimension élevée de l'espace des images. Nous montrons que le débruiteur associé permet notamment d'éviter le phénomène de "staircasing", défaut bien connu du modèle ROF. Dans la deuxième partie, nous proposons tout d'abord une version localisée du modèle ROF et en analysons certains aspects : compromis biais-variance, EDP limite, pondération du voisinage, etc. Enfin, nous discutons le choix de la variation totale en tant que modèle a priori, en confrontant le point de vue géométrique (modèle ROF) au cadre statistique (modélisation bayésienne).
6

Intégrales stables multiples : propriétés des lois ; principe local d'invariance pour des variables aléatoires stationnaires

Breton, Jean-Christophe 20 December 2001 (has links) (PDF)
Nous étudions dans la première partie les lois de certaines intégrales stochastiques. Après le cas introductif des intégrales de Poisson dont nous étudions l'absolue continuité, on construit les intégrales stables multiples pour les fonctions dans un espace de type Orlicz. Pour cela, nous passons par une généralisation de la représentation de LePage. Cette représentation est bien adaptée pour utiliser ensuite la méthode de stratification et étudier la loi de ces intégrales. Nous trouvons en particulier une condition garantissant l'absolue continuité par rapport à la mesure de Lebesgue des lois jointes d'intégrales stables multiples. Nous prouvons également à partir de cette représentation la continuité pour la norme de la variation totale des lois de ces intégrales par rapport aux fonctions intégrées. Dans la deuxième partie, nous nous intéressons à la convergence forte des lois des fonctionnelles stochastiques. Nous considérons tout d'abord une suite de variables aléatoires $(\xi_n)_n$ {\it i.i.d.} et on lui associe des processus de sommes partielles normalisées. On s'intéresse alors à la convergence en variation des lois des fonctionnelles de ces processus vers celles des fonctionnelles respectives du processus de Wiener. Ce type de convergence renforce celles du théorème central limite fonctionnel et permet d'obtenir un principe local d'invariance. Nous prouvons une telle convergence pour une large classe de fonctionnelles sous des hypothèses sensiblement affaiblies sur la loi commune des $\xi_n$ par rapport aux résultats précédents. Nous donnons des exemples concrets de fonctionnelles pour lesquelles ces convergences tiennent. Nous montrons pour terminer un résultat du même type en partant de certaines suites de variables aléatoires fortement mélangeantes. On obtient notamment dans un cas particulier un résultat de convergence en variation des lois des sommes partielles normalisées de variables mélangeantes.
7

Accélération et régularisation de la méthode d'inversion des formes d'ondes complètes en exploration sismique

Castellanos Lopez, Clara 18 April 2014 (has links) (PDF)
Actuellement, le principal obstacle à la mise en œuvre de la FWI élastique en trois dimensions sur des cas d'étude réalistes réside dans le coût de calcul associé aux taches de modélisation sismique. Pour surmonter cette difficulté, je propose deux contributions. Tout d'abord, je propose de calculer le gradient de la fonctionnelle avec la méthode de l'état adjoint à partir d'une forme symétrisée des équations de l'élastodynamique formulées sous forme d'un système du premier ordre en vitesse-contrainte. Cette formulation auto-adjointe des équations de l'élastodynamique permet de calculer les champs incidents et adjoints intervenant dans l'expression du gradient avec un seul opérateur de modélisation numérique. Le gradient ainsi calculé facilite également l'interfaçage de plusieurs outils de modélisation avec l'algorithme d'inversion. Deuxièmement, j'explore dans cette thèse dans quelle mesure les encodages des sources avec des algorithmes d'optimisation du second-ordre de quasi-Newton et de Newton tronqué permettait de réduire encore le coût de la FWI. Finalement, le problème d'optimisation associé à la FWI est mal posé, nécessitant ainsi d'ajouter des contraintes de régularisation à la fonctionnelle à minimiser. Je montre ici comment une régularisation fondée sur la variation totale du modèle fournissait une représentation adéquate des modèles du sous-sol en préservant le caractère discontinu des interfaces lithologiques. Pour améliorer les images du sous-sol, je propose un algorithme de débruitage fondé sur une variation totale locale au sein duquel j'incorpore l'information structurale fournie par une image migrée pour préserver les structures de faible dimension.
8

Méthodes de reconstruction d'images à partir d'un faible nombre de projections en tomographie par rayons x

Wang, Han 24 October 2011 (has links) (PDF)
Afin d'améliorer la sûreté (dose plus faible) et la productivité (acquisition plus rapide) du système de la tomographie par rayons X (CT), nous cherchons à reconstruire une image de haute qualitée avec un faible nombre de projections. Les algorithmes classiques ne sont pas adaptés à cette situation et la reconstruction est instable et perturbée par des artefacts. L'approche "Compressed Sensing" (CS) fait l'hypothèse que l'image inconnue est "parcimonieuse" ou "compressible", et la reconstruit via un problème d'optimisation (minimisation de la norme TV/L1) en promouvant la parcimonie. Pour appliquer le CS en CT, en utilisant le pixel/voxel comme base de representation, nous avons besoin d'une transformée parcimonieuse, et nous devons la combiner avec le "projecteur du rayon X" appliqué sur une image pixelisée. Dans cette thèse, nous avons adapté une base radiale de famille Gaussienne nommée "blob" à la reconstruction CT par CS. Elle a une meilleure localisation espace-fréquentielle que le pixel, et des opérations comme la transformée en rayons-X, peuvent être évaluées analytiquement et sont facilement parallélisables (sur plateforme GPU par exemple). Comparé au blob classique de Kaisser-Bessel, la nouvelle base a une structure multi-échelle : une image est la somme des fonctions translatées et dilatées de chapeau Mexicain radiale. Les images médicales typiques sont compressibles sous cette base. Ainsi le système de representation parcimonieuse dans les algorithmes ordinaires de CS n'est plus nécessaire. Des simulations (2D) ont montré que les algorithmes TV/L1 existants sont plus efficaces et les reconstructions ont des meilleures qualités visuelles que par l'approche équivalente basée sur la base de pixel-ondelettes. Cette nouvelle approche a également été validée sur des données expérimentales (2D), où nous avons observé que le nombre de projections en général peut être réduit jusqu'à 50%, sans compromettre la qualité de l'image.
9

Contributions to image restoration : from numerical optimization strategies to blind deconvolution and shift-variant deblurring / Contributions pour la restauration d'images : des stratégies d'optimisation numérique à la déconvolution aveugle et à la correction de flous spatialement variables

Mourya, Rahul Kumar 01 February 2016 (has links)
L’introduction de dégradations lors du processus de formation d’images est un phénomène inévitable: les images souffrent de flou et de la présence de bruit. Avec les progrès technologiques et les outils numériques, ces dégradations peuvent être compensées jusqu’à un certain point. Cependant, la qualité des images acquises est insuffisante pour de nombreuses applications. Cette thèse contribue au domaine de la restauration d’images. La thèse est divisée en cinq chapitres, chacun incluant une discussion détaillée sur différents aspects de la restauration d’images. La thèse commence par une présentation générale des systèmes d’imagerie et pointe les dégradations qui peuvent survenir ainsi que leurs origines. Dans certains cas, le flou peut être considéré stationnaire dans tout le champ de vue et est alors simplement modélisé par un produit de convolution. Néanmoins, dans de nombreux cas de figure, le flou est spatialement variable et sa modélisation est plus difficile, un compromis devant être réalisé entre la précision de modélisation et la complexité calculatoire. La première partie de la thèse présente une discussion détaillée sur la modélisation des flous spatialement variables et différentes approximations efficaces permettant de les simuler. Elle décrit ensuite un modèle de formation de l’image générique. Puis, la thèse montre que la restauration d’images peut s’interpréter comme un problème d’inférence bayésienne et ainsi être reformulé en un problème d’optimisation en grande dimension. La deuxième partie de la thèse considère alors la résolution de problèmes d’optimisation génériques, en grande dimension, tels que rencontrés dans de nombreux domaines applicatifs. Une nouvelle classe de méthodes d’optimisation est proposée pour la résolution des problèmes inverses en imagerie. Les algorithmes proposés sont aussi rapides que l’état de l’art (d’après plusieurs comparaisons expérimentales) tout en supprimant la difficulté du réglage de paramètres propres à l’algorithme d’optimisation, ce qui est particulièrement utile pour les utilisateurs. La troisième partie de la thèse traite du problème de la déconvolution aveugle (estimation conjointe d’un flou invariant et d’une image plus nette) et suggère différentes façons de contraindre ce problème d’estimation. Une méthode de déconvolution aveugle adaptée à la restauration d’images astronomiques est développée. Elle se base sur une décomposition de l’image en sources ponctuelles et sources étendues et alterne des étapes de restauration de l’image et d’estimation du flou. Les résultats obtenus en simulation suggèrent que la méthode peut être un bon point de départ pour le développement de traitements dédiés à l’astronomie. La dernière partie de la thèse étend les modèles de flous spatialement variables pour leur mise en oeuvre pratique. Une méthode d’estimation du flou est proposée dans une étape d’étalonnage. Elle est appliquée à un système expérimental, démontrant qu’il est possible d’imposer des contraintes de régularité et d’invariance lors de l’estimation du flou. L’inversion du flou estimé permet ensuite d’améliorer significativement la qualité des images. Les deux étapes d’estimation du flou et de restauration forment les deux briques indispensables pour mettre en oeuvre, à l’avenir, une méthode de restauration aveugle (c’est à dire, sans étalonnage préalable). La thèse se termine par une conclusion ouvrant des perspectives qui pourront être abordées lors de travaux futurs / Degradations of images during the acquisition process is inevitable; images suffer from blur and noise. With advances in technologies and computational tools, the degradations in the images can be avoided or corrected up to a significant level, however, the quality of acquired images is still not adequate for many applications. This calls for the development of more sophisticated digital image restoration tools. This thesis is a contribution to image restoration. The thesis is divided into five chapters, each including a detailed discussion on different aspects of image restoration. It starts with a generic overview of imaging systems, and points out the possible degradations occurring in images with their fundamental causes. In some cases the blur can be considered stationary throughout the field-of-view, and then it can be simply modeled as convolution. However, in many practical cases, the blur varies throughout the field-of-view, and thus modeling the blur is not simple considering the accuracy and the computational effort. The first part of this thesis presents a detailed discussion on modeling of shift-variant blur and its fast approximations, and then it describes a generic image formation model. Subsequently, the thesis shows how an image restoration problem, can be seen as a Bayesian inference problem, and then how it turns into a large-scale numerical optimization problem. Thus, the second part of the thesis considers a generic optimization problem that is applicable to many domains, and then proposes a class of new optimization algorithms for solving inverse problems in imaging. The proposed algorithms are as fast as the state-of-the-art algorithms (verified by several numerical experiments), but without any hassle of parameter tuning, which is a great relief for users. The third part of the thesis presents an in depth discussion on the shift-invariant blind image deblurring problem suggesting different ways to reduce the ill-posedness of the problem, and then proposes a blind image deblurring method using an image decomposition for restoration of astronomical images. The proposed method is based on an alternating estimation approach. The restoration results on synthetic astronomical scenes are promising, suggesting that the proposed method is a good candidate for astronomical applications after certain modifications and improvements. The last part of the thesis extends the ideas of the shift-variant blur model presented in the first part. This part gives a detailed description of a flexible approximation of shift-variant blur with its implementational aspects and computational cost. This part presents a shift-variant image deblurring method with some illustrations on synthetically blurred images, and then it shows how the characteristics of shift-variant blur due to optical aberrations can be exploited for PSF estimation methods. This part describes a PSF calibration method for a simple experimental camera suffering from optical aberration, and then shows results on shift-variant image deblurring of the images captured by the same experimental camera. The results are promising, and suggest that the two steps can be used to achieve shift-variant blind image deblurring, the long-term goal of this thesis. The thesis ends with the conclusions and suggestions for future works in continuation of the current work
10

Segmentation de Processus de Comptage et modèles Dynamiques / Segmentation of counting processes and dynamical models

Alaya, Elmokhtar Ezzahdi 27 June 2016 (has links)
Dans la première partie de cette thèse, nous cherchons à estimer l'intensité d'un processus de comptage par des techniques d'apprentissage statistique en grande dimension. Nous introduisons une procédure d'estimation basée sur la pénalisation par variation totale avec poids. Un premier ensemble de résultats vise à étudier l'intensité sous une hypothèse a priori de segmentation sparse. Dans une seconde partie, nous étudions la technique de binarisation de variables explicatives continues, pour laquelle nous construisons une régularisation spécifique à ce problème. Cette régularisation est intitulée ``binarsity'', elle pénalise les valeurs différentes d'un vecteur de paramètres. Dans la troisième partie, nous nous intéressons à la régression dynamique pour les modèles d'Aalen et de Cox avec coefficients et covariables en grande dimension, et pouvant dépendre du temps. Pour chacune des procédures d'estimation proposées, nous démontrons des inégalités oracles non-asymptotiques en prédiction. Nous utilisons enfin des algorithmes proximaux pour résoudre les problèmes convexes sous-jacents, et nous illustrons nos méthodes sur des données simulées et réelles. / In the first part of this thesis, we deal with the problem of learning the inhomogeneous intensity of a counting process, under a sparse segmentation assumption. We introduce a weighted total-variation penalization, using data-driven weights that correctly scale the penalization along the observation interval. In the second part, we study the binarization technique of continuous features, for which we construct a specific regularization. This regularization is called “binarsity”, it computes the different values of a parameter. In the third part, we are interested in the dynamic regression models of Aalen and Cox with time-varying covariates and coefficients in high-dimensional settings. For each proposed estimation procedure, we give theoretical guaranties by proving non-asymptotic oracle inequalities in prediction. We finally present proximal algorithms to solve the underlying studied convex problems, and we illustrate our methods with simulated and real datasets.

Page generated in 0.4974 seconds