• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 16
  • 10
  • Tagged with
  • 60
  • 60
  • 30
  • 23
  • 18
  • 17
  • 16
  • 15
  • 14
  • 13
  • 12
  • 11
  • 11
  • 11
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle / Analysis of renal dynamic contrast-enhanced sequences using vector quantization algorithms

Chevaillier, Béatrice 09 March 2010 (has links)
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité / Dynamic-Contrast-Enhanced Magnetic Resonance Imaging has a great potential for renal function assessment but has to be evaluated on a large scale before its clinical application. Registration of image sequences and segmentation of internal renal structures is mandatory in order to exploit acquisitions. We propose a reliable and user-friendly tool to partially automate these two operations. Statistical registration methods based on mutual information are tested on real data. Segmentation of cortex, medulla and cavities is performed using time-intensity curves of renal voxels in a two step process. Classifiers are first built with pixels of the slice that contains the largest proportion of renal tissue : two vector quantization algorithms, namely the K-means and the Growing Neural Gas with targeting, are used here. These classifiers are first tested on synthetic data. For real data, as no ground truth is available for result evaluation, a manual anatomical segmentation is considered as a reference. Some discrepancy criteria like overlap, extra pixels and similarity index are computed between this segmentation and functional one. The same criteria are also evaluated between the referencee and another manual segmentation. Results are comparable for the two types of comparisons. Voxels of other slices are then sorted with the optimal classifier. Generalization theory allows to bound classification error for this extension. The main advantages of functional methods are the following : considerable time-saving, easy manual intervention, good robustness and reproductibility
2

Analyse statistique et morphologique des images multivaluées : développements logiciels pour les applications cliniques

Garcia, Arnaud 26 June 2008 (has links) (PDF)
La détection et la segmentation de formes dans les images à partir d'un échantillon nécessitent de combiner une analyse statistique des données à une analyse morphologique de l'image. L'analyse statique a pour objectif un calcul local de la similarité de l'image au modèle ; l'analyse morphologique vient compléter ce dispositif en permettant la prise en compte de l'information géométrique pour finaliser les étapes de détection et de segmentation. Les images étudiées sont des images multivaluées : images couleur, images multimodalité ou pile d'images émergeant d'une analyse multiéchelle d'une image scalaire... Le passage de l'image scalaire à l'image multivaluée pose des difficultés fondamentales, notamment pour l'analyse morphologique qui requiert de disposer d'un ordre total sur les valeurs manipulées. Contrairement aux scalaires, deux vecteurs ne sont pas comparables. La plupart des opérateurs définis dans le cas scalaire ne trouvent pas d'équivalent immédiat dans le cas vectoriel. Travailler à partir d'un échantillon permet de déverrouiller la situation, chaque élément de l'image multivaluée pouvant être ordonné selon sa similarité à l'échantillon. Sous réserve d'une relation univoque entre les vecteurs et leur rang dans l'espace des similarités, tous les opérateurs définis pour les images scalaires peuvent alors êtres étendus aux images vectorielles. Des applications sur les images couleur et sur des images médicales sont présentées. Une librairie "Open Source" (vmorph) a été réalisée afin détendre les opérateurs de morphologie mathématique aux vecteurs sur la base de nos travaux.
3

Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle

Chevaillier, Béatrice 09 March 2010 (has links) (PDF)
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité.
4

Imagerie des muscles du membre supérieur et du dos

Zoabli, Gnahoua January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
5

Estimation de paramètres de champs markoviens cachés avec applications à la segmentation d'images et la localisation de formes

Destrempes, François January 2006 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
6

La programmation DC et DCA en analyse d'image : acquisition comprimée, segmentation et restauration / DC programming and DCA in image processing : compressed sensing, segmentation and restoration

Nguyen, Thi Bich Thuy 11 December 2014 (has links)
L’image est une des informations les plus importantes dans la vie. Avec le développement rapide des dispositifs d’acquisition d’images numériques par exemple les appareils photo numériques, les caméras de téléphones, les appareils d’imagerie médicale ou les dispositifs d’imagerie satellite..., les besoins de traitement et d’analyse des images sont de plus en plus croissants. Ils concernent les problèmes de l’acquisition, du stockage des images, de l’amélioration ou de l’information d’extraction d’une image,... Dans cette thèse, nous étudions le traitement et l’analyse des problèmes: acquisition comprimée, apprentissage de dictionnaire et débruitage d’images, segmentation d’images. La méthode que nous décrivons se base sur les approches d’optimisation déterministe, nommées la programmation DC (Difference of Convex functions) et DCA (Difference of Convex Algorithms), pour la résolution des problèmes d’analyse d’images cités précédemment. 1. Acquisition comprimée: une technique de traitement du signal pour acquérir et reconstruire un signal respectant les limites traditionnelles du théorème d’échantillonnage de Nyquist–Shannon, en trouvant la solution la plus parcimonieuse d’un système linéaire sous-déterminé. Cette méthode apporte la parcimonie ou la compressibilité du signal lorsqu’il est représenté dans une base ou un dictionnaire approprié qui permet au signal entier d’être déterminé à partir de certains mesures relatives. Dans cette thématique, nous nous intéressons à deux problèmes. Le premier est de trouver la représentation parcimonieuse d’un signal. Le second est la récupération du signal à partir de ses mesures compressées sur une base incohérente ou un dictionnaire. Les deux problèmes ci-dessus conduisent à résoudre un problème d’optimisation non convexe. Nous étudions trois modèles avec quatre approximations pour ces problèmes. Des algorithmes appropriés basés sur la programmation DC et DCA sont présentés. 2. Apprentissage du dictionnaire: Nous avons vu la puissance et les avantages de la représentation parcimonieuse des signaux dans l’acquisition comprimée. La représentation parcimonieuse d’un signal entier dépend non seulement des algorithmes de représentation mais aussi de la base ou du dictionnaire qui sont utilisés dans la représentation. Ainsi conduit un problème critique et les autres applications d’une manière naturelle. Au lieu d’utiliser une base fixe, comme wavelets (ondelettes) ou Fourier, on peut apprendre un dictionnaire, la matrice D, pour optimiser la représentation parcimonieuse d’une large classe de signaux donnés. La matrice D est appelée le dictionnaire appris. Pour ce problème, nous avons proposé un algorithme efficace basé sur DCA qui comprend deux étapes: la première étape - codage parcimonieux; le seconde étape - dictionnaire mis à jour. Une application de ce problème, débruitage d’images, est également considérée. 3. Segmentation d’images: il s’agit de partitionner une image numérique en segments multiples (ensembles des pixels). Le but de la segmentation est de simplifier et/ou de modifier la représentation d’une image en une forme qui est plus significative et plus facile à analyser. Nous avons développé une méthode efficace pour la segmentation d’images via le clustering flou avec la pondération de variables. Nous étudions également une application médicale qui est le problème de comptage de cellules. Nous proposons une combinaison de phase de segmentation et des opérations morphologiques pour compter automatiquement le nombre de cellules. Notre approche donne des résultats prometteurs dans la comparaison avec l’analyse manuelle traditionnelle en dépit de la densité cellulaire très élevée / Image is one of the most important information in our lives. Along with the rapid development of digital image acquisition devices such as digital cameras, phone cameras, the medical imaging devices or the satellite imaging devices..., the needs of processing and analyzing images is more and more demanding. It concerns with the problem of image acquiring, storing, enhancing or extracting information from an image,... In this thesis, we are considering the image processing and analyzing problems including: compressed sensing, dictionary learning and image denoising, and image segmentation. Our method is based on deterministic optimization approach, named the DC (Difference of Convex) programming and DCA (Difference of Convex Algorithms) for solving some classes of image analysis addressed above. 1. Compressed sensing is a signal processing technique for efficiently acquiring and reconstructing a signal, which is breaking the traditional limits of sampling theory of Nyquist–Shannon by finding solutions to underdetermined linear systems. This takes advantage of the signal’s sparseness or compressibility when it is represented in a suitable basis or dictionary, which allows the entire signal to be determined from few relative measurements. In this problem, we are interested in two aspects phases. The first one is finding the sparse representation of a signal. The other one is recovering the signal from its compressed measurements on an incoherent basis or dictionary. These problems lead to solve a NP–hard nonconvex optimization problem. We investigated three models with four approximations for each model. Appropriate algorithms based on DC programming and DCA are presented. 2. Dictionary learning: we have seen the power and the advantages of the sparse representation of signals in compressed sensing. Finding out the sparsest representation of a set of signals depends not only on the sparse representation algorithms but also on the basis or the dictionary used to represent them. This leads to the critical problems and other applications in a natural way. Instead of using a fixed basis such as wavelets or Fourier, one can learn the dictionary, a matrix D, to optimize the sparsity of the representation for a large class of given signals (data). The matrix D is called the learned dictionary. For this problem, we proposed an efficient DCA based algorithm including two stages: sparse coding and dictionary updating. An application of this problem, image denoising, is also considered. 3. Image segmentation: partitioning a digital image into multiple segments (sets of pixels). The goal of segmentation is to simplify and/or change the representation of an image into a form that is more meaningful and easier to analyze. We have developed an efficient method for image segmentation via feature weighted fuzzy clustering model. We also study an application of image segmentation for cell counting problem in medicine. We propose a combination of segmentation phase and morphological operations to automatically count the number of cells. Our approach gives promising results in comparison with the traditional manual analysis in despite of the very high cell density
7

Segmentation et suivi de structures par modèle déformable élastique non-linéaire. Application à l'analyse automatisée de séquences d'IRM cardiaques.

Schaerer, Joël 16 December 2008 (has links) (PDF)
Les pathologies cardio-vasculaires constituent une des premières causes de mortalité dans les pays occidentaux et en France. En particulier, les pathologies ischémiques en représentent une part significative qui sont elles- mêmes la consé- quence de pathologies vasculaires comme l'athérosclérose. Les progrès de l'imagerie cardiaque permettent aujourd'hui de voir en détail les effets des pathologies ischémiques sur le mouvement du cœur, notamment. L'imagerie cardiaque est ainsi un outil précieux pour l'aide au diagnostic de ce type de pathologies, et pour mieux comprendre leurs causes et leur évolution. A ce jour, l'exploitation de ces données en clinique reste cependant très incomplète. En effet, le volume très important de données rend quasiment impossible le trai- tement manuel complet des images acquises sur chaque patient. D'autre part, le traitement manuel des images manque d'objectivité et de reproductibilité, com- promettant la validité des résultats obtenus, tant dans un contexte de recherche que pour un diagnostic en clinique. Nous proposons de recourir à des méthodes d'analyse assistées par l'ordinateur pour améliorer l'exploitation de ces images, à savoir l'extraction de l'anatomie et du mouvement du cœur en 3D. Ces méthodes permettront d'apporter une aide au diagnostic précieuse en fournissant des para- mètres globaux et locaux de la fonction contractile. Elles permettront en outre de faire avancer les connaissances en permettant une analyse accélérée et objective de groupes importants de patients. L'analyse automatisée d'images cardiaques pose cependant de nombreux pro- blèmes méthodologiques. Les travaux menés à ce sujet ont montré que l'utilisation de modèles réalistes comme a priori dans les algorithmes est un pré-requis indis- pensable à leur efficacité. Dans le cadre de cette thèse, nous nous sommes focalisés sur l'évolution de la méthode du Gabarit Déformable Élastique (GDE) pour l'extraction automatique de l'anatomie cardiaque (cavités ventriculaires et enveloppe péricardique), déve- loppée au laboratoire Creatis-LRMN. Le GDE consiste à représenter le myocarde par un modèle de forme a priori que l'on déforme élastiquement pour l'adapter à la forme spécifique du cœur du patient. Au cours de cette thèse, un nouvel algorithme non-linéaire, permettant une meilleure prise en compte de la variabilité de la forme du cœur, a été développé en collaboration avec l'Institut Camille Jordan de Mathématiques Appliquées à Lyon. La collaboration avec des mathématiciens permet d'asseoir nos travaux sur des bases théoriques solides : une preuve de convergence de l'algorithme a été proposée [13]. Nous proposons en outre une méthode de multirésolution sur le maillage qui permet une accélération significative de l'algorithme, ainsi qu'une méthode de perturbation singulière permettant de s'assurer que le modèle est par- faitement adapté aux données [14]. Parallèlement, un travail a été réalisé pour l'amélioration de l'attache aux don- nées [15] et en particulier du champ de force qui guide la déformation du gabarit, de manière à améliorer la robustesse de la méthode, notamment avec les données issues des imageurs modernes. Nous proposons également plusieurs contributions pour le positionnement ini- tial du modèle dans les images. En particulier, l'utilisation d'un recalage par fonc- tions splines de plaque mince a été proposé [16], en collaboration avec le Profes- seur L. Axel à New York. Enfin, nous proposons d'étendre le GDE pour une modélisation dynamique et non plus statique du cœur, en s'appuyant sur une représentation harmonique du mouvement sur l'ensemble du cycle cardiaque et en proposant un algorithme original de résolution [17, 18]. Cette dernière proposition constitue sans doute la principale contribution de notre travail. Elle s'appuie là-aussi sur des résultats théoriques. Les méthodes proposées sont évaluées sur des données de synthèse et des données réelles acquises chez l'homme et le petit animal.
8

Mise en oeuvre d'un système adaptatif de segmentation d'images

Rosenberger, Christophe 07 December 1999 (has links) (PDF)
Le traitement d'images suscite un intérêt croissant à mesure que l'image s'impose comme un support et une source d'informations privilégiés. La qualité de l'interprétation d'une image dépend fortement de celle de la segmentation. Malgré la grande diversité de méthodes, les résultats de segmentation restent moyens et varient beaucoup en fonction de la technique choisie. Une méthode de segmentation générale et automatique est difficile à concevoir étant donnés les différents types de régions pouvant être présentes dans une image. Afin de contribuer à résoudre ce problème, nous proposons un système adaptatif de segmentation d'images.<br /><br />Après un travail de synthèse permettant de répertorier les différentes méthodes de segmentation existantes en fonction du type d'informations pour lesquelles elles sont performantes, un système original de segmentation est proposé. L'originalité de ce système réside dans l'adaptation des traitements au contexte local de l'image avec le minimum de connaissances a priori. Il est constitué de trois modules de traitement. Le premier module permet d'analyser finement l'image à deux niveaux. Le premier niveau identifie d'une part, le contexte global de l'image à traiter (image majoritairement composée de régions uniformes ou texturées) afin d'adapter la suite des traitements et, distingue d'autre part, les zones texturées et uniformes la composant. Le second niveau du module concerne l'analyse locale de l'image à segmenter afin de caractériser chacune des régions détectées par des attributs classiques de textures pertinents (obtenus par analyse statistique) et des attributs que nous avons définis. Ces paramètres complémentaires ont été déterminés à partir d'un modèle de texture basé sur la décomposition de Wold de la fonction d'autocovariance. Ils permettent d'obtenir des informations sur le type de texture (aléatoire ou déterministe) et sur sa granularité (grossière ou fine). Cette analyse plus fine d'une région texturée permet, d'une part, de faciliter le choix de la méthode de segmentation appropriée et, d'autre part, d'adapter la taille du support d'analyse de la région à segmenter. Le deuxième module déclenche la méthode de segmentation adaptée au contexte local de l'image en utilisant une méthode de classification non supervisée que nous avons développée. Enfin, le troisième module permet de fusionner soit les résultats de plusieurs méthodes de segmentation d'une même image, soit les résultats de segmentation de chaque bande dans le cas d'une image multi-composantes. La méthode de fusion développée adopte une approche génétique en combinant les résultats de segmentation pondérés par un critère d'évaluation. Le système a été validé sur différents types d'image (synthétiques et réelles de télédétection).
9

Segmentation d'images couleurs et multispectrales de la peau

Gong, Hao 27 June 2013 (has links) (PDF)
La délimitation précise du contour des lésions pigmentées sur des images est une première étape importante pour le diagnostic assisté par ordinateur du mélanome. Cette thèse présente une nouvelle approche de la détection automatique du contour des lésions pigmentaires sur des images couleurs ou multispectrales de la peau. Nous présentons d'abord la notion de minimisation d'énergie par coupes de graphes en terme de Maxima A-Posteriori d'un champ de Markov. Après un rapide état de l'art, nous étudions l'influence des paramètres de l'algorithme sur les contours d'images couleurs. Dans ce cadre, nous proposons une fonction d'énergie basée sur des classifieurs performants (Machines à support de vecteurs et Forêts aléatoires) et sur un vecteur de caractéristiques calculé sur un voisinage local. Pour la segmentation de mélanomes, nous estimons une carte de concentration des chromophores de la peau, indices discriminants du mélanomes, à partir d'images couleurs ou multispectrales, et intégrons ces caractéristiques au vecteur. Enfin, nous détaillons le schéma global de la segmentation automatique de mélanomes, comportant une étape de sélection automatique des "graines" utiles à la coupure de graphes ainsi que la sélection des caractéristiques discriminantes. Cet outil est comparé favorablement aux méthodes classiques à base de coupure de graphes en terme de précision et de robustesse.
10

Techniques visuelles pour la détection et le suivi d’objets 2D / Visual techniques for 2D object detection and tracking

Sekkal, Rafiq 28 February 2014 (has links)
De nos jours, le traitement et l’analyse d’images trouvent leur application dans de nombreux domaines. Dans le cas de la navigation d’un robot mobile (fauteuil roulant) en milieu intérieur, l’extraction de repères visuels et leur suivi constituent une étape importante pour la réalisation de tâches robotiques (localisation, planification, etc.). En particulier, afin de réaliser une tâche de franchissement de portes, il est indispensable de détecter et suivre automatiquement toutes les portes qui existent dans l’environnement. La détection des portes n’est pas une tâche facile : la variation de l’état des portes (ouvertes ou fermées), leur apparence (de même couleur ou de couleur différentes des murs) et leur position par rapport à la caméra influe sur la robustesse du système. D’autre part, des tâches comme la détection des zones navigables ou l’évitement d’obstacles peuvent faire appel à des représentations enrichies par une sémantique adaptée afin d’interpréter le contenu de la scène. Pour cela, les techniques de segmentation permettent d’extraire des régions pseudo-sémantiques de l’image en fonction de plusieurs critères (couleur, gradient, texture…). En ajoutant la dimension temporelle, les régions sont alors suivies à travers des algorithmes de segmentation spatio-temporelle. Dans cette thèse, des contributions répondant aux besoins cités sont présentées. Tout d’abord, une technique de détection et de suivi de portes dans un environnement de type couloir est proposée : basée sur des descripteurs géométriques dédiés, la solution offre de bons résultats. Ensuite, une technique originale de segmentation multirésolution et hiérarchique permet d’extraire une représentation en régions pseudosémantique. Enfin, cette technique est étendue pour les séquences vidéo afin de permettre le suivi des régions à travers le suivi de leurs contours. La qualité des résultats est démontrée et s’applique notamment au cas de vidéos de couloir. / Nowadays, image processing remains a very important step in different fields of applications. In an indoor environment, for a navigation system related to a mobile robot (electrical wheelchair), visual information detection and tracking is crucial to perform robotic tasks (localization, planning…). In particular, when considering passing door task, it is essential to be able to detect and track automatically all the doors that belong to the environment. Door detection is not an obvious task: the variations related to the door status (open or closed), their appearance (e.g. same color as the walls) and their relative position to the camera have influence on the results. On the other hand, tasks such as the detection of navigable areas or obstacle avoidance may involve a dedicated semantic representation to interpret the content of the scene. Segmentation techniques are then used to extract pseudosemantic regions based on several criteria (color, gradient, texture...). When adding the temporal dimension, the regions are tracked then using spatiotemporal segmentation algorithms. In this thesis, we first present joint door detection and tracking technique in a corridor environment: based on dedicated geometrical features, the proposed solution offers interesting results. Then, we present an original joint hierarchical and multiresolution segmentation framework able to extract a pseudo-semantic region representation. Finally, this technique is extended to video sequences to allow the tracking of regions along image sequences. Based on contour motion extraction, this solution has shown relevant results that can be successfully applied to corridor videos.

Page generated in 0.1975 seconds