Spelling suggestions: "subject:"multirésolution"" "subject:"multirésolutions""
1 |
Skin cancer segmentation and detection using total variation and multiresolution analysis / Segmentation et détection du cancer de la peau en utilisant la variation totale et l'analyse multi-résolutionAdjed, Faouzi 18 December 2017 (has links)
Les décès du cancer de la peau sont majoritairement des mélanomes malins. Il est considéré comme l’un des plus dangereux cancer. A ses débuts, les mélanomes malins sont traités avec des simples biopsies et sont complètement curable. Pour cela, une détection précoce est la meilleure solution pour réduire ses conséquences désastreuses. Imagerie médicale telle que la dermoscopie et les caméras à images standard sont les outils disponibles les plus adaptées pour diagnostiquer précocement les mélanomes. Le diagnostic assisté par ordinateur (CAD) est développé dans le but d’accompagner les radiologistes dans la détection et le diagnostic. Cependant, il y a un besoin d’améliorer la précision de la segmentation et de détection des lésions. Dans ce travail, le modèle de Chan et Vese a été adapté pour segmenter davantage les variations à l’intérieur des lésions avec un résultats très encouragent. La deuxième tâche consiste à extraire des caractéristiques afin de discriminer les mélanomes. Deux méthodes ont été développée, une se basant sur l’irrégularité des bords des lésions et l’autre par la fusion des caractéristiques texturales et structurelles. Les résultats ont montrés de bonnes performances avec une précision de 86.54% et de 86.07%, respectivement. / The vast majority of skin cancer deaths are due to malignant melanoma. It is considered as one of the most dangerous cancers. In its early stages, malignant melanoma is completely curable with a simple biopsy. Therefore, an early detection is the best solution to improve skin cancer prognostic. Medical imaging such as dermoscopy and standard camera images are the most suitable tools available to diagnose melanoma at early stages. To help radiologists in the diagnosis of melanoma cases, there is a strong need to develop computer aided diagnosis (CAD) systems. The accurate segmentation and classification of pigment skin lesions still remains a challenging task due to the various colors and structures developed randomly inside the lesions. The current work focused on two main tasks. Inthe first task, a new approach of the segmentation of skin lesions based on Chan and Vese model is developed. The model is adapted to segment the variations of the pigment inside the lesion and not only the main border. The subjective evaluation, applied on a database of standard camera images, obtained a very encouraging results with 97.62% of true detection rate. In the second main task, two feature extraction methods were developed for the analysis of standard camera and dermoscopy images. The method developed for the standard camera skin cancer images is based on border irregularities, introducing two new concepts, which are valleys and crevasses as first and second level of the border irregularity. The method has been implemented on DermIs and DermQues, two databases of standard camera images, and achieved an accuracy of 86.54% with a sensitivity of 80% and a specificity of 95.45%. The second method consisted of a fusion of structural and textural features. The structural features were extracted from wavelet and curvelet coefficients, while the textural features were obtained from the local binary pattern operator. The method has been implemented on the PH2 database for dermoscopy images with 1000-random sampling cross validation. The obtained results achieved an accuracy, a sensitivity and a specificity of 86:07%, 78.93% and 93.25%. Compared to the existing methods, the proposed methods in this work show very good performances.
|
2 |
Recalage multi-modal automatique : technique de multi-résolution parallèle appliquée à la TEP et l'IRM / Multi-modal automatic registration : A parallel multi-resolution approach applied to PET-MRIBernier, Michaël January 2012 (has links)
Résumé : Le recalage automatique des images issues de la tomographie par émission de positrons (TEP) et de l’imagerie par résonance magnétique (IRM) du petit animal pose un problème difficile à résoudre, tant sur l’aspect de la précision, du taux de réussite et de convergence que sur la rapidité d’exécution. En fait, la plupart des techniques de recalage actuelles sont développées et appliquées aux cerveaux humains, mais ne sont pas aussi efficaces lorsqu’appliquées sur des données animales. L’anisotropie impor¬tante des voxels (résolution fine dans le plan de l’acquisition, mais grande épaisseur de coupe) et la dégradation des images associée à ce type d’acquisition s’additionne au manque d’information d’intensité et de complexité anatomique de ce type de jeu de données. Ce mémoire met l’accent sur les techniques multimodales de recalage automatique et de leurs limites, appliquées particulièrement à la TEP et l’IRM du petit animal. Dans l’article principal présenté dans ce mémoire, nous proposons une mesure qui utilise un recalage multirésolution en parallèle (imbriqué dans la fonction d’énergie) au lieu d’une approche classique de multirésolution séquentielle, influen¬çant directement la procédure du recalage. En combinant les niveaux de basse et haute résolution des images, nous nous assurons une plus grande insensibilité par rapport au bruit, d’une ouverture accrue permettant une meilleure convergence et rapidité d’exécution. L’article démontre que notre nouvelle approche automatique est un algorithme de recalage robuste et efficace avec un taux de réussite élevé. Nous présentons également dans ce mémoire certains détails d’implantation de l’outil, qui a été créé par l’auteur de ce document, reposant sur le recalage classique et la nouvelle méthode décrite dans ce mémoire.||Abstract: Automatic registration of small animal Positron Emission Tomography (PET) and Magnetic Resonance Imaging (MRI) data represents a difficult problem in terms of convergence speed, accuracy and success rate. In fact, most existing registration methods are developed and applied to human brain volumes but these are not as effective for small animal data because of the lack of intensity information in the images and often the large anisotropy in voxel dimensions (very small in-plane resolution and large slice thickness). This master thesis focuses on multi-modal automatic registration techniques and their limitations, especially applied to PET-MRI registration. In the main article of this master thesis, we propose a new registration measure that combines multi-resolution in parallel (in the same energy function) instead of a classic sequential multi-resolution, which influence the procedure of the registration as well. By combining low and high resolution levels of images, we can gain from the low noise sensitivity and aperture at coarse levels and higher contrast and details at higher levels, which helps convergence accuracy and speed. The paper shows that our new approach is therefore an automatic, robust and efficient registration algorithm with a high success rate. We also present in this document some implementation details on the tool which was created by the author of this thesis based on the classic registration and the new approach described in this thesis.
|
3 |
Mise en correspondance d'indices images en résolutions multiplesAubert, Didier 02 January 1989 (has links) (PDF)
.
|
4 |
Visualisation et traitements interactifs de grilles régulières 3D haute-résolution virtualisées sur GPU. Application aux données biomédicales pour la microscopie virtuelle en environnement HPC. / Interactive visualisation and processing of high-resolution regular 3D grids virtualised on GPU. Application to biomedical data for virtual microscopy in HPC environment.Courilleau, Nicolas 29 August 2019 (has links)
La visualisation de données est un aspect important de la recherche scientifique dans de nombreux domaines.Elle permet d'aider à comprendre les phénomènes observés voire simulés et d'en extraire des informations à des fins notamment de validations expérimentales ou tout simplement pour de la revue de projet.Nous nous intéressons dans le cadre de cette étude doctorale à la visualisation de données volumiques en imagerie médicale et biomédicale, obtenues grâce à des appareils d'acquisition générant des champs scalaires ou vectoriels représentés sous forme de grilles régulières 3D.La taille croissante des données, due à la précision grandissante des appareils d'acquisition, impose d'adapter les algorithmes de visualisation afin de pouvoir gérer de telles volumétries.De plus, les GPUs utilisés en visualisation de données volumiques, se trouvant être particulièrement adaptés à ces problématiques, disposent d'une quantité de mémoire très limitée comparée aux données à visualiser.La question se pose alors de savoir comment dissocier les unités de calculs, permettant la visualisation, de celles de stockage.Les algorithmes se basant sur le principe dit "out-of-core" sont les solutions permettant de gérer de larges ensembles de données volumiques.Dans cette thèse, nous proposons un pipeline complet permettant de visualiser et de traiter, en temps réel sur GPU, des volumes de données dépassant très largement les capacités mémoires des CPU et GPU.L'intérêt de notre pipeline provient de son approche de gestion de données "out-of-core" permettant de virtualiser la mémoire qui se trouve être particulièrement adaptée aux données volumiques.De plus, cette approche repose sur une structure d'adressage virtuel entièrement gérée et maintenue sur GPU.Nous validons notre modèle grâce à plusieurs applications de visualisation et de traitement en temps réel.Tout d'abord, nous proposons un microscope virtuel interactif permettant la visualisation 3D auto-stéréoscopique de piles d'images haute résolution.Puis nous validons l'adaptabilité de notre structure à tous types de données grâce à un microscope virtuel multimodale.Enfin, nous démontrons les capacités multi-rôles de notre structure grâce à une application de visualisation et de traitement concourant en temps réel. / Data visualisation is an essential aspect of scientific research in many fields.It helps to understand observed or even simulated phenomena and to extract information from them for purposes such as experimental validations or solely for project review.The focus given in this thesis is on the visualisation of volume data in medical and biomedical imaging.The acquisition devices used to acquire the data generate scalar or vector fields represented in the form of regular 3D grids.The increasing accuracy of the acquisition devices implies an increasing size of the volume data.Therefore, it requires to adapt the visualisation algorithms in order to be able to manage such volumes.Moreover, visualisation mostly relies on the use of GPUs because they suit well to such problematics.However, they possess a very limited amount of memory compared to the generated volume data.The question then arises as to how to dissociate the calculation units, allowing visualisation, from those of storage.Algorithms based on the so-called "out-of-core" principle are the solutions for managing large volume data sets.In this thesis, we propose a complete GPU-based pipeline allowing real-time visualisation and processing of volume data that are significantly larger than the CPU and GPU memory capacities.The pipeline interest comes from its GPU-based approach of an out-of-core addressing structure, allowing the data virtualisation, which is adequate for volume data management.We validate our approach using different real-time applications of visualisation and processing.First, we propose an interactive virtual microscope allowing 3D auto-stereoscopic visualisation of stacks of high-resolution images.Then, we verify the adaptability of our structure to all data types with a multimodal virtual microscope.Finally, we demonstrate the multi-role capabilities of our structure through a concurrent real-time visualisation and processing application.
|
5 |
Contribution à l'analyse et à la recherche d'information en texte intégral : application de la transformée en ondelettes pour la recherche et l'analyse de textesSmail, Nabila 27 January 2009 (has links) (PDF)
L'objet des systèmes de recherche d'informations est de faciliter l'accès à un ensemble de documents, afin de permettre à l'utilisateur de retrouver ceux qui sont pertinents, c'est-à-dire ceux dont le contenu correspond le mieux à son besoin en information. La qualité des résultats de la recherche se mesure en comparant les réponses du système avec les réponses idéales que l'utilisateur espère recevoir. Plus les réponses du système correspondent à celles que l'utilisateur espère, plus le système est jugé performant. Les premiers systèmes permettaient d'effectuer des recherches booléennes, c'est à dire, des recherches ou seule la présence ou l'absence d'un terme de la requête dans un texte permet de le sélectionner. Il a fallu attendre la fin des années 60, pour que l'on applique le modèle vectoriel aux problématiques de la recherche d'information. Dans ces deux modèles, seule la présence, l'absence, ou la fréquence des mots dans le texte est porteuse d'information. D'autres systèmes de recherche d'information adoptent cette approche dans la modélisation des données textuelles et dans le calcul de la similarité entre documents ou par rapport à une requête. SMART (System for the Mechanical Analysis and Retrieval of Text) [4] est l'un des premiers systèmes de recherche à avoir adopté cette approche. Plusieurs améliorations des systèmes de recherche d'information utilisent les relations sémantiques qui existent entre les termes dans un document. LSI (Latent Semantic Indexing) [5], par exemple réalise ceci à travers des méthodes d'analyse qui mesurent la cooccurrence entre deux termes dans un même contexte, tandis que Hearst et Morris [6] utilisent des thésaurus en ligne pour créer des liens sémantiques entre les termes dans un processus de chaines lexicales. Dans ces travaux nous développons un nouveau système de recherche qui permet de représenter les données textuelles par des signaux. Cette nouvelle forme de représentation nous permettra par la suite d'appliquer de nombreux outils mathématiques de la théorie du signal, tel que les Transformées en ondelettes et jusqu'a aujourd'hui inconnue dans le domaine de la recherche d'information textuelle
|
6 |
Abstraction temporelle et interprétation quantitative/qualitative de processus à dynamiques multiples. Application aux processus biologiquesAyrolles, Laurent 22 January 1996 (has links) (PDF)
Une caractéristique des systèmes dynamiques complexes, qu'ils soient physiques ou naturels, est la présence de processus évoluant à différentes échelles de temps (dynamiques multiples) et de façon fortement non-linéaire. Nous nous plaçons dans le cas où l'évolution de chaque processus étudié est une série de mesures, ou bien est issue de la simulation de modèles numériques. Pour concevoir ou améliorer ces modèles en se basant sur l'échelle qui l'intéresse, l'utilisateur doit d'abord être capable de représenter l'évolution de chaque processus à plusieurs échelles, déterminées objectivement selon l'évolution elle-même. Ensuite, le choix d'une ou de plusieurs représentations doit être guidé par l'interprétation des caractéristiques dynamiques à chaque échelle de temps. Nous définissons une notion de granularité temporelle, exprimant le niveau de détail de la représentation. Ayant affaire à des processus biologiques dont la forme de l'évolution est plus informative pour l'utilisateur que les valeurs numériques précises, une représentation qualitative/quantitative est élaborée : une segmentation de l'évolution initiale en épisodes triangulaires (exprimant différentes formes de comportements locaux), puis l'abstraction successive de ces épisodes triangulaires en épisodes trapézoïdaux, conduisent à l'obtention de toutes les représentations possibles de l'évolution, et de toutes les échelles de temps associées. Le développement d'outils graphiques, symboliques et statistiques permet d'identifier et d'interpréter automatiquement les principales caractéristiques dynamiques du processus à n'importe quelle échelle de temps : équilibre, stabilité, périodicité, récurrence, comportements majoritaires, etc. Ces caractéristiques permettent de conseiller un choix d'échelles de temps et, par suite, de fréquences d'échantillonnage pertinentes. Une fonctionnalité suppl émentaire vise à identifier et à dissocier localement les composantes fréquentielles de l'évolution initiale. Des exemples d'interprétation sont donnés pour deux modèles biologiques. Les analyses sont confrontées à la connaissance experte d'un agronome pour la validation de la méthode. Ce travail a conduit à la conception du logiciel PARADISE (Process AbstRaction AnD Interpretation SystEm)
|
7 |
Modèles pour la création interactive intuitive / Models for intuitive interactive creationBernhardt, Adrien 03 July 2013 (has links)
Cette thèse porte sur la création interactive intuitive de formes 3D, justifié pour les artistes par un besoin d'efficacité et d'expressivité et pour le grand public par la démocratisation d'usages de la modélisation numérique pour les jeux vidéo ou pour les imprimantes 3D. Dans ce cadre, pour trouver des nouvelles formes d'interactions, nous avons développé des modeleurs et des techniques de modélisation : un modeleur de formes libres 3D par métaphore de peinture, un modeleur vectoriel temps réel de paysages ainsi qu'un modeleur de paysages par croquis vu de la première personne. Les contributions scientifiques vont d'un opérateur de mélange implicite qui garanti la localité du mélange, à l'utilisation qu'une formulation bi-harmonique pour la modélisation de terrains permettant une modélisation fine, intuitive et temps réel de terrains; en passant par la modélisation de paysages à partir de croquis composé de silhouettes vus de la première personne. / This thesis focuses on the interactive intuitive creation of 3D Models. Improvment of modeling tools for artists is still an active research mater especialy concerning efficiency and expressiveness. Moreother video games or 3D printers are make the use of modeling tools more common by the general public. In this context, to find new forms of interaction, we have developed modelers and modeling techniques: a 3D free-form modeler which uses a painting metaphor for creation, a vector-based real-time landscapes modeler as well as a sketch-based landscapes modeler that uses first person drawnings. Scientific contributions range from a blending operator for implicit modeling that guarantees the locality of the blend. The use for a bi-harmonic formulation for landscape modeling that allow fine, intuitive and real-time terrain modeling. Finally through landscape modelisation using sketches composed of silhouettes seen from the first person point of view.
|
8 |
Texture volumique multi-échelle pour l'affichage de scènes complexesRatib, Karim January 1997 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
9 |
Décompositions Modales Empiriques. Contributions à la théorie, l'algorithmie et l'analyse de performancesRilling, Gabriel 14 December 2007 (has links) (PDF)
La Décomposition Modale Empirique (EMD pour « Empirical Mode Decomposition ») est un outil récent de traitement du signal dévolu à l'analyse de signaux non stationnaires et/ou non linéaires. L'EMD produit pour tout signal une décomposition multi-échelles pilotée par les données. Les composantes obtenues sont des formes d'onde oscillantes potentiellement non harmoniques dont les caractéristiques, forme, amplitude et fréquence peuvent varier au cours du temps. L'EMD étant une méthode encore jeune, elle n'est définie que par la sortie d'un algorithme inhabituel, comportant de multiples degrés de liberté et sans fondement théorique solide. Nous nous intéressons dans un premier temps à l'algorithme de l'EMD. Nous étudions d'une part les questions soulevées par les choix de ses degrés de liberté afin d'en établir une implantation. Nous proposons d'autre part des variantes modifiant légèrement ses propriétés et une extension permettant de traiter des signaux à deux composantes. Dans un deuxième temps, nous nous penchons sur les performances de l'EMD. L'algorithme étant initialement décrit dans un contexte de temps continu, mais systématiquement appliqué à des signaux échantillonnés, nous étudions la problématique des effets d'échantillonnage sur la décomposition. Ces effets sont modélisés dans le cas simple d'un signal sinusoïdal et une borne de leur influence est obtenue pour des signaux quelconques. Enfin nous étudions le mécanisme de la décomposition à travers deux situations complémentaires, la décomposition d'une somme de sinusoïdes et celle d'un bruit large bande. Le premier cas permet de mettre en évidence un modèle simple expliquant le comportement de l'EMD dans une très grande majorité des cas de sommes de sinusoïdes. Ce modèle reste valide pour des sinusoïdes faiblement modulées en amplitude et en fréquence ainsi que dans certains cas de sommes d'ondes non harmoniques périodiques. La décomposition de bruits large bande met quant à elle en évidence un comportement moyen de l'EMD proche de celui d'un banc de filtres auto-similaire, analogue à ceux correspondant aux transformées en ondelettes discrètes. Les propriétés du banc de filtres équivalent sont étudiées en détail en fonction des paramètres clés de l'algorithme de l'EMD. Le lien est également établi entre ce comportement en banc de filtres et le modèle développé dans le cas des sommes de sinusoïdes.
|
10 |
Modélisation multi-échelle procédurale de scènes animéesPerbet, Frank 26 February 2004 (has links) (PDF)
En synthèse d'images, les scènes tridimensionnelles animées sont de plus en plus riches etdétaillées. Mais elles sont actuellement limitées dans les variations de leur échelle d'observation. Par exemple, créer des modèles permettant une ballade interactive passant continûment d'un atome à une galaxie pose de sérieux problèmes. L'objectif de cette thèse est d'y apporter une solution dans le cadre d'une visualisation temps-réel sur un matériel informatique standard. Tout d'abord, nous montrons pourquoi la modélisation multi-échelle procédurale est particulièrement bien adaptée pour résoudre ce problème. Plus précisément, nous utilisons la modélisation par complexification qui décrit un modèle par une représentation grossière et par un ensemble de fonctions qui lui ajoutent localement des détails jusqu'à satisfaire la précision requise par des critères perceptuels. Nous introduisons une nouveau formalisme basé sur le langage C++ capable de décrire un large éventail de modèles 3D animés sur de grandes variations d'échelle. Nous proposons un outil générique qui implémente ce formalisme appelé DynamicGraph. Cet outil offre d'une part une interface graphique dédiée et d'autre part un algorithme de rendu temps-réel qui évalue effcacement la visibilité et de la précision requise. Nous illustrons par différentes études de cas le potentiel de cette approche.
|
Page generated in 0.094 seconds