• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 3
  • 2
  • Tagged with
  • 8
  • 8
  • 8
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Skin cancer segmentation and detection using total variation and multiresolution analysis / Segmentation et détection du cancer de la peau en utilisant la variation totale et l'analyse multi-résolution

Adjed, Faouzi 18 December 2017 (has links)
Les décès du cancer de la peau sont majoritairement des mélanomes malins. Il est considéré comme l’un des plus dangereux cancer. A ses débuts, les mélanomes malins sont traités avec des simples biopsies et sont complètement curable. Pour cela, une détection précoce est la meilleure solution pour réduire ses conséquences désastreuses. Imagerie médicale telle que la dermoscopie et les caméras à images standard sont les outils disponibles les plus adaptées pour diagnostiquer précocement les mélanomes. Le diagnostic assisté par ordinateur (CAD) est développé dans le but d’accompagner les radiologistes dans la détection et le diagnostic. Cependant, il y a un besoin d’améliorer la précision de la segmentation et de détection des lésions. Dans ce travail, le modèle de Chan et Vese a été adapté pour segmenter davantage les variations à l’intérieur des lésions avec un résultats très encouragent. La deuxième tâche consiste à extraire des caractéristiques afin de discriminer les mélanomes. Deux méthodes ont été développée, une se basant sur l’irrégularité des bords des lésions et l’autre par la fusion des caractéristiques texturales et structurelles. Les résultats ont montrés de bonnes performances avec une précision de 86.54% et de 86.07%, respectivement. / The vast majority of skin cancer deaths are due to malignant melanoma. It is considered as one of the most dangerous cancers. In its early stages, malignant melanoma is completely curable with a simple biopsy. Therefore, an early detection is the best solution to improve skin cancer prognostic. Medical imaging such as dermoscopy and standard camera images are the most suitable tools available to diagnose melanoma at early stages. To help radiologists in the diagnosis of melanoma cases, there is a strong need to develop computer aided diagnosis (CAD) systems. The accurate segmentation and classification of pigment skin lesions still remains a challenging task due to the various colors and structures developed randomly inside the lesions. The current work focused on two main tasks. Inthe first task, a new approach of the segmentation of skin lesions based on Chan and Vese model is developed. The model is adapted to segment the variations of the pigment inside the lesion and not only the main border. The subjective evaluation, applied on a database of standard camera images, obtained a very encouraging results with 97.62% of true detection rate. In the second main task, two feature extraction methods were developed for the analysis of standard camera and dermoscopy images. The method developed for the standard camera skin cancer images is based on border irregularities, introducing two new concepts, which are valleys and crevasses as first and second level of the border irregularity. The method has been implemented on DermIs and DermQues, two databases of standard camera images, and achieved an accuracy of 86.54% with a sensitivity of 80% and a specificity of 95.45%. The second method consisted of a fusion of structural and textural features. The structural features were extracted from wavelet and curvelet coefficients, while the textural features were obtained from the local binary pattern operator. The method has been implemented on the PH2 database for dermoscopy images with 1000-random sampling cross validation. The obtained results achieved an accuracy, a sensitivity and a specificity of 86:07%, 78.93% and 93.25%. Compared to the existing methods, the proposed methods in this work show very good performances.
2

Contribution à l'analyse et à la recherche d'information en texte intégral : application de la transformée en ondelettes pour la recherche et l'analyse de textes

Smail, Nabila 27 January 2009 (has links) (PDF)
L'objet des systèmes de recherche d'informations est de faciliter l'accès à un ensemble de documents, afin de permettre à l'utilisateur de retrouver ceux qui sont pertinents, c'est-à-dire ceux dont le contenu correspond le mieux à son besoin en information. La qualité des résultats de la recherche se mesure en comparant les réponses du système avec les réponses idéales que l'utilisateur espère recevoir. Plus les réponses du système correspondent à celles que l'utilisateur espère, plus le système est jugé performant. Les premiers systèmes permettaient d'effectuer des recherches booléennes, c'est à dire, des recherches ou seule la présence ou l'absence d'un terme de la requête dans un texte permet de le sélectionner. Il a fallu attendre la fin des années 60, pour que l'on applique le modèle vectoriel aux problématiques de la recherche d'information. Dans ces deux modèles, seule la présence, l'absence, ou la fréquence des mots dans le texte est porteuse d'information. D'autres systèmes de recherche d'information adoptent cette approche dans la modélisation des données textuelles et dans le calcul de la similarité entre documents ou par rapport à une requête. SMART (System for the Mechanical Analysis and Retrieval of Text) [4] est l'un des premiers systèmes de recherche à avoir adopté cette approche. Plusieurs améliorations des systèmes de recherche d'information utilisent les relations sémantiques qui existent entre les termes dans un document. LSI (Latent Semantic Indexing) [5], par exemple réalise ceci à travers des méthodes d'analyse qui mesurent la cooccurrence entre deux termes dans un même contexte, tandis que Hearst et Morris [6] utilisent des thésaurus en ligne pour créer des liens sémantiques entre les termes dans un processus de chaines lexicales. Dans ces travaux nous développons un nouveau système de recherche qui permet de représenter les données textuelles par des signaux. Cette nouvelle forme de représentation nous permettra par la suite d'appliquer de nombreux outils mathématiques de la théorie du signal, tel que les Transformées en ondelettes et jusqu'a aujourd'hui inconnue dans le domaine de la recherche d'information textuelle
3

Abstraction temporelle et interprétation quantitative/qualitative de processus à dynamiques multiples. Application aux processus biologiques

Ayrolles, Laurent 22 January 1996 (has links) (PDF)
Une caractéristique des systèmes dynamiques complexes, qu'ils soient physiques ou naturels, est la présence de processus évoluant à différentes échelles de temps (dynamiques multiples) et de façon fortement non-linéaire. Nous nous plaçons dans le cas où l'évolution de chaque processus étudié est une série de mesures, ou bien est issue de la simulation de modèles numériques. Pour concevoir ou améliorer ces modèles en se basant sur l'échelle qui l'intéresse, l'utilisateur doit d'abord être capable de représenter l'évolution de chaque processus à plusieurs échelles, déterminées objectivement selon l'évolution elle-même. Ensuite, le choix d'une ou de plusieurs représentations doit être guidé par l'interprétation des caractéristiques dynamiques à chaque échelle de temps. Nous définissons une notion de granularité temporelle, exprimant le niveau de détail de la représentation. Ayant affaire à des processus biologiques dont la forme de l'évolution est plus informative pour l'utilisateur que les valeurs numériques précises, une représentation qualitative/quantitative est élaborée : une segmentation de l'évolution initiale en épisodes triangulaires (exprimant différentes formes de comportements locaux), puis l'abstraction successive de ces épisodes triangulaires en épisodes trapézoïdaux, conduisent à l'obtention de toutes les représentations possibles de l'évolution, et de toutes les échelles de temps associées. Le développement d'outils graphiques, symboliques et statistiques permet d'identifier et d'interpréter automatiquement les principales caractéristiques dynamiques du processus à n'importe quelle échelle de temps : équilibre, stabilité, périodicité, récurrence, comportements majoritaires, etc. Ces caractéristiques permettent de conseiller un choix d'échelles de temps et, par suite, de fréquences d'échantillonnage pertinentes. Une fonctionnalité suppl émentaire vise à identifier et à dissocier localement les composantes fréquentielles de l'évolution initiale. Des exemples d'interprétation sont donnés pour deux modèles biologiques. Les analyses sont confrontées à la connaissance experte d'un agronome pour la validation de la méthode. Ce travail a conduit à la conception du logiciel PARADISE (Process AbstRaction AnD Interpretation SystEm)
4

Mise en correspondance stéréoscopique par approches variationnelles convexes ; application à la détection d'obstacles routiers

Souid-Miled, Wided 17 December 2007 (has links) (PDF)
Cette thèse porte sur la mise en correspondance stéréoscopique ainsi que sur son application à la détection des obstacles routiers à partir d'un système de vision stéréoscopique. La mise en correspondance est une étape cruciale dans la reconstruction de la structure tridimensionnelle de la scène observée. Elle consiste à retrouver les pixels homologues dans deux images prises de deux points de vue différents, et se ramène à un problème d'estimation d'un champ de disparité. La première partie de ma thèse a porté sur l'estimation de la disparité, dans le cadre d'une approche ensembliste, en minimisant une fonction objective convexe sur l'intersection d'ensembles convexes, construits à partir des connaissances a priori et des observations. Dans la plupart des applications de stéréovision, le champ de disparité doit être lisse dans les zones homogènes et les zones faiblement texturées. L'une de nos contributions a consisté à proposer différentes contraintes de régularisation satisfaisant cette propriété. Pour résoudre le problème d'optimisation considéré, nous utilisons un algorithme efficace itératif par bloc. La deuxième partie traite du problème d'estimation de la disparité en présence de changements d'illumination dans la scène observée. Nous considérons pour cela un modèle d'illumination multiplicatif qui permet de compenser les variations spatiales de luminosité de la scène. Enfin, dans la troisième partie, nous appliquons notre méthode d'estimation de la disparité robuste aux variations d'illumination pour la détection des obstacles routiers.
5

Quelques contributions en classification, régression et étude d'un problème inverse en finance

Monnier, Jean-Baptiste 06 December 2011 (has links) (PDF)
On s'intéresse aux problèmes de régression, classification et à un problème inverse en finance. Nous abordons dans un premier temps le problème de régression en design aléatoire à valeurs dans un espace euclidien et dont la loi admet une densité inconnue. Nous montrons qu'il est possible d'élaborer une stratégie d'estimation optimale par projections localisées sur une analyse multi-résolution. Cette méthode originale offre un avantage calculatoire sur les méthodes d'estimation à noyau traditionnellement utilisées dans un tel contexte. On montre par la même occasion que le classifieur plug-in construit sur cette nouvelle procédure est optimal. De plus, il hérite des avantages calculatoires mentionnés plus haut, ce qui s'avère être un atout crucial dans de nombreuses applications. On se tourne ensuite vers le problème de régression en design aléatoire uniformément distribué sur l'hyper-sphère et on montre comment le tight frame de needlets permet de généraliser les méthodes traditionnelles de régression en ondelettes à ce nouveau contexte. On s'intéresse finalement au problème d'estimation de la densité risque-neutre à partir des prix d'options cotés sur les marchés. On exhibe une décomposition en valeurs singulières explicite d'opérateurs de prix restreints et on montre qu'elle permet d'élaborer une méthode d'estimation de la densité risque-neutre qui repose sur la résolution d'un simple programme quadratique.
6

Contribution à l'analyse et à la recherche d'information en texte intégral : application de la transformée en ondelettes pour la recherche et l'analyse de textes / Contribution in analysis and information retrieval in text : application of wavelets transforms in information retrieval

Smail, Nabila 27 January 2009 (has links)
L’objet des systèmes de recherche d’informations est de faciliter l’accès à un ensemble de documents, afin de permettre à l’utilisateur de retrouver ceux qui sont pertinents, c'est-à-dire ceux dont le contenu correspond le mieux à son besoin en information. La qualité des résultats de la recherche se mesure en comparant les réponses du système avec les réponses idéales que l'utilisateur espère recevoir. Plus les réponses du système correspondent à celles que l'utilisateur espère, plus le système est jugé performant. Les premiers systèmes permettaient d’effectuer des recherches booléennes, c’est à dire, des recherches ou seule la présence ou l’absence d’un terme de la requête dans un texte permet de le sélectionner. Il a fallu attendre la fin des années 60, pour que l’on applique le modèle vectoriel aux problématiques de la recherche d’information. Dans ces deux modèles, seule la présence, l’absence, ou la fréquence des mots dans le texte est porteuse d’information. D’autres systèmes de recherche d’information adoptent cette approche dans la modélisation des données textuelles et dans le calcul de la similarité entre documents ou par rapport à une requête. SMART (System for the Mechanical Analysis and Retrieval of Text) [4] est l’un des premiers systèmes de recherche à avoir adopté cette approche. Plusieurs améliorations des systèmes de recherche d’information utilisent les relations sémantiques qui existent entre les termes dans un document. LSI (Latent Semantic Indexing) [5], par exemple réalise ceci à travers des méthodes d’analyse qui mesurent la cooccurrence entre deux termes dans un même contexte, tandis que Hearst et Morris [6] utilisent des thésaurus en ligne pour créer des liens sémantiques entre les termes dans un processus de chaines lexicales. Dans ces travaux nous développons un nouveau système de recherche qui permet de représenter les données textuelles par des signaux. Cette nouvelle forme de représentation nous permettra par la suite d’appliquer de nombreux outils mathématiques de la théorie du signal, tel que les Transformées en ondelettes et jusqu’a aujourd’hui inconnue dans le domaine de la recherche d’information textuelle / The object of information retrieval systems is to make easy the access to documents and to allow a user to find those that are appropriate. The quality of the results of research is measured by comparing the answers of the system with the ideal answers that the user hopes to find. The system is competitive when its answers correspond to those that the user hopes. The first retrieval systems performing Boolean researches, in other words, researches in which only the presence or the absence of a term of a request in a text allow choosing it. It was necessary to wait for the end of the sixties to apply the vector model in information retrieval. In these two models, alone presence, absence, or frequency of words in the text is holder of information. Several Information Retrieval Systems adopt a flat approach in the modeling of data and in the counting of similarity between documents or in comparison with a request. We call this approach ‘bag of words ’. These systems consider only presence, absence or frequency of appearance of terms in a document for the counting of its pertinence, while Hearst and Morris [6] uses online thesaurus to create semantic links between terms in a process of lexical chains. In this thesis we develop a new retrieval system which allows representing textual data by signals. This new form of presentation will allow us, later, to apply numerous mathematical tools from the theory of the signal such as Wavelets Transforms, well-unknown nowadays in the field of the textual information retrieval
7

Segmentation and structuring of video documents for indexing applications / Segmentation et structuration de documents video pour l'indexation

Tapu, Ruxandra Georgina 07 December 2012 (has links)
Les progrès récents en matière de télécommunications, collaboré avec le développement des dispositifs d'acquisition d’images et de vidéos a conduit à une croissance spectaculaire de la quantité des données vidéo stockées, transmises et échangées sur l’Internet. Dans ce contexte, l'élaboration d'outils efficaces pour accéder aux éléments d’information présents dans le contenu vidéo est devenue un enjeu crucial. Dans le Chapitre 2 nous introduisons un nouvel algorithme pour la détection de changement de plans vidéo. La technique est basée sur la partition des graphes combinée avec une analyse multi-résolution et d'une opération de filtrage non-linéaire. La complexité globale de calcul est réduite par l’application d'une stratégie deux passes. Dans le Chapitre 3 le problème d’abstraction automatique est considéré. Dans notre cas, nous avons adopté un système de représentation image-clés qui extrait un nombre variable d'images de chaque plan vidéo détecté, en fonction de la variation du contenu visuel. Le Chapitre 4 traite la segmentation de haut niveau sémantique. En exploitant l'observation que les plans vidéo appartenant à la même scène ont les mêmes caractéristiques visuelles, nous introduisons un nouvel algorithme de regroupement avec contraintes temporelles, qui utilise le seuillage adaptatif et les plans vidéo neutralisés. Dans le Chapitre 5 nous abordons le thème de détection d’objets vidéo saillants. Dans ce contexte, nous avons introduit une nouvelle approche pour modéliser l'attention spatio-temporelle utilisant : la correspondance entre les points d'intérêt, les transformations géométriques et l’estimation des classes de mouvement / Recent advances in telecommunications, collaborated with the development of image and video processing and acquisition devices has lead to a spectacular growth of the amount of the visual content data stored, transmitted and exchanged over Internet. Within this context, elaborating efficient tools to access, browse and retrieve video content has become a crucial challenge. In Chapter 2 we introduce and validate a novel shot boundary detection algorithm able to identify abrupt and gradual transitions. The technique is based on an enhanced graph partition model, combined with a multi-resolution analysis and a non-linear filtering operation. The global computational complexity is reduced by implementing a two-pass approach strategy. In Chapter 3 the video abstraction problem is considered. In our case, we have developed a keyframe representation system that extracts a variable number of images from each detected shot, depending on the visual content variation. The Chapter 4 deals with the issue of high level semantic segmentation into scenes. Here, a novel scene/DVD chapter detection method is introduced and validated. Spatio-temporal coherent shots are clustered into the same scene based on a set of temporal constraints, adaptive thresholds and neutralized shots. Chapter 5 considers the issue of object detection and segmentation. Here we introduce a novel spatio-temporal visual saliency system based on: region contrast, interest points correspondence, geometric transforms, motion classes’ estimation and regions temporal consistency. The proposed technique is extended on 3D videos by representing the stereoscopic perception as a 2D video and its associated depth
8

Décomposition Modale Empirique : Contribution à la Modélisation Mathématique et Application en Traitement du Signal et de l'Image

Niang, Oumar 20 September 2007 (has links) (PDF)
La Décomposition Modale Empirique (EMD), est une méthode de décomposition multi-résolution de signaux en fonctions Modes Intrinsèques (IMF) et cela, de manière auto-adaptative. En la couplant avec la transformée de Hilbert, elle devient une méthode d'analyse Temps-Fréquence , la transformée de Hilbert-Huang, permettant d'étudier bon nombre de classes de signaux. Malgré ces nombreuses applications, l'une des plus importantes limites de l'EMD est son manque de formalisme mathématique. A la place d'une interpolation par splines cubiques utilisée dans l'EMD classique, nous avons estimé l'enveloppe moyenne par une solution d'un système d'EDP. Par une méthode variationnelle, nous avons établi un cadre théorique pour prouver les résultats de convergence, d'existence de modes et la propriété de presque orthogonalité de l'EMD. La comparaison avec des bancs de filtres itératifs et les ondelettes, montre l'aspect multi-résolution de l'EMD. Deux nouvelles applications en traitement du signal et de l'image sont présentées : l'extraction des intermittences et mode mixing et la restauration par shrinkage par EMD. Enfin le modèle peut servir de base pour l'étude de l'unicité de la décomposition.

Page generated in 0.1083 seconds