• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 115
  • 40
  • 11
  • Tagged with
  • 165
  • 120
  • 41
  • 38
  • 36
  • 36
  • 34
  • 34
  • 30
  • 27
  • 26
  • 26
  • 21
  • 21
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Efficacité du détartrage prophylactique bimestriel, de l'hygiène supervisée et de leur combinaison sur la santé dentaire des patients hospitalisés, atteints d'une maladie mentale

Monette, Claude January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
22

Unsupervised Gaussian mixture models for the classification of outdoor environments using 3D terrestrial lidar data / Modèles de mélange gaussien sans surveillance pour la classification des environnements extérieurs en utilisant des données 3D de lidar terrestre

Fernandes maligo, Artur otavio 28 January 2016 (has links)
Le traitement de nuages de points 3D de lidars permet aux robots mobiles autonomes terrestres de construire des modèles sémantiques de l'environnement extérieur dans lequel ils évoluent. Ces modèles sont intéressants car ils représentent des informations qualitatives, et ainsi donnent à un robot la capacité de raisonner à un niveau plus élevé d'abstraction. Le coeur d'un système de modélisation sémantique est la capacité de classifier les observations venant du capteur. Nous proposons un système de classification centré sur l'apprentissage non-supervisé. La prémière couche, la couche intermédiaire, consiste en un modèle de mélange gaussien. Ce modèle est déterminé de manière non-supervisée lors d'une étape de training. Il definit un ensemble de classes intermédiaires qui correspond à une partition fine des classes présentes dans l'environnement. La deuxième couche, la couche finale, consiste en un regroupement des classes intermédiaires dans un ensemble de classes finales qui, elles, sont interprétables dans le contexte de la tâche ciblée. Le regroupement est déterminé par un expert lors de l'étape de training, de manière supervisée, mais guidée par les classes intermédiaires. L'évaluation est basée sur deux jeux de données acquis avec de différents lidars et possédant différentes caractéristiques. L'évaluation est quantitative pour l'un des jeux de données, et qualitative pour l'autre. La concéption du système utilise la procédure standard de l'apprentissage, basée sur les étapes de training, validation et test. L'opération suit la pipeline standard de classification. Le système est simple, et ne requiert aucun pré-traitement ou post-traitement. / The processing of 3D lidar point clouds enable terrestrial autonomous mobile robots to build semantic models of the outdoor environments in which they operate. Such models are interesting because they encode qualitative information, and thus provide to a robot the ability to reason at a higher level of abstraction. At the core of a semantic modelling system, lies the capacity to classify the sensor observations. We propose a two-layer classi- fication model which strongly relies on unsupervised learning. The first, intermediary layer consists of a Gaussian mixture model. This model is determined in a training step in an unsupervised manner, and defines a set of intermediary classes which is a fine-partitioned representation of the environment. The second, final layer consists of a grouping of the intermediary classes into final classes that are interpretable in a considered target task. This grouping is determined by an expert during the training step, in a process which is supervised, yet guided by the intermediary classes. The evaluation is done for two datasets acquired with different lidars and possessing different characteristics. It is done quantitatively using one of the datasets, and qualitatively using another. The system is designed following the standard learning procedure, based on a training, a validation and a test steps. The operation follows a standard classification pipeline. The system is simple, with no requirement of pre-processing or post-processing stages.
23

Détection et caractérisation du cancer de la prostate par images IRM 1.5T multiparamétriques / Computer-aided decision system for prostate cancer detection and characterization based on multi-parametric 1.5T MRI

Lehaire, Jérôme 04 October 2016 (has links)
Le cancer de la prostate est le plus courant en France et la 4ième cause de mortalité par cancer. Les méthodes diagnostics de références actuel sont souvent insuffisantes pour détecter et localiser précisément une lésion. L’imagerie IRM multi-paramétrique est désormais la technique la plusprometteuse pour le diagnostic et la prise en charge du cancer de la prostate. Néanmoins, l’interprétation visuelle des multiples séquences IRM n’est pas aisée. Dans ces conditions, un fort intérêt s’est porté sur les systèmes d’aide au diagnostic dont le but est d’assister le radiologue dans ses décisions. Cette thèse présente la conception d’un système d’aide à la détection (CADe) dontl’approche finale est de fournir au radiologue une carte de probabilité du cancer dans la zone périphérique de la prostate. Ce CADe repose sur une base d’images IRM multi-paramétrique (IRM-mp) 1.5T de types T2w, dynamique et de diffusion provenant d’une base de 49 patients annotés permettant d’obtenir une vérité terrain par analyse stricte des coupes histologiques des pièces de prostate. Cette thèse met l’accent sur la détection des cancers mais aussisur leur caractérisation dans le but de fournir une carte de probabilité corrélée au grade de Gleason des tumeurs. Nous avons utilisé une méthode d’apprentissage de dictionnaires permettant d’extraire de nouvelles caractéristiques descriptives dont l’objectif est de discriminer chacun des cancers. Ces dernières sont ensuite utilisées par deux classifieurs : régression logistique et séparateur à vaste marge (SVM), permettant de produire une carte de probabilité du cancer. Nous avons concentré nos efforts sur la discrimination des cancers agressifs (Gleason>6) et fourni une analyse de la corrélationentre probabilités et scores de Gleason. Les résultats montrent de très bonnes performances de détection des cancers agressifs et l’analyse des probabilités conclue sur une forte capacité du système à séparer les cancers agressifs du reste des tissus mais ne permet pas aisément de distinguer chacundes grades de cancer / Prostate cancer is the most frequent and the fourth leading cause of mortality in France. Actual diagnosis methods are often insufficient in order to detect and precisely locate cancer. Multiparametrics MRI is now one of the most promising method for accurate follow-up of the disease. However, the visual interpretation of MRI is not easy and it is shown that there is strongvariability among expert radiologists to perform diagnosis, especially when MR sequences are contradictory. Under these circumstances, a strong interest is for Computer-aided diagnosis systems (CAD) aiming at assisting expert radiologist in their final decision. This thesis presents our work toward the conception of a CADe which final goal is to provide a cancer probability map to expertradiologist. This study is based on a rich dataset of 49 patients made of T2w, dynamic and diffusion MR images. The ground truth was obtained through strict process of annotations and correlation between histology and MRI. This thesis focuses both for cancer detection and characterization in order to provide a cancer probability map correlated to cancer aggressiveness (Gleason score). To that end we used a dictionary learning method to extract new features to better characterize cancer aggressiveness signatures as well as image features. Those features are then used as an input to Support Vector Machines (SVM) and Logistic Regression (LR) classifiers to produce a cancer probability map. We then focused on discriminating agressive cancers (Gleason score >6) from other tissues and provided an analysis of the correlation between cancer aggressiveness and probabilities. Our work conclude on a strong capability to distinguish agressive cancer from other tissues but fails to precisely distinguish different grades of cancers
24

Analyse des données évolutives : application aux données d'usage du Web

Gomes Da Silva, Alzennyr 24 September 2009 (has links) (PDF)
Le nombre d'accès aux pages Web ne cesse de croître. Le Web est devenu l'une des plates-formes les plus répandues pour la diffusion et la recherche d'information. Par conséquence, beaucoup d'opérateurs de sites Web sont incités à analyser l'usage de leurs sites afin d'améliorer leur réponse vis-à-vis des attentes des internautes. Or, la manière dont un site Web est visité peut changer en fonction de divers facteurs. Les modèles d'usage doivent ainsi être mis à jour continuellement afin de refléter fidèlement le comportement des visiteurs. Ceci reste difficile quand la dimension temporelle est négligée ou simplement introduite comme un attribut numérique additionnel dans la description des données. C'est précisément sur cet aspect que se focalise la présente thèse. Pour pallier le problème d'acquisition des données réelles d'usage, nous proposons une méthodologie pour la génération automatique des données artificielles permettant la simulation des changements. Guidés par les pistes nées des analyses exploratoires, nous proposons une nouvelle approche basée sur des fenêtres non recouvrantes pour la détection et le suivi des changements sur des données évolutives. Cette approche caractérise le type de changement subi par les groupes de comportement (apparition, disparition, fusion, scission) et applique deux indices de validation basés sur l'extension de la classification pour mesurer le niveau des changements repérés à chaque pas de temps. Notre approche est totalement indépendante de la méthode de classification et peut être appliquée sur différents types de données autres que les données d'usage. Des expérimentations sur des données artificielles ainsi que sur des données réelles issues de différents domaines (académique, tourisme et marketing) ont été réalisées pour l'évaluer l'efficacité de l'approche proposée.
25

Spectroscopie optique multi-modalités in vivo : instrumentation, extraction et classification diagnostique de tissus sains et hyperplasiques cutanés

Diaz, Gilberto 16 November 2009 (has links) (PDF)
L'incidence des cancers cutanés est en constante progression. Leur diagnostic précoce et leur caractérisation in vivo constituent donc un enjeu important. Notre approche multi-modalités non invasive en spectroscopie fibrée résolue spatialement vise à coupler des mesures d'AutoFluorescence (AF) et de Réflectance Diffuse (RD). L'instrumentation développée permet des mesures co-localisées en multiple excitation d'autofluorescence (7 pics d'excitation centrés à 360, 368, 390, 400, 410, 420 et 430 nm) et en réflectance diffuse (390 à 720 nm) résolues spatialement à 5 distances inter-fibres (271, 536, 834, 1076, 1341 µm). Le protocole d'étude expérimental a porté sur les stades précoces de cancers cutanés UV-induits sur un modèle pré-clinique. L'analyse histopathologique a permis de définir 4 classes (états) de référence de tissus cutanés : Sain (S), Hyperplasie Compensatoire (HC), Hyperplasie Atypique (HA) et Dysplasie (D), menant à 6 combinaisons de paires histologiques à discriminer. Suite au prétraitement des spectres bruts acquis (suppression des artefacts, moyennage, filtrage, correction spectrale), puis à l'extraction, la sélection et la réduction de jeux de caractéristiques spectroscopiques les plus discriminantes, les performances de trois algorithmes de classification supervisée ont été comparées : k-Plus Proches Voisins (k-PPV), Analyse Discriminante Linéaire (ADL) et Machine à Vecteur de Support (MVS). Les contributions des différentes modalités ont également été évaluées : mono-excitation d'AF seule, Matrices d'Excitation-Emission en AF seules (EEMs), réflectance diffuse (RD) seule, couplage EEMs – RD et couplage EEMs – RD résolue spatialement. L'efficacité finale de notre méthode diagnostique a été évaluée en termes de sensibilité (Se) et de spécificité (Sp). Les meilleures résultats obtenus sont : Se et Sp ≈ 100% pour discriminer CH vs autres ; Sp ≈ 100% et Se > 95% pour discriminer S vs AH ou D ; Sp ≈ 74% et Se ≈ 63% pour discriminer AH vs D.
26

Sur l'utilisation active de la diversité dans la construction d'ensembles de classifieurs. Application à la détection de fumées nocives sur site industriel

Gacquer, David 05 December 2008 (has links) (PDF)
L'influence de la diversité lors de la construction d'ensembles de classifieurs a soulevé de nombreuses discussions au sein de la communauté de l'Apprentissage Automatique ces dernières années. <br> Une manière particulière de construire un ensemble de classifieurs consiste à sélectionner individuellement les membres de l'ensemble à partir d'un pool de classifieurs en se basant sur des critères prédéfinis. <br> La littérature fait référence à cette méthode sous le terme de paradigme Surproduction et Sélection, également appelé élagage d'ensemble de classifieurs.<br> <br> Les travaux présentés dans cette thèse ont pour objectif d'étudier le compromis entre la précision et la diversité existant dans les ensembles de classifieurs. Nous apportons également certains éléments de réponse sur le comportement insaisissable de la diversité lorsqu'elle est utilisée de manière explicite lors de la construction d'un ensemble de classifieurs.<br> <br> Nous commençons par étudier différents algorithmes d'apprentissage de la littérature. Nous présentons également les algorithmes ensemblistes les plus fréquemment utilisés. Nous définissons ensuite le concept de diversité dans les ensembles de classifieurs ainsi que les différentes méthodes permettant de l'utiliser directement lors de la création de l'ensemble.<br> <br> Nous proposons un algorithme génétique permettant de construire un ensemble de classifieurs en contrôlant le compromis entre précision et diversité lors de la sélection des membres de l'ensemble. Nous comparons notre algorithme avec différentes heuristiques de sélection proposées dans la littérature pour construire un ensemble de classifieurs selon le paradigme Surproduction et Sélection.<br> <br> Les différentes conclusions que nous tirons des résultats obtenus pour différents jeux de données de l'UCI Repository nous conduisent à la proposition de conditions spécifiques pour lesquelles l'utilisation de la diversité peut amener à une amélioration des performances de l'ensemble de classifieurs. Nous montrons également que l'efficacité de l'approche Surproduction et Sélection repose en grande partie sur la stabilité inhérente au problème posé.<br> <br> Nous appliquons finalement nos travaux de recherche au développement d'un système de classification supervisée pour le contrôle de la pollution atmosphérique survenant sur des sites industriels. Ce système est basé sur l'analyse par traitement d'image de scènes à risque enregistrées à l'aide de caméras. Son principal objectif principal est de détecter les rejets de fumées dangereux émis par des usines sidérurgiques et pétro-chimiques.
27

Détermination de la qualité de la betterave sucrière par spectroscopie proche infrarouge et chimiométrie

ROGGO, YVES 17 July 2003 (has links) (PDF)
Actuellement, l'évaluation de la qualité de la betterave sucrière (Beta vulgaris) est réalisée par analyse d'un jus limpide obtenu après une défécation à l'acétate de plomb. Cependant les métaux lourds sont polluants et leur utilisation pourrait être interdite. C'est pourquoi la spectroscopie proche infrarouge (SPIR) est envisagée comme méthode alternative. La première partie de l'étude concerne la faisabilité du dosage du saccharose par SPIR en utilisant la polarimétrie comme méthode de référence. Afin d'obtenir l'erreur standard de prédiction (SEP) la plus faible possible, différents prétraitements spectraux et différentes méthodes de régression sont évalués. Une approche statistique permet de choisir le modèle utilisé. Ainsi un SEP de 0,1 g de saccharose pour 100 g de betteraves est obtenu sur une gamme de concentration allant de 14 à 21 g / 100 g. La seconde partie développe les problèmes de transfert d'étalonnage et de l'utilisation de la SPIR dans un contexte industriel. Plusieurs approches sont comparées : correction spectrale, correction des valeurs prédites et développement d'un modèle robuste. La dernière solution apparaît être la plus adaptée à notre étude. Il semble donc possible de déterminer la teneur en saccharose de la betterave sur plusieurs instruments en conservant la même précision. Enfin, la faisabilité de l'automatisation de la mesure spectrale est également abordée pour répondre aux cadences industrielles. La troisième partie concerne la détermination simultanée de plusieurs constituants de la betterave afin d'estimer sa qualité. Ainsi, le brix, la teneur en azote et d'autres paramètres sont évalués en appliquant la même démarche que pour le dosage du saccharose. De plus, des paramètres qualitatifs tels que l'origine géographique, la résistance à une maladie ou la période de récolte sont évalués grâce à des méthodes de classification supervisées.
28

Découverte de motifs variables dans les grandes volumes de données audio.

Muscariello, Armando 25 January 2011 (has links) (PDF)
Découverte de motifs variables dans les grandes volumes de données audio. Les données audio, comme les documents oraux ou télévisés ou les données radio, sont composées par de nombreux sequences variables qui se répètent. La découverte de l'emplacement de ces répétitions, ci-après dénommé motifs, aide à déduire les propriétés structurelles de données acoustiques, ce qui facilite l'accès à la partie pertinente des données, et qui permets de résumér des grands documents par un ensemble de quelques éléments particuliers. Cette thèse détails nos efforts dans la conception et la mise en oeuvre d'une architecture non supervisée de découverte de motifs, et montres son applicabilité dans une tâche de decouverte des mots et des segments peu variables comme des chansons. En ce qui concerne la méthodologie, la découverte est réalisée d'une manière totalement non supervisée, ce qui signifie que aucune connaissance acoustiques ou linguistiques sur les données est fournie. Notre solution est basée sur l'intégration d'une technique de traitement de données séquentielle qui exploits la répétitivité local du motifs réel, et une variante segmentale de l'alignement temporel dynamique. En s'appuyant sur cette architecture, une technique pour la comparaison de sequences basée sur leurs matrices d autosimilarité de est introduite, pour améliorer la robustesse à la variabilité du signal de parole. En outre, l'applicabilité du système est démontrée sur une tâche de découverte de chansons sur plusieurs jours de flux audio. Pour adapter le système à cette tâche, des techniques pour accélérer le temps de calcul sont mises en oeuvre, basées sur le sous-échantillonnage des séquences.
29

Méthodes probabilistes pour l'analyse exploratoire de données textuelles

Rigouste, Loïs 11 1900 (has links) (PDF)
Nous abordons le problème de la classification non supervisée de documents par des méthodes probabilistes. Notre étude se concentre sur le modèle de mélange de lois multinomiales avec variables latentes thématiques au niveau des documents. La construction de groupes de documents thématiquement homogènes est une des technologies de base de la fouille de texte, et trouve de multiples applications, aussi bien en recherche documentaire qu'en catégorisation de documents, ou encore pour le suivi de thèmes et la construction de résumés. Diverses propositions récentes ont été faites de modèles probabilistes permettant de déterminer de tels regroupements. Les modèles de classification probabilistes peuvent également être vus comme des outils de construction de représentations numériques synthétiques d'informations contenues dans le document. Ces modèles, qui offrent des facilités pour la généralisation et l'interprétation des résultats, posent toutefois des problèmes d'estimation difficiles, dûs en particulier à la très grande dimensionnalité du vocabulaire. Notre contribution à cette famille de travaux est double: nous présentons d'une part plusieurs algorithmes d'inférence, certains originaux, pour l'estimation du modèle de mélange de multinomiales; nous présentons également une étude systématique des performances de ces algorithmes, fournissant ainsi de nouveaux outils méthodologiques pour mesurer les performances des outils de classification non supervisée. Les bons résultats obtenus par rapport à d'autres algorithmes classiques illustrent, à notre avis, la pertinence de ce modèle de mélange simple pour les corpus regroupant essentiellement des documents monothématiques.
30

Forêts aléatoires : aspects théoriques, sélection de variables et applications

Genuer, Robin 24 November 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de l'apprentissage statistique et est consacrée à l'étude de la méthode des forêts aléatoires, introduite par Breiman en 2001. Les forêts aléatoires sont une méthode statistique non paramétrique, qui s'avère être très performante dans de nombreuses applications, aussi bien pour des problèmes de régression que de classification supervisée. Elles présentent également un bon comportement sur des données de très grande dimension, pour lesquelles le nombre de variables dépasse largement le nombre d'observations. Dans une première partie, nous développons une procédure de sélection de variables, basée sur l'indice d'importance des variables calculée par les forêts aléatoires. Cet indice d'importance permet de distinguer les variables pertinentes des variables inutiles. La procédure consiste alors à sélectionner automatiquement un sous-ensemble de variables dans un but d'interprétation ou de prédiction. La deuxième partie illustre la capacité de cette procédure de sélection de variables à être performante pour des problèmes très différents. La première application est un problème de classification en très grande dimension sur des données de neuroimagerie, alors que la seconde traite des données génomiques qui constituent un problème de régression en plus petite dimension. Une dernière partie, théorique, établit des bornes de risque pour une version simplifiée des forêts aléatoires. Dans un contexte de régression, avec une seule variable explicative, nous montrons d'une part que les estimateurs associés à un arbre et à une forêt atteignent tous deux la vitesse minimax de convergence, et d'autre part que la forêt apporte une amélioration en réduisant la variance de l'estimateur d'un facteur de trois quarts.

Page generated in 0.031 seconds