• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 7
  • 2
  • Tagged with
  • 25
  • 12
  • 12
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Decomposition by complete minimum separators and applications / Décomposition par séparateurs minimaux complets et applications

Pogorelcnik, Romain 04 December 2012 (has links)
Nous avons utilisé la décomposition par séparateurs minimaux complets. Pour décomposer un graphe G, il est nécessaire de trouver les séparateurs minimaux dans le graphe triangulé H correspondant. Dans ce contexte, nos premiers efforts se sont tournés vers la détection de séparateurs minimaux dans un graphe triangulé. Nous avons défini une structure, que nous avons nommée 'atom tree'. Cette dernière est inspirée du 'clique tree' et permet d'obtenir et de représenter les atomes qui sont les produits de la décomposition. Lors de la manipulation de données à l'aide de treillis de Galois, nous avons remarqué que la décomposition par séparateurs minimaux permettait une approche de type `Diviser pour régner' pour les treillis de Galois. La détection des gènes fusionnés, qui est une étape importante pour la compréhension de l'évolution des espèces, nous a permis d'appliquer nos algorithmes de détection de séparateurs minimaux complets, qui nous a permis de détecter et regrouper de manière efficace les gènes fusionnés. Une autre application biologique fut la détection de familles de gènes d'intérêts à partir de données de niveaux d'expression de gènes. La structure de `l'atom tree' nous a permis d'avoir un bon outils de visualisation et de gérer des volumes de données importantes. / We worked on clique minimal separator decomposition. In order to compute this decomposition on a graph G we need to compute the minimal separators of its triangulation H. In this context, the first efforts were on finding a clique minimal separators in a chordal graph. We defined a structure called atom tree inspired from the clique tree to compute and represent the final products of the decomposition, called atoms. The purpose of this thesis was to apply this technique on biological data. While we were manipulating this data using Galois lattices, we noticed that the clique minimal separator decomposition allows a divide and conquer approach on Galois lattices. One biological application of this thesis was the detection of fused genes which are important evolutionary events. Using algorithms we produced in the course of along our work we implemented a program called MosaicFinder that allows an efficient detection of this fusion event and their pooling. Another biological application was the extraction of genes of interest using expression level data. The atom tree structure allowed us to have a good visualization of the data and to be able to compute large datasets.
22

On the use of a discriminant approach for handwritten word recognition based on bi-character models / Vers une approche discriminante pour la reconnaissance de mots manuscrits en-ligne utilisant des modèles de bi-caractères

Prum, Sophea 08 November 2013 (has links)
Avec l’avènement des dispositifs nomades tels que les smartphones et les tablettes, la reconnaissance automatique de l’écriture manuscrite cursive à partir d’un signal en ligne est devenue durant les dernières décennies un besoin réel de la vie quotidienne à l’ère numérique. Dans le cadre de cette thèse, nous proposons de nouvelles stratégies pour un système de reconnaissance de mots manuscrits en-ligne. Ce système se base sur une méthode collaborative segmentation/reconnaissance et en utilisant des analyses à deux niveaux : caractère et bi-caractères. Plus précisément, notre système repose sur une segmentation de mots manuscrits en graphèmes afin de créer un treillis à L niveaux. Chaque noeud de ce treillis est considéré comme un caractère potentiel envoyé à un moteur de Reconnaissance de Caractères Isolés (RCI) basé sur un SVM. Pour chaque noeud, ce dernier renvoie une liste de caractères associés à une liste d’estimations de probabilités de reconnaissance. Du fait de la grande diversité des informations résultant de la segmentation en graphèmes, en particulier à cause de la présence de morceaux de caractères et de ligatures, l’injection de chacun des noeuds du treillis dans le RCI engendre de potentielles ambiguïtés au niveau du caractère. Nous proposons de lever ces ambiguïtés en utilisant des modèles de bi-caractères, basés sur une régression logistique dont l’objectif est de vérifier la cohérence des informations à un niveau de reconnaissance plus élevé. Finalement, les résultats renvoyés par le RCI et l’analyse des modèles de bi-caractères sont utilisés dans la phase de décodage pour parcourir le treillis dans le but de trouver le chemin optimal associé à chaque mot dans le lexique. Deux méthodes de décodage sont proposées (recherche heuristique et programmation dynamique), la plus efficace étant basée sur de la programmation dynamique. / With the advent of mobile devices such as tablets and smartphones over the last decades, on-line handwriting recognition has become a very highly demanded service for daily life activities and professional applications. This thesis presents a new approach for on-line handwriting recognition. This approach is based on explicit segmentation/recognition integrated in a two level analysis system: character and bi-character. More specifically, our system segments a handwritten word in a sequence of graphemes to be then used to create a L-levels lattice of graphemes. Each node of the lattice is considered as a character to be submitted to a SVM based Isolated Character Recognizer (ICR). The ICR returns a list of potential character candidates, each of which is associated with an estimated recognition probability. However, each node of the lattice is a combination of various segmented graphemes. As a consequence, a node may contain some ambiguous information that cannot be handled by the ICR at character level analysis. We propose to solve this problem using "bi-character" models based on Logistic Regression, in order to verify the consistency of the information at a higher level of analysis. Finally, the recognition results provided by the ICR and the bi-character models are used in the word decoding stage, whose role is to find the optimal path in the lattice associated to each word in the lexicon. Two methods are presented for word decoding (heuristic search and dynamic programming), and dynamic programming is found to be the most effective.
23

Aide au diagnostic de la maladie d’Alzheimer par des techniques de sélection d’attributs pertinents dans des images cérébrales fonctionnelles obtenues par tomographie par émission de positons au 18FDG / Computer-aided diagnosis technique for brain pet images classification in the case of Alzheimer disease (AD)

Garali, Imène 07 December 2015 (has links)
Dans le cadre de cette thèse, nous nous sommes intéressés à l’étude de l’apport d’une aide assistée par ordinateur au diagnostic de certaines maladies dégénératives du cerveau, en explorant les images de tomographie par émission de positons, par des techniques de traitement d’image et d’analyse statistique.Nous nous sommes intéressés à la représentation corticale des 116 régions anatomiques, en associant à chacune d’elles un vecteur d’attribut issu du calcul des 4 premiers moments des intensités de voxels, et en y incluant par ailleurs l’entropie. Sur la base de l’aire de courbes ROC, nous avons établi qualitativement la pertinence de chacune des régions anatomiques, en fonction du nombre de paramètres du vecteur d’attribut qui lui était associé, pour séparer le groupe des sujets sains de celui des sujets atteints de la maladie d’Alzheimer. Dans notre étude nous avons proposé une nouvelle approche de sélection de régions les plus pertinentes, nommée "combination matrix", en se basant sur un système combinatoire. Chaque région est caractérisée par les différentes combinaisons de son vecteur d’attribut. L’introduction des régions les plus pertinentes(en terme de pouvoir de séparation des sujets) dans le classificateur supervisé SVM nous a permis d’obtenir, malgré la réduction de dimension opérée, un taux de classification meilleur que celui obtenu en utilisant l’ensemble des régions. / Our research focuses on presenting a novel computer-aided diagnosis technique for brain Positrons Emission Tomography (PET) images. It processes and analyzes quantitatively these images, in order to better characterize and extract meaningful information for medical diagnosis. Our contribution is to present a new method of classifying brain 18 FDG PET images. Brain images are first segmented into 116 Regions Of Interest (ROI) using an atlas. After computing some statistical features (mean, standarddeviation, skewness, kurtosis and entropy) on these regions’ histogram, we defined a Separation Power Factor (SPF) associated to each region. This factor quantifies the ability of each region to separate neurodegenerative diseases like Alzheimer disease from Healthy Control (HC) brain images. A novel region-based approach is developed to classify brain 18FDG-PET images. The motivation of this work is to identify the best regional features for separating HC from AD patients, in order to reduce the number of features required to achieve an acceptable classification result while reducing computational time required for the classification task.
24

Application de techniques de fouille de données en Bio-informatique

Ramstein, Gérard 07 June 2012 (has links) (PDF)
Les travaux de recherche présentés par l'auteur ont pour objet l'application de techniques d'extraction de connaissances à partir de données (ECD) en biologie. Deux thèmes majeurs de recherche en bio-informatique sont abordés : la recherche d'homologues distants dans des familles de protéines et l'analyse du transcriptome. La recherche d'homologues distants à partir de séquences protéiques est une problématique qui consiste à découvrir de nouveaux membres d'une famille de protéines. Celle-ci partageant généralement une fonction biologique, l'identification de la famille permet d'investiguer le rôle d'une séquence protéique. Des classifieurs ont été développés pour discriminer une superfamille de protéines particulière, celle des cytokines. Ces protéines sont impliquées dans le système immunitaire et leur étude est d'une importance cruciale en thérapeutique. La technique des Séparateurs à Vastes Marges (SVM) a été retenue, cette technique ayant donné les résultats les plus prometteurs pour ce type d'application. Une méthode originale de classification a été conçue, basée sur une étape préliminaire de découverte de mots sur-représentés dans la famille d'intérêt. L'apport de cette démarche est d'utiliser un dictionnaire retreint de motifs discriminants, par rapport à des techniques utilisant un espace global de k-mots. Une comparaison avec ces dernières méthodes montre la pertinence de cette approche en termes de performances de classification. La seconde contribution pour cette thématique porte sur l'agrégation des classifieurs basée sur des essaims grammaticaux. Cette méthode vise à optimiser l'association de classifieurs selon des modèles de comportement sociaux, à la manière des algorithmes génétiques d'optimisation. Le deuxième axe de recherche traite de l'analyse des données du transcriptome. L'étude du transcriptome représente un enjeu considérable, tant du point de vue de la compréhension des mécanismes du vivant que des applications cliniques et pharmacologiques. L'analyse implicative sur des règles d'association, développée initialement par Régis Gras, a été appliquée aux données du transcriptome. Une approche originale basée sur des rangs d'observation a été proposée. Deux applications illustrent la pertinence de cette méthode : la sélection de gènes informatifs et la classification de tumeurs. Enfin, une collaboration étroite avec une équipe INSERM dirigée par Rémi Houlgatte a conduit à l'enrichissement d'une suite logicielle dédiée aux données de puces à ADN. Cette collection d'outils dénommée MADTOOLS a pour objectifs l'intégration de données du transcriptome et l'aide à la méta-analyse. Une application majeure de cette suite utilise les données publiques relatives aux pathologies musculaires. La méta-analyse, en se basant sur des jeux de données indépendants, améliore grandement la robustesse des résultats. L'étude systématique de ces données a mis en évidence des groupes de gènes co-exprimés de façon récurrente. Ces groupes conservent leur propriété discriminante au travers de jeux très divers en termes d'espèces, de maladies ou de conditions expérimentales. Cette étude peut évidemment se généraliser à l'ensemble des données publiques concernant le transcriptome. Elle ouvre la voie à une approche à très grande échelle de ce type de données pour l'étude d'autres pathologies humaines.
25

Détection de motifs temporels dans les environnements multi-perceptifs. Application à la classification automatique des Activités de la Vie Quotidienne d'une personne suivie à domicile par télémédecine

Fleury, Anthony 24 October 2008 (has links) (PDF)
À l'horizon 2050, environ un tiers de notre population sera âgée de soixante-cinq ans et plus. Les travaux de l'équipe AFIRM du TIMC-IMAG visent à surveiller les personnes âgées à domicile pour détecter une perte d'autonomie le plus précocement possible. Pour ce faire, les travaux de cette thèse tentent d'objectiver les critères ADL ou les grilles de type AGGIR, en classifiant de manière automatique les différentes activités de la vie quotidienne d'une personne par l'intégration de capteurs, créant un Habitat Intelligent pour la Santé (HIS).<br />L'appartement HIS possède des détecteurs de présence infrarouges (localisation), des contacteurs de porte (utilisation de certaines commodités), un capteur de température et d'hygrométrie dans la salle de bains et des microphones (classification des sons/ reconnaissance de la parole avec l'équipe GETALP du LIG). Un capteur cinématique embarqué détecte les transferts posturaux (reconnaissance de formes avec la transformée en ondelettes) et les périodes de marche (analyse fréquentielle).<br />La première partie de ce manuscrit présente la réalisation du capteur cinématique et les algorithmes associés puis une première validation sur des sujets jeunes suivi de la mise en place et de la validation des autres capteurs de l'appartement HIS et enfin l'algorithme de classification des sept activités de la vie quotidienne reconnues (hygiène, élimination, préparation et prise de repas, repos, habillage/déshabillage, détente et communication), par l'intermédiaire des séparateurs à vaste marge. La seconde partie décrit le protocole expérimental pour valider cette classification et discute de la généralisation des premiers résultats présentés.

Page generated in 0.0616 seconds