• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • 1
  • Tagged with
  • 7
  • 7
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Apprentissage incrémental de systèmes d'inférence floue : application à la reconnaissance de gestes manuscrits

Almaksour, Abdullah 29 July 2011 (has links) (PDF)
Nous présentons dans cette thèse une nouvelle méthode pour la conception de moteurs de reconnaissance personnalisables et auto-évolutifs. La contribution majeure de cette thèse consiste à proposer une approche incrémentale pour l'apprentissage de classifieurs basés sur les systèmes d'inférence floue de type Takagi-Sugeno d'ordre 1. Cette approche comprend, d'une part, une adaptation des paramètres linéaires associés aux conclusions des règles en utilisant la méthode des moindres carrés récursive, et, d'autre part, un apprentissage incrémental des prémisses de ces règles afin de modifier les fonctions d'appartenance suivant l'évolution de la densité des données dans l'espace de classification. La méthode proposée, Evolve++, résout les problèmes d'instabilité d'apprentissage incrémental de ce type de systèmes grâce à un paradigme global d'apprentissage où les prémisses et les conclusions sont apprises en synergie et non de façon indépendante. La performance de ce système a été démontrée sur des bancs d'essai connus, en mettant en évidence notamment sa capacité d'apprentissage à la volée de nouvelles classes. Dans le contexte applicatif de la reconnaissance de gestes manuscrits, ce système permet de s'adapter en continue aux styles d'écriture (personnalisation des symboles) et aux nouveaux besoins des utilisateurs (introduction à la volée des nouveaux symboles). Dans ce domaine, une autre contribution a été d'accélérer l'apprentissage de nouveaux symboles par la synthèse automatique de données artificielles. La technique de synthèse repose sur la théorie Sigma-lognormal qui propose un nouvel espace de représentation des tracés manuscrits basé sur un modèle neuromusculaire du mécanisme d'écriture. L'application de déformations sur le profil Sigma-lognormal permet d'obtenir des tracés manuscrits synthétiques qui sont réalistes et proches de la déformation humaine. L'utilisation de ces tracés synthétiques dans notre système accélère l'apprentissage et améliore de façon significative sa performance globale.
2

Optimisation par ensembles flous de la campagne de caractérisation géotechnique.

Boumezerane, Djamalddine 17 May 2012 (has links) (PDF)
Le sujet de cette recherche est l'optimisation de la densité de sondages par la prise en compte de l'information qualitative dans la caractérisation géotechnique de site. En effet le manque d'information et le caractère vague de celle-ci constitue un problème fondamental pour les ingénieurs géotechniciens, notamment lorsqu'il s'agit de conduire une investigation géotechnique. La quantification du nombre de sondages pour la caractérisation de site ne répond pas à des règles bien définies. L'Eurocode 7 mentionne un minimum de sondages ne dépendant que de la surface du site d'étude. La démarche que l'Ingénieur devrait entreprendre vis-à-vis de ce problème est beaucoup plus liée au jugement. Différents paramètres influencent ce jugement, notamment la géologie du site, la variabilité spatiale des conditions de sol, le type de projet ainsi que les sites avoisinants entre autres. Les ensembles flous sont outil adéquat pour ce genre de problèmes, ils permettent de prendre en considération l'aspect qualitatif et le jugement de l'ingénieur. Un système d'inférence flou a été mis en place en prenant en considération les différents paramètres qui peuvent influencer le nombre de points de reconnaissance sur site. Les ensembles flous ont été construits sur la base de questionnaires et de jugement d'experts ainsi qu'en se basant sur l'information disponible dans la littérature technique. Les applications effectuées sur des sites réels ont montré l'efficacité et la pertinence de la démarche adoptée. Simple et logique dans sa construction, elle peut être utilisée de manière systématique. Il suffit de bien introduire les paramètres d'entrée. La prise en compte des incertitudes liées à l'introduction des données dans le système se fait par l'utilisation d'intervalles de valeurs, simulées par la méthode MonteCarlo. Des résultats sous formes d'histogrammes sont obtenus et permettent de mieux apprécier la situation. Le calage des résultats a été fait en utilisant les minimums du nombre de sondages recommandés par l'Eurocode7. L'utilisation des ensembles aléatoires est une autre approche que nous proposons dans ce travail de recherche. Cette approche repose sur le principe des probabilités subjectives (degré de croyance) que les experts associent à des plages de valeurs du nombre de sondages. La construction de boites de probabilités supérieure et inférieure donne une orientation à l'ingénieur sur la densité de points de reconnaissance à effectuer sur site.
3

Study of Electroencephalographic Signal Processing and Classification Techniques towards the use of Brain-Computer Interfaces in Virtual Reality Applications

Lotte, Fabien 04 December 2008 (has links) (PDF)
Une Interface Cerveau-Ordinateur (ICO) est un système de communication qui permet à ses utilisateurs d'envoyer des commandes à un ordinateur via leur activité cérébrale, cette activité étant mesurée, généralement par ÉlectroEncéphaloGraphie (EEG), et traitée par le système. Dans la première partie de cette thèse, dédiée au traitement et à la classification des signaux EEG, nous avons cherché à concevoir des ICOs interprétables et plus efficaces. Pour ce faire, nous avons tout d'abord proposé FuRIA, un algorithme d'extraction de caractéris- tiques utilisant les solutions inverses. Nous avons également proposé et étudié l'utilisation des Systèmes d'Inférences Flous (SIF) pour la classification. Nos évaluations ont montré que FuRIA et les SIF pouvaient obtenir de très bonnes performances de classification. De plus, nous avons proposé une méthode utilisant ces deux algorithmes afin de concevoir une ICO complétement interprétable. Enfin, nous avons proposé de considérer la conception d'ICOs asynchrones comme un problème de rejet de motifs. Notre étude a introduit de nouvelles techniques et a permis d'identifier les classifieurs et les techniques de rejet les plus appropriés pour ce problème. Dans la deuxième partie de cette thèse, nous avons cherché à concevoir des applications de Réalité Virtuelle (RV) controlées par une ICO. Nous avons tout d'abord étudié les performances et les préférences de participants qui interagissaient avec une application ludique de RV à l'aide d'une ICO asynchrone. Nos résultats ont mis en évidence le besoin d'utiliser des ICO adaptées à l'utilisateur ainsi que l'importance du retour visuel. Enfin, nous avons développé une application de RV permettant à un utilisateur d'explorer un musée virtuel par la pensée. Dans ce but, nous avons conçu une ICO asynchrone et proposé une nouvelle technique d'interaction permettant à l'utilisateur d'envoyer des commandes de haut niveau. Une première évaluation semble montrer que l'utilisateur peut explorer le musée plus rapidement avec cette technique qu'avec les techniques actuelles.
4

Fiabilité des réponses fournies par un réseau logique pair-à-pair

Nguyen, Gia Hien 24 November 2008 (has links) (PDF)
Cette thèse contribue à l'amélioration de la fiabilité des réponses fournies par les systèmes pair-à-pair sémantiques de plusieurs façons. La première partie de la thèse a pour but de garantir de ne produire que des réponses bien-fondées quand le réseau global d'un tel système est inconsistant. Deux algorithmes ont été proposés. Le premier détecte des causes d'inconsistances. Il termine, est décentralisé, complet, correct. Le deuxième profite des résultats du premier pour garantir de ne raisonner que de manière bien-fondée. Il termine, est décentralisé, correct. Des résultats prometteurs ont été obtenus à partir des expérimentations. La seconde partie de la thèse considère le problème de modéliser la confiance des pairs en des réponses obtenues. Basé sur un modèle probabiliste, le modèle de confiance proposé a une sémantique claire et permet aux pairs d'estimer la confiance en des réponses obtenues avec une bonne précision même avec peu observations.
5

METHODES DE RESUME DE VIDEO A PARTIR D'INFORMATIONS BAS NIVEAU, DU MOUVEMENT DE CAMERA OU DE L'ATTENTION VISUELLE

Guironnet, Mickael 12 October 2006 (has links) (PDF)
Le volume grandissant de vidéos a suscité le besoin de nouveaux outils d'aide à l'indexation. Un des outils possibles est le résumé de vidéo qui permet de fournir un aperçu rapide à l'usager. L'objectif de cette thèse est d'extraire, à partir d'informations visuelles, un résumé de vidéo contenant le « message » de la vidéo. Nous avons choisi d'étudier trois nouvelles méthodes de résumé de vidéo utilisant différentes informations visuelles.<br />La première méthode de résumé repose sur des caractéristiques de bas niveau (couleur, orientation et mouvement). La combinaison de ces index qui s'appuie sur un système d'inférence floue a permis de construire un résumé hiérarchique. Nous avons montré l'intérêt d'un tel résumé dans une application de la recherche par l'exemple.<br />La deuxième méthode de résumé est construite à partir du mouvement de caméra. Cette caractéristique de plus haut niveau sémantique est réfléchie par le réalisateur et induit une information sur le contenu. Une méthode de classification des mouvements basée sur le Modèle des Croyances Transférables est élaborée. La méthode de résumé est alors établie selon des règles sur l'amplitude et l'enchaînement des mouvements de caméra identifiés.<br />La troisième méthode de résumé est développée à partir de l'attention visuelle. Connaître les endroits où le regard se porte lors du visionnage de la vidéo est une information de plus haut niveau sémantique et pertinente pour créer le résumé. Un modèle spatio-temporel d'attention visuelle est proposé, puis utilisé pour détecter le changement de contenu au cours du temps afin de construire le résumé.
6

Elastic matching for classification and modelisation of incomplete time series / Appariement élastique pour la classification et la modélisation de séries temporelles incomplètes

Phan, Thi-Thu-Hong 12 October 2018 (has links)
Les données manquantes constituent un challenge commun en reconnaissance de forme et traitement de signal. Une grande partie des techniques actuelles de ces domaines ne gère pas l'absence de données et devient inutilisable face à des jeux incomplets. L'absence de données conduit aussi à une perte d'information, des difficultés à interpréter correctement le reste des données présentes et des résultats biaisés notamment avec de larges sous-séquences absentes. Ainsi, ce travail de thèse se focalise sur la complétion de larges séquences manquantes dans les séries monovariées puis multivariées peu ou faiblement corrélées. Un premier axe de travail a été une recherche d'une requête similaire à la fenêtre englobant (avant/après) le trou. Cette approche est basée sur une comparaison de signaux à partir d'un algorithme d'extraction de caractéristiques géométriques (formes) et d'une mesure d'appariement élastique (DTW - Dynamic Time Warping). Un package R CRAN a été développé, DTWBI pour la complétion de série monovariée et DTWUMI pour des séries multidimensionnelles dont les signaux sont non ou faiblement corrélés. Ces deux approches ont été comparées aux approches classiques et récentes de la littérature et ont montré leur faculté de respecter la forme et la dynamique du signal. Concernant les signaux peu ou pas corrélés, un package DTWUMI a aussi été développé. Le second axe a été de construire une similarité floue capable de prender en compte les incertitudes de formes et d'amplitude du signal. Le système FSMUMI proposé est basé sur une combinaison floue de similarités classiques et un ensemble de règles floues. Ces approches ont été appliquées à des données marines et météorologiques dans plusieurs contextes : classification supervisée de cytogrammes phytoplanctoniques, segmentation non supervisée en états environnementaux d'un jeu de 19 capteurs issus d'une station marine MAREL CARNOT en France et la prédiction météorologique de données collectées au Vietnam. / Missing data are a prevalent problem in many domains of pattern recognition and signal processing. Most of the existing techniques in the literature suffer from one major drawback, which is their inability to process incomplete datasets. Missing data produce a loss of information and thus yield inaccurate data interpretation, biased results or unreliable analysis, especially for large missing sub-sequence(s). So, this thesis focuses on dealing with large consecutive missing values in univariate and low/un-correlated multivariate time series. We begin by investigating an imputation method to overcome these issues in univariate time series. This approach is based on the combination of shape-feature extraction algorithm and Dynamic Time Warping method. A new R-package, namely DTWBI, is then developed. In the following work, the DTWBI approach is extended to complete large successive missing data in low/un-correlated multivariate time series (called DTWUMI) and a DTWUMI R-package is also established. The key of these two proposed methods is that using the elastic matching to retrieving similar values in the series before and/or after the missing values. This optimizes as much as possible the dynamics and shape of knowledge data, and while applying the shape-feature extraction algorithm allows to reduce the computing time. Successively, we introduce a new method for filling large successive missing values in low/un-correlated multivariate time series, namely FSMUMI, which enables to manage a high level of uncertainty. In this way, we propose to use a novel fuzzy grades of basic similarity measures and fuzzy logic rules. Finally, we employ the DTWBI to (i) complete the MAREL Carnot dataset and then we perform a detection of rare/extreme events in this database (ii) forecast various meteorological univariate time series collected in Vietnam
7

Représentation Invariante des Expressions Faciales

Soladié, Catherine 13 December 2013 (has links) (PDF)
De plus en plus d'applications ont pour objectif d'automatiser l'analyse des comportements humains afin d'aider ou de remplacer les experts qui réalisent actuellement ces analyses. Cette thèse traite de l'analyse des expressions faciales qui fournissent des informations clefs sur ces comportements. Les travaux réalisés portent sur une solution innovante permettant de définir efficacement une expression d'un visage, indépendamment de la morphologie du sujet. Pour s'affranchir des différences de morphologies entre les personnes, nous utilisons des modèles d'apparence spécifiques à la personne. Nous proposons une solution qui permet à la fois de tenir compte de l'aspect continu de l'espace des expressions et de la cohérence des différentes parties du visage entre elles. Pour ce faire, nous proposons une approche originale basée sur l'organisation des expressions. Nous montrons que l'organisation des expressions, telle que définie, est universelle et qu'elle peut être efficacement utilisée pour définir de façon unique une expression : une expression est caractérisée par son intensité et sa position relative par rapport aux autres expressions. La solution est comparée aux méthodes classiques basées sur l'apparence et montre une augmentation significative des résultats de reconnaissance sur 14 expressions non basiques. La méthode a été étendue à des sujets inconnus. L'idée principale est de créer un espace d'apparence plausible spécifique à la personne inconnue en synthétisant ses expressions basiques à partir de déformations apprises sur d'autres sujets et appliquées sur le neutre du sujet inconnu. La solution est aussi mise à l'épreuve dans un environnement multimodal plus complet dont l'objectif est la reconnaissance d'émotions lors de conversations spontanées. Les résultats montrent que la solution est efficace sur des données réelles et qu'elle permet l'extraction d'informations essentielles à l'analyse des émotions. Notre méthode a été mise en œuvre dans le cadre du challenge international AVEC 2012 (Audio/Visual Emotion Challenge) où nous avons fini 2nd, avec des taux de reconnaissance très proches de ceux obtenus par les vainqueurs. La comparaison des deux méthodes (la nôtre et celles des vainqueurs) semble montrer que l'extraction des caractéristiques pertinentes est la clef de tels systèmes.

Page generated in 0.0492 seconds