611 |
Reconnaissance de l'écriture manuscrite en-ligne par approche combinant systèmes à vastes marges et modèles de Markov cachésAhmad, Abdul Rahim 29 December 2008 (has links) (PDF)
Nos travaux concernent la reconnaissance de l'écriture manuscrite qui est l'un des domaines de prédilection pour la reconnaissance des formes et les algorithmes d'apprentissage. Dans le domaine de l'écriture en-ligne, les applications concernent tous les dispositifs de saisie permettant à un usager de communiquer de façon transparente avec les systèmes d'information. Dans ce cadre, nos travaux apportent une contribution pour proposer une nouvelle architecture de reconnaissance de mots manuscrits sans contrainte de style. Celle-ci se situe dans la famille des approches hybrides locale/globale où le paradigme de la segmentation/reconnaissance va se trouver résolu par la complémentarité d'un système de reconnaissance de type discriminant agissant au niveau caractère et d'un système par approche modèle pour superviser le niveau global. Nos choix se sont portés sur des Séparateurs à Vastes Marges (SVM) pour le classifieur de caractères et sur des algorithmes de programmation dynamique, issus d'une modélisation par Modèles de Markov Cachés (HMM). Cette combinaison SVM/HMM est unique dans le domaine de la reconnaissance de l'écriture manuscrite. Des expérimentations ont été menées, d'abord dans un cadre de reconnaissance de caractères isolés puis sur la base IRONOFF de mots cursifs. Elles ont montré la supériorité des approches SVM par rapport aux solutions à bases de réseaux de neurones à convolutions (Time Delay Neural Network) que nous avions développées précédemment, et leur bon comportement en situation de reconnaissance de mots.
|
612 |
Reconnaissance de la Langue Française Parlée Complété (LPC) : décodage phonétique des gestes main-lèvres.Aboutabit, Noureddine 11 December 2007 (has links) (PDF)
La Langue Française Parlée Complétée (LPC) héritée du Cued Speech (CS) a été conçue pour compléter la lecture labiale par nature ambigüe et ainsi améliorer la perception de la parole par les sourds profonds. Dans ce système, le locuteur pointe des positions précises sur le côté de son visage ou à la base du cou en présentant de dos des formes de main bien définies. La main et les lèvres portent chacune une partie complémentaire de l'information phonétique. Cette thèse présente tout d'abord une modélisation du flux manuel pour le codage automatique des positions de la main et de la configuration. Puis les travaux sont centrés sur le flux labial en discutant la classification des voyelles et des consonnes du Français. Le flux labial est composé des variations temporelles de paramètres caractéristiques issus du contour interne et externe des lèvres. Dans le cas des voyelles la méthode de classification utilise la modélisation gaussienne et les résultats montrent une performance moyenne de 89 % en fonction de la position de la main LPC. Le contexte vocalique est pris en compte dans le cas des consonnes par une modélisation HMM de la transition labiale de la consonne vers la voyelle avec un taux d'identification de 80 % en termes de visèmes CV. Un modèle de fusion « Maître-Esclave » piloté par le flux manuel est présenté et discuté dans le cadre de la reconnaissance des voyelles et des consonnes produites en contexte LPC. Le modèle de fusion prend en compte les contraintes temporelles de la production et la perception du LPC, ce qui constitue aussi une première contribution à la modélisation du système LPC du point de vue perceptif.
|
613 |
Modèles et Heuristiques pour le traitement spatio-temporel de l'information environnementaleBatton-Hubert, Mireille 04 December 2006 (has links) (PDF)
Ce mémoire a pour objectif de faire le bilan qualitatif et quantitatif de mes activités de recherche depuis ma nomination à l'Ecole nationale supérieure des mines de Saint-Étienne en 1996. La première partie sera consacrée à la pertinence scientifique du concept de la connaissance d'un phénomène continu simultanément dans l'espace et dans le temps dans un Environnement physique et anthropique. Cette problématique de recherche est centrée sur un domaine d'application, l'optimisation et la simulation d'impacts environnementaux. Volontairement elle ne se scinde pas entre le réalisé et le futur. Car les travaux de recherche se déroulent dans un continuum temporel du point de vue des problématiques d'application ou au niveau des avancées historiques. Ce qui impliquerait que les travaux passés sont exhaustifs, et sans amélioration possible. Ce travail est une réflexion approfondie d'une préoccupation commune se déclinant au travers de 2 grands axes de recherche (volet 1 et volet 2) qui débouchent sur une proposition de thématiques de recherche pour les années à venir (volet 3). Les 3 volets sont :<br>- volet 1 : Structuration et Modélisation de l'information spatialisée environnementale - aide à la décision en hydrodynamique et Ressources en eaux<br>- volet 2 : Analyse espace - temps de l'information environnementale<br>- volet 3 : Justification d'heuristique de la composante espace - temps de l'information environnementale Un rapport annexe contient le syllabus:<br>- des activités d'enseignement et de responsabilités diverses assurées,<br>- des thématiques de recherche abordées avec leurs principaux résultats issues :<br> - des activités d'encadrement doctoral<br> - de la réalisation de projets de recherche ( académique et appliquée )<br> - des publications réalisées à ce jour. <br>Ce document est établi en vue de l'obtention de l'Habilitation à Diriger des Recherches.
|
614 |
Reconnaissance d'objets polyédriques par indexation dans une base de modèlesSossa, Humberto 09 December 1992 (has links) (PDF)
Cette thèse s'intéresse au probleme de la reconnaissance d'objets en présence d'une vaste base de modèles. L'indexation de modèles peut être décrite comme suit: étant donne un groupe d'indices image, extraire rapidement de la base de modèles, les modèles contenant le groupe d'indices. La combinatoire du paradigme classique d'appariement indices-modèles étant prohibitive dans ce cas, nous proposons une methode d'indexation par une technique de hachage de graphes. Nous décrivons d'abord les principes: codage d'image et des modelés sous une forme de graphes, gestion d'une base de modèles par tables hash-codees, comparaison de graphes sur la base de leur caractérisation polynomiale, accès a la base de modèles. Ensuite, nous décrivons le système mis en œuvre selon ces principes, et nous présentons quelques résultats d'expérimentation
|
615 |
Traitement d'images en analyse de défaillances de circuits intégrés par faisceau d'électronsConard, Dider 11 February 1991 (has links) (PDF)
Cette thèse présente l'étude et la réalisation d'un système automatique et intégré d'analyse de défaillances de circuits VLSI par faisceau d'électrons. Le principe d'analyse consiste a comparer les images représentant en contraste de potentiel le fonctionnement interne du circuit défaillant a celles d'un circuit de référence. L'application de cette technique de test a des circuits dont la structure détaillée est inconnue, a nécessité le développement d'un outil automatique permettant d'extraire les différences de contraste sur la totalité du circuit. L'automatisation s'est heurtée aux problèmes d'alignement entre les images a comparer. Une technique de reconnaissance des formes, basée sur la détection des coins, a été mise en œuvre pour s'affranchir de ces problèmes. Ces travaux ont été valides par une étude expérimentale menée sur des microprocesseurs 68000
|
616 |
Ontology Based Object Learning and RecognitionMaillot, Nicolas 14 December 2005 (has links) (PDF)
Cette thèse se place dans le cadre du problème de la reconnaissance d'objets et plus généralement dans celui de la vision cognitive. L'approche proposée se décompose en trois phases principales:<br>Une phase d'acquisition de connaissances qui consiste à acquérir la connaissance d'un domaine d'application sous la forme d'une hiérarchie de classes d'objets et de sous-parties.<br>Il s'agit également de décrire ces classes du domaine en termes de concepts visuels (forme, texture, couleur, relations spatiales) fournis par une ontologie. Chaque concept visuel de cette ontologie étant associé à des descripteurs bas niveau, le fossé sémantique est réduit de manière conviviale pour un expert.<br>La phase d'apprentissage consiste, à partir d'images d'exemples segmentées et labellisées, à obtenir un ensemble de détecteurs de concepts visuels. Ces détecteurs sont obtenus par l'entrainement de Support Vector Machines avec les descripteurs numériques extraits dans les images d'exemples segmentées et labellisées par des concepts visuels.<br>La phase de catégorisation utilise la connaissance acquise ainsi que les détecteurs de concepts visuels obtenus lors de la phase d'apprentissage. La connaissance sert à générer des hypothèses qui doivent être vérifiées dans l'image à interpréter. Cette vérification consiste à détecter des concepts visuels dans l'image segmentée automatiquement. Le résultat de la catégorisation est exprimé en termes de classes du domaine mais aussi en termes de concepts visuels.<br>L'approche proposée a notamment été utilisée été utilisée pour l'indexation et la recherche sémantique d'images.
|
617 |
Modélisation statistique du langage à partir d'Internet pour la reconnaissance automatique de la parole continueVaufreydaz, Dominique 07 January 2002 (has links) (PDF)
Les ressources textuelles sont celles qui font le plus défaut dans les recherches sur la modélisation statistique du langage, surtout pour l'apprentissage de modèles adaptés au dialogue. Cette thèse propose d'utiliser les documents en provenance d'Internet pour l'apprentissage de tels modèles. La collecte de plusieurs corpus a permis la mise en évidence de certaines propriétés intéressantes. Celles-ci concernent la quantité de texte, le nombre de vocables différents mais surtout la possibilité de trouver des formes propres à l'expression orale. Ces formes ne se trouvent pas dans les corpus journalistiques qui sont pourtant très largement employés. L'évolution de ces documents au cours des dernières années a encore accru cette adéquation. La thèse introduit alors une nouvelle méthode, entièrement automatique, de calcul de modèles de langage à partir de ces données. Elle commence par un filtrage dit par " blocs minimaux " basé sur le vocabulaire de l'application visée. Ensuite, le calcul du modèle de langage statistique, type n-gramme, se fait au prix d'une légère adaptation des algorithmes standards dans le domaine. Les résultats de cette méthode sont de l'ordre de 90% de taux de reconnaissance pour des petits vocabulaires et de 80% pour de plus larges vocabulaires. De plus, les résultats obtenus, sans aucune adaptation, sur une base sonore état de l'art de l'AUPELF sont du même ordre que ceux des autres laboratoires ayant participé à l'évaluation. La thèse présente aussi d'autres applications d'Internet. Ainsi, L'utilisation de la hiérarchie des newsgroups permet la mise au point d'un détecteur de thème fondé sur une normalisation de modèles unigrammes. Ses performances sont d'environ 70%. L'intégration de ce détecteur au sein des algorithmes de reconnaissance de la parole permet un gain de 5% en taux de reconnaissance. Enfin, une adaptation de la méthode des blocs minimaux a été utilisée pour faciliter la définition d'un ensemble de phrases pour l'enregistrement d'un corpus sonore.
|
618 |
Une nouvelle approche pour la vérification des masques des circuits intégrésJerraya, A.A. 24 November 1983 (has links) (PDF)
Approche pour la réalisation d'outils de vérification des masques de circuit intégrés. Le système Comfor est un extracteur de schéma électrique paramétrable par la technologie. Il analyse des images de C.I. pour reconnaitre les composants électriques et calculer leurs caractéristiques. Comfor base à la fois sur des notions de programmation logique et des techniques de reconnaissance syntaxique de formes
|
619 |
Modélisation et classification des données de grande dimension : application à l'analyse d'images.Bouveyron, Charles 28 September 2006 (has links) (PDF)
Le thème principal d'étude de cette thèse est la modélisation et la classification des données de grande<br />dimension. Partant du postulat que les données de grande dimension vivent dans des sous-espaces de<br />dimensions intrinsèques inférieures à la dimension de l'espace original et que les données de classes<br />différentes vivent dans des sous-espaces différents dont les dimensions intrinsèques peuvent être aussi<br />différentes, nous proposons une re-paramétrisation du modèle de mélange gaussien. En forçant certains<br />paramètres à être communs dans une même classe ou entre les classes, nous exhibons une famille de 28 modèles gaussiens adaptés aux données de grande dimension, allant du modèle le plus général au modèle le plus parcimonieux. Ces modèles gaussiens sont ensuite utilisés pour la discrimination et la classification<br />automatique de données de grande dimension. Les classifieurs associés à ces modèles sont baptisés respectivement High Dimensional Discriminant Analysis (HDDA) et High Dimensional Data Clustering (HDDC) et<br />leur construction se base sur l'estimation par la méthode du maximum de vraisemblance des paramètres du<br />modèle. La nature de notre re-paramétrisation permet aux méthodes HDDA et HDDC de ne pas être perturbées par le mauvais conditionnement ou la singularité des matrices de covariance empiriques des classes et d'être<br />efficaces en terme de temps de calcul. Les méthodes HDDA et HDDC sont ensuite mises en dans le cadre d'une<br />approche probabiliste de la reconnaissance d'objets dans des images. Cette approche, qui peut être<br />supervisée ou faiblement supervisée, permet de localiser de manière probabiliste un objet dans une<br />nouvelle image. Notre approche est validée sur des bases d'images récentes et comparée aux meilleures<br />méthodes actuelles de reconnaissance d'objets.
|
620 |
Matériaux moléculaires pour l'analyse voltammétriques de cations métalliques : récepteurs à multiples centres rédox et polymères complexants.Heitzmann, Marie 22 September 2005 (has links) (PDF)
Ce mémoire est consacré à la conception de matériaux moléculaires pour la détection et le dosage in situ d'espèces cationiques par deux approches électrochimiques d'analyse : la reconnaissance électrochimique cationique et la redissolution anodique.<br />La première partie de ce travail concerne l'étude de deux récepteurs complexants possédant plusieurs centres rédox. Ces récepteurs présentent des propriétés de reconnaissance électrochimique, en milieux aqueux ou organique, et cette reconnaissance est basée soit sur le phénomène de communication électronique intramoléculaire entre les centres rédox multiples, soit sur les modes de coordination mis en jeu dans les complexes formés. Ces ligands ont été mis à profit pour la détection, la quantification et la différenciation électrochimique de cations métalliques et lanthanides.<br />Dans une seconde partie, deux matériaux d'électrodes constitués par des films de polymères complexants permettant la détection et le dosage électrochimique de cations métalliques ont été élaborés et optimisés dans le but de développer de nouveaux dispositifs électroanalytiques sensibles et sélectifs pour l'analyse de traces de métaux.
|
Page generated in 0.0264 seconds