1061 |
Analyse de mouvement facial dur des images monoculaires avec application aux télécommunications: Couplage de la compréhension de l'expression et du suivi de la pose du visageAndrés Del Valle, Ana C. 19 September 2003 (has links) (PDF)
Les techniques d'animation faciale sont devenues un sujet actif de recherche dans la communauté des télécommunications. Ce domaine a pour but de remplacer les systèmes traditionnels de communications par des solutions plus adaptées aux besoins humains, en utilisant, par exemple, la réalité virtuelle. Cette thèse doctorale se situe dans le cadre du développement d'un système d'analyse/synthèse qui étudie les expressions et la pose des visages sur des séquences vidéo monoculaires. Le mouvement analysé est utilisé pour animer le clone du visage associé à l'utilisateur, tout en générant des paramètres d'animation faciale. Le noyau central du système mentionné est l'algorithme de suivi du visage qui est capable de générer les paramètres qui déterminent la pose du visage. Le filtre de Kalman utilisé pendant le suivi prédit les angles de rotation et les valeurs de translation qui sont ensuite appliqués sur le clone du locuteur. Ces données nous permettent de profiter de l'image virtuelle de l'animation du clone obtenue pour rétro-alimenter l'analyse. Ce rapport expose minutieusement une nouvelle approche pour étudier les expressions faciales couplées avec le suivi du visage. Nous avons développé des méthodes d'analyse spécifiques pour chaque trait caractéristique du visage que nous avons considéré comme les éléments les plus importants pendant la communication: les yeux, les sourcils et la bouche. Nous avons conçu des algorithmes basés sur la physionomie du locuteur et qui utilisent des modèles de mouvement individuels pour chacun des traits. Les algorithmes font une double vérification de la cohérence des résultats en utilisant la corrélation existant entre les traits analysés. D'abord, ces algorithmes ont été développés et testés pour fonctionner sur des visages analysés depuis un point de vue frontal. Ensuite, ils ont été adaptés pour travailler avec n'importe quelle pose en utilisant des paramètres de la pose et des données 3D du clone. Cette solution permet une plus grande liberté de mouvement du locuteur face à la camera. L'adaptation est possible en redéfinissant les modèles d'analyse des traits sur le clone (le modèle 3D), et en réinterprétant l'information analysée en relation avec les paramètres 3D qui indiquent la pose du visage. Ce travail contient les résultats expérimentaux, les contributions principales et les références bibliographiques pertinentes sur l'ensemble des travaux de recherche.
|
1062 |
Appariement Robuste de Formes Visuelles Complexes, Application à la Détection d'ObjetsOnis, Sébastien 15 October 2009 (has links) (PDF)
L'augmentation des moyens informatiques associée à l'avènement de méthodes de classification performantes tels que l'AdaBoost ou les réseaux de neurones ont permis d'obtenir des systèmes de détection d'objets efficaces, mais nécessitant l'annotation manuelle de plusieurs milliers d'images exemples. Ce document présente une méthode permettant d'obtenir un système de détection d'objets capable de fonctionner avec une base d'images exemples de dimension réduite, tout en obtenant les taux de détection de l'état de l'art en détection de visages. Nous commençons par présenter les diverses méthodes utilisées en détection d'objets, et en particulier, les méthodes d'apprentissages associées. Puis, nous expliquons un système de détection basé sur la corrélation et fonctionnant avec une base d'exemples de moins d'une centaine d'images. Ce système nous a permis de mettre au point une méthode d'association de mesures de similarité utilisant des filtres de contours orientés orthogonaux. Les filtres sont obtenus par une méthode dérivée de la PCA qui permet de calculer des filtres orthogonaux adaptés à la classe d'objets à détecter. Nous montrons alors qu'il est possible de mettre au point un système de détection de visages fonctionnel avec très peu d'exemples. La corrélation s'avérant le facteur limitant le plus les résultats, nous avons ensuite remplacé cette dernière par un Perceptron Multicouche. Nous avons appliqué les méthodes d'associations d'images de contours orientés et montré une nette amélioration des taux de détection en utilisant des bases d'apprentissages de dimension réduite. Finalement, nous mettons en évidence les perspectives et solutions possibles qui nous permettraient de minimiser encore le nombre d'exemples d'apprentissage.
|
1063 |
INFÉRENCE DE CONNAISSANCES SÉMANTIQUES, APPLICATION AUX IMAGES SATELLITAIRESBordes, Jean-Baptiste 03 April 2009 (has links) (PDF)
Une méthode probabiliste pour annoter des images satellites avec des concepts sémantiques est présentée. Cette méthode part de caractéristiques de bas-niveau quantifiées dans l'image et utilise une phase d'apprentissage à partir des concepts fournis par l'utilisateur avec un lot d'images exemples. La contribution principale est la définition d'un formalisme pour la mise en relation d'un réseau sémantique hiérarchique avec un modèle stochastique. Les liens sémantiques de synonymie, méronymie, hyponymie sont mis en correspondance avec différents types de modélisations inspirées des méthodes utilisées en fouille de données textuelles. Les niveaux de structuration et de généralité des différents concepts utilisés sont pris en compte pour l'annotation et la modélisation de la base de données. Une méthode de sélection de modèle permet de déduire le réseau sémantique correspondant à la modélisation optimale de la base de données. Cette approche exploite ainsi la puissance de description des réseaux sémantique tout en conservant la flexibilité des approches statistiques par apprentissage. La méthode a été évaluée sur des bases de données SPOT5 et Quickbird.
|
1064 |
Modèles Parcimonieux et Optimisation Convexe pour la Séparation Aveugle de Sources ConvolutivesSudhakara Murthy, Prasad 21 February 2011 (has links) (PDF)
La séparation aveugle de sources à partir de mélanges sous-déterminés se fait traditionnellement en deux étapes: l'estimation des filtres de mélange, puis celle des sources. L'hypothèse de parcimonie temps-fréquence des sources facilite la séparation, qui reste cependant difficile dans le cas de mélanges convolutifs à cause des ambiguités de permutation et de mise à l'échelle. Par ailleurs, la parcimonie temporelle des filtres facilite les techniques d'estimation aveugle de filtres fondées sur des corrélations croisées, qui restent cependant limitées au cas où une seule source est active. Dans cette thèse, on exploite conjointement la parcimonie des sources et des filtres de mélange pour l'estimation aveugle de filtres parcimonieux à partir de mélanges convolutifs stéréophoniques de plusieurs sources. Dans un premier temps, on montre comment la parcimonie des filtres permet de résoudre le problème de permutation, en l'absence de problème de mise à l'échelle. Ensuite, on propose un cadre constitué de deux étapes pour l'estimation, basé sur des versions temps-fréquence de la corrélation croisée et sur la minimisation de norme ℓ1: a) un clustering qui regroupe les points temps-fréquence où une seule source est active; b) la résolution d'un problème d'optimisation convexe pour estimer les filtres. La performance des algorithmes qui en résultent est évalués numériquement sur des problèmes de filtre d'estimation de filtres et de séparation de sources audio.
|
1065 |
Prototypage rapide d'applications parallèles de vision artificielle par squelettes fonctionnelsGinhac, Dominique 25 January 1999 (has links) (PDF)
Les travaux présentés dans ce mémoire s'inscrivent dans la problématique dite d'adéquation algorithme architecture. Ils concernent la conception et le développement d'outils logiciels permettant de faire du prototypage rapide d'applications parallèles de vision artificielle sur des architectures de type MIMD à mémoire distribuée. De tels outils ont pour objectif de faciliter l'évaluation rapide d'un ensemble de solutions vis à vis d'un problème donné en diminuant de manière drastique les temps de cycle conception-implantation-validation des applications. L'outil SKiPPER développé dans le cadre de ces travaux est basé sur le concept des squelettes de parallélisation. Ceux-ci représentent des constructeurs génériques de haut niveau encapsulant des formes communes de parallélisme tout en dissimulant les détails relatifs à l'exploitation de ce parallélisme sur la plate-forme cible. Au niveau langage, la spécification des squelettes est réalisée au sein du langage fonctionnel Caml sous la forme de fonctions d'ordre supérieur. Ainsi, la spécification d'une application est un programme purement fonctionnel dans lequel l'expression du parallélisme est limitée au choix et à l'instanciation des squelettes choisis dans une base pré-définie. L'environnement de développement SKiPPER est organisé autour de trois modules réalisant respectivement l'expansion du code fonctionnel en un graphe flot de données (outil Dromadaire), le placement-ordonnancement de ce graphe sur l'architecture matérielle (outil SynDEx développé à l'INRIA) et la génération de code cible final pour l'architecture cible (la machine Transvision du LASMEA dans notre cas). L'applicabilité des concepts mis en \oe uvre dans SKiPPER et des outils développés conjointement est démontrée également dans les travaux présentés dans ce mémoire. Diverses applications de complexité réaliste (étiquetage en composantes connexes, détection et suivi de signalisation horizontale autoroutière) ont été parallélisées automatiquement par l'environnement SKiPPER validant ainsi l'objectif initial de prototypage rapide d'applications parallèles de vision artificielle à fortes contraintes temporelles sur architecture dédiée.
|
1066 |
Eléments méthodologiques pour le développement des systèmes décisionnels dans un contexte de réutilisationEstella, Annoni 16 July 2007 (has links) (PDF)
Face au besoin croissant de réactivité et de compétitivité des organisations, les développements de systémes qui facilitent la prise de décision se sont démocratisés. Ces systèmes sont des «systèmes d'information décisionnels» (SID). Cependant, 80% des projets décisionnels ne parviennent pas à satisfaire les besoins des utilisateurs et 40% d'entre eux échouent à faciliter la prise de décision. Les récentes propositions de méthodes liées aux SID définissent leur schéma à partir des besoins des utilisateurs et des systèmes sources. Néanmoins, elles ne permettent pas de représenter toutes les spécificités des SID. De plus, elles reposent sur des modèles spécifiques ne représentant que les données, l'aspect dynamique des SID n'étant que peu abordé. Aucun de ces modèles n'est donc reconnu par les chercheurs et les industriels. Dans un premier temps, nous proposons une méthode qui prend en compte les spécificités du SID ainsi que celles des besoins de ces acteurs. Nous analysons l'aspect statique et l'aspect dynamique du SID d´efinis à partir de structures spécifiant les besoins et nous les représentons via un modèle proche de la vision multidimensionnelle des données par les utilisateurs. A partir de cette formalisation, nous guidons suivant un processus automatique le choix de l'architecture du SID adaptée à un projet. Cette architecture repose sur plusieurs types de modules décisionnels dont certains sont multidimensionnels. Nous proposons donc un modèle multidimensionnel généralisé à partir des propositions existantes, visant par la même de répondre à ce manque de modèle standard. Dans un second temps, nous proposons un catalogue de patrons qui capitalise notre méthode de développement. Ce catalogue favorise la réutilisation systématique de notre méthode : d'une part, la formalisation du contexte d'un patron facilite sa recherche car les conditions dans lesquelles il est utilisable et celles dans lesquelles il requiert un autre patron sont formellement spécifiées, d'autre part, la gestion intégrée de la documentation dans sa représentation contribue à améliorer la fiabilit´e des systèmes développés. Enfin, pour faciliter le développement rapide de SID par réutilisation de nos patrons, nous avons développé un outil, appelé eBIPAD (Electronic Business Intelligence Patterns for Analysis and Design), de gestion de ces patrons avec des fonctionnalités d'organisation et de réutilisation. Cet outil est dédié aux administrateurs des patrons et aux concepteurs décisionnels. Nous avons pu valider nos propositions au cours des missions que nous avons menées au sein de la société, I-D6, spécialisée dans le décisionnel, et ce, dans le cadre d'une collaboration CIFRE.
|
1067 |
Traitement personnalisé de requête top-k: des systèmes centralisés aux systèmes décentralisésBai, Xiao 08 December 2010 (has links) (PDF)
La révolution Web 2.0 a transformé l'Internet, une infrastructure auparavant en lecture seule, en une plate-forme collaborative en lecture-écriture. La forte augmentation des donnés générées par les utilisateurs des systèmes collaboratifs constitue désormais une source considérable d'informations. Pourtant, effectuer efficacement des recherches dans un tel environnement est devenu plus difficile, en particulier lorsque ces recherches engendrent des ambiguïtés. Personnaliser les recherches permet d'éviter ces écueils en limitant les recherches au sein d'un réseau très réduit de participants ayant des intérêts similaires. Toutefois, les solutions centralisées pour mettre en œuvre cette personnalisation s'avèrent difficile compte tenu du volume important d'informations qui doit être maintenu pour chaque utilisateur. La nature dynamique de ces systèmes, dans lesquels les utilisateurs changent potentiellement souvent d'intérêt, complique la tâche. Cette thèse propose de nouveaux algorithmes permettant d'effectuer des recherches personnalisées de manière efficace dans des systèmes dynamiques, centralisés ou décentralisés, selon deux axes majeurs : (i) la personnalisation hors ligne qui s'appuie sur le comportement passé des utilisateurs et (ii) la personnalisation en ligne qui s'appuie sur le comportement passé et la requête en cours. Nous présentons d'abord l'algorithme P3K, qui décentralise une approche existante et réalise le traitement personnalisé des requêtes top-k hors ligne dans les systèmes pair-à-pair. Ensuite, nous présentons P4Q, une extension de P3K qui améliore les performances du système en termes de stockage, bande passante et la robustesse en distribuant le traitement des requêtes. Les deux algorithmes, P3K et P4Q, reposent sur des protocoles épidémiques pour capturer la similarité implicite entre les utilisateurs et associer ainsi à chaque utilisateur un "réseau personnel" dans lequel traiter la requête. Nos évaluations analytiques et expérimentales démontrent leur efficacité pour le traitement des requêtes top-k, y compris dans les systèmes dynamiques, en particulier que la capacité inhérente de P4Q à faire face aux mises à jours des profils des utilisateurs. Dans le but d'améliorer encore la qualité des résultats pour les requêtes représentant les intérêts émergents des utilisateurs, et donc non représentés dans son profil, nous proposons un modèle hybride d'intérêt, prenant en compte à la fois le profil des utilisateurs mais également la requête elle-même. Nous avons proposé une solution à la fois en centralisé, l'algorithme DT², qui effectue une recherche de type top-k à deux reprises: le premier top-k consiste à sélectionner dynamiquement un sous-réseau (le réseau personnel) le plus adapté à la requête et à l'utilisateur la générant. Le second top-k consiste à effectuer la recherche dans ce sous réseau. L'algorithme DT²P², exécute efficacement la personnalisation en ligne de manière entièrement décentralisée. Les résultats expérimentaux sur des traces réelles de systèmes collaboratifs, montrent que la personnalisation en ligne est prometteuse pour répondre aux préférences diverses des utilisateurs.
|
1068 |
Edition collaborative massive sur réseaux Pair-à-PairWeiss, Stéphane 18 October 2010 (has links) (PDF)
Avec l'arrivée du Web 2.0, l'édition collaborative devient massive. Ce changement d'échelle met à mal les approches existantes qui n'ont pas été conçues pour une telle charge. Afin de répartir la charge, et ainsi, obtenir un plus grand passage à l'échelle, de nombreux systèmes utilisent une architecture dite pair-à-pair. Dans ces systèmes, les données sont répliquées sur plusieurs pairs et il est alors nécessaire de définir des algorithmes de réplication optimiste adaptés aux caractéristiques des réseaux pair-à-pair: la dynamicité, la symétrie et bien sûr le nombre massif d'utilisateurs et de données. De plus, ces systèmes étant des éditeurs collaboratifs, ils doivent vérifier le modèle de cohérence dit <> (Causalité, Convergence et Intention). Dans ce manuscrit, nous proposons un modèle formel pour les systèmes d'édition collaborative qui nous permet de formaliser le modèle CCI. Dans ce modèle, nous proposons Logoot, un type de données répliqué commutatif (CRDT) pour les documents texte. Par la suite, nous définissons un mécanisme d'annulation générique pour les types de données CRDT. Nous appliquons notre mécanisme d'annulation sur Logoot pour obtenir un CRDT texte avec la fonctionnalité d'annulation appelée Logoot+. Nous proposons finalement une évaluation comparative des approches Logoot et Logoot+ à partir des modifications produites sur plus de 2000 pages de Wikipédia.
|
1069 |
Implication Textuelle et RéécritureBedaride, Paul 18 October 2010 (has links) (PDF)
Cette thèse propose plusieurs contributions sur le thème de la détection d'implications textuelles (DIT). La DIT est la capacité humaine, étant donné deux textes, à pouvoir dire si le sens du second texte peut être déduit à partir de celui du premier. Une des contributions apportée au domaine est un système de DIT hybride prenant les analyses d'un analyseur syntaxique stochastique existant afin de les étiqueter avec des rôles sémantiques, puis transformant les structures obtenues en formules logiques grâce à des règles de réécriture pour tester finalement l'implication à l'aide d'outils de preuve. L'autre contribution de cette thèse est la génération de suites de tests finement annotés avec une distribution uniforme des phénomènes couplée avec une nouvelle méthode d'évaluation des systèmes utilisant les techniques de fouille d'erreurs développées par la communauté de l'analyse syntaxique permettant une meilleure identification des limites des systèmes. Pour cela nous créons un ensemble de formules sémantiques puis nous générons les réalisations syntaxiques annotées correspondantes à l'aide d'un système de génération existant. Nous testons ensuite s'il y a implication ou non entre chaque couple de réalisations syntaxiques possible. Enfin nous sélectionnons un sous-ensemble de cet ensemble de problèmes d'une taille donnée et satisfaisant un certain nombre de contraintes à l'aide d'un algorithme que nous avons développé.
|
1070 |
Dispositif virtuel d'aide à la chirurgie de l'épauleAtmani, Hakim 16 January 2008 (has links) (PDF)
L'objectif de ces travaux est la réalisation d'un dispositif à base de réalité virtuelle an d'assiter le chirurgien orthopédiste lors de la substitution de l'articulation gléno-humérale par une prothèse. Ce dispositif a pour but l'optimisation des débattements de l'articulation prothésée de l'épaule à partir d'un choix de différents scénarios de pose. Les travaux se basent sur de nombreuses thématiques telles que la chirurgie orthopédique, le traitement d'image, l'informatique graphique ainsi que la réalité virtuelle. La démarche choisie comprend une (i) phase de modélisation de la partie osseuse de l'articulation par des formes géométriques simples, ce modèle est paramétrable à partir de radios ou de coupes scanners ; (ii) une phase de simulation des débattements de l'articulation gléno-humérale saine ; ainsi que (iii) une phase de simulation des opérations de coupes et de perçages avec choix des implants prothétiques pour une optimisation des débattements de l'articulation en préopératoire (cette optimisation se fait grâce une comparaison de la cinématique de l'épaule saine avec les diérents scénarios issus de notre simulation préopératoire).
|
Page generated in 0.0582 seconds