• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 51
  • 20
  • Tagged with
  • 171
  • 171
  • 171
  • 148
  • 140
  • 140
  • 130
  • 128
  • 124
  • 32
  • 25
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation et détection des émotions à partir de données expressives et contextuelles

Berthelon, Franck 16 December 2013 (has links) (PDF)
Nous proposons un modèle informatique pour la détection des émotions basé sur le comportement humain. Pour ce travail, nous utilisons la théorie des deux facteurs de Schachter et Singer pour reproduire dans notre architecture le comportement naturel en utilisant à la fois des données expressives et contextuelles. Nous concentrons nos efforts sur l'interprétation d'expressions en introduisant les Cartes Émotionnelles Personnalisées (CEPs) et sur la contextualisation des émotions via une ontologie du contexte émotionnel(EmOCA). Les CEPs sont motivées par le modèle complexe de Scherer et représentent les émotions déterminées par de multiple capteurs. Les CEPs sont calibrées individuellement, puis un algorithme de régression les utilises pour définir le ressenti émotionnel à partir des mesures des expressions corporelles. L'objectif de cette architecture est de séparer l'interprétation de la capture des expressions, afin de faciliter le choix des capteurs. De plus, les CEPs peuvent aussi être utilisées pour la synthétisation des expressions émotionnelles. EmOCA utilise le contexte pour simuler la modulation cognitive et pondérer l'émotion prédite. Nous utilisons pour cela un outil de raisonnement interopérable, une ontologie, nous permettant de décrire et de raisonner sur les philies et phobies pour pondérer l'émotion calculée à partir des expressions. Nous présentons également un prototype utilisant les expressions faciales pour évaluer la reconnaissance des motions en temps réel à partir de séquences vidéos. De plus, nous avons pu remarquer que le système décrit une sorte d'hystérésis lors du changement émotionnel comme suggéré par Scherer pour son modèle psychologique.
12

Une approche MDA pour l'intégration de la personnalisation du contenu dans la conception et la génération des applications interactives

Bacha, Firas 16 May 2013 (has links) (PDF)
Les travaux de recherche présentés dans ce mémoire se situent dans les thématiques de la génération des applications interactives et de la personnalisation du contenu. Cette thèse propose une approche de type MDA (Model Driven Architecture), indépendante du domaine d'application, permettant la conception et la génération semi-automatique des applications interactives à contenus personnalisés, compte tenu des informations sur le contexte d'utilisation et l'ontologie de domaine. Cette approche met en œuvre deux méthodes de personnalisation du contenu, à savoir le remplissage automatique des formulaires et l'enrichissement des requêtes. Pour atteindre cet objectif, nous avons développé la solution technique permettant la conception, la transformation des modèles ainsi que la génération de l'IHM (Interface Homme-Machine) finale.
13

CONTRIBUTION A UN MODELE INTERACTIONNISTE DU SENS<br />Amorce d'une compétence interprétative pour les machines

Beust, Pierre 21 December 1998 (has links) (PDF)
Cette thèse propose une modélisation en informatique de l'interprétation des énoncés en langue naturelle. La démarche est expérimentale, elle consiste à analyser le déroulement des interactions langagières pour construire un modèle computationel à partir de ce qui est observé. Dans ce modèle, l'apprentissage par l'interaction homme - machine a été choisi comme mode de conception par amorce d'un système d'interprétation. <br /><br />Dans les modèles logiques de la sémantique, l'analyse d'un énoncé a pour résultat une représentation du sens sous forme d'expression ou de graphe. Ici, dans une problématique de dialogue homme - machine, l'interprétation a pour objectif d'extraire du matériau linguistique les contraintes sémantiques conditionnant les enchaînements conversationnels possibles. Ces contraintes sont obtenues par une recherche de dépendance sémantique entre les lexèmes de l'énoncé à partir des connaissances du système sur les significations des lexèmes. Ces connaissances paradigmatiques sont des systèmes hiérarchiques de tables produites par combinatoire des différences entre les significations, et lorsqu'un mot est polysémique, ses significations prennent place dans plusieurs de ces tables. Les systèmes de tables sont construits dans un processus interactif entre la machine et un partenaire humain. Le processus d'interprétation consiste à rechercher des isotopies réduisant la polysémie lexicale et assurant la cohésion et la cohérence des énoncés. Les interprétations de la machine sont soumises à la validation du partenaire humain. Si elles ne sont pas jugées satisfaisantes, c'est qu'il manque des connaissances paradigmatiques. Il convient alors de relancer la boucle interactive afin de décrire de nouvelles significations en introduisant de nouvelles différences, puis d'exécuter à nouveau le calcul interprétatif. <br /><br />Par l'interaction avec un partenaire humain qui analyse des dialogues réels, des connaissances sémantiques sont acquises sous forme de systèmes de valeurs paradigmatiques et le système les réutilise pour proposer de nouvelles interprétations. La compétence interprétative s'améliore ainsi au fur et à mesure de son utilisation.
14

Mise en oeuvre d'un système adaptatif de segmentation d'images

Rosenberger, Christophe 07 December 1999 (has links) (PDF)
Le traitement d'images suscite un intérêt croissant à mesure que l'image s'impose comme un support et une source d'informations privilégiés. La qualité de l'interprétation d'une image dépend fortement de celle de la segmentation. Malgré la grande diversité de méthodes, les résultats de segmentation restent moyens et varient beaucoup en fonction de la technique choisie. Une méthode de segmentation générale et automatique est difficile à concevoir étant donnés les différents types de régions pouvant être présentes dans une image. Afin de contribuer à résoudre ce problème, nous proposons un système adaptatif de segmentation d'images.<br /><br />Après un travail de synthèse permettant de répertorier les différentes méthodes de segmentation existantes en fonction du type d'informations pour lesquelles elles sont performantes, un système original de segmentation est proposé. L'originalité de ce système réside dans l'adaptation des traitements au contexte local de l'image avec le minimum de connaissances a priori. Il est constitué de trois modules de traitement. Le premier module permet d'analyser finement l'image à deux niveaux. Le premier niveau identifie d'une part, le contexte global de l'image à traiter (image majoritairement composée de régions uniformes ou texturées) afin d'adapter la suite des traitements et, distingue d'autre part, les zones texturées et uniformes la composant. Le second niveau du module concerne l'analyse locale de l'image à segmenter afin de caractériser chacune des régions détectées par des attributs classiques de textures pertinents (obtenus par analyse statistique) et des attributs que nous avons définis. Ces paramètres complémentaires ont été déterminés à partir d'un modèle de texture basé sur la décomposition de Wold de la fonction d'autocovariance. Ils permettent d'obtenir des informations sur le type de texture (aléatoire ou déterministe) et sur sa granularité (grossière ou fine). Cette analyse plus fine d'une région texturée permet, d'une part, de faciliter le choix de la méthode de segmentation appropriée et, d'autre part, d'adapter la taille du support d'analyse de la région à segmenter. Le deuxième module déclenche la méthode de segmentation adaptée au contexte local de l'image en utilisant une méthode de classification non supervisée que nous avons développée. Enfin, le troisième module permet de fusionner soit les résultats de plusieurs méthodes de segmentation d'une même image, soit les résultats de segmentation de chaque bande dans le cas d'une image multi-composantes. La méthode de fusion développée adopte une approche génétique en combinant les résultats de segmentation pondérés par un critère d'évaluation. Le système a été validé sur différents types d'image (synthétiques et réelles de télédétection).
15

Trois principes de coopération pour la segmentation en imagerie de résonnance magnétique cérébrale

Germond, Laurence 10 October 1999 (has links) (PDF)
Le travail présenté dans ce document a pour but la mise en oeuvre d'un système de segmentation d'Images de Résonance Magnétique (IRM) cérébrales qui permette de tirer parti de plusieurs approches complémentaires en réponse à la complexité du problème posé. Face à la diversité des approches existant pour la segmentation (classification, modèles déformables,...) nous montrons que l'on peut définir un cadre de travail commun qui permette la mise en oeuvre de coopération entre des approches hétérogènes. Le cadre méthodologique que nous avons défini s'articule autour des notions d'apprentissage et d'adaptativité. L'apprentissage permet d'introduire des connaissances a priori, explicites, sur le contexte de travail sous la forme d'un modèle statistique déformable du contour du cerveau. L'information qui en résulte est exploitée pour spécialiser localement des agents de segmentation, ce qui confère au système son adaptativité. Nous avons mis en oeuvre trois grands principes de coopération pour réaliser la combinaison d'informations : (i) coopération par initialisation, qui exploite le résultat d'une méthode pour initialiser une seconde méthode, (ii) coopération par fusion d'informations, qui permet de tirer parti de la fusion de plusieurs sources d'informations complémentaires pour guider une phase de traitement, (iii)coopération par rétroaction, qui permet de revenir sur le processus complet de segmentation pour l'affiner ou encore pour transmettre des informations entre images. L'ensemble du travail a été validé sur des images synthétiques fournies par le Montreal Neurological Institute et illustré sur un ensemble d'images réelles.
16

Modélisation de scènes dynamiques à partir de plusieurs caméras

Boyer, Edmond 19 January 2007 (has links) (PDF)
Ce document présente des travaux de recherche réalisés durant la période allant de 2000 à 2005 et portant sur la modélisation de scènes dynamiques à partir de plusieurs caméras. Ce thème constitue un axe de recherche actif du domaine de la vision par ordinateur depuis de nombreuses années. L'objectif général est la capacité à produire une description opératoire du contenu d'une scène à partir de plusieurs vidéos. Au même titre que dans la vision humaine, et selon une théorie computationnelle de celle-ci, cette description a pour objet d'alimenter des processus cognitifs qui mènent de la perception à l'action. Le contenu de cette description peut alors être varié, en fonction de l'action visée. Il peut s'agir d'information sur les formes, comme la géométrie et l'apparence, pour la navigation d'un robot ou pour virtualiser la réalité et en modifier les aspects visuels. La description peut aussi porter sur la sémantique de la scène, par exemple ce qui est en mouvement et de quelle manière, pour en permettre son interprétation.
17

Le rendu expressif, un ensemble d'outils et techniques pour la communication visuelle

Thollot, Joëlle 24 November 2008 (has links) (PDF)
La communication visuelle est un outil extrêmement efficace pour transmettre un message. En fonction du but de l'auteur de l'image, différentes représentions sont possibles allant d'une représentation photoréaliste à un dessin ou une peinture, voire à des schémas. Cette HDR présente des outils informatiques visant à améliorer le processus de création d'images. Cette création peut passer par le rendu d'un modèle 3D, la traitement d'un film ou d'une image mais aussi le dessin direct. Ces travaux reposent sur deux principes. Premièrement il est fondamental de trouver un bon compromis entre la production manuelle et la production automatique. L'enjeu est de trouver les bons outils de contrôle à laisser au créateur tout en lui simplifiant la tache le plus possible. Pour cela le créateur doit être intégré dans le processus de conception même de l'outil. Deuxièmement, partant du principe qu'une image est faite pour être vue par le système visuel, nous pouvons nous appuyer sur les connaissances actuelles en perception humaine pour guider nos algorithmes. Cela permet d'obtenir des images pertinentes et des outils efficaces pour le créateur et pour le spectateur de l'image.
18

Contribution à l'évaluation d'algorithmes de traitement d'images

Rosenberger, Christophe 07 December 2006 (has links) (PDF)
J'ai obtenu mon Doctorat en 1999 sur le thème de la segmentation d'images. Depuis septembre 2000, je suis maître de conférences à l'ENSI de Bourges. J'enseigne des cours de traitement d'images et d'intelligence artificielle au niveau Master. Je suis depuis le 1er septembre 2006, le responsable des relations européennes et internationales au sein de cet établissement. Je suis rattaché au Laboratoire Vision Robotique (UPRES EA 2078) et à l'équipe Signal, Image et Vision. Je suis le responsable du groupe Interprétation au sein de cette équipe regroupant 3 maîtres de conférences, un ATER et 2 doctorants. Mes activités de recherche principales sont la modélisation 3D d'objets, la détection/reconnaissance d'objets et l'évaluation d'algorithmes de traitement d'images. Ce manuscrit concerne ce dernier thème correspondant à mon activité majeure de recherche. J'ai participé au co-encadrement de 4 doctorants dont deux spécifiquement sur ce thème (les deux ayant soutenu) et deux étudiants de Master recherche. J'ai valorisé mes activités de recherche au travers de plusieurs publications : 1 chapitre de livre international, 6 revues internationales, 2 revues nationales, 53 conférences internationales et 10 conférences nationales. Je suis titulaire du Contrat d'encadrement doctoral et de recherche (PEDR) depuis le 1er octobre 2005. J'ai été sollicité pour effectuer de nombreuses expertises (projets ANVAR, référé d'articles et projets ANR). J'ai participé à de nombreux contrats industriels afin de contribuer au budget de fonctionnement du groupe Interprétation. Ce manuscrit comporte 2 parties. La première correspond à une synthèse de mes activités pédagogiques, administratives et recherche. La seconde présente un résumé des mes activités de recherche dans le domaine de l'évaluation d'algorithmes de traitement d'images. Elle est constituée de trois chapitres. Le premier a pour objectif de positionner la problématique de l'évaluation d'algorithmes de traitement d'images. Les différentes approches utilisées dans la littérature y sont présentées. J'ai développé une méthodologie visant à analyser des approches d'évaluation et à en faciliter leurs conceptions et utilisations. Cette démarche est déclinée au travers de deux algorithmes de traitement d'images. Le troisième chapitre de ce manuscrit présente les travaux sur l'évaluation de résultats de compression d'images ultrasonores dans lesquels j'ai été impliqué. Le thème de l'évaluation de la segmentation d'images que j'ai initié au sein du laboratoire est abordée dans le quatrième chapitre. Je conclus ce document par mon projet de recherche.
19

Une approche MDA pour l'intégration de la personnalisation du contenu dans la conception et la génération des applications interactives / An MDA approach for content personalization integration in the design and the generation of interactive applications

Bacha, Firas 16 May 2013 (has links)
Les travaux de recherche présentés dans ce mémoire se situent dans les thématiques de la génération des applications interactives et de la personnalisation du contenu. Cette thèse propose une approche de type MDA (Model Driven Architecture), indépendante du domaine d’application, permettant la conception et la génération semi-automatique des applications interactives à contenus personnalisés, compte tenu des informations sur le contexte d’utilisation et l’ontologie de domaine. Cette approche met en œuvre deux méthodes de personnalisation du contenu, à savoir le remplissage automatique des formulaires et l’enrichissement des requêtes. Pour atteindre cet objectif, nous avons développé la solution technique permettant la conception, la transformation des modèles ainsi que la génération de l’IHM (Interface Homme-Machine) finale. / The research work presented in this thesis belongs to the fields of interactive applications generation and content personalization. This thesis proposes an MDA (Model Driven Architecture) approach, independent of the domain application, allowing the design and the semi-automatic generation of personalized content interactive applications. This generation relies on context information and the domain ontology. This approach implements two content personalization methods ; namely the forms auto-filling and the automatic queries enrichment. To achieve this goal, we developed the technical solution allowing the design, the models transformations as well as the generation of the final HCI (Human-Computer Interface).
20

Composition d'interfaces homme-machine par planification automatique

Gabillon, Yoann 14 October 2011 (has links) (PDF)
En informatique ambiante, les objectifs de l'utilisateur peuvent émerger opportunément. Il devient, dès lors, nécessaire de générer à la volée des systèmes interactifs. Un système interactif est composé d'un noyau fonctionnel et d'une Interface Homme-Machine (IHM). Cette thèse traite de la composition d'IHM pour un objectif utilisateur et un contexte d'usage (utilisateur, plate-forme, environnement) donnés. Elle en propose un espace problème fondé sur les exigences utilisateur recueillies par une étude qualitative. Un état de l'art positionne notre travail et en montre la complémentarité par rapport aux travaux existants : la composition du modèle de tâches. La composition de l'IHM concrète est déléguée à une boîte à outils d'interacteurs définis au niveau tâches. La composition du modèle de tâches se fait par planification automatique. L'étude montre que les planificateurs existants répondent partiellement au problème. Aussi, un planificateur a été spécifiquement développé pour l'IHM. Son utilisation est illustrée dans un prototype Compose. Le travail est original à deux titres : d'une part, son approche " Composition de modèles de tâches " est une extension de la littérature ; d'autre part, la composition d'IHM est un nouveau cadre applicatif pour les algorithmes de planification.

Page generated in 0.0722 seconds