Spelling suggestions: "subject:"forminformation sémantique"" "subject:"informationation sémantique""
1 |
Descripteurs augmentés basés sur l'information sémantique contextuelle / Toward semantic-shape-context-based augmented descriptorKhoualed, Samir 29 November 2012 (has links)
Les techniques de description des éléments caractéristiques d’une image sont omniprésentes dans de nombreuses applications de vision par ordinateur. Nous proposons à travers ce manuscrit une extension, pour décrire (représenter) et apparier les éléments caractéristiques des images. L’extension proposée consiste en une approche originale pour apprendre, ou estimer, la présence sémantique des éléments caractéristiques locaux dans les images. L’information sémantique obtenue est ensuite exploitée, en conjonction avec le paradigme de sac-de-mots, pour construire un descripteur d’image performant. Le descripteur résultant, est la combinaison de deux types d’informations, locale et contextuelle-sémantique. L’approche proposée peut être généralisée et adaptée à n’importe quel descripteur local d’image, pour améliorer fortement ses performances spécialement quand l’image est soumise à des conditions d’imagerie contraintes. La performance de l’approche proposée est évaluée avec des images réelles aussi bien dans les deux domaines, 2D que 3D. Nous avons abordé dans le domaine 2D, un problème lié à l’appariement des éléments caractéristiques dans des images. Dans le domaine 3D, nous avons résolu les problèmes d’appariement et alignement des vues partielles tridimensionnelles. Les résultats obtenus ont montré qu’avec notre approche, les performances sont nettement meilleures par rapport aux autres méthodes existantes. / This manuscript presents an extension of feature description and matching strategies by proposing an original approach to learn the semantic information of local features. This semantic is then exploited, in conjunction with the bag-of-words paradigm, to build a powerful feature descriptor. The approach, ended up by combining local and context information into a single descriptor, is also a generalized method for improving the performance of the local features, in terms of distinctiveness and robustness under geometric image transformations and imaging conditions. The performance of the proposed approach is evaluated on real world data sets as well as in both the 2D and 3D domains. The 2D domain application addresses the problem of image feature matching while in 3D domain, we resolve the issue of matching and alignment of multiple range images. The evaluation results showed our approach performs significantly better than expected results as well as in comparison with other methods.
|
2 |
When is consumer desire impacted by difficulty of recall ? : the effects of the type of information, expectation and time pressureHuaman Ramirez, Richard 08 December 2015 (has links)
Cette thèse doctorale démontre que la difficulté pour un consommateur de se rappeler ses expériences passées de consommation d’un produit préféré influence son désir. Plus particulièrement, ce travail étudie comment le désir est influencé par le type d’information, sémantique ou épisodique, que l’individu se rappelle sur ses expériences passées de consommation pendant une tâche de rappel difficile, ainsi que par la difficulté attendue de la tâche de rappel et par la pression du temps. Nous avons utilisé une méthode expérimentale et avons conduit trois études empiriques. Les hypothèses ont été testées à partir de données collectées de trois échantillons différents : des consommateurs Péruviens, Chinois et Français. Les participants sont principalement des étudiants universitaires. Un total d’onze scénarios expérimentaux ont été présentés aux participants, incluant divers types de produits (boissons rafraîchissantes, produits hédoniques et activités de loisir). Notre contribution peut aider les professionnels en marketing à agir en prenant en compte le rappel des consommations gratifiantes passées. Afin d’évoquer davantage de désir chez le consommateur, les conditions devraient rendre difficile le fait pour celui-ci de se rappeler ses expériences gratifiantes de consommation passées ; les marketeurs devraient se focaliser notamment sur l’information sémantique des expériences passées et soumettre le consommateur à une pression temporelle. Cette recherche se focalise sur un rappel holistique d’expériences passées et sur le processus de récupération d’information à partir de la mémoire, et confirme la théorie du processus dual de Chaiken et Trope (1998) / This thesis demonstrates that difficulty in recalling past consumption of a preferred product influences the desire to consume that product. More specifically, this research evaluate how desire is influenced by what kind of information from past consumption experience is recalled (semantic or episodic information) during a difficult recall task, by the expected difficulty of recall task, and by time pressure. An experimental method was adopted and three empirical studies were conducted. Hypotheses were tested on data collected across different samples: Peruvian, Chinese, and French consumers. Participants were principally university students. A total of eleven experimental scenarios were presented to participants including different types of products (soft drinks, hedonic products, and leisure activities). Questionnaires were administrated by web and face-to-face. Our contribution has the potential to help marketers take action regarding the recall of past rewarding consumptions. To evoke more desire, consumers must be conditioned to difficult recalls of past consumptions of preferred products; marketers must specially focus on semantic information of past experiences and condition consumers with a time pressure. The results suggest that the type of information processed (semantic versus episodic) and time pressure influence the effect of the difficult recall of past consumption on desire. This research focuses on a holistic recall of past experiences and the retrieval process of information from memory, and confirms the Chaiken and Trope (1998)’s Dual-Process Theory
|
3 |
Descripteurs augmentés basés sur l'information sémantique contextuelleKhoualed, Samir 29 November 2012 (has links) (PDF)
Les techniques de description des éléments caractéristiques d'une image sont omniprésentes dans de nombreuses applications de vision par ordinateur. Nous proposons à travers ce manuscrit une extension, pour décrire (représenter) et apparier les éléments caractéristiques des images. L'extension proposée consiste en une approche originale pour apprendre, ou estimer, la présence sémantique des éléments caractéristiques locaux dans les images. L'information sémantique obtenue est ensuite exploitée, en conjonction avec le paradigme de sac-de-mots, pour construire un descripteur d'image performant. Le descripteur résultant, est la combinaison de deux types d'informations, locale et contextuelle-sémantique. L'approche proposée peut être généralisée et adaptée à n'importe quel descripteur local d'image, pour améliorer fortement ses performances spécialement quand l'image est soumise à des conditions d'imagerie contraintes. La performance de l'approche proposée est évaluée avec des images réelles aussi bien dans les deux domaines, 2D que 3D. Nous avons abordé dans le domaine 2D, un problème lié à l'appariement des éléments caractéristiques dans des images. Dans le domaine 3D, nous avons résolu les problèmes d'appariement et alignement des vues partielles tridimensionnelles. Les résultats obtenus ont montré qu'avec notre approche, les performances sont nettement meilleures par rapport aux autres méthodes existantes.
|
4 |
Leveraging foundation models towards semantic world representations for roboticsKuwajerwala, Alihusein 06 1900 (has links)
Un défi central en robotique est la construction de représentations du monde exploitables. Pour accomplir des tâches complexes, les robots doivent construire une représentation 3D de leur environnement qui représente les informations géométriques, visuelles et sémantiques de la scène, et qui est efficace à utiliser. Les approches existantes encodent les informations sémantiques en utilisant un ensemble (fini) d’étiquettes de classes sémantiques, tels que “personne” et “chaise”. Cependant, pour des instructions ambiguës données à un robot, telles que “apporte-moi une collation saine”, cette approche est insuffisante. En conséquence, des travaux récents ont exploité de grands réseaux de neurones pré-entraînés appelés “modèles de fondation”, dont les représentations latentes apprises offrent plus de flexibilité que les étiquettes de classe, mais ces approches peuvent être inefficaces.
Dans ce travail, nous construisons des représentations de scènes 3D qui tirent parti des modèles de fondation pour encoder la sémantique, permettant des requêtes à vocabulaire ouvert et multimodales, tout en restant évolutives et efficaces. Nous présentons initialement ConceptFusion, qui construit des cartes 3D à vocabulaire ouvert en assignant à chaque point 3D un vecteur de caractéristiques qui encode la sémantique, permettant des requêtes nuancées et multimodales, mais à un coût de mémoire élevé. Nous présentons ensuite ConceptGraphs, qui s’appuie sur l’approche précédente avec une structure de graphe de scène qui assigne des vecteurs de caractéristiques sémantiques aux objets au lieu des points, augmentant ainsi l’efficacité, tout en permettant la planification sur le graphe de scène construit. Les deux systèmes ne nécessitent pas d’entraînement supplémentaire ni de réglage fin des modèles, mais permettent aux robots d’effectuer des tâches de recherche et de navigation inédites, comme le montrent nos expériences dans le monde réel. / A central challenge in robotics is building actionable world representations. To perform complex tasks, robots need to build a 3D representation of their environment that represents the geometric, visual, and semantic information of the scene, and is efficient to use. Existing approaches encode semantic information using a (finite) set of semantic class labels, such as “person” and “chair”. However, for ambiguous instructions to a robot, such as “get me a healthy snack”, this approach is insufficient. As a result, recent works have leveraged large pre-trained neural networks called “foundation models”, whose learned latent representations offer more flexibility than class labels, but these approaches can be inefficient. For example, they may require prohibitive amounts of video memory, or an inability to edit the map.
In this work, we construct 3D scene representations that leverage foundation models to encode semantics, allowing for open-vocabulary and multimodal queries, while still being scalable and efficient. We initially present ConceptFusion, which builds open-vocabulary 3D maps by assigning each 3D point a feature vector that encodes semantics, enabling nuanced and multimodal queries, but at high memory cost. We then present ConceptGraphs, which builds upon the previous approach with a scene graph structure that assigns semantic feature vectors to objects instead of points, increasing efficiency, while also enabling planning over the constructed scene graph. Both systems do not require any additional training or fine-tuning of models, yet enable novel search and navigation tasks to be performed by robots, as shown by our real world experiments.
|
Page generated in 0.1118 seconds