Spelling suggestions: "subject:"eeb sémantique"" "subject:"beb sémantique""
191 |
Modélisation d'une ontologie et conceptualisation d'une application sémantique dédiée au e-recrutement dans le domaine des technologies de l'informationTétreault, Michel 08 1900 (has links)
Ce mémoire présente les recherches et réflexions entourant la conception d’une application à base d’ontologie dédiée au e-recrutement dans le domaine des services de dotation de personnel en technologies de l’information à l’ère du Web Social. Cette application, nommée Combine, vise essentiellement à optimiser et enrichir la Communication Médiée par Ordinateur (CMO) des acteurs du domaine et utilise des concepts issus du paradigme technologique émergent qu’est le Web sémantique. Encore très peu discuté dans une perspective CMO, le présent mémoire se propose donc d’examiner les enjeux communicationnels relatifs à ce nouveau paradigme. Il présente ses principaux concepts, dont la notion d’ontologie qui implique la modélisation formelle de connaissances, et expose le cas de développement de Combine. Il décrit comment cette application fut développée, de l’analyse des besoins à l’évaluation du prototype par les utilisateurs ciblés, tout en révélant les préoccupations, les contraintes et les opportunités rencontrées en cours de route. Au terme de cet examen, le mémoire tend à évaluer de manière critique le potentiel de Combine à optimiser la CMO du domaine d’activité ciblé. Le mémoire dresse au final un portrait plutôt favorable quant à la perception positive des acteurs du domaine d’utiliser un tel type d’application, et aussi quant aux nets bénéfices en frais d’Interactions Humain-Ordinateur (IHO) qu’elle fait miroiter. Il avertit toutefois d’une certaine exacerbation du problème dit « d’engagement ontologique » à considérer lors de la construction d’ontologies modélisant des objets sociaux tels que ceux dont le monde du recrutement est peuplé. / This thesis presents the research and reflections on the development of an ontology based application dedicated to e-recruitment in the field of Information Technologies’ staffing services, and especially e-recruitment using Social Web platforms as sources for candidates. This application, called Combine, essentially aims to optimize and enhance the field recruiters’ Computer-Mediated Communication (CMC) and uses concepts from the emerging technological paradigm that the Semantic Web represents. Rarely discussed in a CMC perspective, this submission therefore proposes to study the communications issues related to this new paradigm. It presents the main concepts, as the notion of ontology, which involves the formal modeling of knowledge, and outlines the development case of Combine. It describes how the system was designed, from the requirements analysis to the prototype evaluation, revealing the concerns, the constraints and the opportunities met along the way. After this examination, the thesis stretches out to critically assess Combine’s potential to optimize the CMC in the targeted field of activity. In the end, the thesis conveys a rather favorable outcome concerning the positive perception of the field recruiters about using this type of application, and also concerning the promising benefits in Human-Computer Interactions (HCI). However, it mentions as well the exacerbation of the problem called "ontological commitment", which is to consider when building ontologies that model social objects such as those which the world of recruitment is made of.
|
192 |
De l'usage des métadonnées dans l'objet sonoreDebaecker, Jean 12 October 2012 (has links) (PDF)
La reconnaissance des émotions dans la musique est un challenge industriel et académique. À l'heure de l'explosion des contenus multimédias, il devient nécessaire de concevoir des ensembles structurés de termes et concepts facilitant l'organisation et l'accès aux connaissances. Dans les bibliothèques musicales, l'analyse des sentiments et la classification par émotion sont très émergentes et demeurent un objet de recherche ambitieux. La gestion des contenus d'un objet sonaore numérisé répond à une indexation documentaire à trois niveaux : " contenu - auctorialité - matérialisation ". Ce triptyque nous semble tomber en désuétude et ne correspond plus aux attentes de l'usager. L'information musicale appelle ainsi à une production et représentation nouvelle. Notre problématique est la suivante : est-il possible d'avoir une connaissance a priori de l'émotion en vue de son élicitation ? Autrement dit, dans quelles mesures est-il possible de bâtir une structure formelle algorithmique permettant d'isoler le mécanisme déclencheur des émotions? Est-il possible de connaître l'émotion que l'on ressentira à l'écoute d'une chanson, avant de l'écouter ? Suite à l'écoute, son élicitation est-elle possible ? Est-il possible de formaliser une émotion dans le but de la sauvegarder et, ou, de la partager ? Dans ce travail de thèse, nous proposons d'abord un aperçu de l'existant et du contexte applicatif. Plusieurs scénarios très concrets sont envisageables, parmi eux : un répondeur téléphonique triant les messages enregistrés en fonction de leur humeur ; recherche de musique apaisante après une journée de travail ; recherche de musique excitante pour accompagner une activité sportive ; recherche d'opinions sur les réseaux sociaux, etc. ; Dans une seconde partie nous proposons une réflexion sur les enjeux épistémologiques intrinsèques et liés à l'indexation même de l'émotion. La " mise en œuvre d'une solution d'indexation automatique fait appel à de nombreux domaines scientifiques ".1 Afin de saisir la complexité de l'indexation de l'émotion pour l'enrichissement des métadonnées, nous allons adopter une méthodologie exploratoire interdisciplinaire. En effet, à travers une démarche psychologique, physiologique et philosophique, nous proposerons un cadre conceptuel de cinq démonstrations faisant état de l'impossible mesure de l'émotion, en vue de son élicitation. Une fois dit, à travers notre cadre théorique, qu'il est formellement impossible d'indexer les émotions ; il nous incombe de comprendre la mécanique d'indexation cependant proposée par les industriels et académiques. La réalité du terrain est telle que plusieurs interfaces web ou logicielles proposent des services d'expérience de moteur de recherche fouillant une base de données, avec des métadonnées sur les émotions. Dans la dernière partie, nous proposerons, via des enquêtes quantitatives et qualitatives, une analyse afin de soumettre une matrice algorithmique basée sur le web social capable de faire des préconisations d'écoute d'œuvres musicales eu égards aux émotions.
|
193 |
ScaleSem : model checking et web sémantiqueGueffaz, Mahdi 11 December 2012 (has links) (PDF)
Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l'application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle " Le Model checking ".Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu'un modèle d'un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d'interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l'outil de vérification de la méthode Model checking). Il est nécessaire d'avoir des outils logiciels permettant de réaliser la traduction d'un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalisme
|
194 |
Vers plus d'automatisation dans la construction de systèmes mediateurs pour le web semantique : une application des logiques de description / Towards more automation in building mediator systems in the semantic web context : a description logic applicationNiang, Cheikh Ahmed Tidiane 05 July 2013 (has links)
Les travaux que nous présentons dans cette thèse concernent l’automatisation de la construction de systèmes médiateurs pour le web sémantique. L’intégration de données de manière générale et la médiation en particulier sont des processus qui visent à exploiter conjointement des sources d’information indépendantes, hétérogènes et distribuées. L’objectif final est de permettre à un utilisateur d’interroger ces données comme si elles provenaient d’un système unique et centralisé grâce à une interface d’interrogation uniforme basée sur un modèle du domaine d’application, appelé schéma global. Durant ces dernières années, beaucoup de projets de recherche se sont intéressés à cette problématique et de nombreux systèmes d’intégration ont été proposés. Cependant, la quantité d’intervention humaine nécessaire pour construire ces systèmes est beaucoup trop importante pour qu’il soit envisageable de les mettre en place dans bien des situations. De plus, face à la diversité et à l’évolution croissante des sources d’information apparaissent de nouveaux chalenges relatifs notamment à la flexibilité et à la rapidité d’accès à l’information. Nos propositions s’appuient sur les modèles et technologies du web sémantique. Cette généralisation du web qui est un vaste espace d’échange de ressources, non seulement entre êtres humains, mais également entre machines, offre par essence les moyens d’une automatisation des processus d’intégration. Ils reposent d’une part sur des langages et une infrastructure dont l’objectif est d’enrichir le web d’informations "sémantiques", et d’autre part sur des usages collaboratifs qui produisent des ressources ontologiques pertinentes et réutilisables. / This thesis is set in a research effort that aims to bring more automation in building mediator-based data integration systems in the semantic Web context. The mediator approach is a conceptual architecture of data integration that involves combining data residing in different sources and providing users with a unified view of these data. The problem of designing effective data integration solutions has been addressed by several researches, and well-known data integration projects have been developed during the 90’s. However, the building process of these systems rely heavily on human intervention so that it is difficult to implement them in many situations. Moreover, faced with the diversity and the increase of available information sources, the easiness and fastness of information access are new challenges. Our proposals are based on models and technologies of semantic web. The semantic web is recognized as a generalization of the current web which enables to find, combine and share resources, not only between humans but also between machines. It provides a good track for automating the integration process. Possibilities offered by the semantic web are based, on the one hand, on languages and an infrastructure aiming to enrich the web with "semantic" information and, on the other hand, on collaborative practices that allow the production of relevant and reusable ontological resources.
|
195 |
Faculté imaginale du roman et fonction de médiation : vers la construction d’un domaine info-littéraire / Imaginal faculty of novel and mediation function : towards the construction of an info-literary fieldArchambault, Michèle 30 November 2012 (has links)
La thèse, qui pose la question de la description du roman et envisage une réponse par l’interrogation d’une problématique documentaire (proposition d’un modèle théorique de représentation, base pour la conception et la réalisation d’outils de navigation raisonnée dans la fiction) conduit une réflexion sur la place de la fiction littéraire dans la construction des savoirs et, par extension, d’une culture. La réflexion et l’expérimentation se font dans le contexte scolaire du lycée d’enseignement général (définition du statut du roman dans l’utilisation qui en est faite dans les programmes et objectifs d’enseignement, analyse de la notion de lecture littéraire en lycée) et par l’analyse d’un corpus de textes : étude de La mystérieuse flamme de la Reine Loana / Umberto Eco, 2004, traduction française, Paris, Grasset et Fasquelle, 2005, doublée de l’étude d’un corpus aléatoire sur le thème de la Shoah. L’objet d’étude étant le roman, les liens entre les Sciences de l’Information et de la Communication et la sémiotique sont abordés sous un jour nouveau : construction d’une théorie sémiotique (définition, mise en place d’un langage formel, choix d’un système de représentation) adaptée à l’objet d’étude par l’explicitation des conditions de production de sens, ce qui implique une hybridation des champs (SIC et théories d’analyse littéraire). Sont développés les éléments théoriques pour un modèle de représentation de la fiction. Les définitions du roman, de la fiction littéraire narrative, de l’information, de la fictiologie (nouveau champ de recherche ouvert par l’étude) et de l'information fictiologique critique, complétées par une description du positionnement dans le champ des Sciences de l’Information et de la Communication, posent le cadre de la réflexion. Un chapitre traitant de la littérature et de la notion de mémoire permet de décrire les liens entre roman et représentation de la réalité. Pour cela, sont définies et étudiées les notions de texte, de référence et de contexte. Enfin, est explicité le titre de la thèse par la description de la faculté imaginale et de la fonction de médiation prêtées au roman. Pour clôturer cette partie d’étude, un état de l’art de la classification de la fiction est opéré par l’élaboration d’un panorama des outils proposés et utilisés, renforcé par la définition d’une recherche ouverte d’information et une étude de la notion de sens dans le traitement de la fiction. Les analyses dans le champ pratique comportent un compte-rendu d’enquêtes, menées dans le cadre de l’enseignement secondaire et de la formation des documentalistes de l’Education Nationale, sur les pratiques de lecture. L’analyse des corpus de textes permet d’interroger la problématique de la réalité visible dans le roman. Ces travaux expérimentent une ontologie fictiologique par une analyse du roman comme document et un essai de formalisation sur la littérature des camps. La proposition d’un modèle théorique à expérimenter se concrétise par l’élaboration d’un système d’organisation de connaissances info-littéraires. Une réflexion sur l’environnement technique actuel justifie les choix retenus, les propositions et solutions réfléchies. En présentant une littératie fictiologique, prolongement de la littératie médiatique, la thèse se clôture par la description d’une médiation fictiologique qui s’ancre dans une renégociation des espaces et des typologies documentaires, investiguant les pratiques participatives et collaboratives. / The dissertation, which investigates the description of the novel and considers an answer by interrogating an information problem (offering a theoretical model of representation, a basis for the conception and creation of tools for a carefully thought out navigation within fiction), carries out a reflection about the role of literary fiction in the construction of bodies of knowledge and, by extension, of a culture. These reflection and experimentation take place in the school context of the “lycee d’enseignement general” [mainstream education high school] (definition of the status of the novel in the way that it is used in education programs and objectives, analysis of the notion of literary reading in high school) and through the analysis of a body of texts: study of La Mysterieuse Flamme de la Reine Loana / Umberto Eco, 2004, French translation, Paris, Grasset et Fasquelle, 2005, combined with the study of an unpredictable collection of texts about the theme of the Shoah. Since the object of study is the novel, the links between Information and Communication Sciences and semiotics are approached in a new light: construction of a semiotic theory (definition, setting up of a formal language, choice of a representation system) made suitable to the object of study by clarifying the conditions of meaning production, which implies a hybridization of the fields (Information and Communication Sciences and literary analysis). The theoretical elements for a representation model of fiction are developed. Definitions of the novel, of literary narrative fiction, of information, of fictiology (a new field of research opened up by the study) and of critical fictiological information, complemented by a description of positioning of this research in the field of Information and Communication Sciences, frame the reflection. A chapter tackling literature and the notion of memory allows for a delineation of the links between novel and representation of reality. For this purpose, the notions of text, reference, and context are defined. Finally, the title of the dissertation is explained through the description of the imaginal faculty, and of the mediation function attributed to the novel. To close this part of the study, drafting a panorama of the proposed and employed tools helps operate a state of the art of fiction classification, reinforced by the definition of an open information research and a study of the notion of meaning in the handling of fiction. Analyses in the practical field include a report of investigations on reading practices conducted in the contexts of secondary education and of the training of ‘Education Nationale’ information librarians. Analyzing bodies of texts allows the problem of visible reality in the novel to be interrogated. This research tests out a fictiologic ontology by examining the novel as document and by attempting a formalization of the camps literature. The proposition of a theoretical model to be experimented is concretized by the development of a system of organization of information and literary knowledge. A reflection on the current technical environment justifies the choices considered, the propositions and solutions offered. By presenting a fictiological information literaty, an extension of media information literaty, the dissertation ends with the description of fictiological mediation anchored into a renegotiation of information spaces and typologies, investigating participatory and collaborative practices.
|
196 |
ScaleSem : model checking et web sémantique / ScaleSem : model checking and semantic webGueffaz, Mahdi 11 December 2012 (has links)
Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l’application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle « Le Model checking ».Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu’un modèle d’un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d’interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l’outil de vérification de la méthode Model checking). Il est nécessaire d’avoir des outils logiciels permettant de réaliser la traduction d’un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalisme / The increasing development of networks and especially the Internet has greatly expanded the gap between heterogeneous information systems. In a review of studies of interoperability of heterogeneous information systems, we find that all the work in this area tends to be in solving the problems of semantic heterogeneity. The W3C (World Wide Web Consortium) standards proposed to represent the semantic ontology. Ontology is becoming an indispensable support for interoperability of information systems, and in particular the semantics. The structure of the ontology is a combination of concepts, properties and relations. This combination is also called a semantic graph. Several languages have been developed in the context of the Semantic Web. Most of these languages use syntax XML (eXtensible Meta Language). The OWL (Ontology Web Language) and RDF (Resource Description Framework) are the most important languages of the Semantic Web, and are based on XML.RDF is the first W3C standard for enriching resources on the Web with detailed descriptions, and increases the facility of automatic processing of Web resources. Descriptions may be characteristics of resources, such as the author or the content of a website. These descriptions are metadata. Enriching the Web with metadata allows the development of the so-called Semantic Web. RDF is used to represent semantic graphs corresponding to a specific knowledge modeling. RDF files are typically stored in a relational database and manipulated using SQL, or derived languages such as SPARQL. This solution is well suited for small RDF graphs, but is unfortunately not well suited for large RDF graphs. These graphs are rapidly evolving, and adapting them to change may reveal inconsistencies. Driving the implementation of changes while maintaining the consistency of a semantic graph is a crucial task, and costly in terms of time and complexity. An automated process is essential. For these large RDF graphs, we propose a new way using formal verification entitled "Model Checking".Model Checking is a verification technique that explores all possible states of the system. In this way, we can show that a model of a given system satisfies a given property. This thesis provides a new method for checking and querying semantic graphs. We propose an approach called ScaleSem which transforms semantic graphs into graphs understood by the Model Checker (The verification Tool of the Model Checking method). It is necessary to have software tools to perform the translation of a graph described in a certain formalism into the same graph (or adaptation) described in another formalism
|
197 |
Framework for ambient assistive living : handling dynamism and uncertainty in real time semantic services provisioning / Environnement logiciel pour l’assistance à l’autonomie à domicile : gestion de la dynamique et de l’incertitude pour la fourniture sémantique en temps réel de services d’assistanceAloulou, Hamdi 25 June 2013 (has links)
L’hétérogénéité des environnements ainsi que la diversité des profils et des besoins des patients représentent des contraintes majeures qui remettent en question l’utilisation à grande échelle des systèmes d’assistance à l’autonomie à domicile (AAL). En effet, afin de répondre à l’évolution de l’état des patients et de leurs besoins humains, les environnements AAL sont en évolution continue par l’introduction ou la disparition de capteurs, de dispositifs d’interaction et de services d’assistance. Par conséquent, une plateforme générique et dynamique capable de s’adapter à différents environnements et d’intégrer de nouveaux capteurs, dispositifs d’interaction et services d’assistance est requise. La mise en œuvre d’un tel aspect dynamique peut produire une situation d’incertitude dérivée des problèmes techniques liés à la fiabilité des capteurs ou à des problèmes de réseau. Par conséquent, la notion d’incertitude doit être introduite dans la représentation de contexte et la prise de décision afin de faire face à ce problème. Au cours de cette thèse, j’ai développé une plateforme dynamique et extensible capable de s’adapter à différents environnements et aux besoins des patients. Ceci a été réalisé sur la base de l’approche Plug&Play sémantique que j’ai proposé. Afin de traiter le problème d’incertitude de l’information lié à des problèmes techniques, j’ai proposé une approche de mesure d’incertitude en utilisant les caractéristiques intrinsèques des capteurs et leurs comportements fonctionnels. J’ai aussi fourni un modèle de représentation sémantique et de raisonnement avec incertitude associé avec la théorie de Dempster-Shafer (DST) pour la prise de décision / The heterogeneity of the environments as well as the diversity of patients’ needs and profiles are major constraints that challenge the spread of ambient assistive living (AAL) systems. AAL environments are usually evolving by the introduction or the disappearance of sensors, devices and assistive services to respond to the evolution of patients’ conditions and human needs. Therefore, a generic framework that is able to adapt to such dynamic environments and to integrate new sensors, devices and assistive services at runtime is required. Implementing such a dynamic aspect may produce an uncertainty derived from technical problems related to sensors reliability or network problems. Therefore, a notion of uncertain should be introduced in context representation and decision making in order to deal with this problem. During this thesis, I have developed a dynamic and extendible framework able to adapt to different environments and patients’ needs. This was achieved based on my proposed approach of semantic Plug&Play mechanism. In order to handle the problem of uncertain information related to technical problems, I have proposed an approach for uncertainty measurement based on intrinsic characteristics of the sensors and their functional behaviors, then I have provided a model of semantic representation and reasoning under uncertainty coupled with the Dempster-Shafer Theory of evidence (DST) for decision making
|
Page generated in 0.0539 seconds