Spelling suggestions: "subject:"eeb sémantique"" "subject:"eeb émantique""
41 |
Préparer un cours interactif pour le Web, la baladodiffusion et le mode présentiel à l'ère des Web 2.0 et 3.0Habel, Geneviève January 2009 (has links) (PDF)
En donnant accès à la théorie de la géométrie projective sous l'angle des médias interactifs, le projet Perspective théâtrale sur la géométrie projective permet une expérience unique d'apprentissage et de communication en ligne. De la formulation des objectifs à la maquette, il a fallu s'approprier les contenus, les catégoriser, les diviser, les relier, les structurer. Ce mémoire fait état de la démarche de structuration des ressources médiatisées d'un cours de géométrie projective et d'une pièce de théâtre sur la vie du mathématicien créateur de cette théorie, puis de la diffusion de ces contenus sur la Toile, par baladodiffusion ou en mode présentiel, en ayant recours au Web collaboratif et sémantique. Ces nouveaux contextes d'échange permettent de passer outre les contraintes de distance, de temps et de disponibilités des personnes intéressées, tout en transmettant des informations à jour sur un sujet et en faisant participer activement les utilisateurs à façonner et partager leur expérience d'apprentissage. L'information sémantique attachée à chacune des unités médiatiques permet une appropriation des contenus sous de multiples facettes: linéairement, constructivement, artistiquement. Une ontologie ajoute une enveloppe conjonctive aux contenus, donnant une structure de navigation cohérente. Cette ontologie permet à la fois de gérer les différentes ressources multimédias du projet, de construire le portail les diffusant et d'offrir aux usagers des interfaces interactives pour les manipuler. Des créateurs aux usagers, tous manipulent et profitent de la structure de l'ontologie et des ressources qui la composent. Brain Cuts, un éditeur de courts métrages, est un exemple d'outil permettant aux usagers d'agréger eux-mêmes les ressources multimédias du cours. Les nouveaux outils qu'apporte l'avènement du Web sémantique aideront peut-être à construire un écosystème de connaissances (Knowledge Ecosystem) sur la Toile. Ce projet sert de plateforme expérimentale à ces nouveaux moyens interactifs en éducation. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Médias interactifs, Toile, Web, Web sémantique, Ontologie, Téléapprentissage, Théâtre, Mathématiques, Géométrie projective, Gestion des connaissances.
|
42 |
Exploitation des Technologies du Web Semantique et de la Gestion des Connaissances pour le E-LearningDehors, Sylvain 02 February 2007 (has links) (PDF)
Ce travail explore le potentiel des technologies du web sémantique et de la gestion des connaissances dans le cadre des systèmes de e-learning. Il aborde la question de la réutilisation de ressources pédagogiques existantes au travers d´un processus dit de " sémantisation ". dans ce processus le contenu pédagogique est annoté semi automatiquement par des concepts ontologiques, depuis plusieurs point de vue (domaine, pédagogie, structure, etc.). Ce processus vise à contextualiser le contenu par rapport à la conceptualisation et la stratégie pédagogique de l´enseignant. L´exploitation de ressources pédagogiques ainsi annotées est proposée dans des interfaces web dynamiques. Les technologies du web sémantique y sont utilisés pour réaliser des inférences visant à présenter et personnaliser les contenus pédagogiques montrant ainsi sur l´intérêt des standard du web sémantiques (OWL, RDF, SPARQL) dans une perspective pratique. L´implémentation repose sur le déploiement du moteur de recherche sémantique Corese. Enfin, le suivi et l´analyse de l´activité de l´apprenant est exploré au travers de visualisations et d´inférences à base de graphes pour l´analyse automatique ou manuelle des traces d´activités dans un cours sémantisé. Les outils et méthodes proposées pour l´analyse tirent parti de la sémantique formalisée et manipulée grâce aux technologies du web sémantique.
|
43 |
Aide à la création et à l'exploitation de réglementations basée sur les modèles et techniques du Web sémantiqueBouzidi, Khalil Riad 11 September 2013 (has links) (PDF)
Les réglementations concernant l'industrie de la construction deviennent de plus en plus complexes et touchent plus d'un domaine à la fois. Elles portent sur les produits, les composants et l'exécution des projets. Elles jouent aussi un rôle important pour garantir la qualité d'un bâtiment, ses caractéristiques et minimiser son impact environnemental. Depuis 30 ans, le CSTB prouve son savoir-faire en la matière au travers du développement du REEF, l'encyclopédie complète des textes techniques et réglementaires de la construction. Dans le cadre d'une collaboration entre le CSTB et le laboratoire I3S, nous avons travaillé à la formalisation et au traitement automatisé des informations technico-réglementaires contenues dans le REEF. Nous avons mis en œuvre notre approche pour aider à la création de nouveaux Avis Techniques. Il s'agit de préciser comment ils sont rédigés et comment standardiser leur structure grâce à la mise en œuvre de services sémantiques adaptés. Nous avons réussi à identifier et à comprendre les problèmes liés à la rédaction d'avis techniques et nous nous sommes focalisés sur le renseignement des dossiers techniques par les industriels. Nos contributions sont les suivantes : Nous avons construit manuellement une ontologie du domaine, qui définit les principaux concepts impliqués dans l'élaboration des Avis Technique. Cette ontologie appelée "OntoDT" est couplée avec le thésaurus du projet REEF. Nous l'avons définie à partir de l'étude des dossiers techniques existants, du thesaurus REEF et en interviewant les instructeurs du CSTB. Nous utilisons conjointement les standards SBVR et SPARQL pour reformuler, à la fois dans un langage contrôlé et dans un langage formel, les contraintes réglementaires présentes dans les Guides pratiques. SBVR représente une assurance de la qualité du texte des contraintes réglementaires présentées à l'utilisateur et SPARQL permet l'automatisation de la vérification de ces contraintes. Ces deux représentations reposent sur l'ontologie de domaine que nous avons développée. Nous intégrons des connaissances expertes sur le processus même de vérification des dossiers techniques. Nous avons organisé en différents processus les requêtes SPARQL représentant des contraintes réglementaires. A chaque composant intervenant dans un dossier technique correspond un processus de vérification de sa conformité à la réglementation en vigueur. Les processus sont représentés de manière déclarative en RDF et un moteur de processus interprète ces descriptions RDF pour ordonner et déclencher l'exécution des requêtes nécessaires à la vérification d'un dossier technique particulier. Enfin, nous représentons de façon déclarative en RDF l'association des représentations SBVR et SPARQL des réglementations et nous utilisons ces annotations pour produire à l'utilisateur un rapport de conformité en langue naturelle pour l'assister dans la rédaction d'un avis technique.
|
44 |
Mise en contexte des traces pour une analyse en niveaux d'abstraction / Exploiting context for an structuration of execution traces in abstraction layersFopa, Léon Constantin 23 June 2015 (has links)
Les techniques d'analyse et de débogage d'applications sont de plus en plus mises à mal dans les systèmes modernes. En particulier dans les systèmes basés sur des composants embarqués multiprocesseurs (ou MPSoc) qui composent aujourd'hui la plupart de nos dispositifs quotidiens. Le recours à des traces d'exécution devient incontournable pour appliquer une analyse fine de tels systèmes et d'en identifier les comportements divergents. Même si la trace représente une source d'information riche mise à disposition du développeur pour travailler, les informations pertinentes à l'analyse se retrouvent noyées dans la masse et sont difficilement utilisables sans une expertise de haut niveau. Des outils dédiés à l'exploitation des traces deviennent nécessaires. Cependant les outils existants prennent rarement en compte les aspects métiers spécifiques à l'application afin d'optimiser le travail d'analyse. Dans cette thèse, nous proposons une approche qui permet au développeur de représenter, manipuler et interroger une trace d'exécution en se basant sur des concepts liés à ses propres connaissances métier. Notre approche consiste en l'utilisation d'une ontologie pour modéliser et interroger les concepts métier dans une trace, et l'utilisation d'un moteur d'inférence pour raisonner sur ces concepts métier. Concrètement, nous proposons VIDECOM l'ontologie du domaine de l'analyse des traces d'exécution des applications embarquées multimédia sur MPSoC. Nous nous intéressons ensuite au passage à l'échelle de l'exploitation de cette ontologie pour l'analyse des traces de grandes tailles. Ainsi, nous faisons une étude comparative des différents systèmes de gestion des ontologies pour déterminer l'architecture la plus adaptée aux traces de très grande taille au sein de notre ontologie VIDECOM. Nous proposons également un moteur d'inférence qui adresse les défis que pose le raisonnement sur les concepts métier, à savoir l'inférence de l'ordre temporel entre les concepts métier dans la trace et la terminaison du processus de génération de nouvelles connaissances métier. Enfin, nous illustrons la mise en pratique de l'utilisation de l'ontologie VIDECOM dans le cadre du projet SoC-Trace pour l'analyse des traces d'exécution réelles sur MPSoC. / Applications analysis and debugging techniques are increasingly challenging task in modern systems. Especially in systems based on embedded multiprocessor components (or MPSoC) that make up the majority of our daily devices today. The use of execution traces is unavoidable to apply a detailed analysis of such systems and identify unexpected behaviors. Even if the trace offers a rich corpus of information to the developer for her work, information relevant to the analysis are hidden in the trace and is unusable without a high level of expertise. Tools dedicated to trace analysis become necessary. However existing tools take little or no account of the specific business aspects to an application or the developer's business knowledge to optimize the analysis task. In this thesis, we propose an approach that allows the developer to represent, manipulate and query an execution trace based on concepts related to her own business knowledge. Our approach is the use of an ontology to model and query business concepts in a trace, and the use of an inference engine to reason about these business concepts. Specifically, we propose VIDECOM, the domain ontology for the analysis of execution traces of multimedia applications embedded on MPSoC. We then focus on scaling the operation of this ontology for the analysis of huge traces. Thus, we make a comparative study of different ontologies management systems (or triplestores) to determine the most appropriate architecture for very large traces in our VIDECOM ontology.We also propose an inference engine that addresses the challenges of reasoning about business concepts, namely the inference of the temporal order between business concepts in the trace and the termination of the process of generating new knowledge from business knowledge. Finally, we illustrate the practical use of VIDECOM in the SoC-Trace project for the analysis of real execution traces on MPSoC.
|
45 |
Static analysis of semantic web queries with ShEx schema constraints / Analyse statique de requêtes au web sémantique avec des contraintes de schéma ShExAbbas, Abdullah 06 November 2017 (has links)
La disponibilité de gros volumes de données structurées selon le modèle Resource Description Framework (RDF) est en constante augmentation. Cette situation implique un intérêt scientifique et un besoin important de rechercher de nouvelles méthodes d’analyse et de compilation de requêtes pour tirer le meilleur parti de l’extraction de données RDF. SPARQL est le plus utilisé et le mieux supporté des langages de requêtes sur des données RDF. En parallèle des langages de requêtes, les langages de définition de schéma d’expression de contraintes sur des jeux de données RDF ont également évolués. Les Shape Expressions (ShEx) sont de plus en plus utilisées pour valider des données RDF et pour indiquer les motifs de graphes attendus. Les schémas sont importants pour les tâches d’analyse statique telles que l’optimisation ou l’injection de requêtes. Notre intention est d’examiner les moyens et méthodologies d’analyse statique et d’optimisation de requêtes associés à des contraintes de schéma.Notre contribution se divise en deux grandes parties. Dans la première, nous considérons le problème de l’injection de requêtes SPARQL en présence de contraintes ShEx. Nous proposons une procédure rigoureuse et complète pour le problème de l’injection de requêtes avec ShEx, en prenant en charge plusieurs fragments de SPARQL. Plus particulièrement, notre procédure gère les patterns de requêtes OPTIONAL, qui s’avèrent former un important fonctionnalité à étudier avec les schémas. Nous fournissons ensuite les limites de complexité de notre problème en considération des fragments gérés. Nous proposons également une méthode alternative pour l’injection de requêtes SPARQL avec ShEx. Celle-ci réduit le problème à une satisfiabilité de Logique de Premier Ordre, qui permet de considérer une extension du fragment SPARQL traité par la première méthode. Il s’agit de la première étude traitant l’injection de requêtes SPARQL en présence de contraintes ShEx.Dans la seconde partie de nos contributions, nous proposons une méthode d’analyse pour optimiser l’évaluation de requêtes SPARQL groupées, sur des graphes RDF, en tirant avantage des contraintes ShEx. Notre optimisation s’appuie sur le calcul et l’assignation de rangs aux triple patterns d’une requête, permettant de déterminer leur ordre d’exécution. La présence de jointures intermédiaires entre ces patterns est la raison pour laquelle l’ordonnancement est important pour gagner en efficicacité. Nous définissons un ensemble de schémas ShEx bien- formulés, qui possède d’intéressantes caractéristiques pour l’optimisation de requêtes SPARQL. Nous développons ensuite notre méthode d’optimisation par l’exploitation d’informations extraites d’un schéma ShEx. Enfin, nous rendons compte des résultats des évaluations effectuées, montrant les avantages de l’application de notre optimisation face à l’état de l’art des systèmes d’évaluation de requêtes. / Data structured in the Resource Description Framework (RDF) are increasingly available in large volumes. This leads to a major need and research interest in novel methods for query analysis and compilation for making the most of RDF data extraction. SPARQL is the widely used and well supported standard query language for RDF data. In parallel to query language evolutions, schema languages for expressing constraints on RDF datasets also evolve. Shape Expressions (ShEx) are increasingly used to validate RDF data, and to communicate expected graph patterns. Schemas in general are important for static analysis tasks such as query optimisation and containment. Our purpose is to investigate the means and methodologies for SPARQL query static analysis and optimisation in the presence of ShEx schema constraints.Our contribution is mainly divided into two parts. In the first part we consider the problem of SPARQL query containment in the presence of ShEx constraints. We propose a sound and complete procedure for the problem of containment with ShEx, considering several SPARQL fragments. Particularly our procedure considers OPTIONAL query patterns, that turns out to be an important feature to be studied with schemas. We provide complexity bounds for the containment problem with respect to the language fragments considered. We also propose alternative method for SPARQL query containment with ShEx by reduction into First Order Logic satisfiability, which allows for considering SPARQL fragment extension in comparison to the first method. This is the first work addressing SPARQL query containment in the presence of ShEx constraints.In the second part of our contribution we propose an analysis method to optimise the evaluation of conjunctive SPARQL queries, on RDF graphs, by taking advantage of ShEx constraints. The optimisation is based on computing and assigning ranks to query triple patterns, dictating their order of execution. The presence of intermediate joins between the query triple patterns is the reason why ordering is important in increasing efficiency. We define a set of well-formed ShEx schemas, that possess interesting characteristics for SPARQL query optimisation. We then develop our optimisation method by exploiting information extracted from a ShEx schema. We finally report on evaluation results performed showing the advantages of applying our optimisation on the top of an existing state-of-the-art query evaluation system.
|
46 |
Castor : a constraint-based SPARQL engine with active filter processing / Castor : un moteur SPARQL basé sur les contraintes avec exploitation actif de filtresLe Clement de Saint-Marcq, Vianney 16 December 2013 (has links)
SPARQL est le langage de requête standard pour les graphes de données du Web Sémantique. L’évaluation de requêtes est étroitement liée aux problèmes d’appariement de graphes. Il a été démontré que l’évaluation est NP-difficile. Les moteurs SPARQLde l’état-de-l’art résolvent les requêtes SPARQL en utilisant des techniques de bases de données traditionnelles. Cette approche est efficace pour les requêtes simples qui fournissent un point de départ précis dans le graphe. Par contre, les requêtes couvrant tout le graphe et impliquant des conditions de filtrage complexes ne passent pas bien à l’échelle. Dans cette thèse, nous proposons de résoudre les requêtes SPARQL en utilisant la Programmation par Contraintes (CP). La CP résout un problème combinatoire enexploitant les contraintes du problème pour élaguer l’arbre de recherche quand elle cherche des solutions. Cette technique s’est montrée efficace pour les problèmes d’appariement de graphes. Nous reformulons la sémantique de SPARQL en termes deproblèmes de satisfaction de contraintes (CSPs). Nous appuyant sur cette sémantique dénotationnelle, nous proposons une sémantique opérationnelle qui peut être utilisée pour résoudre des requêtes SPARQL avec des solveurs CP génériques.Les solveurs CP génériques ne sont cependant pas conçus pour traiter les domaines immenses qui proviennent des base de données du Web Sémantique. Afin de mieux traiter ces masses de données, nous introduisons Castor, un nouveau moteurSPARQL incorporant un solveur CP léger et spécialisé. Nous avons apporté une attention particulière à éviter tant que possible les structures de données et algorithmes dont la complexité temporelle ou spatiale est proportionnelle à la taille de la base dedonnées. Des évaluations expérimentales sur des jeux d’essai connus ont montré la faisabilité et l’efficacité de l’approche. Castor est compétitif avec des moteurs SPARQL de l’état-de-l’art sur des requêtes simples, et les surpasse sur des requête. / SPARQL is the standard query language for graphs of data in the SemanticWeb. Evaluating queries is closely related to graph matching problems, and has been shown to be NP-hard. State-of-the-art SPARQL engines solve queries with traditional relational database technology. Such an approach works well for simple queries that provide a clearly defined starting point in the graph. However, queries encompassing the whole graph and involving complex filtering conditions do not scale well. In this thesis we propose to solve SPARQL queries with Constraint Programming (CP). CP solves a combinatorial problem by exploiting the constraints of the problem to prune the search tree when looking for solutions. Such technique has been shown to work well for graph matching problems. We reformulate the SPARQL semantics by means of constraint satisfaction problems (CSPs). Based on this denotational semantics, we propose an operational semantics that can be used by off-theshelf CP solvers. Off-the-shelf CP solvers are not designed to handle the huge domains that come with SemanticWeb databases though. To handle large databases, we introduce Castor, a new SPARQL engine embedding a specialized lightweight CP solver. Special care has been taken to avoid as much as possible data structures and algorithms whosetime or space complexity are proportional to the database size. Experimental evaluations on well-known benchmarks show the feasibility and efficiency of the approach. Castor is competitive with state-of-the-art SPARQL engines on simple queries, and outperforms them on complex queries where filters can be actively exploited during the search.
|
47 |
Communication de crise en phase post-accidentelle nucléaire : organisation et partage des connaissances sur le Web / Crisis communication in a post-nuclear accident phase : knowledge organisation and sharing on the WebSegault, Antonin 09 November 2017 (has links)
Les accidents nucléaires majeurs constituent des crises à grande échelle, susceptibles de contaminer de large territoires pour des décennies. Les habitants de ces territoires doivent alors acquérir de nouvelles connaissances et adapter leur mode de vie pour limiter l'impact sanitaire et sociétal des radiations. Si la France a développé un plan de gestion d'une telle situation, les stratégies de communication proposées laissent peu de place au dialogue entre les autorités et les citoyens ainsi qu'aux usages du Web social. Cette thèse s'inscrit dans le cadre du projet de recherche SCOPANUM (Stratégies de COmmunication de crise en gestion Post-Accident NUcléaire via les Médias Sociaux) soutenu par le CSFRS (Conseil Supérieur Pour la Formation et la Recherche Stratégique). Elle vise à examiner le potentiel des technologies de l'information et de la communication pour la mise en œuvre d'une communication de crise plus adaptée aux situations post-accidentelles nucléaires. Après l'accident nucléaire de Fukushima Daiichi, les mesures de la radioactivité ont fait l'objet de pratiques collaboratives de collecte et d’agrégation s’appuyant sur les médias sociaux. L'étude des usages de Twitter a révélé que les modalités de diffusion de ces mesures ne sont pas adaptées aux spécificités de la situation post-accidentelle nucléaire. Sur la base de ces résultats, nous avons proposé des recommandations et un prototype d'outil logiciel pour favoriser la réutilisabilité de mesures de la radioactivité ainsi partagées. Nos travaux portent également sur les connaissances pratiques susceptibles d'aider les personnes à adapter leur quotidien à la vie dans les territoires contaminés par un accident nucléaire. Plusieurs méthodes sont présentées pour faciliter l'identification de ces connaissances et leur représentation formelle à l'aide des technologies du Web Sémantique. À partir de ces modèles, nous décrivons la conception et l'évaluation d'une application web, Ginkgo, visant à faciliter l'appropriation et le partage des connaissances en matière de radioprotection. / Major nuclear accidents generate large scale crisis that may contaminate wide areas for decades. The inhabitants of these areas must then gain new knowledge and adapt their lifestyle to limit the health and social consequences of radioactivity. France developed a procedures to manage such a situation, but the communication stragies presented do not fully support neither dialogue between authorities and citizen nor the use of social Web tools. This thesis was part of the SCOPANUM (Stratégies de COmmunication de crise en gestion Post-Accident NUcléaire via les Médias Sociaux) research project, backed by a grant from CSFRS (Conseil Supérieur Pour la Formation et la Recherche Stratégique). It aims to assess the benefits of information-communication technologies to develop more suitable crisis communication strategies for post-nuclear-accident situations. After the Fukushima Daiichi nuclear disaster, collaborative practices have emerged to collect and aggregate radiation measurements thanks to social media. The analysis of Twitter uses revealed that the diffusion of these measurements is not well adapted to the post-nuclear-accident situation. We developed a set of guidelines and a software prototype to support the re-usability of the radiation measurements that are shared on social media. Our work also focused on the practical knowledge that may help people to adapt their life in the contaminated areas. We presented several methods to support the identification and the formal representation of this knowledge using Semantic Web technologies. From these models, we built and tested Ginkgo, a mobile web application designed to support knowledge sharing and appropriation.
|
48 |
Étude exhaustive de voies de signalisation de grande taille par clustering des trajectoires et caractérisation par analyse sémantique / Comprehensive study of large signaling pathways by clustering trajectories and characterization by semantic analysisCoquet, Jean 20 December 2017 (has links)
Les voies de signalisation décrivent les réponses d'une cellule à des stimuli externes. Elles sont primordiales dans les processus biologiques tels que la différentiation, la prolifération ou encore l'apoptose. La biologie des systèmes tentent d'étudier ces voies de façon exhaustive à partir de modèles statistiques ou dynamiques. Le nombre de solutions expliquant un phénomène biologique (par exemple la réaction d'une cellule à un stimulus) peut être très élevé dans le cas de grands modèles. Cette thèse propose, dans un premier temps, différentes stratégies de regroupement de ces solutions à partir de méthodes de clustering et d'analyse de concepts formels. Puis elle présente la caractérisation de ces regroupements à partir de web sémantique. Ces stratégies ont été appliquées au réseau de signalisation du TGF-beta, un stimulus extra-cellulaire jouant un rôle important dans le développement du cancer, ce qui a permis d'identifier cinq grands groupes de trajectoires participant chacun à des processus biologiques différents. Dans un second temps, cette thèse se confronte au problème de conversion des données hétérogènes provenant de différentes bases dans un formalisme unique afin de pouvoir généraliser l'étude précédente. Elle propose une stratégie permettant de regrouper les différents réseaux de signalisation provenant d'une base de données en un modèle unique et ainsi permettant de calculer toutes les trajectoires de signalisation d'un stimulus. / Signaling pathways describe the extern stimuli responses of a cell. They are indispensable in biological processes such as differentiation, proliferation or apoptosis. The Systems Biology tries to study exhaustively the signalling pathways using static or dynamic models. The number of solutions which explain a biological phenomenon (for example the stimulus reaction of cell) can be very high in large models. First, this thesis proposes some different strategies to group the solutions describing the stimulus signalling with clustering methods and Formal Concept Analysis. Then, it presents the cluster characterization with semantic web methods. Those strategies have been applied to the TGF-beta signaling network, an extracellular stimulus playing an important role in the cancer growing, which helped to identify 5 large groups of trajectories characterized by different biological processes. Next, this thesis confronts the problem of heterogeneous data translation from different bases to a unique formalism. The goal is to be able to generalize the previous study. It proposes a strategy to group signaling pathways of a database to an unique model, then to calculate every signaling trajectory of the stimulus.
|
49 |
Technologies du Web Sémantique pour l’Entreprise 2.0 / Semantic Web Technologies for Enterprise 2.0Passant, Alexandre 09 June 2009 (has links)
Les travaux présentés dans cette thèse proposent différentes méthodes, réflexions et réalisations associant Web 2.0 et Web Sémantique. Après avoir introduit ces deux notions, nous présentons les limites actuelles de certains outils, comme les blogs ou les wikis, et des pratiques de tagging dans un contexte d’Entreprise 2.0. Nous proposons ensuite la méthode SemSLATES et la vision globale d’une architecture de médiation reposant sur les standards du Web Sémantique (langages, modèles, outils et protocoles) pour pallier à ces limites. Nous détaillons par la suite différentes ontologies (au sens informatique) développées pour mener à bien cette vision : d’une part, en contribuant activement au projet SIOC - Semantically-Interlinked Online Communities -, des modèles destinés aux méta-données socio-structurelles, d’autre part des modèles, étendant des ontologies publiques, destinés aux données métier. De plus, la définition de l’ontologie MOAT - Meaning Of A Tag - nous permet de coupler la souplesse du tagging et la puissance de l'indexation à base d’ontologies. Nous revenons ensuite sur différentes implémentations logicielles que nous avons mises en place à EDF R&D pour permettre de manière intuitive la production et l'utilisation d'annotations sémantiques afin d’enrichir les outils initiaux : wikis sémantiques, interfaces avancées de visualisation (navigation à facettes, mash-up sémantique, etc.) et moteur de recherche sémantique. Plusieurs contributions ont été publiées sous forme d'ontologies publiques ou de logiciels libres, contribuant de manière plus large à cette convergence entre Web 2.0 et Web Sémantique non seulement en entreprise mais sur le Web dans son ensemble. / The work described in this thesis provides different methods, thoughts and implementations combining Web 2.0 and the Semantic Web. After introducing those terms, we present the current shortcomings of tools such as blogs and wikis as well as tagging practices in an Enterprise 2.0 context. We define the SemSLATES methodology and the global vision of a middleware architecture based on Semantic Web technologies (languages, models, tools and protocols) to solve these issues. Then, we detail the various ontologies (as in computer science) that we build to achieve this goal: on the one hand models dedicated to socio-structural meta-data, by actively contributing to SIOC - Semantically-Interlinked Online Communities -, and on the other hands models extending public ontologies for domain data. Moreover, the MOAT ontology - Meaning Of A Tag – allows us to combine the flexibility of tagging and the power of ontology-based indexing. We then describe several software implementations, at EDF R&D, dedicated to easily produce and use semantic annotations to enrich original tools: semantic wikis, advanced visualization interfaces (faceted browsing, semantic mash-ups, etc.) and a semantic search engine. Several contributions have been published as public ontologies or open-source software, contributing more generally to this convergence between Web 2.0 and the Semantic Web, not only in enterprise but on the Web as a whole.
|
50 |
Raisonnement incrémental sur des flux de données / Incremental reasoning over triple streamsChevalier, Jules 05 February 2016 (has links)
Nous proposons dans cette thèse une architecture pour le raisonnement incrémental sur des flux de triples. Afin de passer à l’échelle, elle est conçue sous la forme de modules indépendants, permettant l’exécution parallèle du raisonnement. Plusieurs instances d’une même règle peuvent être exécutées simultanément afin d’améliorer les performances. Nous avons également concentré nos efforts pour limiter la dispersion des doublons dans le système, problème récurrent du raisonnement. Pour cela, un triplestore partagé permet à chaque module de filtrer au plus tôt les doublons. La structure de notre architecture, organisée en modules indépendants par lesquels transitent les triples, lui permet de recevoir en entrée des flux de triples. Enfin, notre architecture est indépendante du fragment utilisé. Nous présentons trois modes d’inférence pour notre architecture. Le premier consiste à inférer l’ensemble des connaissances implicites le plus rapidement possible. Le second priorise l'inférence de certaines connaissances prédéterminées. Le troisième vise à maximiser la quantité de triples inférés par seconde. Nous avons implémenté l’architecture présentée à travers Slider, un raisonneur incrémental prenant nativement en charge les fragments ρdf et RDFS. Il peut être facilement étendu à des fragments plus complexes. Nos expérimentations ont montré une amélioration des performances de plus de 65% par rapport au raisonneur OWLIM-SE. Nous avons également mené des tests montrant que l’utilisation du raisonnement incrémental avec Slider apporte un avantage systématique aux performances par rapport au raisonnement par lots, quels que soient l’ontologie utilisée et le fragment appliqué / In this thesis, we propose an architecture for incremental reasoning on triple streams. To ensure scalability, it is composed of independent modules; thus allowing parallel reasoning. That is, several instances of a same rule can be simultaneously executed to enhance performance. We also focused our efforts to limit the duplicates spreading in the system, a recurrent issue for reasoning. To achieve this, we design a shared triplestore which allows each module to filter duplicates as soon as possible. The triples passes through the different independent modules of the architecture allows the reasoner to receive triple streams as input. Finally, our architecture is of agnostic nature regarding the fragment used for the inference. We also present three inference modes for our architecture: the first one infers all the implicit knowledge as fast as possible; the second mode should be used when the priority has to be defined for the inference of a specific type of knowledge; the third one proposes to maximize the amount of triples inferred per second. We implemented this architecture through Slider, an incremental reasoning natively supporting the fragments ρdf and RDFS: It can easily be extended to more complex fragments. Our experimentations show a 65% improvement over the reasoner OWLIM-SE. However, the recently published reasoner RDFox exhibits better performance, although this one does not provide prioritized inference. We also conducted experimentations showing that the use of incremental reasoning over batch-based reasoning offers systematically better performance for all the ontologies and fragments used
|
Page generated in 0.0836 seconds