• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 3
  • 1
  • Tagged with
  • 47
  • 47
  • 18
  • 18
  • 17
  • 17
  • 15
  • 14
  • 13
  • 11
  • 10
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Rôle des ontologies en ingénierie des EIAH : cas d'un système d'assistance au design pédagogique

Psyché, Valéry January 2007 (has links) (PDF)
Cette thèse illustre le rôle que l'Ingénierie Ontologique (IO) peut jouer dans les Environnements Informatiques pour l'Apprentissage Humain (EIAH). Même si ce rôle touche à la fois la conception et la diffusion de l'apprentissage, nous nous attardons sur son rôle dans la conception. Nous montrons alors comment il vise à combler un manque, celui de l'assistance aux concepteurs. Notre but est donc de faire la preuve de la contribution possible de l'IO dans l'ingénierie des EIAH, et pour illustrer cette preuve, nous prenons l'assistance aux concepteurs pédagogiques comme exemple de situation où l'IO est utile. Nous abordons le problème, en le posant de la façon suivante: Comment assister les concepteurs pédagogiques dans leur tâche parfois complexe de design pédagogique (DP), alors que les systèmes auteurs ne leur offrent pas l'assistance nécessaire pour concevoir des scénarios sémantiquement corrects, c'est-à-dire des scénarios valides du point de vue des Théories et Paradigmes d'Apprentissage, d'Enseignement et de Design pédagogique (TPAED), ni le moyen de procéder à une telle validation sémantique? Nous montrons que la cause principale de ce manque dans les systèmes auteurs (incluant les systèmes orientés pédagogie, orientés performance, hypermédias, adaptatifs et collaboratifs et Web, pour n'en nommer que quelques-uns) est leur faible représentation explicite du DP et des TPAED dans leur modèle pédagogique. Nous privilégions une approche d'IO basée sur le Web sémantique afin de profiter des technologies bien établies et standardisées qui en découlent, à savoir les langages Web basés sur la syntaxe XML, les services Web et les annotations sémantiques. Pour mettre en oeuvre notre thèse, nous proposons la conception d'un système d'aide permettant d'apporter au concepteur pédagogique l'assistance dont il a besoin lors de l'utilisation de tout système auteur. Nous nommons ce système CIAO, ce qui signifie qu'il s'agit d'un système d'aide à la Conception Intelligemment Assistée par des Ontologies. CIAO exploite une ontologie formalisant les TPAED, dont nous assurons la construction selon une approche d'IO que nous proposons. Les services offerts au concepteur sont assurés grâce à des règles de validation syntaxique et sémantique que nous avons créées et intégrées à CIAO. Quelle que soit la situation dans laquelle l'IO est utilisée, il s'agit d'un processus complexe qu'il faut avant tout développer de façon méthodologique. Cette thèse apporte aussi une solution sur cet aspect méthodologique de l'IO, puisque nous proposons une Méthode Intégrée d'IO appelée, MI2O. Cette méthode est dite intégrée parce qu'elle tient compte des points forts des principales méthodes d'IO et du standard du génie logiciel IEEE 1074-1995 (l'ontologie étant considérée comme un produit du génie logiciel). Notre contribution peut se résumer ainsi: (1) La méthode MI2O, utilisée pour construire l'Ontologie des Théories et Paradigmes d'Apprentissage, d'Enseignement et de Design pédagogique ou OTPAED ; (2) L'OTPAED, une contribution originale pouvant être exploitée par tous les systèmes auteurs d'EIAH ; (3) Le système CIAO, un système réactif d'assistance en design pédagogique qui donne, entre autres, du conseil pour la conception des scénarios pédagogiques syntaxiquement/sémantiquement valides selon une théorie déterminée. Ainsi, il offre une validation flexible de scénarios selon les standards du DP (par ex. IMS Learning Design) et selon les TPAED. Le prototype que nous avons développé tend à montrer le potentiel de l'IO en contexte de DP en illustrant (à travers plusieurs scénarios d'utilisation de CIAO) comment des ontologies peuvent être exploitées pour assister le concepteur pédagogique; (4) Les règles de validation syntaxiques et sémantiques de CIAO. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Environnement interactif pour l'apprentissage humain, Ingénierie ontologique, Intelligence artificielle dans l'éducation, Méthodologie, Ontologie, Représentation des connaissances, Système auteur, Système tutoriel intelligent, Théories et paradigmes de l'apprentissage, de l'enseignement et du design pédagogique.
12

Caractérisation des échanges des informations et des connaissances dans les groupements d’entreprises : mise en œuvre d’un système de gestion des connaissances pour le cas du cluster de l’industrie artisanale Thaïlandaise / Characterization of the information and knowledge exchange within the enterprise networks : a knowledge management system for SMEs Cluster for a handicraft cluster case in Thailand

Sureephong, Pradorn 30 September 2009 (has links)
Certains facteurs (terrain, travail et capital) étaient considérés comme accessibles, suffisants et à la base même de la compétitivité économique. La connaissance cependant n'avait pas retenu beaucoup d'attention. Actuellement, c'est l’ère de l'économie basée sur la connaissance qui est impactée par l'usage croissant des technologies de l’information. Les facteurs de la production cités auparavant s’avèrent ainsi insuffisants pour maintenir l'avantage compétitif de l’entreprise et la connaissance est sensée jouer un rôle clé dans ce contexte. L'étude de Yoong et Molina montre que le seul moyen de survivre dans un environnement de plus en plus concurrentiel est que les PMEs forment des alliances stratégiques ou des fusions avec d’autres entreprises semblables ou complémentaires. Les résultats de leur étude prônent le concept du «cluster industriel», proposé initialement par Michael Porter en 1990. Ainsi, les gouvernements essayent de soutenir ces PMEs via des moyens financiers, des stratégies politiques ou encore des promotions à l’import/export.Cependant, un grand nombre de PMEs n’arrive pas à survivre dans le contexte de concurrence du marché mondial. Les nouveaux facteurs clés du succès, mis en évidence par ces recherches, sont principalement le partage des connaissances et la collaboration au sein du cluster. Ainsi, l’application d’une approche de gestion des connaissances pour le développement du cluster devrait permettre à ces entreprises d’acquérir plus d’efficacité dans la réalisation de leurs objectifs. Pour répondre à la problématique générale de ce travail de thèse, nous avons organisé notre travail en quatre niveaux. Tout d’abord le niveau contextuel qui se concentre sur le modèle du cluster, son modèle organisationnel et le modèle des tâches induites. Le second niveau, dit conceptuel, est axé sur le modèle de connaissance et de collaboration. Ensuite, le niveau de conception se concentre sur la conversion des exigences en architecture, scenarios et spécifications. Enfin, le niveau relatif à la mise en œuvre a pour but de développer le système KMS en tenant compte des spécificités données dans le niveau précédant.L’architecture KMS proposée est divisée en trois niveaux de service i.e. le service de connaissance, le service de collaboration et le service de présentation. Le service de connaissance est le cœur du système puisqu’il permet aux membres du cluster de représenter, partager, et réutiliser la connaissance à travers le KMS. L’infrastructure de ce service est basée sur la technologie FLEX, qui permet de créer un GUI (Graphique User Interface) avec les utilisateurs et donne l’accès à un service web sur un serveur. Le concept de carte de connaissance a été pris en compte en tant que moyen permettant d’échanger la connaissance dans ce niveau. Nous avons développé un service de collaboration dans l’intention de renforcer les activités collaboratives du cluster industriel. Ces cartes ont aussi pour mission de faire circuler la connaissance de l’expert aux utilisateurs, et ceci, au bon moment et au bon endroit. De ce fait, nous avons développé ce niveau avec les technologies PHP et Ajax.Finalement, le service de présentation s’attache à visualiser et personnaliser tous les services fournis par le KMS pour les utilisateurs de manière optimale. L’objectif principal de ce service est d’intégrer harmonieusement le KMS dans les activités du cluster. Nous avons donc développé un outil d’informatique de connaissance (Knowledge Widget) qui est en fait une application légère destinée au client pour personnaliser le KMS dans le rôle qu’il doit jouer pour chaque groupe.En conclusion, les résultats explicites de cette étude peuvent être divisés en deux parties. La première concerne la méthodologie d’évaluation du KMS pour le cluster. Cette méthodologie peut aussi être généralisée à d’autres clusters dans différents domaines.... / The knowledge-based economy forces SMEs to form strategic alliances or merge with other similar or business companies in order to compete in the world markets. In the meantime, the concept of the industry cluster was widely implemented in many developing and developed countries for improving the competitiveness of their industries. Although many clusters have successful to develop their competitiveness, large numbers of them have failed. The study of Ecotec [DTI 05] which focuses on the key success factors of the cluster development stated that the two factors of the cluster development are collaboration and knowledge sharing among the cluster members. Thus, the principle of this study is to enhance the cluster by adopting the notion of the knowledge management which focuses on creation, representation, sharing, and reusing the knowledge. Therefore, Knowledge Management System (KMS) architecture for the cluster is proposed in this study in order to support these processes. We propose a “Model Suite” for analyzing and designing the KMS which comprises four levels:Firstly, the context level focuses on the cluster organizational analysis, which will present a global view of the actors, knowledge assets, and knowledge-intensive tasks of the specific cluster. Secondly, the concept level focuses on the knowledge itself by modeling the experts’ knowledge into the explicit form. Moreover, it also examines the collaboration model of the cluster. Thirdly, the design level aims at extracting cluster’s requirements into the system specification in order to be transferred to the implementation level. In this level, the information system is generated from different technologies for supporting the needs of the cluster organization. The KMS which is an outcome of the Model Suite is applied to a handicraft cluster in Thailand as our case study. It allows cluster members to create, share, and reuse the knowledge via a collaborative knowledge card module which is proposed in our study. The scenarios are presented in order to demonstrate how the KMS improves the collaboration and knowledge sharing among the members. Moreover, we also present the integration of the knowledge and collaboration services of the system in order to facilitate the knowledge users to retrieve the knowledge from the system via mobile device anywhere and anytime.
13

Apport de la modélisation ontologique pour le partage des connaissances en psychiatrie / Contribution of ontological modeling for the sharing of knowledge in psychiatry

Richard, Marion 19 September 2017 (has links)
La psychiatrie est une spécialité médicale qui vise à fournir un diagnostic et à traiter des troubles mentaux. Malgré des classifications internationalement reconnues, la catégorisation des patients selon des critères diagnostiques reste problématique. Les catégories actuelles peinent à prendre en compte l'hétérogénéité interindividuelle, les difficultés de délimitations des syndromes et l'influence sur les symptômes de nombreux facteurs dans l'histoire individuelle ou dans l'environnement. La recherche en psychiatrie nécessite une amélioration de la description des comportements, des syndromes ou des dysfonctionnements associés aux troubles psychiatriques. À cette fin, nous proposons OntoPsychia, une ontologie pour la psychiatrie, divisée en deux modules : les facteurs sociaux et environnementaux des troubles mentaux, et les troubles mentaux. L'utilisation d'OntoPsychia associée à des outils dédiés permettra la prise en compte des facteurs sociaux et environnementaux, la représentation de la comorbidité et une proposition de consensus autour des catégories descriptives des troubles psychiatriques. Dans un premier temps, nous avons développé les deux modules ontologiques selon deux méthodes différentes. La première propose une analyse de comptes rendus d'hospitalisation, tandis que la deuxième propose un alignement de différentes classifications psychiatriques, pour répondre au besoin de consensus. Dans un deuxième temps, nous avons développé un cadre méthodologique pour valider la structure et la sémantique des ontologies. / Psychiatry is a medical speciality that aims at providing diagnosis and treating mental disorders. Despite internationally acknowledged criteria leading to diagnostic categories, most psychiatric disorders are syndromes with common symptoms or dimensions between these diagnostic categories. In addition, the analysis of the prevalence and incidence of social and environmental risk factors of diseases is crucial to understand and treat them and might have significant impacts on policy decisions (therapeutic as well as the length or the cost of hospitalisation). This overlap between diagnoses and the heterogeneity within the defined diagnoses stresses the need to improve our capability to detect, to quantify the behaviour and to model the symptoms and the social and environmental risk factors associated to psychiatric disorders. To that end, we propose OntoPsychia, an ontology for psychiatry, divided in two modules: social and environmental factors of mental disorders and mental disorders. OntoPsychia associated with dedicated tools will help to perform semantic research in Patient Discharges Summaries (PDS), to represent comorbidity, to reach a consensus on descriptive categories of mental disorders. In a first step, we developed two ontological modules using two different methods. The first proposes an analysis of PDS, while the second proposes an alignment of psychiatric classifications to meet the need for consensus. In a second step, we have developed a methodological framework to validate the structure and semantics of ontologies.
14

Technologies sémantiques pour un système actif d’apprentissage / Semantic Technologies for an Active Learning System

Szilagyi, Ioan 26 March 2014 (has links)
Les méthodes d’apprentissage évoluent et aux modèles classiques d’enseignement viennent s’ajouter de nouveaux paradigmes, dont les systèmes d’information et de communication, notamment le Web, sont une partie essentielle. Afin améliorer la capacité de traitement de l’information de ces systèmes, le Web sémantique définit un modèle de description de ressources (Resource Description Framework – RDF), ainsi qu’un langage pour la définition d’ontologies (Web Ontology Language – OWL). Partant des concepts, des méthodes, des théories d’apprentissage, en suivant une approche systémique, nous avons utilisé les technologies du Web sémantique pour réaliser une plateforme d’apprentissage capable d’enrichir et de personnaliser l’expérience de l’apprenant. Les résultats de nos travaux sont concrétisés dans la proposition d’un prototype pour un Système Actif et Sémantique d’Apprentissage (SASA). Suite à l’identification et la modélisation des entités participant à l’apprentissage, nous avons construit six ontologies, englobant les caractéristiques de ces entités. Elles sont les suivantes : (1) ontologie de l’apprenant, (2) ontologie de l’objet pédagogique, (3) ontologie de l’objectif d’apprentissage, (4) ontologie de l’objet d’évaluation, (5) ontologie de l’objet d’annotation et (6) ontologie du cadre d’enseignement. L’intégration des règles au niveau des ontologies déclarées, cumulée avec les capacités de raisonnement des moteurs d’inférences incorporés au niveau du noyau sémantique du SASA, permettent l’adaptation du contenu d’apprentissage aux particularités des apprenants. L’utilisation des technologies sémantiques facilite l’identification des ressources d’apprentissage existant sur le Web ainsi que l’interprétation et l’agrégation de ces ressources dans le cadre du SASA / Learning methods keep evolving and new paradigms are added to traditional teaching models where the information and communication systems, particularly the Web, are an essential part. In order to improve the processing capacity of information systems, the Semantic Web defines a model for describing resources (Resource Description Framework - RDF), and a language for defining ontologies (Web Ontology Language – OWL). Based on concepts, methods, learning theories, and following a systemic approach, we have used Semantic Web technologies in order to provide a learning system that is able to enrich and personalize the experience of the learner. As a result of our work we are proposing a prototype for an Active Semantic Learning System (SASA). Following the identification and modeling of entities involved in the learning process, we created the following six ontologies that summarize the characteristics of these entities: (1) learner ontology, (2) learning object ontology, (3) learning objective ontology, (4) evaluation object ontology, (5) annotation object ontology and (6) learning framework ontology. Integrating certain rules in the declared ontologies combined with reasoning capacities of the inference engines embedded in the kernel of the SASA, allow the adaptation of learning content to the characteristics of learners. The use of semantic technologies facilitates the identification of existing learning resources on the web as well as the interpretation and aggregation of these resources within the context of SASA
15

Environnement numérique de lecture : instrumentation de l'activité de lecture savante sur support numérique

Gebers, Erik 21 April 2008 (has links) (PDF)
Nos travaux de recherche portent sur l'instrumentation de la lecture savante, lecture intensive dont le but est de produire un nouveau contenu qui réifie l'interprétation d'un corpus par un lecteur. Malgré l'émergence d'une culture numérique, le papier reste le support privilégié de cette pratique. Pour s'imposer, le numérique doit offrir plus que le papier. À la raison graphique introduite par ce dernier il doit offrir en plus sa raison computationnelle. Notre thèse postule que pour la réussite de l'exploitation de documents numériques dans une activité de lecture savante, le processus d'informatisation doit porter sur l'environnement du lecteur et non sur le document seul. Nous mobilisons les disciplines de l'ingénierie documentaire et de l'ingénierie des connaissances pour démontrer qu'avec ce positionnement il est possible aujourd'hui de produire des dispositifs logiciels répondant aux critiques des documents numériques et offrant une objectivation et une appropriation inédites.
16

Les annotations pour supporter la collaboration dans le dossier patient électronique

Bringay, Sandra 04 September 2006 (has links) (PDF)
Dans le cadre du projet multidisciplinaire DocPatient (2002/2005), nous avons travaillé sur le dossier patient électronique hospitalier en collaboration avec un site pilote (le service de médecine néonatale et de réanimation pédiatrique polyvalente dirigé par le Docteur G. Krim du Centre Hospitalier Universitaire (CHU) d'Amiens) et un partenaire industriel (la société Uni-médecine). <br />Nous avons observé les pratiques des professionnels de santé avec les documents papier et numériques. Ces derniers leur permettent de collaborer, de partager des connaissances sur les patients, sur leurs activités et de communiquer de manière asynchrone. On retrouve dans les documents papier de nombreuses annotations alors que sur support numérique cette fonctionnalité n'existe généralement pas. Nous avons donc étudié cette pratique et remarqué que les annotations sont elles aussi des supports essentiels à la collaboration des professionnels de santé, notamment pour la création et la maintenance d'une compréhension partagée des patients et d'une certaine conscience collective des activités du groupe. Finalement, notre mission dans le projet a consisté à comprendre pourquoi et comment les professionnels de santé annotent et à spécifier cette fonctionnalité sur support numérique.<br />Nous avons étudié les fonctionnalités des logiciels d'annotations existants, nous les avons comparées avec les pratiques d'annotations médicales papier, ce qui nous a permis de choisir un ensemble de fonctionnalités que nous avons implémentées dans une maquette, DocAnnot. Afin de valider nos réflexions, nous avons réalisé une évaluation de cette maquette dans notre site pilote. Nous avons ensuite construit un modèle conceptuel de l'activité d'annotations et de l'objet annotation. Nous avons cherché, pour finir, à abstraire ce modèle pour en proposer un qui est indépendant du domaine médical.
17

Méthodes ascendantes pour l'ingénierie des connaissances

Aussenac-Gilles, Nathalie 01 December 2005 (has links) (PDF)
Les travaux présentés dans ce mémoire relèvent de l'ingénierie des connaissances et contribuent à mieux en cerner et définir le champ scientifique. Ce domaine vise la définition de solutions techniques, méthodologiques et organisationnelles pour identifier des connaissances, les modéliser et les restituer au sein d'applications informatiques. La modélisation est ici considérée comme une étape indépendante de l'opérationnalisation faite dans le système final.<br />L'approche retenue ici met l'accent sur les connaissances liées aux usages et pratiques des personnes concernées par le système à concevoir. L'objectif est de réaliser des aides à la modélisation, et précisément aux processus d'abstraction et de caractérisation des connaissances. <br />Les recherches développées s'appuient systématiquement sur une démarche expérimentale, grâce à des applications en entreprises et des études de cas, et sur des collaborations interdisciplinaires. Les contributions présentées comprennent des techniques et des logiciels de recueil et d'analyse de connaissances, des méthodes et des représentations des connaissances pour la modélisation conceptuelle ainsi que des plates-formes intégrant ces différents supports. <br />Ces méthodes et outils répondent successivement à trois problématiques différentes sur la modélisation, en phase avec les évolutions historiques du domaine. Le premier problème traité, assez large, est celui de la modélisation conceptuelle à partir de connaissances d'experts et d'activités humaines, faisant appel à des techniques et problématiques de psychologie et d'ergonomie. Une deuxième manière d'étudier la modélisation a consisté à s'intéresser à l'analyse des textes et aux approches linguistiques pour construire des modèles de domaines spécialisés, comme les bases de connaissances terminologiques et les ontologies. De l'ensemble des expériences menées pour ces évaluer ces propositions, il ressort que l'utilisation des modèles au sein des applications doit être prise en compte dès leur construction. Une troisième problématique porte donc sur l'étude de l'utilisation de modèles conceptuels, et plus particulièrement d'ontologies, dans des cadres applicatifs ciblés, pour ajuster les méthodes et logiciels requis pour leur construction. Les applications étudiées relèvent de la recherche d'information et de l'accès au contenu de documents. Cette problématique soulève des questions fondamentales sur la complémentarité des modèles et des documents en tant que vecteurs de connaissances.<br />Les perspectives de ce travail se situent selon deux axes liés aux documents. D'une part, si les modèles facilitent l'accès au contenu, comment définir les modalités de l'indexation sémantique de documents (à l'aide d'ontologies) ? D'autre part, les documents et les besoins étant sans cesse renouvelés, comment intégrer la question de la maintenance d'ontologies et de terminologies dans le processus de construction ? L'originalité de l'approche retenue est de traiter ces deux questions conjointement, et d'en chercher des solutions cohérentes s'appuyant sur les outils et méthodes de construction d'ontologies à partir de textes.
18

Corrélation sémantique entre documents : application à la recherche d'information juridique sur le Web

Chotteau, Christophe 12 December 2003 (has links) (PDF)
Parmi les nombreuses méthodes d'accès à l'information présentes sur Internet, la corrélation de divers documents apparaît comme un outil complémentaire permettant aux internautes d'enrichir leurs connaissances sur un document sans avoir à formuler de question. L'objectif de nos travaux est de réaliser une méthode de corrélation sémantique dédiée à la recherche d'information juridique. La méthode que nous dégageons vise à appliquer des outils et techniques d'ingénierie linguistique sur des textes préalablement choisis. Les unités textuelles saillantes les constituant sont alors dégagées, définissant pour chaque document analysé ce que nous appelons une signature lexicale. Ces signatures lexicales servent ensuite d'éléments clefs pour interroger un moteur de recherche dont les résultats représentent l'ensemble des documents corrélés. Cette méthode de corrélation est utilisée et évaluée dans un contexte de recherche d'information sur Internet et plus spécifiquement est intégrée aux développements d'un moteur de recherche. Les principaux apports de nos travaux sont (1) un renouvellement des méthodes de recherche de documents corrélés par l'optimisation des signatures lexicales dédiées, (2) l'élaboration et l'évaluation d'un nouvel indice de pondération statistique noté Tifr, (3) une réflexion sur l'aspect sémantique de la méthode de corrélation exposée, et enfin (4) une proposition concrète de réponse à la problématique de l'accès à l'information dans un contexte juridique.
19

Évaluation et conception d'un langage symbolique pour l'intelligence collective : Vers un langage allégorique pour le Web

Szoniecky, Samuel 07 December 2012 (has links) (PDF)
A travers un état de l'art critique, cette thèse explore de nouvelles méthodes d'ingénierie des connaissances pour le développement d'une intelligence collective centrée sur la stimulation, l'expression et le partage de connaissances dans les milieux humains. Parallèlement aux recherches théoriques concernant l'épistémologie des langages symboliques et leurs éventuels dépassements par l'usage de langages allégoriques, les questions autour d'une méthode de conceptualisation à partir d'une cartographie éthico-ontologique sont abordées en référence à des conceptions issues de travaux philosophiques, anthropologiques et des sciences de l'information et de la communication. L'objectif est de poser les bases d'une recherche interdisciplinaire sur la conception d'un modèle générique de design d'information qui s'inspire de l'analogie du jardin pour cultiver des connaissances.
20

Vers un système intelligent de capitalisation de connaissances pour l'agriculture durable : construction d'ontologies agricoles par transformation de sources existantes / Towards an intelligent knowledge capitalization for sustainable agriculture : agricultural building ontologies by transforming existing sources

Amarger, Fabien 18 December 2015 (has links)
Les données disponibles sur le Web sont généralement de deux natures : (1) des données non structurées ou semi-structurées difficilement exploitables de manière automatique ou (2) des données structurées destinées à une utilisation particulière, difficilement réutilisables par d’autres applications. Le Web de données est une application du Web sémantique facilitant l’accès, le partage et l’alignement des données. Il existe actuellement de très nombreuses données disponibles sur le Web, mais qui ne sont pas publiées en suivant les principes du Web de données liées. Elles nécessiteraient d’être transformées en bases de connaissances. Nous proposons une méthodologie innovante qui permet de transformer plusieurs sources simultanément et non séquentiellement. Cette méthodologie permet la fusion de plusieurs sources de données orientée par des patrons de conception du domaine. Notre méthodologie spécifie la modélisation attendue du domaine en définissant la partie haute d’un module ontologique. Une chaîne de processus enrichit ce module par des éléments issus des sources : transformation syntaxique des sources, alignement, identification des éléments équivalents pour construire des candidats, calcul de score de confiance des candidats, filtrage des candidats. Notre travail part de l’hypothèse suivante : si un élément apparaît dans plusieurs sources, alors la possibilité qu’il appartienne au domaine d’étude est accrue. Nous avons défini différentes fonctions de calcul de la confiance consensuelle d’un candidat en mettant en évidence plusieurs caractéristiques comme le consensus entre sources ou la connectivité entre éléments d’un même candidat. Nous posons une deuxième hypothèse : un élément ne doit apparaître que dans un seul candidat pour obtenir une modélisation correcte. Cette hypothèse nous amène à définir la notion d’incompatibilité entre candidats. Nous pouvons considérer alors l’extraction des candidats qui ne partagent pas d’éléments, ce qui permet de faciliter le travail de validation. Pour évaluer nos propositions, nous avons mené trois expérimentations. La première a porté sur le domaine de la classification taxonomique des blés. Cette expérimentation nous a permis d’analyser la qualité des candidats générés avec l’aide de trois experts du domaine. La deuxième expérimentation a porté sur le même domaine et nous a permis de valider le temps gagné par un expert lors de la validation des candidats en considérant les incompatibilités. Pour la dernière expérimentation nous avons utilisé les données d’une campagne d’évaluation de systèmes d’alignements. Nous avons adaptés ces données pour évaluer la génération de candidats et la définition du score de confiance sur un grand jeu de données. Nous proposons une implémentation de cette proposition dans un outil réutilisable et paramétrable : Muskca. Celui-ci permet la fusion multi-sources pour la génération d’une base de connaissances consensuelle. L’application de nos travaux dans le domaine de l’agriculture nous a permis de constituer une base de connaissances sur la taxonomie des plantes. Cette base de connaissances permettra la représentation d’observations des attaques des agresseurs sur les cultures, ainsi que les techniques de traitement des agresseurs. Cette base de connaissances permettra de publier les données disponibles mais aussi d’annoter les nombreux documents mobilisables pour faire évoluer les pratiques agricoles. / The data available on the Web are generally of two kinds: (1) non structured data or semi structured data, which are difficult to exploit automatically; or (2) structured data, dedicated to a specific usage, which are difficult to reuse for a different application. The Linked Open Data is a Semantic Web application facilitating access, share ability and alignment of data. There are many data available on the Web, but these are not always published using the Linked Open Data theory and thus need to be transformed into knowledge bases. An innovative methodology is proposed in this work: one that transforms several sources simultaneously, not sequentially. This methodology merges several data sources oriented by domain design patterns and defines the expected domain representation using the upper part of an ontological module. A process chain enriches this module with elements from the sources: syntactic transformation of the sources, alignment, identification of equivalent elements for the construction of candidates, computation of the candidates’ trust scores and candidate filtering. This work is based on the following hypothesis: if an element appears in several sources then the possibility that it belongs to the studied domain is increased. Several functions were defined in order to compute the consensual trust score of a specific candidate by bringing out such characteristics as the consensus between the sources or the connectivity between the elements within a given candidate. A second hypothesis is put forward: to obtain a valid design, an element must be part of one candidate only. This hypothesis resulted in the definition of the notion of incompatibility between the candidates. The extraction of the candidates that do not share elements can then be considered, which made the experts’ validation task easier. To evaluate the proposals, three experiments were conducted. The first one dealt with the taxonomic classification of wheat. With the assistance of three experts, this experiment made for the analysis of the validation of the generated candidates. The second experiment, still in the same domain, lead to the evaluation of the time an expert saved using the notion of incompatibility during the validation of the candidates. As for the last experiment, the data from an evaluation campaign of alignment systems were used. These data had to be adapted to evaluate the generation of the candidates and the definition of the consensual trust score on a large data set. These three proposals were implemented in a new reusable and configurable tool: Muskca. This tool allows a multi-source fusion for the generation of a consensual knowledge base. This methodology was applied to agriculture, which allowed the creation of a knowledge base on plant taxonomy. The knowledge base will be used to represent the observations of pest attacks on crops along with pest treatment techniques. Not only will this knowledge base help the publication of the available data but it will also allow the annotation of the various documents that will be used, so as to improve agricultural practices.

Page generated in 0.4952 seconds