211 |
Construction d'ontologies à partir de textes : une approche basée sur les transformations de modèlesTeguiak, Henry 12 December 2012 (has links) (PDF)
Depuis son émergence au début des années 1990, la notion d'ontologie s'est rapidement diffusée dans un grand nombre de domaines de recherche. Compte tenu du caractère prometteur de cette notion, de nombreux travaux portent sur l'utilisation des ontologies dans des domaines aussi divers que la recherche d'information, le commerce électronique, le web sémantique, l'intégration de données, etc. L'efficacité de tous ces travaux présuppose l'existence d'une ontologie de domaine susceptible d'être utilisée. Or, la conception d'une telle ontologie s'avère particulièrement difficile si l'on souhaite qu'elle fasse l'objet de consensus. S'il existe des outils utilisés pour éditer une ontologie supposée déjà conçue, et s'il existe également plusieurs plate-formes de traitement automatique de la langue permettant d'analyser automatiquement les corpus et de les annoter tant du point de vue syntaxique que statistique, il est difficile de trouver une procédure globalement acceptée, ni a fortiori un ensemble d'outils supports permettant de concevoir une ontologie de domaine de façon progressive, explicite et traçable à partir d'un ensemble de ressources informationnelles relevant de ce domaine. L'objectif du projet ANR DaFOE4App (Differential and Formal Ontologies Editor for Application), dans lequel s'inscrit notre travail, était de favoriser l'émergence d'un tel ensemble d'outils. Contrairement à d'autres outils de construction d'ontologies, la plate-forme DaFOE, présentée dans cette thèse, ne propose pas un processus de construction figé ni en nombre d'étapes, ni sur la représentation des étapes. En effet, dans cette thèse nous généralisons le processus de construction d'ontologies pour un nombre quelconque d'étapes. L'intérêt d'une telle généralisation étant, par exemple, d'offrir la possibilité de raffiner le processus de construction en insérant ou modifiant des étapes. On peut également souhaiter supprimer certaines étapes à fin de simplifier le processus de construction. L'objectif de cette généralisation est de minimiser l'impact de l'ajout, suppression ou modification d'une étape dans le processus global de construction d'ontologies, tout en préservant la cohérence globale du processus de construction. Pour y parvenir, notre approche consiste à utiliser l'Ingénierie Dirigée par les Modèles pour caractériser chaque étape au sein d'un modèle et ensuite ramener le problème du passage d'une étape à l'autre à un problème de mapping de modèles. Les mappings établis entre les modèles sont ensuite utilisés pour semi-automatiser le processus de construction d'ontologies. Ce processus de construction se faisant dans un contexte persistant de base de données, nous proposons dans cette thèse, d'une part, pour les bases de données dites à base de modèles (BDBM) du fait qu'elles permettent de stocker à la fois les données et les modèles décrivant ces données, une extension pour la prise en compte des mappings, et, d'autre part, nous proposons le langage de requête MQL (Mapping Query Language) qui, en masquant la complexité de l'architecture de la BDBM facilite son exploitation. L'originalité du langage MQL se trouve dans sa capacité, au travers de requêtes syntaxiquement compactes, à explorer transitivement tout ou partie du graphe de mappings lors d'une recherche d'informations.
|
212 |
Un système d'intégration des métadonnées dédiées au multimédiaAmir, Samir 06 December 2011 (has links) (PDF)
Ma thèse porte sur la réalisation de l'interopérabilité des métadonnées au niveau des schémas et de langages de description. Cela est fait d'une manière automatique via le développement d'un outil de matching des schémas. Pour cela, j'ai proposé dans ma thèse une nouvelle approche de matching, baptisée MuMIe (Multilevel Metadata Integration). Elle a pour but de réaliser l'interopérabilité sur les deux niveaux (schémas et langages de description). La technique proposée transforme les schémas provenant de différents langages en graphes, en capturant uniquement quelques concepts basiques. Une méthodologie de matching est ensuite effectuée sur ces graphes permettant de trouver les correspondances entre leurs noeuds. Cela est fait via l'utilisation de plusieurs informations sémantiques et structurelles. La deuxième partie de ma thèse était consacrée à la modélisation sémantique des informations dédiées au multimédia (profiles des utilisateurs, caractéristiques des réseaux de transmission, terminaux, etc).J'ai développé un métamodèle nommé CAM4Home (Collaborative Aggregated Multimedia for Digital Home) pour la fusion des métadonnées. La spécification de ce métamodèle a été faite avec le langage RDFS.
|
213 |
Automating the multidimensional design of data warehousesRomero Moral, Oscar 09 February 2010 (has links)
Les experiències prèvies en l'àmbit dels magatzems de dades (o data warehouse), mostren que l'esquema multidimensional del data warehouse ha de ser fruit d'un enfocament híbrid; això és, una proposta que consideri tant els requeriments d'usuari com les fonts de dades durant el procés de disseny.Com a qualsevol altre sistema, els requeriments són necessaris per garantir que el sistema desenvolupat satisfà les necessitats de l'usuari. A més, essent aquest un procés de reenginyeria, les fonts de dades s'han de tenir en compte per: (i) garantir que el magatzem de dades resultant pot ésser poblat amb dades de l'organització, i, a més, (ii) descobrir capacitats d'anàlisis no evidents o no conegudes per l'usuari.Actualment, a la literatura s'han presentat diversos mètodes per donar suport al procés de modelatge del magatzem de dades. No obstant això, les propostes basades en un anàlisi dels requeriments assumeixen que aquestos són exhaustius, i no consideren que pot haver-hi informació rellevant amagada a les fonts de dades. Contràriament, les propostes basades en un anàlisi exhaustiu de les fonts de dades maximitzen aquest enfocament, i proposen tot el coneixement multidimensional que es pot derivar des de les fonts de dades i, conseqüentment, generen massa resultats. En aquest escenari, l'automatització del disseny del magatzem de dades és essencial per evitar que tot el pes de la tasca recaigui en el dissenyador (d'aquesta forma, no hem de confiar únicament en la seva habilitat i coneixement per aplicar el mètode de disseny elegit). A més, l'automatització de la tasca allibera al dissenyador del sempre complex i costós anàlisi de les fonts de dades (que pot arribar a ser inviable per grans fonts de dades).Avui dia, els mètodes automatitzables analitzen en detall les fonts de dades i passen per alt els requeriments. En canvi, els mètodes basats en l'anàlisi dels requeriments no consideren l'automatització del procés, ja que treballen amb requeriments expressats en llenguatges d'alt nivell que un ordenador no pot manegar. Aquesta mateixa situació es dona en els mètodes híbrids actual, que proposen un enfocament seqüencial, on l'anàlisi de les dades es complementa amb l'anàlisi dels requeriments, ja que totes dues tasques pateixen els mateixos problemes que els enfocament purs.En aquesta tesi proposem dos mètodes per donar suport a la tasca de modelatge del magatzem de dades: MDBE (Multidimensional Design Based on Examples) and AMDO (Automating the Multidimensional Design from Ontologies). Totes dues consideren els requeriments i les fonts de dades per portar a terme la tasca de modelatge i a més, van ser pensades per superar les limitacions dels enfocaments actuals.1. MDBE segueix un enfocament clàssic, en el que els requeriments d'usuari són coneguts d'avantmà. Aquest mètode es beneficia del coneixement capturat a les fonts de dades, però guia el procés des dels requeriments i, conseqüentment, és capaç de treballar sobre fonts de dades semànticament pobres. És a dir, explotant el fet que amb uns requeriments de qualitat, podem superar els inconvenients de disposar de fonts de dades que no capturen apropiadament el nostre domini de treball.2. A diferència d'MDBE, AMDO assumeix un escenari on es disposa de fonts de dades semànticament riques. Per aquest motiu, dirigeix el procés de modelatge des de les fonts de dades, i empra els requeriments per donar forma i adaptar els resultats generats a les necessitats de l'usuari. En aquest context, a diferència de l'anterior, unes fonts de dades semànticament riques esmorteeixen el fet de no tenir clars els requeriments d'usuari d'avantmà.Cal notar que els nostres mètodes estableixen un marc de treball combinat que es pot emprar per decidir, donat un escenari concret, quin enfocament és més adient. Per exemple, no es pot seguir el mateix enfocament en un escenari on els requeriments són ben coneguts d'avantmà i en un escenari on aquestos encara no estan clars (un cas recorrent d'aquesta situació és quan l'usuari no té clares les capacitats d'anàlisi del seu propi sistema). De fet, disposar d'uns bons requeriments d'avantmà esmorteeix la necessitat de disposar de fonts de dades semànticament riques, mentre que a l'inversa, si disposem de fonts de dades que capturen adequadament el nostre domini de treball, els requeriments no són necessaris d'avantmà. Per aquests motius, en aquesta tesi aportem un marc de treball combinat que cobreix tots els possibles escenaris que podem trobar durant la tasca de modelatge del magatzem de dades. / Previous experiences in the data warehouse field have shown that the data warehouse multidimensional conceptual schema must be derived from a hybrid approach: i.e., by considering both the end-user requirements and the data sources, as first-class citizens. Like in any other system, requirements guarantee that the system devised meets the end-user necessities. In addition, since the data warehouse design task is a reengineering process, it must consider the underlying data sources of the organization: (i) to guarantee that the data warehouse must be populated from data available within the organization, and (ii) to allow the end-user discover unknown additional analysis capabilities.Currently, several methods for supporting the data warehouse modeling task have been provided. However, they suffer from some significant drawbacks. In short, requirement-driven approaches assume that requirements are exhaustive (and therefore, do not consider the data sources to contain alternative interesting evidences of analysis), whereas data-driven approaches (i.e., those leading the design task from a thorough analysis of the data sources) rely on discovering as much multidimensional knowledge as possible from the data sources. As a consequence, data-driven approaches generate too many results, which mislead the user. Furthermore, the design task automation is essential in this scenario, as it removes the dependency on an expert's ability to properly apply the method chosen, and the need to analyze the data sources, which is a tedious and timeconsuming task (which can be unfeasible when working with large databases). In this sense, current automatable methods follow a data-driven approach, whereas current requirement-driven approaches overlook the process automation, since they tend to work with requirements at a high level of abstraction. Indeed, this scenario is repeated regarding data-driven and requirement-driven stages within current hybrid approaches, which suffer from the same drawbacks than pure data-driven or requirement-driven approaches.In this thesis we introduce two different approaches for automating the multidimensional design of the data warehouse: MDBE (Multidimensional Design Based on Examples) and AMDO (Automating the Multidimensional Design from Ontologies). Both approaches were devised to overcome the limitations from which current approaches suffer. Importantly, our approaches consider opposite initial assumptions, but both consider the end-user requirements and the data sources as first-class citizens.1. MDBE follows a classical approach, in which the end-user requirements are well-known beforehand. This approach benefits from the knowledge captured in the data sources, but guides the design task according to requirements and consequently, it is able to work and handle semantically poorer data sources. In other words, providing high-quality end-user requirements, we can guide the process from the knowledge they contain, and overcome the fact of disposing of bad quality (from a semantical point of view) data sources.2. AMDO, as counterpart, assumes a scenario in which the data sources available are semantically richer. Thus, the approach proposed is guided by a thorough analysis of the data sources, which is properly adapted to shape the output result according to the end-user requirements. In this context, disposing of high-quality data sources, we can overcome the fact of lacking of expressive end-user requirements.Importantly, our methods establish a combined and comprehensive framework that can be used to decide, according to the inputs provided in each scenario, which is the best approach to follow. For example, we cannot follow the same approach in a scenario where the end-user requirements are clear and well-known, and in a scenario in which the end-user requirements are not evident or cannot be easily elicited (e.g., this may happen when the users are not aware of the analysis capabilities of their own sources). Interestingly, the need to dispose of requirements beforehand is smoothed by the fact of having semantically rich data sources. In lack of that, requirements gain relevance to extract the multidimensional knowledge from the sources.So that, we claim to provide two approaches whose combination turns up to be exhaustive with regard to the scenarios discussed in the literature
|
214 |
Distributed Search in Semantic Web Service DiscoveryZiembicki, Joanna January 2006 (has links)
This thesis presents a framework for semantic Web Service discovery using descriptive (non-functional) service characteristics in a large-scale, multi-domain setting. The framework uses Web Ontology Language for Services (OWL-S) to design a template for describing non-functional service parameters in a way that facilitates service discovery, and presents a layered scheme for organizing ontologies used in service description. This service description scheme serves as a core for desigining the four main functions of a service directory: a template-based user interface, semantic query expansion algorithms, a two-level indexing scheme that combines Bloom filters with a Distributed Hash Table, and a distributed approach for storing service description. The service directory is, in turn, implemented as an extension of the Open Service Discovery Architecture. <br /><br /> The search algorithms presented in this thesis are designed to maximize precision and completeness of service discovery, while the distributed design of the directory allows individual administrative domains to retain a high degree of independence and maintain access control to information about their services.
|
215 |
A Digital Library Approach to the Reconstruction of Ancient Sunken ShipsMonroy Cobar, Carlos A. 2010 August 1900 (has links)
Throughout the ages, countless shipwrecks have left behind a rich historical and
technological legacy. In this context, nautical archaeologists study the remains of these
boats and ships and the cultures that created and used them. Ship reconstruction can be
seen as an incomplete jigsaw reconstruction problem. Therefore, I hypothesize that a
computational approach based on digital libraries can enhance the reconstruction of a
composite object (ship) from fragmented, incomplete, and damaged pieces (timbers and
ship remains).
This dissertation describes a framework for enabling the integration of textual
and visual information pertaining to wooden vessels from sources in multiple languages.
Linking related pieces of information relies on query expansion and improving
relevance. This is accomplished with the implementation of an algorithm that derives
relationships from terms in a specialized glossary, combining them with properties and
concepts expressed in an ontology.
The main archaeological sources used in this dissertation are data generated from
a 17th-century Portuguese ship, the Pepper Wreck, complemented with information
obtained from other documented and studied shipwrecks. Shipbuilding treatises
spanning from the late 16th- to the 19th-centuries provide textual sources along with
various illustrations. Additional visual materials come from a repository of photographs
and drawings documenting numerous underwater excavations and surveys.
The ontology is based on a rich database of archaeological information compiled
by Mr. Richard Steffy. The original database was analyzed and transformed into an
ontological representation in RDF-OWL. Its creation followed an iterative methodology
which included numerous revisions by nautical archaeologists. Although this ontology
does not pretend to be a final version, it provides a robust conceptualization.
The proposed approach is evaluated by measuring the usefulness of the glossary
and the ontology. Evaluation results show improvements in query expansion across
languages based on Blind Relevance Feedback using the glossary as query expansion
collection. Similarly, contextualization was also improved by using the ontology for
categorizing query results. These results suggest that related external sources can be
exploited to better contextualize information in a particular domain. Given the
characteristics of the materials in nautical archaeology, the framework proposed in this
dissertation can be adapted and extended to other domains.
|
216 |
INDUSTRIALISATION DES CONNAISSANCES : APPROCHES D'INTEGRATION POUR UNE UTILISATION OPTIMALE EN INGENIERIE (CAS DE L'EVALUATION ECONOMIQUE)Perry, Nicolas 08 November 2007 (has links) (PDF)
L'objectif du Génie Industriel est d'améliorer les performances industrielles. Ce champ très large est abordé dans notre équipe par le développement d'outils et de méthodes basés sur l'utilisation d'environnements d'ingénierie virtuelle. Ces derniers sont conçus pour assister, accélérer et donc améliorer les démarches d'ingénierie liées à la conception et la réalisation de produits, mais aussi la gestion des projets associés.<br />Nous développons ainsi des environnements que nous voulons interactifs, pour l'aide à la prise de décision (SIAD).<br />Dès lors, et indépendamment du domaine abordé, la connaissance des experts d'un métier devient une ressource que l'on voudrait partager au maximum, voir faire fonctionner de manières semi-automatiques. Or ces connaissances sont immatérielles, souvent non formalisées et échangées au travers de flux d'informations dont la quantité, la qualité et la véracité ne sont pas toujours assurées ou certifiées. <br />Il importe donc de s'intéresser aux approches de gestion des connaissances ou Knowledge Management, pour spécifier des environnements virtuels les plus riches possibles (sémantiquement parlant) dans lesquels on peut espérer intégrer une partie des connaissances d'experts. Certaines actions d'ingénierie, dont les processus et les règles ont été formalisés puis modélisés, sont alors partiellement automatisables, laissant la place à l'utilisateur pour décider dans des situations non gérées par l'expertise automatique, de critiquer, révoquer ou faire évoluer les choix et alternatives proposées.<br />Un pan important des études et recherches faites dans les domaines des sciences de l'information et de la communication font la part belle à l'intelligence artificielle. Mais les domaines d'application restent souvent très loin des cas d'utilisation ou d'application d'ingénierie (ingénierie mécanique en particulier).<br />Il nous importe donc de nous imprégner des approches, méthodes et outils existants pour nous les approprier tout en les faisant évoluer pour les adapter à nos besoins. Il faut donc pouvoir maîtriser ces méthodes et leurs solutions techniques pour pouvoir être porteur d'évolutions et requêtes et attirer ces thématiques de recherches vers nos problématiques.<br />En conséquences, mes travaux se sont inscrits dans cette démarche d'appropriation des approches de gestion et d'automatisation des connaissances qui relève d'une thématique d'ingénierie des connaissances. Nous avons donc cherché à développer des environnements à base de connaissances supportant les démarches d'ingénierie.<br />Cette position (ingénieur des connaissances) se place en interface entre l'expert (réceptacle et source des connaissances à partager), l'informaticien (qui va développer l'environnement virtuel à base de connaissances) et l'utilisateur (qui va utiliser et faire vivre l'outil).<br />Dès lors différents points de vue se confrontent, et il devient tout aussi important de maîtriser les aspects techniques (méthodes et solutions existantes pour formaliser et modéliser des connaissances, développer les applications, valider l'intégrité et la cohérence des éléments intégrés et à intégrer, faire vivre les bases de connaissances, etc...) que les aspects de gestion de projet, puisqu'il reste très difficile d'évaluer le retour sur investissement direct de tels projets. Un échec conduisant généralement à l'abandon de ce type d'approches, longues, lourdes et souvent opaques pour l'expert ou l'utilisateur.<br />Cette première partie de mes activités de recherches a donc participé à l'enrichissement d'aspects de modélisation (d'objets d'entreprise : information, connaissances ...), de structuration de ces modèles (méthode de modélisation) et d'intégration dans le cycle de développement d'applications informatiques.<br />En analysant les démarches d'ingénierie en mécanique (au sens large), il est ressorti que nous continuons à approfondir et affiner des modèles et calculs sur les solutions techniques qui répondent à des fonctions et des besoins clients. Cependant, le critère de coût ou de valeur reste très peu évalué ou abordé. Or, dans le contexte mondial et concurrentiel actuel il importe d'assurer l'équilibre entre les fonctions techniques et économiques des produits qui sont devenus de plus en plus complexes.<br />Ainsi nous essayons d'aborder la performance au travers des aspects économiques le long du cycle de vie du produit. Ceci nous donne un domaine d'application de nos travaux sur l'intégration et la mise à disposition d'expertise(s) issue(s) des sciences économiques et de gestion dans les démarches d'ingénierie.<br />Ces travaux ont initialement abordé l'adéquation entre les outils et méthodes d'évaluation économique au regard du cycle de vie produit. Les problèmes d'information partielle ou de passage de modèles se posent alors à chaque étape charnière.<br />De plus, nos réflexions et échanges avec les chercheurs en sciences de gestion nous ont porté vers la prise en compte du concept de valeur englobant le coût. Il est ainsi possible d'évaluer les alternatives de chaînes de valeurs et d'envisager d'aborder la conception conjointe de produits et de processus à valeur ajoutée maîtrisée. Ainsi l'environnement d'aide à la décision complète les contextes de décisions en intégrant les différents points de vus d'acteurs et leurs visions sur la valeur à prendre en compte.<br />L'ensemble de ces travaux et réflexions m'ont conduit au néologisme d'Industrialisation des Connaissances, au sens de la mise à disposition fiable, évolutive et objectivée, des connaissances d'experts d'entreprise. Ces travaux ont été alimentés par 4 thèses soutenues (une en cours), 7 DEA et Masters, des implications dans un Réseau Thématique du FP5 et deux Réseaux d'Excellence du FP6, ainsi qu'une collaboration soutenue depuis 2003 avec une équipe de recherche Sud Africaine.
|
217 |
Annotations et gestion des connaissances en environnement virtuel collaboratifAubry, Stéphane 28 May 2007 (has links) (PDF)
Ce mémoire traite de la question des annotations en environnement virtuel pour aider à la conception collaborative de produit. Pour ceci, nous nous inspirons de deux approches : d'une part l'utilisation de la réalité virtuelle pour la conception collaborative, et d'autre part la gestion des connaissances.<br />Notre premier apport est la définition d'un modèle de l'annotation 3D, qui comporte trois parties : la forme, la spatialisation et les méta-données. Nous présentons en particulier les supports spécifiques de l'annotation 3D, l'ancre et le point de vue géométrique.<br />Nous proposons, afin de gérer le grand nombre d'annotations et l'absence d'ordre canonique de lecture d'un objet 3D, l'introduction d'une ontologie indexant les annotations.<br />A l'aide de notre environnement prototype, nous avons évalué l'influence de l'utilisation de l'ontologie sur la lecture des annotations 3D. Les résultats indiquent un apport de l'ontologie, les utilisateurs trouvant plus facilement l'information pertinente.
|
218 |
Définition d'un système générique de partage de données entre systèmes existantsBoumediene, Mohamed Salah Flory, André. Laforest, Frédérique. January 2006 (has links)
Thèse doctorat : Informatique : Villeurbanne, INSA : 2005. / Titre provenant de l'écran-titre. Bibliogr. p. 160-170.
|
219 |
Managing uncertainty in schema matchingsGong, Jian, 龔劍 January 2011 (has links)
published_or_final_version / Computer Science / Doctoral / Doctor of Philosophy
|
220 |
Contributions To Ontology-Driven Requirements EngineeringSiegemund, Katja 27 March 2015 (has links) (PDF)
Today, it is well known that missing, incomplete or inconsistent requirements lead to faulty software designs, implementations and tests resulting in software of improper quality or safety risks. Thus, an improved Requirements Engineering contributes to safer and better-quality software, reduces the risk of overrun time and budgets and, most of all, decreases or even eliminates the risk for project failures.
One significant problem requirements engineers have to cope with, are inconsistencies in the Software Requirements Specification. Such inconsistencies result from the acquisition, specification, and evolution of goals and requirements from multiple stakeholders and sources. In order to regain consistency, requirements information are removed from the specification which often leads to incompleteness. Due to this causal relationship between consistency, completeness and correctness, we can formally improve the correctness of requirements knowledge by increasing its completeness and consistency. Furthermore, the poor quality of individual requirements is a primary reason why so many projects continue to fail and needs to be considered in order to improve the Software Requirements Specification.
These flaws in the Software Requirements Specification are hard to identify by current methods and thus, usually remain unrecognised. While the validation of requirements ensures that they are correct, complete, consistent and meet the customer and user intents, the requirements engineer is hardly supported by automated validation methods.
In this thesis, a novel approach to automated validation and measurement of requirements knowledge is presented, which automatically identifies incomplete or inconsistent requirements and quality flaws. Furthermore, the requirements engineer is guided by providing knowledge specific suggestions on how to resolve them. For this purpose, a requirements metamodel, the Requirements Ontology, has been developed that provides the basis for the validation and measurement support. This requirements ontology is suited for Goal-oriented Requirements Engineering and allows for the conceptualisation of requirements knowledge, facilitated by ontologies. It provides a huge set of predefined requirements metadata, requirements artefacts and various relations among them. Thus, the Requirements Ontology enables the documentation of structured, reusable, unambiguous, traceable, complete and consistent requirements as demanded by the IEEE specification for Software Requirement Specifications. We demonstrate our approach with a prototypic implementation called OntoReq. OntoReq allows for the specification of requirements knowledge while keeping the ontology invisible to the requirements engineer and enables the validation of the knowledge captured within.
The validation approach presented in this thesis is capable of being applied to any domain ontology. Therefore, we formulate various guidelines and use a continuous example to demonstrate the transfer to the domain of medical drugs. The Requirements Ontology as well as OntoReq have been evaluated by different methods. The Requirements Ontology has been shown to be capable for capturing requirements knowledge of a real Software Requirements Specification and OntoReq feasible to be used by a requirements engineering tool to highlight inconsistencies, incompleteness and quality flaws during real time requirements modelling.
|
Page generated in 0.0312 seconds