• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 187
  • 118
  • 26
  • 15
  • 8
  • 7
  • 7
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 622
  • 167
  • 161
  • 159
  • 135
  • 116
  • 98
  • 96
  • 94
  • 87
  • 82
  • 70
  • 63
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Découverte de mappings dans un système pair-à-pair sémantique : application à SomeRDFS

Calvier, François-Élie 17 September 2010 (has links) (PDF)
La richesse des réponses aux requêtes posées aux systèmes pair-à-pair de gestion de données (PDMS) dépend du nombre de mappings entre les ontologies des différents pairs. Augmenter ce nombre permet d'améliorer les réponses aux requêtes. C'est à ce problème que nous nous intéressons dans cette thèse. Il s'agit de découvrir des liens sémantiques entre les ontologies des différents pairs du système. Ce problème, connu sous le nom d'alignement d'ontologies, est spécifique dans les systèmes pair-à-pair, au sein desquels les ontologies ne sont pas a priori complètement connues, le nombre d'ontologies à aligner est très important et l'alignement doit s'opérer en l'absence de contrôle centralisé. Nous proposons des techniques semi-automatiques pour identifier : (1) des raccourcis de mappings correspondant à une composition de mappings existants et (2) des mappings nouveaux ne pouvant être inférés en l'état actuel du système. Ces techniques sont basées sur l'exploitation des mécanismes de raisonnement des PDMS et sur des critères de filtrage restreignant le nombre de couples d'éléments à aligner. Les raccourcis de mappings sont identifiés à partir de l'analyse de la trace des requêtes posées par les utilisateurs, mais également après application de critères estimant leur utilité. La découverte de nouveaux mappings consiste à identifier les éléments de l'ontologie d'un pair donné qui permettent d'identifier des mises en correspondance jugées intéressantes puis à sélectionner les éléments de pairs distants avec lesquels il est pertinent de les aligner. Les techniques d'alignement proposées sont soit des adaptations de techniques existantes soit des techniques innovantes tirant parti des spécificités de notre cadre de travail
202

Un modèle générique pour la capture de préférences dans les bases de données à base ontologique

Tapucu, Dilek 02 July 2010 (has links) (PDF)
De nos jours, les systèmes d'information gèrent de volumineuses données. Avec l'avènement du Web Sémantique, la quantité de données ontologiques (ou instances) disponibles s'est accrue. Permettre un accès personnalisé à ces données est devenue cruciale. Les utilisateurs sont submergés par les nombreux résultats fournis en réponse à leurs requêtes. Pour être utilisable, ces résultats doivent être filtrées et ordonnées. La capture et l'exploitation des préférences utilisateurs ont été proposées comme une solution à ce problème. Cependant, les approches existantes définissent habituellement les préférences pour une application donnée. Il est ainsi difficile de partager et réutiliser dans d'autres contextes les préférences capturées. Nous proposons une approche basée sur plusieurs modèles proposés au sein des communautés Bases de Données et Web Sémantique. Elle définit un model partageable et générique pour représenter les préférences utilisateurs, et incorpore plusieurs types de préférences de la littérature qui sont traités de manière séparée. L'idée sous-jacente à notre approche est de traiter les préférences de manière modulaire en les liant aux ontologies qui décrivent la sémantique des données gérées par les applications. Ainsi leur prise en compte se fait au niveau ontologique et non au niveau logique des données. La nouveauté de l'approche est que les préférences définies sont attachées aux ontologies, qui décrivent la sémantique des données manipulées par les applications. Le modèle de préférence est formellement défini en utilisant le langage de modélisation des données EXPRESS de manière à éviter toute ambiguïté du modèle. Par ailleurs, le modèle proposé offre un mécanisme de persistance et un langage d'interrogation dédié. Il est implémenté en utilisant un système de Bases de Données à Base Ontologique (BDBO) qui permet de gérer à la fois les ontologies et les données instances. Ceci permet d'offrir une description sémantique des préférences. Nous avons étendu le modèle des BDBO afin de supporter la prise en compte des préférences. L'implémentation a été faite dans le cadre de la BDBO OntoDB pour laquelle nous avons étendu le langage d'interrogation associé OntoQL. L'approche est illustrée à travers un cas d'étude dans le domaine du tourisme.
203

Ett verktyg för konstruktion av ontologier från text / A Tool for Facilitating Ontology Construction from Texts

Chétrit, Héloèise January 2004 (has links)
<p>With the growth of information stored over Internet, especially in the biological field, and with discoveries being made daily in this domain, scientists are faced with an overwhelming amount of articles. Reading all published articles is a tedious and time-consuming process. Therefore a way to summarise the information in the articles is needed. A solution is the derivation of an ontology representing the knowledge enclosed in the set of articles and allowing to browse through them. </p><p>In this thesis we present the tool Ontolo, which allows to build an initial ontology of a domain by inserting a set of articles related to that domain in the system. The quality of the ontology construction has been tested by comparing our ontology results for keywords to the ones provided by the Gene Ontology for the same keywords. </p><p>The obtained results are quite promising for a first prototype of the system as it finds many common terms on both ontologies for justa few hundred of inserted articles.</p>
204

Modelling User Tasks and Intentions for Service Discovery in Ubiquitous Computing

Ingmarsson, Magnus January 2007 (has links)
<p>Ubiquitous computing (Ubicomp) increases in proliferation. Multiple and ever growing in numbers, computational devices are now at the users' disposal throughout the physical environment, while simultaneously being effectively invisible. Consequently, a significant challenge is service discovery. Services may for instance be physical, such as printing a document, or virtual, such as communicating information. The existing solutions, such as Bluetooth and UPnP, address part of the issue, specifically low-level physical interconnectivity. Still absent are solutions for high-level challenges, such as connecting users with appropriate services. In order to provide appropriate service offerings, service discovery in Ubicomp must take the users' context, tasks, goals, intentions, and available resources into consideration. It is possible to divide the high-level service-discovery issue into two parts; inadequate service models, and insufficient common-sense models of human activities.</p><p>This thesis contributes to service discovery in Ubicomp, by arguing that in order to meet these high-level challenges, a new layer is required. Furthermore, the thesis presents a prototype implementation of this new service-discovery architecture and model. The architecture consists of hardware, ontology-layer, and common-sense-layer. This work addresses the ontology and common-sense layers. Subsequently, implementation is divided into two parts; Oden and Magubi. Oden addresses the issue of inadequate service models through a combination of service-ontologies in concert with logical reasoning engines, and Magubi addresses the issue of insufficient common-sense models of human activities, by using common sense models in combination with rule engines. The synthesis of these two stages enables the system to reason about services, devices, and user expectations, as well as to make suitable connections to satisfy the users' overall goal.</p><p>Designing common-sense models and service ontologies for a Ubicomp environment is a non-trivial task. Despite this, we believe that if correctly done, it might be possible to reuse at least part of the knowledge in different situations. With the ability to reason about services and human activities it is possible to decide if, how, and where to present the services to the users. The solution is intended to off-load users in diverse Ubicomp environments as well as provide a more relevant service discovery.</p> / Report code: LiU-Tek-Lic-2007:14.
205

Fouille de textes : des méthodes symboliques pour la construction d'ontologies et l'annotation sémantique guidée par les connaissances

Toussaint, Yannick 21 November 2011 (has links) (PDF)
Il n'existe pas d'outils clé en main pour extraire des connaissances de textes et le passage de la langue naturelle à des connaissances est très fortement contextualisé et dépendant de la tâche que l'on s'est fixée. Nous montrons que le défi d'extraction de connaissances à partir de textes reste aujourd'hui très vaste, avec de très nombreuses pistes de recherche que ce soit en lien avec des approche de type recherche d'information, traitement automatique des langues, fouille de données ou représentation des connaissances. Chacun de ces domaines de recherche recensent de nombreux sous-domaines tous très actifs. Le projet de recherche que je souhaite développer peut être vu comme un chemin au travers de ces domaines qui vise à créer un continuum (sémantique) entre les différentes étapes de la fouille de textes. L'extraction de connaissances à partir de textes est avant tout une construction de connaissances et suppose une cohérence méthodologique entre les différentes étapes de la fouille de textes. J'ai fait le choix d'ancrer mes travaux dans le domaine du formel en visant notamment une représentation des connaissances en logique, plus particulièrement en logique de descriptions. Malgré les restrictions liées à ce choix, notamment en ce qui concerne l'interaction avec des humains experts d'un domaine, la mise à jour, ou la correction d'une ontologie, une représentation formelle reste à mon sens la solution pour raisonner sur les textes et assurer la cohérence d'une ontologie. Si le but final d'un processus de fouille est de construire une représentation formelle qui puisse être le support de raisonnements, je me suis concentré dans ce projet de recherche sur la construction des connaissances en exploitant des méthodes à base de motifs, d'extraction de règles d'association ou de l'analyse formelle de concepts. L'intérêt de ces approches est qu'elles assureront un lien constant entre les textes et les connaissances. La modification des textes engendre une modification des connaissances et inversement la modification des connaissances (les ressources externes par exemple) modifient l'annotation des textes et l'ontologie. Des environnements coopératifs pourraient à terme intégrer nos travaux et faciliter ainsi la synergie entre les processus humains et les processus automatiques.
206

Contribution à l'analyse complexe de documents anciens, application aux lettrines

Coustaty, Mickaël 20 October 2011 (has links) (PDF)
De nombreux projets de numérisation sont actuellement menés en France et en Europe pour sauvegarder le contenu de dizaines de milliers de documents anciens. Les images de ces documents sont utilisées par les historiens pour identifier l'historique des livres. Cette thèse s'inscrit dans le projet Navidomass (ANR-06-MDCA-012) qui a pour but de valoriser le patrimoine écrit français de la Renaissance, en proposant d'identifier ses images pour les indexer. Dans le cadre de cette thèse, nous nous sommes particulièrement intéressés aux images graphiques. Ces documents,qui sont apparus avec le début de l'imprimerie, sont composées d'images complexes puisque composées de différentes couches d'informations (images de traits).Afin de répondre à ce problème, nous proposons un modèle ontologique d'analyse complexe d'images de documents anciens. Ce modèle permet d'intégrer dans une même base les connaissances propres aux historiens, et les connaissances extraites par des traitements d'images. De par la nature complexe de ces images, les méthodes habituelles d'analyse d'images et d'extraction automatique de connaissances sont inopérantes. Nous proposons donc une nouvelle approche d'analyse des images de documents anciens qui permet de les caractériser à partir de leurs spécificités. Cette approche commence par simplifier les images en les séparant en différentes couches d'informations (formes et traits). Puis, pour chaque couche, nous venons extraire des motifs utilisés pour décrire les images. Ainsi, les images sont caractérisées à l'aide de sacs de motifs fréquents, et de sacs de traits. Pour ces deux couches d'informations, nous venons également extraire des graphes de régions qui permettent d'extraire une connaissance structurelle des images. La complexification de ces deux descriptions est insérée dans la base de connaissances, pour permettre des requêtes complexes. Le but de cette base est de proposer à l'utilisateur de rechercher une image en indiquant soit un exemple d'images recherchées, soit des éléments caractéristiques des images.
207

Modélisation de l'interopérabilité d'objets communicants et de leur coopération : application à la domotique

Sartor, Fabien 05 July 2012 (has links) (PDF)
Dans le cadre des évolutions du bâtiment, il est de plus en plus nécessaire d'interconnecter des objets communicants. Cette démarche est cependant freinée du fait de l'absence d'un protocole de communication standard. La maison intelligente n'est pas un nouveau concept, et l'automatisation de la maison est devenue un sujet de recherche à la mode ces dernières années. La problématique de cette thèse se focalise sur l'interopérabilité de systèmes communicants. Plus précisément, nous nous intéressons à la manière de créer une coopération entre différents dispositifs d'un environnement, afin de masquer la complexité à l'usager. Dans un premier temps, l'interopérabilité entre ces objets est réalisée par la mise en place d'un écosystème virtuel où les dispositifs peuvent communiquer leurs états ou l'état de l'environnement. C'est l'abstraction des systèmes. Dans ce mémoire, nous abordons comment et pourquoi les systèmes sont nécessairement abstraits lorsque l'on s'intéresse à la prise en compte du contexte de l'installation. L'étude de la prise en compte du contexte à permis de procurer les données scientifiques à l'entreprise Overkiz afin qu'elle puisse réaliser l'abstraction des dispositifs domotiques. Ensuite, la coopération entre les objets communicants est mise en œuvre par un outil mathématique permettant de modéliser le comportement d'un environnement composé d'actionneurs, de capteurs et d'interfaces utilisateurs. Le comportement est formalisé au moyen de la théorie des automates étendus et plus particulièrement par la théorie des systèmes de transitions symboliques à entrées/sorties (IOSTS). Nous synthétisons alors le pilotage par un "contrôleur" du comportement global d'une installation, à partir de règles de contraintes ou de règles d'action.
208

Information Management for Cutting Tools : Information Models and Ontologies

Nyqvist, Olof January 2008 (has links)
There is an increasing demand for the exchange of important product and manufacturing information in a computer interpretable way. Large manufacturing companies are dependent on having access to the necessary information electronically. If they do not get information about their manufacturing resources from their vendors, they will buy their resources elsewhere, or they will have to create the information themselves. In the end, the cost of the manufactured products will increase to accommodate the cost increase from having to create, integrate, and maintain this information. In order to solve this problem, the use of international standards for product data is required. One area where such a standard is required is the area of cutting tools. This thesis describes the requirements for an international standard for the representation and exchange of cutting tool information and the resulting information model together with necessary reference data. The representation of cutting tool information using an international standard requires a generally applicable information model which is used together with a reference data library. The reference data provides the explicit, unambiguous concepts necessary for successful information exchange. ISO 13399, the international standard that is the result of this research project, uses P-Lib (ISO 13584) to define its reference data. To successfully use P-Lib in this way, requires some basic assumptions to be made, since P-Lib is originally developed for component catalogs. As a result of the chosen representation technique, the standard is capable of accommodating current and future developments of cutting tools, e.g. multi function tools. / QC 20100901
209

Cross-language Ontology Learning : Incorporating and Exploiting Cross-language Data in the Ontology Learning Process

Hjelm, Hans January 2009 (has links)
An ontology is a knowledge-representation structure, where words, terms or concepts are defined by their mutual hierarchical relations. Ontologies are becoming ever more prevalent in the world of natural language processing, where we currently see a tendency towards using semantics for solving a variety of tasks, particularly tasks related to information access. Ontologies, taxonomies and thesauri (all related notions) are also used in various variants by humans, to standardize business transactions or for finding conceptual relations between terms in, e.g., the medical domain. The acquisition of machine-readable, domain-specific semantic knowledge is time consuming and prone to inconsistencies. The field of ontology learning therefore provides tools for automating the construction of domain ontologies (ontologies describing the entities and relations within a particular field of interest), by analyzing large quantities of domain-specific texts. This thesis studies three main topics within the field of ontology learning. First, we examine which sources of information are useful within an ontology learning system and how the information sources can be combined effectively. Secondly, we do this with a special focus on cross-language text collections, to see if we can learn more from studying several languages at once, than we can from a single-language text collection. Finally, we investigate new approaches to formal and automatic evaluation of the quality of a learned ontology. We demonstrate how to combine information sources from different languages and use them to train automatic classifiers to recognize lexico-semantic relations. The cross-language data is shown to have a positive effect on the quality of the learned ontologies. We also give theoretical and experimental results, showing that our ontology evaluation method is a good complement to and in some aspects improves on the evaluation measures in use today. / För att köpa boken skicka en beställning till exp@ling.su.se/ To order the book send an e-mail to exp@ling.su.se
210

Utilisation d'ontologies comme support à la recherche et à la navigation dans une collection de documents

Sy, Mohameth-François 11 December 2012 (has links) (PDF)
Les ontologies modélisent la connaissance d'un domaine avec une hiérarchie de concepts. Cette thèse porte sur leur utilisation dans les Systèmes de Recherche d'Information (SRI) pour estimer la pertinence des documents par rapport à une requête. Nous calculons cette pertinence à l'aide d'un modèle des préférences de l'utilisateur et d'une mesure de similarité sémantique associée à l'ontologie. Cette approche permet d'expliquer à l'utilisateur pourquoi les documents sélectionnés sont pertinents grâce à une visualisation originale. La RI étant un processus itératif, l'utilisateur doit être guidé dans sa reformulation de requête. Une stratégie de reformulation de requêtes conceptuelles est formalisée en un problème d'optimisation utilisant les retours faits par l'utilisateur sur les premiers résultats proposés comme base d'apprentissage. Nos modèles sont validés sur la base de performances obtenues sur des jeux de tests standards et de cas d'études impliquant des experts biologistes.

Page generated in 0.0546 seconds