• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 187
  • 118
  • 26
  • 15
  • 8
  • 7
  • 7
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 622
  • 167
  • 161
  • 159
  • 135
  • 116
  • 98
  • 96
  • 94
  • 87
  • 82
  • 70
  • 63
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
601

Evolution von ontologiebasierten Mappings in den Lebenswissenschaften / Evolution of ontology-based mappings in the life sciences

Groß, Anika 19 March 2014 (has links) (PDF)
Im Bereich der Lebenswissenschaften steht eine große und wachsende Menge heterogener Datenquellen zur Verfügung, welche häufig in quellübergreifenden Analysen und Auswertungen miteinander kombiniert werden. Um eine einheitliche und strukturierte Erfassung von Wissen sowie einen formalen Austausch zwischen verschiedenen Applikationen zu erleichtern, kommen Ontologien und andere strukturierte Vokabulare zum Einsatz. Sie finden Anwendung in verschiedenen Domänen wie der Molekularbiologie oder Chemie und dienen zumeist der Annotation realer Objekte wie z.B. Gene oder Literaturquellen. Unterschiedliche Ontologien enthalten jedoch teilweise überlappendes Wissen, so dass die Bestimmung einer Abbildung (Ontologiemapping) zwischen ihnen notwendig ist. Oft ist eine manuelle Mappingerstellung zwischen großen Ontologien kaum möglich, weshalb typischerweise automatische Verfahren zu deren Abgleich (Matching) eingesetzt werden. Aufgrund neuer Forschungserkenntnisse und Nutzeranforderungen verändern sich die Ontologien kontinuierlich weiter. Die Evolution der Ontologien hat wiederum Auswirkungen auf abhängige Daten wie beispielsweise Annotations- und Ontologiemappings, welche entsprechend aktualisiert werden müssen. Im Rahmen dieser Arbeit werden neue Methoden und Algorithmen zum Umgang mit der Evolution ontologie-basierter Mappings entwickelt. Dabei wird die generische Infrastruktur GOMMA zur Verwaltung und Analyse der Evolution von Ontologien und Mappings genutzt und erweitert. Zunächst wurde eine vergleichende Analyse der Evolution von Ontologiemappings für drei Subdomänen der Lebenswissenschaften durchgeführt. Ontologien sowie Mappings unterliegen teilweise starken Änderungen, wobei die Evolutionsintensität von der untersuchten Domäne abhängt. Insgesamt zeigt sich ein deutlicher Einfluss von Ontologieänderungen auf Ontologiemappings. Dementsprechend können bestehende Mappings infolge der Weiterentwicklung von Ontologien ungültig werden, so dass sie auf aktuelle Ontologieversionen migriert werden müssen. Dabei sollte eine aufwendige Neubestimmung der Mappings vermieden werden. In dieser Arbeit werden zwei generische Algorithmen zur (semi-) automatischen Adaptierung von Ontologiemappings eingeführt. Ein Ansatz basiert auf der Komposition von Ontologiemappings, wohingegen der andere Ansatz eine individuelle Behandlung von Ontologieänderungen zur Adaptierung der Mappings erlaubt. Beide Verfahren ermöglichen die Wiederverwendung unbeeinflusster, bereits bestätigter Mappingteile und adaptieren nur die von Änderungen betroffenen Bereiche der Mappings. Eine Evaluierung für sehr große, biomedizinische Ontologien und Mappings zeigt, dass beide Verfahren qualitativ hochwertige Ergebnisse produzieren. Ähnlich zu Ontologiemappings werden auch ontologiebasierte Annotationsmappings durch Ontologieänderungen beeinflusst. Die Arbeit stellt einen generischen Ansatz zur Bewertung der Qualität von Annotationsmappings auf Basis ihrer Evolution vor. Verschiedene Qualitätsmaße erlauben die Identifikation glaubwürdiger Annotationen beispielsweise anhand ihrer Stabilität oder Herkunftsinformationen. Eine umfassende Analyse großer Annotationsdatenquellen zeigt zahlreiche Instabilitäten z.B. aufgrund temporärer Annotationslöschungen. Dementsprechend stellt sich die Frage, inwieweit die Datenevolution zu einer Veränderung von abhängigen Analyseergebnissen führen kann. Dazu werden die Auswirkungen der Ontologie- und Annotationsevolution auf sogenannte funktionale Analysen großer biologischer Datensätze untersucht. Eine Evaluierung anhand verschiedener Stabilitätsmaße erlaubt die Bewertung der Änderungsintensität der Ergebnisse und gibt Aufschluss, inwieweit Nutzer mit einer signifikanten Veränderung ihrer Ergebnisse rechnen müssen. Darüber hinaus wird GOMMA um effiziente Verfahren für das Matching sehr großer Ontologien erweitert. Diese werden u.a. für den Abgleich neuer Konzepte während der Adaptierung von Ontologiemappings benötigt. Viele der existierenden Match-Systeme skalieren nicht für das Matching besonders großer Ontologien wie sie im Bereich der Lebenswissenschaften auftreten. Ein effizienter, kompositionsbasierter Ansatz gleicht Ontologien indirekt ab, indem existierende Mappings zu Mediatorontologien wiederverwendet und miteinander kombiniert werden. Mediatorontologien enthalten wertvolles Hintergrundwissen, so dass sich die Mappingqualität im Vergleich zu einem direkten Matching verbessern kann. Zudem werden generelle Strategien für das parallele Ontologie-Matching unter Verwendung mehrerer Rechenknoten vorgestellt. Eine größenbasierte Partitionierung der Eingabeontologien verspricht eine gute Lastbalancierung und Skalierbarkeit, da kleinere Teilaufgaben des Matchings parallel verarbeitet werden können. Die Evaluierung im Rahmen der Ontology Alignment Evaluation Initiative (OAEI) vergleicht GOMMA und andere Systeme für das Matching von Ontologien in verschiedenen Domänen. GOMMA kann u.a. durch Anwendung des parallelen und kompositionsbasierten Matchings sehr gute Ergebnisse bezüglich der Effektivität und Effizienz des Matchings, insbesondere für Ontologien aus dem Bereich der Lebenswissenschaften, erreichen. / In the life sciences, there is an increasing number of heterogeneous data sources that need to be integrated and combined in comprehensive analysis tasks. Often ontologies and other structured vocabularies are used to provide a formal representation of knowledge and to facilitate data exchange between different applications. Ontologies are used in different domains like molecular biology or chemistry. One of their most important applications is the annotation of real-world objects like genes or publications. Since different ontologies can contain overlapping knowledge it is necessary to determine mappings between them (ontology mappings). A manual mapping creation can be very time-consuming or even infeasible such that (semi-) automatic ontology matching methods are typically applied. Ontologies are not static but underlie continuous modifications due to new research insights and changing user requirements. The evolution of ontologies can have impact on dependent data like annotation or ontology mappings. This thesis presents novel methods and algorithms to deal with the evolution of ontology-based mappings. Thereby the generic infrastructure GOMMA is used and extended to manage and analyze the evolution of ontologies and mappings. First, a comparative evolution analysis for ontologies and mappings from three life science domains shows heavy changes in ontologies and mappings as well as an impact of ontology changes on the mappings. Hence, existing ontology mappings can become invalid and need to be migrated to current ontology versions. Thereby an expensive redetermination of the mappings should be avoided. This thesis introduces two generic algorithms to (semi-) automatically adapt ontology mappings: (1) a composition-based adaptation relies on the principle of mapping composition, and (2) a diff-based adaptation algorithm allows for individually handling change operations to update mappings. Both approaches reuse unaffected mapping parts, and adapt only affected parts of the mappings. An evaluation for very large biomedical ontologies and mappings shows that both approaches produce ontology mappings of high quality. Similarly, ontology changes may also affect ontology-based annotation mappings. The thesis introduces a generic evaluation approach to assess the quality of annotation mappings based on their evolution. Different quality measures allow for the identification of reliable annotations, e.g., based on their stability or provenance information. A comprehensive analysis of large annotation data sources shows numerous instabilities, e.g., due to the temporary absence of annotations. Such modifications may influence results of dependent applications such as functional enrichment analyses that describe experimental data in terms of ontological groupings. The question arises to what degree ontology and annotation changes may affect such analyses. Based on different stability measures the evaluation assesses change intensities of application results and gives insights whether users need to expect significant changes of their analysis results. Moreover, GOMMA is extended by large-scale ontology matching techniques. Such techniques are useful, a.o., to match new concepts during ontology mapping adaptation. Many existing match systems do not scale for aligning very large ontologies, e.g., from the life science domain. One efficient composition-based approach indirectly computes ontology mappings by reusing and combining existing mappings to intermediate ontologies. Intermediate ontologies can contain useful background knowledge such that the mapping quality can be improved compared to a direct match approach. Moreover, the thesis introduces general strategies for matching ontologies in parallel using several computing nodes. A size-based partitioning of the input ontologies enables good load balancing and scalability since smaller match tasks can be processed in parallel. The evaluation of the Ontology Alignment Evaluation Initiative (OAEI) compares GOMMA and other systems in terms of matching ontologies from different domains. Using the parallel and composition-based matching, GOMMA can achieve very good results w.r.t. efficiency and effectiveness, especially for ontologies from the life science domain.
602

Evolution von ontologiebasierten Mappings in den Lebenswissenschaften

Groß, Anika 05 March 2014 (has links)
Im Bereich der Lebenswissenschaften steht eine große und wachsende Menge heterogener Datenquellen zur Verfügung, welche häufig in quellübergreifenden Analysen und Auswertungen miteinander kombiniert werden. Um eine einheitliche und strukturierte Erfassung von Wissen sowie einen formalen Austausch zwischen verschiedenen Applikationen zu erleichtern, kommen Ontologien und andere strukturierte Vokabulare zum Einsatz. Sie finden Anwendung in verschiedenen Domänen wie der Molekularbiologie oder Chemie und dienen zumeist der Annotation realer Objekte wie z.B. Gene oder Literaturquellen. Unterschiedliche Ontologien enthalten jedoch teilweise überlappendes Wissen, so dass die Bestimmung einer Abbildung (Ontologiemapping) zwischen ihnen notwendig ist. Oft ist eine manuelle Mappingerstellung zwischen großen Ontologien kaum möglich, weshalb typischerweise automatische Verfahren zu deren Abgleich (Matching) eingesetzt werden. Aufgrund neuer Forschungserkenntnisse und Nutzeranforderungen verändern sich die Ontologien kontinuierlich weiter. Die Evolution der Ontologien hat wiederum Auswirkungen auf abhängige Daten wie beispielsweise Annotations- und Ontologiemappings, welche entsprechend aktualisiert werden müssen. Im Rahmen dieser Arbeit werden neue Methoden und Algorithmen zum Umgang mit der Evolution ontologie-basierter Mappings entwickelt. Dabei wird die generische Infrastruktur GOMMA zur Verwaltung und Analyse der Evolution von Ontologien und Mappings genutzt und erweitert. Zunächst wurde eine vergleichende Analyse der Evolution von Ontologiemappings für drei Subdomänen der Lebenswissenschaften durchgeführt. Ontologien sowie Mappings unterliegen teilweise starken Änderungen, wobei die Evolutionsintensität von der untersuchten Domäne abhängt. Insgesamt zeigt sich ein deutlicher Einfluss von Ontologieänderungen auf Ontologiemappings. Dementsprechend können bestehende Mappings infolge der Weiterentwicklung von Ontologien ungültig werden, so dass sie auf aktuelle Ontologieversionen migriert werden müssen. Dabei sollte eine aufwendige Neubestimmung der Mappings vermieden werden. In dieser Arbeit werden zwei generische Algorithmen zur (semi-) automatischen Adaptierung von Ontologiemappings eingeführt. Ein Ansatz basiert auf der Komposition von Ontologiemappings, wohingegen der andere Ansatz eine individuelle Behandlung von Ontologieänderungen zur Adaptierung der Mappings erlaubt. Beide Verfahren ermöglichen die Wiederverwendung unbeeinflusster, bereits bestätigter Mappingteile und adaptieren nur die von Änderungen betroffenen Bereiche der Mappings. Eine Evaluierung für sehr große, biomedizinische Ontologien und Mappings zeigt, dass beide Verfahren qualitativ hochwertige Ergebnisse produzieren. Ähnlich zu Ontologiemappings werden auch ontologiebasierte Annotationsmappings durch Ontologieänderungen beeinflusst. Die Arbeit stellt einen generischen Ansatz zur Bewertung der Qualität von Annotationsmappings auf Basis ihrer Evolution vor. Verschiedene Qualitätsmaße erlauben die Identifikation glaubwürdiger Annotationen beispielsweise anhand ihrer Stabilität oder Herkunftsinformationen. Eine umfassende Analyse großer Annotationsdatenquellen zeigt zahlreiche Instabilitäten z.B. aufgrund temporärer Annotationslöschungen. Dementsprechend stellt sich die Frage, inwieweit die Datenevolution zu einer Veränderung von abhängigen Analyseergebnissen führen kann. Dazu werden die Auswirkungen der Ontologie- und Annotationsevolution auf sogenannte funktionale Analysen großer biologischer Datensätze untersucht. Eine Evaluierung anhand verschiedener Stabilitätsmaße erlaubt die Bewertung der Änderungsintensität der Ergebnisse und gibt Aufschluss, inwieweit Nutzer mit einer signifikanten Veränderung ihrer Ergebnisse rechnen müssen. Darüber hinaus wird GOMMA um effiziente Verfahren für das Matching sehr großer Ontologien erweitert. Diese werden u.a. für den Abgleich neuer Konzepte während der Adaptierung von Ontologiemappings benötigt. Viele der existierenden Match-Systeme skalieren nicht für das Matching besonders großer Ontologien wie sie im Bereich der Lebenswissenschaften auftreten. Ein effizienter, kompositionsbasierter Ansatz gleicht Ontologien indirekt ab, indem existierende Mappings zu Mediatorontologien wiederverwendet und miteinander kombiniert werden. Mediatorontologien enthalten wertvolles Hintergrundwissen, so dass sich die Mappingqualität im Vergleich zu einem direkten Matching verbessern kann. Zudem werden generelle Strategien für das parallele Ontologie-Matching unter Verwendung mehrerer Rechenknoten vorgestellt. Eine größenbasierte Partitionierung der Eingabeontologien verspricht eine gute Lastbalancierung und Skalierbarkeit, da kleinere Teilaufgaben des Matchings parallel verarbeitet werden können. Die Evaluierung im Rahmen der Ontology Alignment Evaluation Initiative (OAEI) vergleicht GOMMA und andere Systeme für das Matching von Ontologien in verschiedenen Domänen. GOMMA kann u.a. durch Anwendung des parallelen und kompositionsbasierten Matchings sehr gute Ergebnisse bezüglich der Effektivität und Effizienz des Matchings, insbesondere für Ontologien aus dem Bereich der Lebenswissenschaften, erreichen. / In the life sciences, there is an increasing number of heterogeneous data sources that need to be integrated and combined in comprehensive analysis tasks. Often ontologies and other structured vocabularies are used to provide a formal representation of knowledge and to facilitate data exchange between different applications. Ontologies are used in different domains like molecular biology or chemistry. One of their most important applications is the annotation of real-world objects like genes or publications. Since different ontologies can contain overlapping knowledge it is necessary to determine mappings between them (ontology mappings). A manual mapping creation can be very time-consuming or even infeasible such that (semi-) automatic ontology matching methods are typically applied. Ontologies are not static but underlie continuous modifications due to new research insights and changing user requirements. The evolution of ontologies can have impact on dependent data like annotation or ontology mappings. This thesis presents novel methods and algorithms to deal with the evolution of ontology-based mappings. Thereby the generic infrastructure GOMMA is used and extended to manage and analyze the evolution of ontologies and mappings. First, a comparative evolution analysis for ontologies and mappings from three life science domains shows heavy changes in ontologies and mappings as well as an impact of ontology changes on the mappings. Hence, existing ontology mappings can become invalid and need to be migrated to current ontology versions. Thereby an expensive redetermination of the mappings should be avoided. This thesis introduces two generic algorithms to (semi-) automatically adapt ontology mappings: (1) a composition-based adaptation relies on the principle of mapping composition, and (2) a diff-based adaptation algorithm allows for individually handling change operations to update mappings. Both approaches reuse unaffected mapping parts, and adapt only affected parts of the mappings. An evaluation for very large biomedical ontologies and mappings shows that both approaches produce ontology mappings of high quality. Similarly, ontology changes may also affect ontology-based annotation mappings. The thesis introduces a generic evaluation approach to assess the quality of annotation mappings based on their evolution. Different quality measures allow for the identification of reliable annotations, e.g., based on their stability or provenance information. A comprehensive analysis of large annotation data sources shows numerous instabilities, e.g., due to the temporary absence of annotations. Such modifications may influence results of dependent applications such as functional enrichment analyses that describe experimental data in terms of ontological groupings. The question arises to what degree ontology and annotation changes may affect such analyses. Based on different stability measures the evaluation assesses change intensities of application results and gives insights whether users need to expect significant changes of their analysis results. Moreover, GOMMA is extended by large-scale ontology matching techniques. Such techniques are useful, a.o., to match new concepts during ontology mapping adaptation. Many existing match systems do not scale for aligning very large ontologies, e.g., from the life science domain. One efficient composition-based approach indirectly computes ontology mappings by reusing and combining existing mappings to intermediate ontologies. Intermediate ontologies can contain useful background knowledge such that the mapping quality can be improved compared to a direct match approach. Moreover, the thesis introduces general strategies for matching ontologies in parallel using several computing nodes. A size-based partitioning of the input ontologies enables good load balancing and scalability since smaller match tasks can be processed in parallel. The evaluation of the Ontology Alignment Evaluation Initiative (OAEI) compares GOMMA and other systems in terms of matching ontologies from different domains. Using the parallel and composition-based matching, GOMMA can achieve very good results w.r.t. efficiency and effectiveness, especially for ontologies from the life science domain.
603

Personalised wearable cardiac sensor services for pervasive self-care / Conception de services personnalisés pour la capture ubiquitaire de signes vitaux en Santé

Krupaviciute, Asta 20 December 2011 (has links)
L'objectif de cette thèse est de concevoir une architecture de services Web pour la dé-termination automatique d’un système de capteurs personnalisé, embarqué sous forme de vêtement intelligent dédié au self-care, afin de permettre à tout utilisateur profane d'enregistrer lui-même son propre électrocardiogramme (ECG), à tout moment et n’importe où. Le défi principal réside dans l'orchestration intelligente et dynamique de services métiers en fonction du contexte, pour qu’ils fournissent à l'utilisateur une solution personnalisée optimale tout en maîtrisant la complexité inhérente à la dépendance au contexte des interactions homme-machine, à l'extraction des connaissances des signes vitaux spécifiques à un sujet, et à l'automatisation de la reconfiguration des services. Une solution à ce défi est de créer une intelligence ambiante qui étend la notion d'informatique ubiquitaire et est capable d’offrir à l’instar d’un expert du domaine, une assistance intelligente personnalisée à tout citoyen. Nous proposons une méthodologie de construction d'une architecture DM-SOA orientée-services, dirigée à la fois par les données et par des modèles, pour la production de services métiers intelligents et tenant compte du contexte. Cette architecture permet l’automatisation d’activités sophistiquées et personnalisées qu’un expert mettrait en œuvre pour le traitement d’un cas individuel, à partir de ses connaissances professionnelles. La solution proposée est basée sur une nouvelle approche de modélisation dynamique de processus métiers, et l’implémentation de services reconfigurables automatiquement. Elle consiste à mettre en œuvre un environnement intelligent fondé sur une ontologie de processus métiers des concepts du domaine et de son contexte, et sur une base de règles pour l'orchestration contextuelle des services. Pour valider le bien-fondé de notre approche, nous avons proposé une ontologie pour l’automatisation de processus d’aide à la décision et nous l’avons évaluée dans le domaine de la cardiologie, en l’appliquant au problème de la sélection la plus adéquate possible d’un système de positionnement d’électrodes, spécifique à chaque individu, et capable de fournir un signal ECG de contenu diagnostique similaire à celui d'un ECG standard à 12 dérivations. Pour répondre aux besoins en situation de self-care tout en préservant la qualité diagnostique des signaux enregistrés à la demande, nous proposons la réalisation d’un nouveau système prototype de capture ECG-3D à trois modalités. Ce prototype a été testé sur huit jeunes adultes volontaires sains (4 hommes et 4 femmes) présentant diverses caractéristiques morphologiques. L'intelligence ambiante est fournie par un ensemble de services de qualité professionnelle, prêts à l’emploi par des utilisateurs profanes. Ces services peuvent être accessibles au travail, n’importe où, via des moyens classiquement utilisés chaque jour, et fournissent une aide appropriée aux utilisateurs non-compétents. / The aim of the thesis is to design a web services architecture that shall support the automatic determination of a personalised sensor-system, which is embedded in smart garments, and which shall be used in self-care in order to allow a profane user to record himself a personal electrocardiogram (ECG), at anytime and anywhere. The main challenge consists in the intelligent and dynamic orchestration of context-aware business services that supply the user with an optimal personalised solution, while mastering the system’s complexity: context dependent user and system interactions, knowledge extraction from subject-specific vital signs, services reconfiguration automation. The solution to this challenge is to create an Ambient Intelligence which goes beyond Ubiquitous Computing and is capable to replace an expert by proposing an Intelligent Assistance to any citizen. We propose a methodology expressed in terms of Data and Model driven Service Oriented Architecture (DM-SOA), which provides a framework for the production of context-aware intelligent business services. This architecture supports the automation of sophisticated and personalised expert activities, which apply professional knowledge to process an individual case. The proposed solution is based on a new dynamic business process modelling approach and in its implementation via automatically reconfigurable services. It consists in setting-up an intelligent environment based on a business process ontology of context-aware concepts and on related context handling rules for services orchestration. A core-ontology has been designed to support the automation of expert activities related to decision-making. The soundness of the method and of the underlying decision-making techniques has been demonstrated in the cardiology domain for selecting the most adequate subject-specific sensor-system, characterised by its ability to yield for an ECG signal of similar diagnostic content than a standard 12-lead ECG. We propose the design of a new three modalities sensor-system prototype as a response to the need of sensor-systems used on demand in self-care situations and ensuring diagnostic quality signals recordings. This prototype has been tested on a set of healthy volunteers presenting various characteristics in age, sex and morphology. In this context, Ambient Intelligence is demonstrated as an ensemble of professional quality services ready to use by profane users. These services are accessible pervasively, trough the objects people work with / wear on / use each day, and provide an appropriate guidance to the non-competent users. Such an Ambient Intelligence approach strongly supports the vision of an Information Society which corresponds to the long-term goal of the EU Information Society Technologies Research Programme that aims to ease knowledge access. The future healthcare will benefit from this approach and will significantly improve patient care.
604

AutoEduMat: ferramenta de apoio a autoria de metadados de objetos de aprendizagem para o domínio de ensino de matemática

Xavier, Ana Carolina 16 July 2010 (has links)
Submitted by Mariana Dornelles Vargas (marianadv) on 2015-05-25T12:29:15Z No. of bitstreams: 1 AutoEduMat.pdf: 1060362 bytes, checksum: 25b8156de4b9c2c2c5b9dc0f69aea011 (MD5) / Made available in DSpace on 2015-05-25T12:29:15Z (GMT). No. of bitstreams: 1 AutoEduMat.pdf: 1060362 bytes, checksum: 25b8156de4b9c2c2c5b9dc0f69aea011 (MD5) Previous issue date: 2010 / Nenhuma / Esta dissertação apresenta uma pesquisa relacionada as ferramentas que dão suporte a utilização de objetos de aprendizagem em plataformas digitais. Mais especificamente, a pesquisa se direciona para as ferramentas de apoio a autoria destes objetos, em particular dos seus metadados. Inicialmente é apresentada a contextualização do problema de pesquisa, sua fundamentação teórica e os trabalhos relacionados ao tema. Em seguida são apresentadas as principais características do sistema proposto, o AutoEduMat - Ferramenta de Apoio a Autoria de Metadados de Objetos de Aprendizagem para o Domínio de Ensino de Matemática. A ferramenta AutoEduMat dá apoio a autoria de objetos de aprendizagem, oferecendo assistência ao projetista (designer) de objetos na criação e edição de metadados destes objetos. A principal inovação do trabalho é a combinação das tecnologias de Engenharia de Software de Agentes e de Engenharia de Ontologias para construir um sistema multiagente que oferece suporte inteligente para a geração dos metadados dos objetos de aprendizagem, sendo capaz de interagir com o usuário com termos de seu próprio contexto profissional e educacional. No trabalho é proposta a ontologia Onto-EduMat que incorpora os conhecimentos sobre o domínio de ensino de matemática, incluindo aspectos pedagógicos, necessários para o auxílio a geração dos metadados. Tanto a ferramenta quanto seu modelo ontológico são validados através de experimentos descritos no final do trabalho. / This dissertation presents a research related to the tools that support the utilization of learning objects in digital platforms. More precisely, the research is directed to the tools that support the authoring process of these objects, in particular of their metadata. Initially are presented the characterization of the problem, its theoretical foundations and related works. Then are presented the main characteristics of the proposed system, the AutoEduMat - Metadata Authoring Tool for Mathematics Learning Objects. The AutoEduMat system will provide assistance to the object designer in the metadata creation and edition of these objects. The main innovation of this work is the combination of Agent Oriented Software Engineering and Ontology Engineering technologies to built a multiagent system able to offer intelligent support for metadata creation, interacting with users using terms related to their professional and educational context. This work proposes the Onto-EduMat ontology, which incorporates the mathematical and pedagogical knowledge necessary to generate the metadata. The authoring tool and its ontological model are validated through experiments described in the end of the work.
605

Construction et interrogation de la structure informationnelle d'une base documentaire en français

Jacquemin, Bernard 08 December 2003 (has links) (PDF)
Cette thèse présente une méthode originale pour identifier et structurer l'information de documents et pour l'interroger. Comme les méthodes linguistiques améliorent les résultats des systèmes actuels, cette approche se base sur des analyses linguistiques et des ressources lexicales. Une analyse grammaticale de haut niveau (morphologique, syntaxique et sémantique) identifie d'abord les éléments d'information et les lie entre eux. Puisque le contexte des requêtes est faible, les textes sont analysés. Puis le contenu des ressources confère aux informations de nombreuses actualisations grâce à des transformations contextuelles : synonymie simple et complexe, dérivations avec adaptation du contexte syntaxique, adjonction de traits sémantiques... Enfin, l'interrogation des textes est testée. Une analyse morpho-syntaxique de la question en identifie les éléments d'information et choisit le type de la réponse attendue. Le fragment de texte contenant ces données constitue la réponse à la question.
606

La mise à disposition des œuvres et des informations sur les réseaux : régulation juridique et régulation technique

Dulong de Rosnay, Melanie 26 October 2007 (has links) (PDF)
Les développements techniques entraînent une croissance exponentielle de la circulation des œuvres et informations sur les réseaux. Les modèles de régulation de l'ère analogique élaborés sur la rareté du support sont remis en question par le numérique, fondé sur les paradigmes de la copie, de la réappropriation et du partage. Le droit d'auteur a été développé et adapté au rythme des innovations techniques de reproduction et de diffusion des œuvres, comme un correctif artificiel accordant une exclusivité temporaire d'exploitation. Il peut aussi conduire aux biens communs. Nous analysons comment droit et technique ont d'abord été pensés de manière indépendante. Les processus d'élaboration des normes et standards techniques et l'extension des droits exclusifs entraînent des tensions entre les industries culturelles et le public. Cette conception conduit à un enchevêtrement de lois et mesures techniques de protection au profit de la régulation technique. Nous proposons donc, dans la lignée de la lex informatica, un modèle fondé sur l'influence réciproque entre les disciplines, vers la reconception des catégories juridiques du droit d'auteur et vers une meilleure expression technique des droits. Le développement d'applications, d'ontologies et de métadonnées juridiques permet une automatisation de la régulation des échanges d'œuvres et d'informations. Mettant en œuvre une intégration plus équilibrée du droit et de la technique, ce modèle est notamment fondé sur l'analyse de licences et modèles contractuels qui se développent sur Internet, entre contrôle d'accès et biens communs.
607

Modèle orienté service pour la conception de parcours pédagogiques personnalisés

Zniber, Najlaa 16 December 2009 (has links) (PDF)
L'utilisation des technologies du web dans les métiers de la formation permet d'envisager de nouvelles approches d'apprentissage. Toutefois la qualité de ces approches dépend de leur capacité à fournir aux apprenants, des contenus et des parcours pédagogiques adaptés à leurs besoins. La solution présentée propose de mettre à la disposition des apprenants un ensemble de services pédagogiques. Un service fournit un fragment de processus pour répondre à un certain objectif pédagogique. C'est en composant des services de manière dynamique que l'on peut construire des parcours adaptés. L'approche POPS (Process-Oriented Pedagogic Service) est un cadre conceptuel qui définit un modèle pour décrire les services pédagogiques et un processus de composition de services pour construire des parcours personnalisés. Des ontologies du domaine enseigné et de la pédagogie sont proposées pour, d'une part, décrire les services et d'autre part, en faciliter la recherche et la composition. L'approche a été appliquée pour l'enseignement du langage UML dans le cadre d'un projet Campus Numérique.
608

SweetDeal: Representing Agent Contracts With Exceptions using XML Rules, Ontologies, and Process Descriptions

GROSOF, BENJAMIN, POON, TERRENCE C. 16 September 2003 (has links)
SweetDeal is a rule-based approach to representation of business contracts that enables software agents to create, evaluate, negotiate, and execute contracts with substantial automation and modularity. It builds upon the situated courteous logic programs knowledge representation in RuleML, the emerging standard for Semantic Web XML rules. Here, we newly extend the SweetDeal approach by also incorporating process knowledge descriptions whose ontologies are represented in DAML+OIL (the close predecessor of W3C's OWL, the emerging standard for Semantic Web ontologies), thereby enabling more complex contracts with behavioral provisions, especially for handling exception conditions (e.g., late delivery or non-payment) that might arise during the execution of the contract. This provides a foundation for representing and automating deals about services – in particular, about Web Services, so as to help search, select, and compose them. We give a detailed application scenario of late delivery in manufacturing supply chain management (SCM). In doing so, we draw upon our new formalization of process ontology knowledge from the MIT Process Handbook, a large, previously-existing repository used by practical industrial process designers. Our system is the first to combine emerging Semantic Web standards for knowledge representation of rules (RuleML) with ontologies (DAML+OIL/OWL) with each other, and moreover for a practical e-business application domain, and further to do so with process knowledge. This also newly fleshes out the evolving concept of Semantic Web Services. A prototype (soon public) i
609

Diseño de un sistema colaborativo para la creación y gestión de tesauros en Internet basado en SKOS

Pastor Sánchez, Juan Antonio 30 March 2009 (has links)
Esta tesis se enmarca en los procesos de recuperación de información en la Web, mediante la aplicación de tesauros y orientada hacia las propuestas de representación de información en la Web Semántica. Se plantea la creación de un modelo conceptual para desarrollar aplicaciones web para la gestión colaborativa de tesauros basados en SKOS y su aplicación en la indización de recursos de información, agrupados en repositorios y descritos mediante metadatos. Se han estudiado modelos de recuperación de información aplicados a la Web, junto con el significado, estructura, tecnologías y evolución de la Web Semántica, así como la representación de tesauros en este ámbito a partir de iniciativas basadas en RDF, analizando detalladamente SKOS. Se ha llevado a cabo una descripción funcional de las principales características de una aplicación de este tipo. La formalización de la propuesta se ha realizado con diagramas UML de casos de uso y de clases. / The field of this thesis is the web information retrieval process applying thesauri and its orientation is the representation of information in the Semantic Web. It raises the creation of a conceptual model in order to develop web applications for the collaborative management of SKOS based thesauri and the information resorces indexing, group by repositories and using metadata to describe it. Web information retrieval models has been analized, likewise meaning, structure, technologies and evolution of the Semantic Web and the representation of thesauri in this enviroment using RDF specifications, specially SKOS. Main characteristics of this type of applications have been studied. The author use case of use and class UML diagrams to formalize the proposal.
610

Modelos de representación de arquetipos en sistemas de información sanitarios.

Menárguez Tortosa, Marcos 29 May 2013 (has links)
En esta tesis doctoral se presenta una propuesta de representación ontológica de la arquitectura de modelo dual de la Historia Clínica Electrónica. La representación de arquetipos con el lenguaje OWL ha permitido: 1) la definición e implementación de un método de evaluación de la calidad de arquetipos basado en técnicas de razonamiento, 2) la definición de una metodología y un marco de trabajo para la interoperabilidad de modelos de contenido clínico, y 3) la aplicación de técnicas y herramientas de desarrollo de software dirigido por modelos para la generación automática de sistemas de información sanitarios a partir de arquetipos. / In this doctoral thesis an ontology-based approach for representing the dual model architecture of Electronic Health Record is presented. The representation of archetypes in OWL allows: 1) the definition and implementation of a quality evaluation method for archetypes based on reasoning techniques, 2) the definition of a methodology and a framework for the interoperability of clinical content models, and 3) applying model driven software development techniques and tools for the automatic generation of health information systems from archetypes.

Page generated in 0.0646 seconds