221 |
SWI: Um gazetteer interativo para dados sobre biodiversidade com suporte a web semântica / SWI: an interactive gazetteer for biodiversity data with semantic web supportCardoso, Silvio Domingos 26 June 2015 (has links)
O Brasil é considerado o país da megadiversidade por abrigar diversas espécies de flora e fauna. Dessa forma preservar essa diversidade é extremamente importante, pois a vida no planeta depende dos muitos ecossistemas que compõem essa biodiversidade. Atualmente, vários estudos sobre formas de recuperar e acessar informações sobre biodiversidade vem sendo discutidos na comunidade científica. Muitas instituições importantes têm disponibilizado gratuitamente seus registros de coletas disponíveis abertamente em repositórios online. No entanto, os dados disponibilizados nesses repositórios contêm informações geográficas imprecisas ou ausentes. Isso acarreta vários problemas como, por exemplo, a inviabilidade da realização de planos sistemáticos para preservar áreas para conservação de espécies ameaçadas. O problema principal para a realização desse plano é determinar com precisão a distribuição dessas espécies. Nesse contexto, o problema de pesquisa identificado é a necessidade de melhorar as informações geográficas contidas em dados sobre biodiversidade disponíveis em repositórios online. Para atacar esse problema, o SWI Gazetteer foi desenvolvido. Ele usa tecnologias da Web Semântica r técnicas de Recuperação de Informação Geográfica para associar coordenadas geográficas a nomes de lugares. Quando procuram por lugares, usuários podem realizar buscas semânticas que conseguem melhores resultados (em relação à precisão e cobertura de dados) que buscas tradicionais por palavras chaves. O Gazetteer também permite a difusão de suas informações usando formatos dos padrões Linked Open Data. Os resultados dos experimentos mostram que o SWI Gazetteer é capaz de aumentar, em até 102%, o número de registros com coordenadas geográficas em amostras representativas de repositórios de dados sobre biodiversidade bem conhecidos (como GBIF e SpecielLink). / Brazil is considered a mega-diversity country for harboring various species of flora and fauna. Therefore preserve this diversity is extremely important, because the life on the planet depends on the many ecosystems that comprise this biodiversity. Currently, several studies on how to recover and access biodiversity information are being discussed within the academic community. Various important institutions have made their biological collection records openly available in online repositories. However, the data available in these repositories contain inaccurate or missing geographic information. This leads to various problems, such as the impossibility of carrying out systematic plans to preserve areas for endangered species. The main problem in realizing these plans is to accurately determine the geographic distributions for these species. In this context, the identified research problem is the need to improve geographic information contained in biodiversity data available in the online repositories. To tackle this problem, the SemanticWeb Interactive Gazetteer (SWI Gazetteer) was developed. It uses Semantic Web technologies and Geographic Information Retrieval techniques to associate geographic coordinates to place names. When searching for places, users can perform semantic searches that achieve better results (in terms of accuracy and data coverage) than traditional keyword search. The gazetteer also allows the dissemination of its information using standard Linked Open Data formats. Experiment results shown that the SWI Gazetteer is able to increase, in up to 102%, the amount of records with geographical coordinates in representative data samples from well know biodiversity sites (such as GBIF and SpeciesLink).
|
222 |
Educação a distância e a WEB Semântica: modelagem ontológica de materiais e objetos de aprendizagem para a plataforma COL. / e-Learning and semantic Web: learning materials and objects for CoL plataform.Araujo, Moysés de 11 September 2003 (has links)
A World Wide Web está se tornando uma grande biblioteca virtual, onde a informação sobre qualquer assunto está disponível a qualquer hora e em qualquer lugar, com ou sem custo, criando oportunidades em várias áreas do conhecimento humano, dentre as quais a Educação não é exceção. Embora muitas aplicações educacionais baseadas na Web tenham sido desenvolvidas nos últimos anos, alguns problemas nesta área não foram resolvidos, entre as quais está a pesquisa de materiais e objetos de aprendizagem mais inteligentes e eficientes, pois como as informações na World Wide Web não são estruturadas e organizadas, as máquinas não podem compreender" e nem interpretar" o significado das informações semânticas. Para dar uma nova infra-estrutura para a World Wide Web está surgindo uma nova tecnologia conhecida com Web Semântica, cuja finalidade é estruturar e organizar as informações para buscas mais inteligentes e eficientes, utilizando-se principalmente do conceito de ontologia. Este trabalho apresenta uma proposta de modelagem ontológica de materiais e objetos de aprendizagem baseada nas tecnologias da Web Semântica para a plataforma de ensino a distância CoL - Cursos on LARC. Esta proposta estende esta plataforma adicionando-lhe a capacidade de organizar e estruturar seus materiais de aprendizagem, de forma a que pesquisas mais inteligentes" e estruturadas possam ser realizadas, nestes materiais e propiciando a possibilidade de reutilização do conteúdo desses materiais. / The World Wide Web is turning itself into a huge virtual library, where a piece of information about any subject is available at any time in any place, with or without fees, creating opportunities in several areas of human knowledge. Education is no exception among this areas. Although many Web based educational applications have been recently developed, some problems in the area have not been solved yet. Among these is the search for more intelligent and effective object learning and materials, since the World Wide Web information is not structured, nor organized. The machines do not understand" neither interpret" the meaning of semantic information. In order to restructure the World Wide Web there is a new technology, known as Web Semantics, being developed. It aims to structure and organize information for more intelligent and effective search, making use of the ontology concept. This work presents an ontological modeling for learning subjects and materials, based on the Web Semantics Technology for the long distance education platform CoL Courses on LARC. This proposal extends such platform, adding to it the possibility of organizing and structuring its learning materials, making possible more intelligent" and structured searches on the materials as well as making possible the re-use of the materials contents.
|
223 |
Construindo ontologias a partir de recursos existentes: uma prova de conceito no domínio da educação. / Building ontologies from existent resources: a proof of concept in education domain.Cantele, Regina Claudia 07 April 2009 (has links)
Na Grécia antiga, Aristóteles (384-322 aC) reuniu todo conhecimento de sua época para criar a Enciclopédia. Na última década surgiu a Web Semântica representando o conhecimento organizado em ontologias. Na Engenharia de Ontologias, o Aprendizado de Ontologias reúne os processos automáticos ou semi-automáticos de aquisição de conhecimento a partir de recursos existentes. Por outro lado, a Engenharia de Software faz uso de vários padrões para permitir a interoperabilidade entre diferentes ferramentas como os criados pelo Object Management Group (OMG) Model Driven Architecture (MDA), Meta Object Facility (MOF), Ontology Definition Metamodel (ODM) e XML Metadata Interchange (XMI). Já o World Wide Web Consortium (W3C) disponibilizou uma arquitetura em camadas com destaque para a Ontology Web Language (OWL). Este trabalho propõe um framework para reunir estes conceitos fundamentado no ODM, no modelo OWL, na correspondência entre metamodelos, nos requisitos de participação para as ferramentas e na seqüência de atividades a serem aplicadas até obter uma representação inicial da ontologia. Uma prova de conceito no domínio da Educação foi desenvolvida para testar esta proposta. / In ancient Greece, Aristotle (384-322 BCE) endeavored to collect all the existing science in his world to create the Encyclopedia. In the last decade, Berners-Lee and collaborators idealized the Web as a structured repository, observing an organization they called Semantic Web. Usually, domain knowledge is organized in ontologies. As a consequence, a great number of researchers are working on method and technique to build ontologies in Ontology Engineering. Ontology Learning meets automatic or semi-automatic processes which perform knowledge acquisition from existing resources. On the other hand, software engineering uses a collection of theories, methodologies and techniques to support information abstraction and several standards have been used, allowing interoperability and different tools promoted by the Object Management Group (OMG) Model Driven Architecture (MDA), Meta Object Facility (MOF), Ontology Definition Metamodel (ODM) and XML Metadata Interchange (XMI). The World Wide Web Consortium (W3C) released architecture in layers for implementing the Semantic Web with emphasis on the Web Ontology Language (OWL). A framework was developed to combine these concepts based on ODM, on OWL model, the correlation between metamodels, the requirements for the tools to participate; in it, the steps sequence was defined to be applied until initial representations of ontology were obtained. A proof of concept in the Education domain was developed to test this proposal.
|
224 |
Linking heterogeneous open data : application to the musical domain / Liage de données ouvertes et hétérogènes : application au domaine musicalAchichi, Manel 15 February 2018 (has links)
Des milliers d'œuvres musicales sont décrites dans des catalogues des institutions culturelles, dont le rôle est de stocker toutes les créations musicales à travers le catalogage et de les diffuser auprès du grand public. Cette thèse s’inscrit dans le cadre du projet ANR DOREMUS -DOnnées en REutilisation pour la Musique en fonction des USages- qui vise à explorer les métadonnées des catalogues de trois grandes institutions culturelles : Bibliothèque Nationale de France (BNF), Philharmonie de Paris et Radio France afin qu'elles puissent communiquer entre elles et être mieux utilisées par les différents publics. Dans cette thèse, nous nous intéressons aux liens dits d’identité, exprimant une équivalence entre deux ressources différentes décrivant la même entité du monde réel. Notre objectif principal est de proposer une approche de liage générique, traitant certains challenges, avec comme cas concret d’utilisation les données de DOREMUS.Dans cette thèse, nous nous focalisons sur trois principaux challenges : (1) réduire la configuration manuelle de l’outil de liage, (2) faire face à différents types d’hétérogénéité entre les descriptions, et (3) Supprimer l’ambiguïté entre les ressources très similaires dans leur descriptions mais qui ne sont pas équivalentes. Certaines approches de liage demandent souvent l’intervention de l’utilisateur pour configurer certains paramètres. Ceci peut s’avérer être une tâche coûteuse pour l’utilisateur qui peut ne pas être expert du domaine. Par conséquent, une des questions de recherche que nous nous posons est comment réduire autant que possible l’intervention humaine dans le processus de liage des données. De plus, les descriptions des ressources peuvent présenter diverses hétérogénéités qu’un outil doit savoir gérer. Par ailleurs, les descriptions peuvent être exprimées dans différentes langues naturelles, avec des vocabulaires différents ou encore avec des valeurs différentes. La comparaison peut alors s’avérer très difficile en raison des variations selon trois dimensions : basées sur les valeurs, ontologiques et logiques. Dans cette thèse, nous analysons les aspects d’hétérogénéité les plus récurrents en identifiant un ensemble de techniques qui peuvent leur être appliquées. Un autre défi est la distinction entre des descriptions de ressources fortement similaires mais non équivalentes. En leur présence, la plupart des outils existants se voient diminuer leur efficacité en terme de qualité, en générant beaucoup de faux positifs. Dans cette optique, certaines approches ont été proposées pour identifier un ensemble de propriétés discriminatives appelées des clefs. De telles approches découvrent un très grand nombre de clés. La question qui se pose est de savoir si toutes les clés permettent de découvrir les mêmes paires d’instances équivalentes, ou si certaines sont plus significatives que d'autres. Aucune approche ne fournit de stratégie pour classer les clefs générées en fonction de leur efficacité à découvrir les bons liens. Afin d’assurer des alignements de qualité, nous avons proposé dans ce travail une nouvelle approche de liage de données visant à relever les défis décrits ci-dessus.Un outil de liage automatique de données hétérogènes, nommé Legato, qui répond aux challenges évoqués précédemment a été développé. Il est basé sur la notion de profile d’instance représentant chaque ressource comme un document textuel de littéraux gérant une variété d’hétérogénéités de données sans l’intervention de l’utilisateur. Legato implémente également une étape de filtrage de propriétés dites problématiques permettant de nettoyer les données du bruit susceptible de rendre la tâche de comparaison difficile. Pour pallier au problème de distinction entre les ressources similaires dans leur description, Legato implémente un algorithme basé sur la sélection et le ranking des clefs afin d’améliorer considérablement la précision au niveau des liens générés. / This thesis is part of the ANR DOREMUS project. We are interested in the catalogs of three cultural institutions: BNF (Bibliothèque Nationale de France), Philharmonie de Paris and Radio France, containing detailed descriptions about music works. These institutions have adopted the Semantic Web technologies with the aim of making these data accessible to all and linked.The links creation becomes particularly difficult considering the high heterogeneity between the descriptions of the same entity. In this thesis, our main objective is to propose a generic data linking approach, dealing with certain challenges, for a concrete application on DOREMUS data. We focus on three major challenges: (1) reducing the tool configuration effort, (2) coping with different kinds of data heterogeneities across datasets and (3) dealing with datasets containing blocks of highly similar instances. Some of the existing linking approaches often require the user intervention during the linking process to configure some parameters. This may be a costly task for theuser who may not be an expert in the domain. Therefore, one of the researchquestions that arises is how to reduce human intervention as much as possible inthe process of data linking. Moreover, the data can show various heterogeneitiesthat a linking tool has to deal with. The descriptions can be expressed in differentnatural languages, with different vocabularies or with different values. The comparison can be complicated due to the variations according to three dimensions: value-based, ontological and logical. Another challenge is the distinction between highly similar but not equivalent resource descriptions. In their presence, most of the existing tools are reduced in efficiency generating false positive matches. In this perspective, some approaches have been proposed to identify a set of discriminative properties called keys. Very often, such approaches discover a very large number of keys. The question that arises is whether all keys can discover the same pairs of equivalent instances, or ifsome are more meaningful than others. No approach provides a strategy to classify the keys generated according to their effectiveness to discover the correct links.We developed Legato — a generic tool for automatic heterogeneous data linking.It is based on instance profiling to represent each resource as a textual documentof literals dealing with a variety of data heterogeneities. It implementsa filtering step of so-called problematic properties allowing to clean the data ofthe noise likely to make the comparison task difficult. To address the problem ofsimilar but distinct resources, Legato implements a key ranking algorithm calledRANKey.
|
225 |
Partitioning semantics for entity resolution and link repairs in bibliographic knowledge bases / Sémantique de partitionnement pour l'identification d'entités et réparation de liens dans une base de connaissances bibliographiquesGuizol, Léa 21 November 2014 (has links)
Nous proposons une approche qualitative pour la résolution d'entités et la réparation de liens dans une base de connaissances bibliographiques. Notre question de recherche est : "Comment détecter et réparer les liens erronés dans une base de connaissances bibliographiques en utilisant des méthodes qualitatives ?". L'approche proposée se décompose en deux grandes parties. La première contribution est une sémantique de partitionnement utilisant des critères symboliques et servant à détecter les liens erronés. La seconde contribution est un algorithme réparant les liens erronés. Nous avons implémenté notre approche et proposé une évaluation qualitative et quantitative pour la sémantique de partitionnement ainsi que prouvé les propriétés des algorithmes utilisés pour la réparation de liens. / We propose a qualitative entity resolution approach to repair links in a bibliographicknowledge base. Our research question is: "How to detect and repair erroneouslinks in a bibliographic knowledge base using qualitative methods?" Theproposed approach is decomposed into two major parts. The first contributionconsists in a partitioning semantics using symbolic criteria used in order to detecterroneous links. The second one consists in a repair algorithm restoring link quality.We implemented our approach and proposed qualitative and quantitative evaluationfor the partitioning semantics as well as proving certain properties for the repairalgorithms.
|
226 |
[en] A MULTIGRANULARITY LOCKING MODEL FOR RDF / [pt] UM MODELO DE BLOQUEIO MULTIGRANULAR PARA RDFMARK DOUGLAS DE AZEVEDO JACYNTHO 17 August 2012 (has links)
[pt] Em aplicações Web, sessões cliente são organizadas em transações,
envolvendo requisições que leem e atualizam dados compartilhados.
Executando concorrentemente, estas sessões podem invalidar os dados umas
das outras. O advento do movimento Linked Data vem estimulando
sobremaneira a criação de aplicações que empregam o modelo de dados RDF
em sua camada de informação. Além de consultas aos dados RDF, também se
faz presente o requisito de atualizações online, com adequado controle de
concorrência. Este trabalho apresenta um modelo de bloqueio, inspirado no
protocolo de bloqueio multigranular, voltado para isolamento entre transações
que manipulam dados RDF, considerando quatro problemas de concorrência, a
saber: lost updates, dirty reads, non-repeatable read e phantoms reads. São
oferecidos quatro grânulos hierarquicamente relacionados, bem como novos
tipos de bloqueio de escrita e leitura, especificamente criados para o modelo
RDF. Por fim, o desempenho do modelo de bloqueio proposto é avaliado por
meio de simulação. / [en] Client sessions in Web applications are organized as transactions involving
requests that read and write shared data. Executing concurrently, these sessions
may invalidate each other s data. The advent of Linked Data is spurring the
deployment of applications that use the RDF data model at the information tier. In
addition to querying RDF data, there is also the requirement for online updates
with suitable concurrency control. This work presents a locking model, inspired
by the multigranularity locking protocol, to address isolation between transactions
that manipulate RDF data, considering four concurrency-related issues, namely:
lost updates, dirty reads, non-repeatable reads and phantom reads. Four
hierarchically related granules are offered, as well as new read and write lock
modes, specifically created for the RDF data model. Finally, the performance
assessment of the proposed locking model is done through simulation.
|
227 |
Optimizing Analytical Queries over Semantic Web Sources / Optimisation de Requêtes Analytiques sur le Web SémantiqueIbragimov, Dilshod 15 November 2017 (has links) (PDF)
Les données ont toujours été un atout clé pour beaucoup d’industries et d’entreprises ;cependant, ces derniers temps les possesseurs de données jouissent d’un véritable avantage compétitif sur les autres. De nos jours, les compagnies collectent de gros volumes de données et les stockent dans de grandes bases de données multidimensionnelles appelées entrepôts de données. Un entrepôt de données présente les données agrégées sous la forme d’un cube dont les cellules contiennent des faits et des informations contextuelles telles que des dates, des lieux, des informations sur les clients et fournisseurs, etc. Les solutions d’entreposage de données utilisent avec succès OLAP (Traitement Analytique En Ligne – en anglais Online Analytical Processing) afin d’analyser ces grands ensembles de données ;par exemple, les informations des ventes peuvent être agrégées selon le lieu et/ou la dimension temporelle. Les tendances récentes des technologies et du Web posent actuellement de nouveaux défis. Une bonne quantité de l’information disponible sur le Web s’y trouve sous une forme qui se prête au traitement par machine (Web Sémantique) ;les outils de veille économique (en anglais Business Intelligence ou BI) doivent être capables de découvrir et récupérer les informations pertinentes, et les présenter aux utilisateurs afin de les assister dans une bonne analyse de la situation. De nombreux gouvernements et organisations rendent leurs données publiquement accessible, identifiables avec des URI (Unified Resource Identifiers), et les lient à d’autres données. Cette collection de jeux de données interconnectés sur le Web s’appelle Linked Data [1]. Ces jeux de données sont basés sur le modèle RDF (Resource Description Framework) – un format standard pour l’échange de données sur le Web [2]. SPARQL, un protocole et un langage de requêtes pour RDF [4], est utilisé pour interroger et manipuler les jeux de données RDF stockés dans des triplestores SPARQL. SPARQL 1.1 Federated Query [6] définit également une extension pour exécuter des requêtes distribuées sur plusieurs triplestores. Le standard actuel permet donc des requêtes analytiques complexes sur de multiples sources de données, et l’intégration de ces données dans le processus d’analyse devient une nécessité pour les outils de BI. Cependant, en raison de la quantité et de la complexité des données disponibles sur le Web, leur incorporation et leur utilisation ne sont pas toujours évidentes. Par conséquent, une solution OLAP efficace sur des source Web Sémantiques est nécessaire pour améliorer les outils de BI. Cette thèse de doctorat se concentre sur les défis liés à l’optimisation des requêtes analytiques qui utilisent des données provenant de plusieurs triplestores SPARQL. Premièrement, cette thèse propose un framework pour la découverte, l’intégration et l’interrogation analytique des Linked Data – ce type d’OLAP a été nommé OLAP Exploratoire [21]. Ce framework est conçu pour utiliser un schéma multidimensionnel du cube OLAP exprimé dans des vocabulaires RDF, afin de pouvoir interroger des sources de données, extraire et agréger des données, et construire un cube de données. Nous proposons également un processus assisté par ordinateur pour découvrir des sources de données précédemment inconnues et construire un schéma multidimensionnel du cube. Deuxièmement, vu l’inefficacité actuelle des triplestores SPARQL pour l’exécution des requêtes analytiques fédérées, cette thèse propose un ensemble de stratégies pour le traitement de ces requêtes ainsi qu’un module (appelé Cost-based Optimizer for Distributed Aggregate ou CoDA) pour optimiser leur exécution. Troisièmement, afin de surmonter les défis liés aux techniques de traitement des requêtes SPARQL agrégées sur un seul triplestore, nous proposons MARVEL (MAterialized Rdf Views with Entailment and incompLeteness) – une approche qui utilise des techniques de vues matérialisées spécifiques à RDF pour traiter les requêtes agrégées complexes. Notre approche consiste en un algorithme de sélection de vues selon un modèle de coût associé spécifique à RDF, une syntaxe pour la définition des vues et un algorithme pour la réécriture des requêtes SPARQL en utilisant les vues matérialisées RDF. Finalement, nous nous concentrons sur les techniques relatives au support des requêtes analytiques SPARQL sur des données liées situées en de multiples triplestores, qui nous conduisent à d’intéressantes analyses et constatations à grande échelle. En particulier, la technique proposée est capable d’intégrer les schémas divers des endpoints SPARQL, donnant accès aux données via des hiérarchies dans le style d’OLAP pour permettre des analyses uniformes, efficaces et puissantes. Enfin, cette thèse préconise une plus grande attention au traitement des requêtes analytiques au sein des systèmes RDF distribués. / Doctorat en Sciences de l'ingénieur et technologie / info:eu-repo/semantics/nonPublished
|
228 |
Uma arquitetura para sistemas de busca semântica para recuperação de informações em repositórios de biodiversidade / An architecture for semantic search systems for retrieving information in repositories of biodiversityAmanqui, Flor Karina Mamani 16 May 2014 (has links)
A diversidade biológica é essencial para a sustentabilidade da vida na Terra e motiva numerosos esforços para coleta de dados sobre espécies, dando origem a uma grande quantidade de informação. Esses dados são geralmente armazenados em bancos de dados relacionais. Pesquisadores usam esses bancos de dados para extrair conhecimento e compartilhar novas descobertas. No entanto, atualmente a busca tradicional (baseada em palavras-chave) já não é adequada para ser usada em grandes quantidades de dados heterogêneos, como os de biodiversidade. Ela tem baixa precisão e revocação para esse tipo de dado. Este trabalho apresenta uma nova arquitetura para abordar esse problema aplicando técnicas de buscas semânticas em dados sobre biodiversidade e usando formatos e ferramentas da Web Semântica para representar esses dados. A busca semântica tem como objetivo melhorar a acurácia dos resultados de buscas com o uso de ontologias para entender os objetivos dos usuários e o significado contextual dos termos utilizados. Este trabalho também apresenta os resultados de testes usando um conjunto de dados representativos sobre biodiversidade do Instituto Nacional de Pesquisas da Amazônia (INPA) e do Museu Paraense Emílio Goeldi (MPEG). Ontologias permitem que conhecimento seja organizado em espaços conceituais de acordo com seu significado. Para a busca semântica funcionar, um ponto chave é a criação de mapeamentos entre os dados (neste caso, dados sobre biodiversidade do INPA e MPEG) e termos das ontologias que os descrevem, neste caso: a classificação taxonômica de espécies e a OntoBio, a ontologia de biodiversidade do INPA. Esses mapeamentos foram criados depois que extraímos a classificação taxonômica do site Catalog of Life (CoL) e criamos uma nova versão da OntoBio. Um protótipo da arquitetura foi construído e testado usando casos de uso e dados do INPA e MPEG. Os resultados dos testes mostraram que a abordagem da busca semântica tinha uma melhor precisão (28% melhor) e revocação (25% melhor) quando comparada com a busca por palavras-chave. Eles também mostraram que é possível conectar facilmente os dados mapeados a outras fontes de dados abertas, como a fonte Amazon Forest Linked Data do Instituto Nacional de Pesquisas Espaciais. (INPE) / Biological diversity is of essential value to life sustainability on Earth and motivates many efforts to collect data about species. That gives rise to a large amount of information. Biodiversity data, in most cases, is stored in relational databases. Researchers use this data to extract knowledge and share their new discoveries about living things. However, nowadays the traditional search approach (based basically on keywords matching) is not appropriate to be used in large amounts of heterogeneous biodiversity data. Search by keyword has low precision and recall in this kind of data. This work presents a new architecture to tackle this problem using a semantic search system for biodiversity data and semantic web formats and tools to represent this data. Semantic search aims to improve search accuracy by using ontologies to understand user objectives and the contextual meaning of terms used in the search to generate more relevant results. This work also presents test results using a set of representative biodiversity data from the National Research Institute for the Amazon (INPA) and the Emilio Gueldi Museum in Pará (MPEG). Ontologies allow knowledge to be organized into conceptual spaces in accordance to its meaning. For semantic search to work, a key point is to create mappings between the data (in this case, INPAs and MPEGs biodiversity data) and the ontologies describing it, in this case: the species taxonomy (a taxonomy is an ontology where each class can have just one parent) and OntoBio, INPAs biodiversity ontology. These mappings were created after we extracted the taxonomic classification from the Catalogue of Life (CoL) website and created a new version of OntoBio. A prototype of the architecture was built and tested using INPAs and MPEGs use cases and data. The results showed that the semantic search approach had a better precision (28% improvement) and recall (25% improvement) when compared to keyword based search. They also showed that it was possible to easily connect the mapped data to other Linked Open Data sources, such as the Amazon Forest Linked Data from the National Institute for Space Research (INPE)
|
229 |
Uso de ontologias e mapas conceituais na descoberta e análise de objetos de aprendizagem: um estudo de caso em eletrostática / Ontologies and conceptual maps in learning objects discovery and analysis: a case study in electrostaticMachion, Andréia Cristina Grisolio 07 May 2007 (has links)
A falta de materiais instrucionais digitais disponíveis em larga escala e com baixo custo levou à criação da tecnologia de Objetos de Aprendizagem (OAs) [Wiley 2000]. Nessa tecnologia, materiais para ensino e aprendizagem são construídos na forma de pequenos componentes (objetos) para que possam ser combinados de várias maneiras diferentes, ou seja, possam ser reutilizados na composição de seqüências didáticas que cubram um determinado domínio de aprendizagem, por exemplo, Geometria Euclidiana ou Eletrostática. Nessa visão, cabe ao professor (ou ao próprio aluno) decidir qual é a seqüência de OAs mais adequada para um determinado contexto instrucional (ou de acordo com as preferências do aluno). OAs podem estar disponíveis em grandes repositórios na Internet, de maneira que qualquer usuário - professor ou estudante - possa buscá-los e recuperá-los de acordo com suas necessidades. Para tornar a busca e recuperação mais ecientes, cada objeto precisa ser descrito num formato padrão o que permite a sua utilização em diversas plataformas. Atualmente, cada uma das tarefas associadas à descoberta e utilização de OAs é realizada de forma não automatizada, ou seja, um professor ao elaborar um curso, deve fazer uma busca nos repositórios de OAs disponíveis, ou na própria Web, e selecionar os objetos de interesse. Nessa etapa, é preciso que o professor analise cada OA recuperado a m de decidir: (a) se ele satisfaz ou não os objetivos didáticos em questão; (b) em que ponto do curso o OA pode ser inserido, dadas as suposições sobre o conhecimento prévio feitas no projeto de construção do OA; (c) qual é o nível de diculdade, o contexto instrucional e o tipo de recurso de aprendizagem do OA desejados (por exemplo, exercício, simulação, notas de aula, testes etc.). Além disso, quando o professor faz a busca por OAs, ele utiliza somente palavras-chave, sem nenhuma referência sobre a estrutura do domínio de conhecimento. Essa é a principal limitação dessa tecnologia: não existem padrões para a representação do conteúdo de um OA, que possibilite automatizar a recuperação e análise de OAs em termos do seu conteúdo relacionado ao domínio no qual ele se insere. Esse trabalho propõe uma ferramenta, chamada SEQUOA (Seqüenciamento de OAs), que dê suporte ao professor para a tarefa de seleção e composição de OAs, com base na tecnologia da Web Semântica. Com esse objetivo, foi feito um estudo de caso para o domínio da Eletrostática. Foram construídas ontologias para: formalizar as descrições de OAs, baseando-se em padrões largamente adotados, e descrever o domínio de aprendizagem de uma maneira didática (segundo educadores experientes no domínio em questão). O uso dessas ontologias permite que a ferramenta SEQUOA seja capaz de realizar inferências sobre as diferentes características dos OAs e gerar um conjunto de seqüências alternativas de OAs, para um determinado domínio de aprendizagem, promovendo assim o reuso de OAs. / The lack of large amounts of digital instructional material available at a low cost lead to the creation of Learning Objects (LOs) [Wiley 2000]. With this technology, instructional material is built in the form of small components (objects) that can be combined in dierent arrangements allowing for their re-utilization in the composition of didactic sequences that cover a domain, for example, Euclidian Geometry or Electrostatic. Hence it is the teacher (or even the student) who decides which is the more appropriate LO sequence for a determined instructional context (or in accordance with the students\' preference). LOs maybe available in Internet repositories, so that any user a teacher or a student can search and retrieve them as needed. To make this search and retrieval more eective, every object must be described in a standard format what is also useful to allow its use in any platform. Currently, the tasks associated with LOs discovery and utilization are accomplished manually. The teacher who needs to elaborate an instructional module must do a search in the available repositories and select useful and relevant objects inspecting one by one, eventually spending large amounts of time searching for keywords. In this stage its necessary that the teacher analyzes each retrieved LO in order to decide: a) if it satises or not the course didactic objectives; b) in each part of the course the LO may be inserted, considering its assumptions about the previous knowledge made in its design; c) which are the diculty level, instructional context and type of earning resource (example, exercise, simulation, notes, tests, etc). Moreover, when a teacher searches for LOs, she only has keywords, there are no references to the knowledge domain structure. This is this technology main shortcoming: there are no standards to represent a LO content which makes it possible to automate LOs retrieval and analysis considering its content related to the knowledge domain it pertains to. Automating this search has been the aim of many research projects, with the goal of time saving and optimality, in terms of selecting the LOs that will best satisfy the teacher\'s needs. Based on Articial Intelligence techniques, this work proposes a new way of structuring a learning domain and a framework that allows a teacher to select LOs automatically in accordance with her preferences or needs. This work also proposes a set of ontologies to formalize LOs descriptions, based on domain knowledge structure and on standard descriptions that are widely adopted, allowing the utilization of theorem provers based on description logics to make inferences
|
230 |
Serviços semânticos: uma abordagem RESTful. / Semantic web services: a RESTful approachFerreira Filho, Otávio Freitas 06 April 2010 (has links)
Este trabalho foca na viabilização do desenvolvimento de serviços semânticos de acordo com o estilo arquitetural REST. Mais especificamente, considera-se a realização REST baseada no protocolo HTTP, resultando em serviços semânticos RESTful. A viabilização de serviços semânticos tem sido tema de diversas publicações no meio acadêmico. Porém, a grande maioria dos esforços considera apenas os serviços desenvolvidos sob o estilo arquitetural RPC, através do protocolo SOAP. A abordagem RPC, fortemente incentivada pela indústria de software, é perfeitamente realizável em termos tecnológicos, mas agrega computações e definições desnecessárias, o que resulta em serviços mais complexos, com baixo desempenho e pouca escalabilidade. O fato é que serviços REST compõem a maioria dos serviços disponibilizados na Web 2.0 nome amplamente adotado para referenciar a atual fase da Web, notoriamente focada na geração colaborativa de conteúdo. A proposta oferecida por este trabalho utiliza uma seleção específica de linguagens e protocolos já existentes, reforçando sua realizabilidade. Utiliza-se a linguagem OWL-S como ontologia de serviços e a linguagem WADL para a descrição sintática dos mesmos. O protocolo HTTP é utilizado na transferência das mensagens, na definição da ação a ser executada e no escopo de execução desta ação. Identificadores URI são utilizados na definição da interface de acesso ao serviço. A compilação final dá origem à ontologia RESTfulGrounding, uma especialização de OWL-S. / The proposal is to allow the development of semantic Web services according to an architectural style called REST. More specifically, it considers a REST implementation based on the HTTP protocol, resulting in RESTful Semantic Web Services. The development of semantic Web services has been the subject of various academic papers. However, the predominant effort considers Web services designed according to another architectural style named RPC, mainly through the SOAP protocol. The RPC approach, strongly stimulated by the software industry, aggregates unnecessary processing and definitions that make Web services more complex than desired. Therefore, services end up being not as scalable and fast as possible. In fact, REST services form the majority of Web services developed within the Web 2.0 context, an environment clearly focused on user-generated content and social aspects. The proposal presented here makes use of a specific selection of existing languages and protocols, reinforcing its feasibility. Firstly, OWL-S is used as the base ontology for services, whereas WADL is for syntactically describing them. Secondly, the HTTP protocol is used for transferring messages; defining the action to be executed; and also defining the execution scope. Finally, URI identifiers are responsible for specifying the service interface. The final compilation proposed results in an ontology named RESTfulGrounding, which extends OWL-S.
|
Page generated in 0.042 seconds