381 |
Modeling Events on the Semantic Web / Modelování událostí na sémantickém webuHanzal, Tomáš January 2015 (has links)
There are many ontologies and datasets on the semantic web that mention events. Events are important in our perception of the world and in our descriptions of it, therefore also on the semantic web. There is however not one best way to model them. This is connected to the fact that even the question what events are can be approached in different ways. Our aim is to better understand how events are represented on the semantic web and how it could be improved. To this end we first turn to the ways events are treated in philosophy and in foundational ontologies. We ask questions such as what sorts of things we call events, what ontological status we assign to events and if and how can events be distinguished from other entities such as situations. Then we move on to an empirical analysis of particular semantic web ontologies for events. In this analysis we find what kinds of things are usually called events on the semantic web (and what kinds of events there are). We use the findings from the philosophy of events to critically assess these ontologies, show their problems and indicate possible paths to their solution.
|
382 |
Sociotechnical architecture for biomedical communication on the Web of Argument and DataClark, Timothy William January 2014 (has links)
This work undertakes an analysis of problems in the information model by which biomedical research is communicated on the Web, and proposes a semantic model by which these problems can be resolved. It uses and develops Activity Theory and Argumentation Theory as tools in this analysis, and produces a semantic model of biomedical communication on the Web, in OWL2, which it shows can be applied to current research articles and implemented in software. It makes contributions in three areas. This work contributes to Activity Theory, a model used in the Human-Computer Interaction (HCI) and Computer-Supported Collaborative Work (CSCW) domains, by resolving ambiguities and formalizing concepts previously obscure in the theory, and by reformulating it as an Activity Views Model. It contributes to Argumentation Theory, used in AI and Communications Theory, by integrating the work of Toulmin, Dung, and others, and applying it specifically to construct a semantic model of biomedical argumentation, which may be more generally applicable in scientific communications. And it contributes to improving scientific communications on the web, by developing a practical semantic model of biomedical communications, as arguments grounded in reproducible methods, materials and data, in OWL2.Lastly, this work demonstrates that our model can be (a) applied consistently to examples from the biomedical literature, with serialization in RDF; (b) applied independently and successfully, by biomedical research workers not specially trained in informatics; and (c) having published the model as an ontology, that it has been implemented in software, and is capable of further useful application in the biomedical communications ecosystem by others.
|
383 |
Utilização de funções LSH para busca conceitual baseada em ontologias / Use of LSH functions for conceptual search based on ontologiesPaula, Luciano Bernardes de 18 August 2018 (has links)
Orientador: Maurício Ferreira Magalhães / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-18T18:55:11Z (GMT). No. of bitstreams: 1
Paula_LucianoBernardesde_D.pdf: 1395906 bytes, checksum: 9d9a3c99b7292a6482f33e12db95abd6 (MD5)
Previous issue date: 2011 / Resumo: O volume de dados disponíveis na WWW aumenta a cada dia. Com o surgimento da Web Semântica, os dados passaram a ter uma representação do seu significado, ou seja, serem classificados em um conceito de um domínio de conhecimento, tal domínio geralmente definido por uma ontologia. Essa representação, apoiada em todo o ferramental criado para a Web Semântica, propicia a busca conceitual. Nesse tipo de busca, o objetivo não é a recuperação de um dado específico, mas dados, de diversos tipos, classificados em um conceito de um domínio de conhecimento. Utilizando um índice de similaridade, é possível a recuperação de dados referentes a outros conceitos do mesmo domínio, aumentando a abrangência da busca. A indexação distribuída desses dados pode fazer com que uma busca conceitual por similaridade se torne muito custosa. Existem várias estruturas de indexação distribuída, como as redes P2P, que são empregadas na distribuição e compartilhamento de grandes volumes de dados. Esta tese propõe a utilização de funções LSH na indexação de conceitos de um domínio, definido por uma ontologia, mantendo a similaridade entre eles. Dessa forma, conceitos similares são armazenados próximos um dos outros, tal conceito de proximidade medida em alguma métrica, facilitando a busca conceitual por similaridade / Abstract: The volume of data available in the WWW increases every day. The Semantic Web emerged, giving a representation of the meaning of data, being classified in a concept of a knowledge domain, which is generally defined using an ontology. This representation, based in all the tools created for the Semantic Web, possibilitates the conceptual search. In this type of search, the goal is not to retrieve a specific piece of data, but several data, of several types, classified in a concept of an ontology. Using a similarity level, the retrieval of data that refer to other concepts of the domain is also possible, making the search broader. The distributed indexing of all these data may turn the conceptual search costly. The Internet holds several structures of distributed indexing, such as P2P networks, which are used in the distribution and sharing of huge volumes of data. This thesis presents how it is possible to use LSH functions to generate identifiers to concepts of a domain, defined using an ontology, keeping their similarity. This way, similar concepts are stored near each other, such distance measured in some metric, turning the conceptual search by similarity easier / Doutorado / Engenharia de Computação / Doutor em Engenharia Elétrica
|
384 |
Uma arquitetura para sistemas de busca semântica para recuperação de informações em repositórios de biodiversidade / An architecture for semantic search systems for retrieving information in repositories of biodiversityFlor Karina Mamani Amanqui 16 May 2014 (has links)
A diversidade biológica é essencial para a sustentabilidade da vida na Terra e motiva numerosos esforços para coleta de dados sobre espécies, dando origem a uma grande quantidade de informação. Esses dados são geralmente armazenados em bancos de dados relacionais. Pesquisadores usam esses bancos de dados para extrair conhecimento e compartilhar novas descobertas. No entanto, atualmente a busca tradicional (baseada em palavras-chave) já não é adequada para ser usada em grandes quantidades de dados heterogêneos, como os de biodiversidade. Ela tem baixa precisão e revocação para esse tipo de dado. Este trabalho apresenta uma nova arquitetura para abordar esse problema aplicando técnicas de buscas semânticas em dados sobre biodiversidade e usando formatos e ferramentas da Web Semântica para representar esses dados. A busca semântica tem como objetivo melhorar a acurácia dos resultados de buscas com o uso de ontologias para entender os objetivos dos usuários e o significado contextual dos termos utilizados. Este trabalho também apresenta os resultados de testes usando um conjunto de dados representativos sobre biodiversidade do Instituto Nacional de Pesquisas da Amazônia (INPA) e do Museu Paraense Emílio Goeldi (MPEG). Ontologias permitem que conhecimento seja organizado em espaços conceituais de acordo com seu significado. Para a busca semântica funcionar, um ponto chave é a criação de mapeamentos entre os dados (neste caso, dados sobre biodiversidade do INPA e MPEG) e termos das ontologias que os descrevem, neste caso: a classificação taxonômica de espécies e a OntoBio, a ontologia de biodiversidade do INPA. Esses mapeamentos foram criados depois que extraímos a classificação taxonômica do site Catalog of Life (CoL) e criamos uma nova versão da OntoBio. Um protótipo da arquitetura foi construído e testado usando casos de uso e dados do INPA e MPEG. Os resultados dos testes mostraram que a abordagem da busca semântica tinha uma melhor precisão (28% melhor) e revocação (25% melhor) quando comparada com a busca por palavras-chave. Eles também mostraram que é possível conectar facilmente os dados mapeados a outras fontes de dados abertas, como a fonte Amazon Forest Linked Data do Instituto Nacional de Pesquisas Espaciais. (INPE) / Biological diversity is of essential value to life sustainability on Earth and motivates many efforts to collect data about species. That gives rise to a large amount of information. Biodiversity data, in most cases, is stored in relational databases. Researchers use this data to extract knowledge and share their new discoveries about living things. However, nowadays the traditional search approach (based basically on keywords matching) is not appropriate to be used in large amounts of heterogeneous biodiversity data. Search by keyword has low precision and recall in this kind of data. This work presents a new architecture to tackle this problem using a semantic search system for biodiversity data and semantic web formats and tools to represent this data. Semantic search aims to improve search accuracy by using ontologies to understand user objectives and the contextual meaning of terms used in the search to generate more relevant results. This work also presents test results using a set of representative biodiversity data from the National Research Institute for the Amazon (INPA) and the Emilio Gueldi Museum in Pará (MPEG). Ontologies allow knowledge to be organized into conceptual spaces in accordance to its meaning. For semantic search to work, a key point is to create mappings between the data (in this case, INPAs and MPEGs biodiversity data) and the ontologies describing it, in this case: the species taxonomy (a taxonomy is an ontology where each class can have just one parent) and OntoBio, INPAs biodiversity ontology. These mappings were created after we extracted the taxonomic classification from the Catalogue of Life (CoL) website and created a new version of OntoBio. A prototype of the architecture was built and tested using INPAs and MPEGs use cases and data. The results showed that the semantic search approach had a better precision (28% improvement) and recall (25% improvement) when compared to keyword based search. They also showed that it was possible to easily connect the mapped data to other Linked Open Data sources, such as the Amazon Forest Linked Data from the National Institute for Space Research (INPE)
|
385 |
Predição de tags usando linked data: um estudo de caso no banco de dados Arquigrafia / Tag prediction using linked data: a case study in the Arquigrafia databaseRicardo Augusto Teixeira de Souza 17 December 2013 (has links)
Dada a grande quantidade de conteúdo criado por usuários na Web, uma proposta para ajudar na busca e organização é a criação de sistemas de anotações (tagging systems), normalmente na forma de palavras-chave, extraídas do próprio conteúdo ou sugeridas por visitantes. Esse trabalho aplica um algoritmo de mineração de dados em um banco de dados RDF, contendo instâncias que podem fazer referências à rede Linked Data do DBpedia, para recomendação de tags utilizando as medidas de similaridade taxonômica, relacional e literal de descrições RDF. O banco de dados utilizado é o Arquigrafia, um sistema de banco de dados na Web cujo objetivo é catalogar imagens de projetos arquitetônicos, e que permite que visitantes adicionem tags às imagens. Foram realizados experimentos para a avaliação da qualidade das recomendações de tags realizadas considerando diferentes modelos do Arquigrafia incluindo o modelo estendido do Arquigrafia que faz referências ao DBpedia. Os resultados mostram que a qualidade da recomendação de determinadas tags pode melhorar quando consideramos diferentes modelos (com referências à rede Linked Data do DBpedia) na fase de aprendizado. / Given the huge content created by users in the Web, a way to help in search and organization is the creation of tagging systems, usually in a keyword form (extracted from the Web content or suggested by users). This work applies a data mining algorithm in a RDF database, which contain instances that can reference the DBpedia Linked Data repository, to recommend tags using the taxonomic, relational and literal similarities from RDF descriptions. The database used is the Arquigrafia, a database system available in the Web which goal is to catalog architecture projects, and it allows a user to add tags to images. Experiments were performed to evaluate the quality of the tag recommendations made considering differents models of Arquigrafia\'s database, including an extended model which has references to DBpedia. The results shown that the quality of the recommendations of some tags can be improved when we consider different models (with references to DBpedia Linked Data repository) in the learning phase.
|
386 |
[en] BUILDING RELATION EXTRACTORS THROUGH DISTANT SUPERVISION / [pt] CONSTRUÇÃO DE EXTRATORES DE RELAÇÕES POR SUPERVISIONAMENTO À DISTÂNCIATHIAGO RIBEIRO NUNES 22 May 2013 (has links)
[pt] Um problema conhecido no processo de construção de extratores de relações semânticas supervisionados em textos em linguagem natural é a disponibilidade de uma quantidade suficiente de exemplos positivos para um conjunto amplo de relações-alvo. Este trabalho apresenta uma abordagem supervisionada a distância para construção de extratores de relações a um baixo custo combinando duas das maiores fontes de informação estruturada e não estruturada disponíveis na Web, o DBpedia e a Wikipedia. O método implementado mapeia relações da ontologia do DBpedia de volta para os textos da Wikipedia para montar um conjunto amplo de exemplos contendo mais de 100.000 sentenças descrevendo mais de 90 relações do DBpedia para os idiomas Inglês e Português. Inicialmente, são extraídas sentenças dos artigos da Wikipedia candidatas a expressar relações do DBpedia. Após isso, esses dados são pré-processados e normalizados através da filtragem de sentenças irrelevantes. Finalmente, extraem-se características dos exemplos para treinamento e avaliação de extratores de relações utilizando SVM. Os experimentos realizados nos idiomas Inglês e Português, através de linhas de base, mostram as melhorias alcançadas quando combinados diferentes tipos de características léxicas, sintáticas e semânticas. Para o idioma Inglês, o extrator construído foi treinado em um corpus constituído de 90 relações com 42.471 exemplos de treinamento, atingindo 81.08 por cento de medida F1 em um conjunto de testes contendo 28.773 instâncias. Para Português, o extrator foi treinado em um corpus de 50 relações com 200 exemplos por relação, resultando em um valor de 81.91 por cento de medida F1 em um conjunto de testes contendo 18.333 instâncias. Um processo de Extração de Relações (ER) é constituído de várias etapas, que vão desde o pré-processamento dos textos até o treinamento e a avaliação de detectores de relações supervisionados. Cada etapa pode admitir a implementação de uma ou várias técnicas distintas. Portanto, além da abordagem, este trabalho apresenta, também, detalhes da arquitetura de um framework para apoiar a implementação e a realização de experimentos em um processo de ER. / [en] A well known drawback in building machine learning semantic relation detectors for natural language is the availability of a large number of qualified training instances for the target relations. This work presents an automatic approach to build multilingual semantic relation detectors through distant supervision combining the two largest resources of structured and unstructured content available on the Web, the DBpedia and the Wikipedia resources. We map the DBpedia ontology back to the Wikipedia to extract more than 100.000 training instances for more than 90 DBpedia relations for English and Portuguese without human intervention. First, we mine the Wikipedia articles to find candidate instances for relations described at DBpedia ontology. Second, we preprocess and normalize the data filtering out irrelevant instances. Finally, we use the normalized data to construct SVM detectors. The experiments performed on the English and Portuguese baselines shows that the lexical and syntactic features extracted from Wikipedia texts combined with the semantic features extracted from DBpedia can significantly improve the performance of relation detectors. For English language, the SVM detector was trained in a corpus formed by 90 DBpedia relations and 42.471 training instances, achieving 81.08 per cent of F-Measure when applied to a test set formed by 28.773 instances. The Portuguese detector was trained with 50 DBpedia relations and 200 examples by relation, being evaluated in 81.91 per cent of F-Measure in a test set containing 18.333 instances. A Relation Extraction (RE) process has many distinct steps that usually begins with text pre-processing and finish with the training and the evaluation of relation detectors. Therefore, this works not only presents an RE approach but also an architecture of a framework that supports the implementation and the experiments of a RE process.
|
387 |
Modeling space-time activities and places for a smart space —a semantic approachFan, Junchuan 01 August 2017 (has links)
The rapid advancement of information and communication technologies (ICT) has dramatically changed the way people conduct daily activities. One of the reasons for such advances is the pervasiveness of location-aware devices, and people’s ability to publish and receive information about their surrounding environment. The organization, integration, and analysis of these crowdsensed geographic information is an important task for GIScience research, especially for better understanding place characteristics as well as human activities and movement dynamics in different spaces. In this dissertation research, a semantic modeling and analytic framework based on semantic web technologies is designed to handle information related with human space-time activities (e.g., information about human activities, movement, and surrounding places) for a smart space. Domain ontology for space-time activities and places that captures the essential entities in a spatial domain, and the relationships among them. Based on the developed domain ontology, a Resource Description Framework (RDF) data model is proposed that integrates spatial, temporal and semantic dimensions of space-time activities and places. Three different types of scheduled space-time activities (SXTF, SFTX, SXTX) and their potential spatiotemporal interactions are formalized with OWL and SWRL rules. Using a university campus as an example spatial domain, a RDF knowledgebase is created that integrates scheduled course activities and tweet activities in the campus area. Human movement dynamics for the campus area is analyzed from spatial, temporal, and people’s perspectives using semantic query approach. The ontological knowledge in RDF knowledgebase is further fused with place affordance knowledge learned through training deep learning model on place review data. The integration of place affordance knowledge with people’s intended activities allows the semantic analytic framework to make more personalized location recommendations for people’s daily activities.
|
388 |
Recherche top-k pour le contenu du Web / Top-k search over rich web contentBonaque, Raphaël 30 September 2016 (has links)
Les réseaux sociaux sont de plus en plus présents dans notre vie de tous les jours et sont en passe de devenir notre moyen de communication et d'information principal. Avec l'augmentation des données qu'ils contiennent sur nous et notre environnement, il devient décisif d'être en mesure d'accéder et d'analyser ces données. Aujourd'hui la manière la plus commune d'accéder à ces données est d'utiliser la recherche par mots-clés : on tape une requête de quelques mots et le réseau social renvoie un nombre fixe de documents qu'il juge pertinents. Dans les approches actuelles de recherche top-k dans un contexte social, la pertinence d'un document dépend de deux facteurs: la proximité sociale entre le document et l'utilisateur faisant la requête et le recoupement entre les mots-clés de la requête et les mots contenus dans le document. Nous trouvons cela limité et proposons de prendre en compte les interactions complexes entres les utilisateurs liés à ce document mais aussi sa structure et le sens des mots qu'il contient, au lieu de leur formulation. Dans ce but, nous identifions les exigences propres à la création d'un modèle qui intégrerait pleinement des données sémantiques, structurées et sociales et proposons un nouveau modèle, S3, satisfaisant ces exigences. Nous rajoutons un modèle de requêtes à S3 et développons S3k, un algorithme personnalisable de recherche top-k par mots-clés sur S3. Nous prouvons la correction de notre algorithme et en proposons une implémentation. Nous la comparons, à l'aide de jeux de données créés à partir du monde réel, avec celle d'une autre approche de recherche top-k par mots-clés dans un contexte social et montrons les différences fondamentales entre ces approches ainsi que les avantages qu'on peut tirer de la nôtre. / Social networks are increasingly present in our everyday life and are fast becoming our primary means of information and communication. As they contain more and more data about our surrounding and ourselves, it becomes vital to access and analyze this data. Currently, the primary means to query this data is through top-k keyword search: you enter a few words and the social network service sends you back a fixed number of relevant documents. In current top-k searches in a social context the relevance of a document is evaluated based on two factors: the overlapping of the query keywords with the words of the document and the social proximity between the document and the user making the query. We argue that this is limited and propose to take into account the complex interactions between the users linked to the document, its structure and the meaning of the words it contains instead of their phrasing. To this end we highlight the requirements for a model integrating fully structured, semantic and social data and propose a new model, called S3, satisfying these requirements. We introduce querying capabilities to S3 and develop an algorithm, S3k, for customizable top-k keyword search on S3. We prove the correctness of our algorithm and propose an implementation for it. We compare this implementation with another top-k keyword search in a social context, using datasets created from real world data, and show their differences and the benefits of our approach.
|
389 |
[pt] GESTÃO DO CONHECIMENTO NO GERENCIAMENTO DE SERVIÇOS DE TI: USO E AVALIAÇÃO / [en] KNOWLEDGE MANAGEMENT FOR IT SERVICE MANAGEMENT: USAGE AND EVALUATIONMATHEUS SALCEDO 07 June 2011 (has links)
[pt] Na atual economia, a vantagem competitiva das empresas pode ser
diretamente ligada à sua capacidade de utilizar o conhecimento detido por seus
membros. No entanto, para agregar valor a uma organização, este conhecimento
precisa ser compartilhado. Desta forma, a capacidade da organização de integrar e
aplicar os conhecimentos especializados de sua força de trabalho é fundamental
para obter e manter uma vantagem competitiva organizacional. Os sistemas de
gerenciamento de conhecimento auxiliam a criação, coleta, organização e
disseminação de conhecimento. Entretanto, esses sistemas possuem limitações
como, por exemplo, a grande dificuldade de integrar conhecimentos provenientes
de diferentes fontes, geralmente em virtude da ausência de Semântica nas suas
descrições. O principal objetivo desta dissertação é estudar as limitações
tecnológicas dos sistemas de gerenciamento de conhecimento existentes e propor
soluções através da adoção de formalismos da Web Semântica. Para atingir este
objetivo é usado, como estudo de caso, um sistema de gerenciamento de
conhecimento em produção de uma grande empresa brasileira que apóia a
operação da sua infraestrutura de TIC. Neste estudo, demonstra-se que esta
abordagem permite acrescentar Semântica adicional a dados já existentes,
integrando bases anteriormente isoladas, gerando um melhor resultado
operacional. / [en] In today s economy, the competitive advantage of companies can be directly
linked to its ability to utilize the knowledge held by its members. However, to add
value to an organization, this knowledge must be shared. Thus, the organization s
ability to integrate and apply the expertise of its workforce is essential to achieve
and maintain an organizational competitive advantage. The knowledge
management systems help to create, collect, organize and disseminate knowledge.
However, these systems have limitations, such as the difficulty of integrating
knowledge from different sources, usually because of the lack of semantics in his
descriptions. The main objective of this dissertation is to study the technological
limitations of existing knowledge management systems and propose solutions
through the adoption of Semantic Web formalisms. To achieve this goal, is used
as a study case the knowledge management system in production of a large
Brazilian company, which supports the operation of its IT infrastructure. This
study demonstrates that this approach can add additional semantics to existing
data, integrating previously isolated databases, creating a better operating result.
|
390 |
OntoWiki 1.0: 10 years of development - what's new in OntoWikiFrischmuth, Philipp, Arndt, Natanael, Martin, Michael 01 August 2017 (has links)
In this demonstration (with supportive poster) we present the semantic data wiki OntoWiki, which was released in version 1.0 just recently. We focus on the changes introduced to the tool in the latest release and showcase the generic data wiki, improvements we made with regard to the documentation as well as three success stories where OntoWiki was adapted and deployed.
|
Page generated in 0.1329 seconds