Spelling suggestions: "subject:"[een] SEMANTIC WEB"" "subject:"[enn] SEMANTIC WEB""
401 |
Usando aplicações ricas para internet na criação de um ambiente para visualização e edição de regras SWRL / Using rich Internet applications to create an environment for viewing and editing SWRL rulesOrlando, João Paulo 25 May 2012 (has links)
A Web Semântica é uma maneira de explorar a associação de significados explícitos aos conteúdos de documentos presentes na Web, para que esses possam ser processados diretamente ou indiretamente por máquinas. Para possibilitar esse processamento, os computadores necessitam ter acesso a coleções estruturadas de informações e a conjuntos de regras de inferência sobre esses conteúdos. O SWRL permite a combinação de regras e termos de ontologias (definidos por OWL) para aumentar a expressividade de ambos. Entretanto, conforme um conjunto de regras cresce, ele torna-se de difícil compreensão e sujeito a erros, especialmente quando mantido por mais de uma pessoa. Para que o SWRL se torne um verdadeiro padrão web, deverá ter a capacidade de lidar com grandes conjuntos de regras. Para encontrar soluções para este problema, primeiramente, foi realizado um levantamento sobre sistemas de regras de negócios, descobrindo os principais recursos e interfaces utilizados por eles, e então, com as descobertas, propusemos técnicas que usam novas representações visuais em uma aplicação web. Elas permitem detecção de erro, identificação de regras similares, agrupamento, visualização de regras e o reuso de átomos para novas regras. Estas técnicas estão implementadas no SWRL Editor, um plug-in open-source para o Web-Protégé (um editor de ontologias baseado na web) que utiliza ferramentas de colaboração para permitir que grupos de usuários possam não só ver e editar regras, mas também comentar e discutir sobre elas. Foram realizadas duas avaliações do SWRL Editor. A primeira avaliação foi um estudo de caso para duas ontologias da área biomédica (uma área onde regras SWRL são muito usadas) e a segunda uma comparação com os únicos três editores de regras SWRL encontrados na literatura. Nessa comparação foi mostrando que ele implementa mais recursos encontrados em sistemas de regras em geral / The Semantic Web is a way to associate explicitly meaning to the content of web documents to allow them to be processed directly by machines. To allow this processing, computers need to have access to structured collections of information and sets of rules to reason about these content. The Semantic Web Rule Language (SWRL) allows the combination of rules and ontology terms, defined using the Web Ontology Language (OWL), to increase the expressiveness of both. However, as rule sets grow, they become difficult to understand and error prone, especially when used and maintained by more than one person. If SWRL is to become a true web standard, it has to be able to handle big rule sets. To find answers to this problem, we first surveyed business rule systems and found the key features and interfaces they used and then, based on our finds, we proposed techniques and tools that use new visual representations to edit rules in a web application. They allow error detection, rule similarity analysis, rule clustering visualization and atom reuse between rules. These tools are implemented in the SWRL Editor, an open source plug-in for Web-Protégé (a web-based ontology editor) that leverages Web-Protégés collaborative tools to allow groups of users to not only view and edit rules but also comment and discuss about them. We have done two evaluations of the SWRL Editor. The first one was a case study of two ontologies from the biomedical domain, the second was a comparison with the SWRL editors available in the literature, there are only three. In this comparison, it has been shown that the SWRL Editor implements more of the key resources found on general rule systems than the other three editors
|
402 |
Extração e consulta de informações do Currículo Lattes baseada em ontologias / Ontology-based Queries and Information Extraction from the Lattes CVGalego, Eduardo Ferreira 06 November 2013 (has links)
A Plataforma Lattes é uma excelente base de dados de pesquisadores para a sociedade brasileira, adotada pela maioria das instituições de fomento, universidades e institutos de pesquisa do País. Entretanto, é limitada quanto à exibição de dados sumarizados de um grupos de pessoas, como por exemplo um departamento de pesquisa ou os orientandos de um ou mais professores. Diversos projetos já foram desenvolvidos propondo soluções para este problema, alguns inclusive desenvolvendo ontologias a partir do domínio de pesquisa. Este trabalho tem por objetivo integrar todas as funcionalidades destas ferramentas em uma única solução, a SOS Lattes. Serão apresentados os resultados obtidos no desenvolvimento desta solução e como o uso de ontologias auxilia nas atividades de identificação de inconsistências de dados, consultas para construção de relatórios consolidados e regras de inferência para correlacionar múltiplas bases de dados. Além disto, procura-se por meio deste trabalho contribuir com a expansão e disseminação da área de Web Semântica, por meio da criação de uma ferramenta capaz de extrair dados de páginas Web e disponibilizar sua estrutura semântica. Os conhecimentos adquiridos durante a pesquisa poderão ser úteis ao desenvolvimento de novas ferramentas atuando em diferentes ambientes. / The Lattes Platform is an excellent database of researchers for the Brazilian society , adopted by most Brazilian funding agencies, universities and research institutes. However, it is limited as to displaying summarized data from a group of people, such as a research department or students supervised by one or more professor. Several projects have already been developed which propose solutions to this problem, including some developing ontologies from the research domain. This work aims to integrate all the functionality of these tools in a single solution, SOS Lattes. The results obtained in the development of this solution are presented as well as the use of ontologies to help identifying inconsistencies in the data, queries for building consolidated reports and rules of inference for correlating multiple databases. Also, this work intends to contribute to the expansion and dissemination of the Semantic Web, by creating a tool that can extract data from Web pages and provide their semantic structure. The knowledge gained during the study may be useful for the development of new tools operating in different environments.
|
403 |
[en] SWELL: A SEMANTIC WEB-SERVICES SELECTION ENVIRONMENT / [pt] SWELL: UM AMBIENTE PARA SELEÇÃO DE WEB-SERVICES SEMÂNTICOSJOAO FELIPE SANTOS CONDACK 28 October 2004 (has links)
[pt] Inicialmente a Internet era um canal de comunicação e
distribuição de
conteúdo textual. Com o advento do comércio eletrônico e a
maturação da própria
Web, ela se tornou uma plataforma de implantação de
sistemas. Paralelamente, o
próprio desenvolvimento de software evoluiu, com aplicações
de novos conceitos
da engenharia de software, tais como componentes, reuso e
design patterns. No
intuito de desenvolver práticas e tecnologias que
aperfeiçoem a construção de
softwares decidiu-se, neste trabalho, por conciliar estas
duas tendências
evolutivas.
Swell é um ambiente para o auxílio no desenvolvimento de
Sistemas
Baseados na Web (SBWs), tendo como ponto forte a seleção
semântica de web services. Trata-se de uma ferramenta cujo
objetivo é ajudar nas tarefas de design e
construção de aplicações, visando atingir alto grau de
reuso. Este auxílio se dá
através da descrição, busca e escolha de serviços para
composição de aplicações.
O ambiente Swell foi pensado de modo a dar suporte à
evolução das tecnologias
de componentes para Web. Ele provê pontos de flexibilização
permitindo
adaptação a novas descrições de web services e refletindo
estas mudanças no
mecanismo de busca. / [en] Initially the Internet was a communication channel and a
text-based content
dissemination vehicle. With the advent of e-commerce and
Web's unfolding, it
became a systems deployment platform. At the same time,
software development
also evolved, through the use of new software engineering
concepts, such as
components, reuse and design patterns. This work aims at
helping to develop
practices and technologies that improve software
development by conciliating
these two evolution trends.
Swell is an environment that helps Web Based Systems
development,
having as a cornerstone the semantic selection of web-
services. It is a tool whose
objective is to help in the application design and
development tasks, aiming to
reach a high degree of reuse. This is achieved through the
support for the
description, search and selection of web services for
application composition. The
Swell environment was conceived as a framework with support
for the evolution
of web components technologies. It provides hot spots that
allow for adaptation of
new web services descriptions and reflection of these
changes in the search
engine.
|
404 |
[en] A UNIFIED PROCESS FRAMEWORK OF ONTOLOGY ENGINEERING / [pt] UM PROCESSO UNIFICADO PARA ENGENHARIA DE ONTOLOGIASDANIEL ABADI ORLEAN 12 March 2004 (has links)
[pt] A Web Semântica já está deixando de ser uma visão de Tim
Berners-Lee para virar uma realidade. Diversos projetos
em todo mundo já exploram as potencialidades dessa
segunda geração da Web para tornar seu conteúdo
processável por máquinas. Infelizmente (ou felizmente!),
os computadores não são capazes de desenvolver por livre
e espontânea vontade uma linguagem consensual de
comunicação. É nesta etapa que entram em cena as
ontologias. Conhecida no ramo da filosofia como teorias
sobre a natureza da existência, as ontologias têm sido
encaradas de maneira consideravelmente diferente no
universo computacional. Representam um entendimento comum
e compartilhado sobre um domínio específico e têm como o
objetivo principal permitir a comunicação entre
organizações, pessoas e o uso de metodologias, processos
e/ ou métodos bem definidos. Com o aumento de sua
importância, o projeto e desenvolvimento de ontologias
vêm deixando de ser uma arte para se transformar em um
processo de engenharia. Diversas propostas já foram
apresentadas para o problema de engenharia de ontologias,
muitas delas apoiadas por estudos acadêmicos e
industriais. No entanto, é importante notar que nenhuma
dessas metodologias - que em muitos casos resumem-se
apenas a heurísticas extraídas da experiência de seus
autores ou a orientações sobre como alcançar bons
resultados - atende por completo aos requisitos
potenciais do projeto de uma ontologia. O que se propõe
neste trabalho é a unificação de disciplinas e atividades
oriundas de metodologias distintas em um framework de
processos abrangente, entitulado KUP - Knowldge Unified
Process, que permite um adequado projeto e
desenvolvimento de ontologias e bases de conhecimento.
Entende-se como um processo um conjunto de atividades e
resultados associados a essas atividades com o objetivo
de garantir a geração de um produto final, seja este
produto um software, uma ontologia ou uma ontologia
associada a sua base de conhecimento. A unificação deste
processo segue as melhores práticas em engenharia de
software existentes na indústria e é apoiada por um
framework de avaliação de metodologias consolidado na
academia. Foram realizados dois estudos de caso para este
framework de processos, um envolvendo o desenvolvimento
de uma solução de gestão de conhecimento em segurança da
informação e outro envolvendo a integração de uma
ferramenta de gestão de competências para ambientes de
educação a distância. / [en] The Semantic Web is now a reality. Several projects all
around the world are already using tools technologies
developed to support the second generation of the Web to
provide machine-processable content for software agents,
web services and applications. However, computers can not
agree on a consesual language by themselves. Ontologies can
be used as a way to provide this shared conceptualization,
making posssible the desired communication among
organizations, people and apllications. Several proposals
have been already presented regarding ontology engineering -
many supported by academic and industrial case studies.
However, none of them encompasses all the requirements
identified for an ontology construction project. This work
describes the unification of different features extracted
from those methodologies to build a process framework
named KUP - the Knowledge Unified Process. This unified
process is based on several industry best practices and on
a well accepted ontology methodology evaluation framework.
Two case studies were developed so as to support and
validate this process framework. The first was the
development of a semantic web solution for security
information knowledge management and the second
one was the integration of a skill management tool to a
learning management system, through ontologies.
|
405 |
Using Background Knowledge to Enhance Biomedical Ontology Matching / Utilisation des ressources de connaissances externes pour améliorer l'alignement d'ontologies biomédicalesAnnane, Amina 29 October 2018 (has links)
Les sciences de la vie produisent de grandes masses de données (par exemple, des essais cliniques et des articles scientifiques). L'intégration et l'analyse des différentes bases de données liées à la même question de recherche, par exemple la corrélation entre phénotypes et génotypes, sont essentielles pour découvrir de nouvelles connaissances. Pour cela, la communauté des sciences de la vie a adopté les techniques du Web sémantique pour réaliser l'intégration et l'interopérabilité des données, en particulier les ontologies. En effet, les ontologies représentent la brique de base pour représenter et partager la quantité croissante de données sur le Web. Elles fournissent un vocabulaire commun pour les humains, et des définitions d'entités formelles pour les machines.Un grand nombre d'ontologies et de terminologies biomédicales a été développé pour représenter et annoter les différentes bases de données existantes. Cependant, celles qui sont représentées avec différentes ontologies qui se chevauchent, c'est à dire qui ont des parties communes, ne sont pas interopérables. Il est donc crucial d'établir des correspondances entre les différentes ontologies utilisées, ce qui est un domaine de recherche actif connu sous le nom d'alignement d'ontologies.Les premières méthodes d'alignement d'ontologies exploitaient principalement le contenu lexical et structurel des ontologies à aligner. Ces méthodes sont moins efficaces lorsque les ontologies à aligner sont fortement hétérogènes lexicalement, c'est à dire lorsque des concepts équivalents sont décrits avec des labels différents. Pour pallier à ce problème, la communauté d'alignement d'ontologies s'est tournée vers l'utilisation de ressources de connaissance externes en tant que pont sémantique entre les ontologies à aligner. Cette approche soulève plusieurs nouvelles questions de recherche, notamment : (1) la sélection des ressources de connaissance à utiliser, (2) l'exploitation des ressources sélectionnées pour améliorer le résultat d'alignement. Plusieurs travaux de recherche ont traité ces problèmes conjointement ou séparément. Dans notre thèse, nous avons fait une revue systématique et une comparaison des méthodes proposées dans la littérature. Puis, nous nous sommes intéressés aux deux questions.Les ontologies, autres que celles à aligner, sont les ressources de connaissance externes (Background Knowledge : BK) les plus utilisées. Les travaux apparentés sélectionnent souvent un ensemble d'ontologies complètes en tant que BK même si, seuls des fragments des ontologies sélectionnées sont réellement efficaces pour découvrir de nouvelles correspondances. Nous proposons une nouvelle approche qui sélectionne et construit une ressource de connaissance à partir d'un ensemble d'ontologies. La ressource construite, d'une taille réduite, améliore, comme nous le démontrons, l'efficience et l'efficacité du processus d'alignement basé sur l'exploitation de BK.L'exploitation de BK dans l'alignement d'ontologies est une épée à double tranchant : bien qu'elle puisse augmenter le rappel (i.e., aider à trouver plus de correspondances correctes), elle peut réduire la précision (i.e., générer plus de correspondances incorrectes). Afin de faire face à ce problème, nous proposons deux méthodes pour sélectionner les correspondances les plus pertinentes parmi les candidates qui se basent sur : (1) un ensemble de règles et (2) l'apprentissage automatique supervisé. Nous avons expérimenté et évalué notre approche dans le domaine biomédical, grâce à la profusion de ressources de connaissances en biomédecine (ontologies, terminologies et alignements existants). Nous avons effectué des expériences intensives sur deux benchmarks de référence de la campagne d'évaluation de l'alignement d'ontologie (OAEI). Nos résultats confirment l'efficacité et l'efficience de notre approche et dépassent ou rivalisent avec les meilleurs résultats obtenus. / Life sciences produce a huge amount of data (e.g., clinical trials, scientific articles) so that integrating and analyzing all the datasets related to a given research question like the correlation between phenotypes and genotypes, is a key element for knowledge discovery. The life sciences community adopted Semantic Web technologies to achieve data integration and interoperability, especially ontologies which are the key technology to represent and share the increasing amount of data on the Web. Indeed, ontologies provide a common domain vocabulary for humans, and formal entity definitions for machines.A large number of biomedical ontologies and terminologies has been developed to represent and annotate various datasets. However, datasets represented with different overlapping ontologies are not interoperable. It is therefore crucial to establish correspondences between the ontologies used; an active area of research known as ontology matching.Original ontology matching methods usually exploit the lexical and structural content of the ontologies to align. These methods are less effective when the ontologies to align are lexically heterogeneous i.e., when equivalent concepts are described with different labels. To overcome this issue, the ontology matching community has turned to the use of external knowledge resources as a semantic bridge between the ontologies to align. This approach arises several new issues mainly: (1) the selection of these background resources, (2) the exploitation of the selected resources to enhance the matching results. Several works have dealt with these issues jointly or separately. In our thesis, we made a systematic review and historical evaluation comparison of state-of-the-art approaches.Ontologies, others than the ones to align, are the most used background knowledge resources. Related works often select a set of complete ontologies as background knowledge, even if, only fragments of the selected ontologies are actually effective for discovering new mappings. We propose a novel BK-based ontology matching approach that selects and builds a knowledge resource with just the right concepts chosen from a set of ontologies. The conducted experiments showed that our BK selection approach improves efficiency without loss of effectiveness.Exploiting background knowledge resources in ontology matching is a double-edged sword: while it may increase recall (i.e., retrieve more correct mappings), it may lower precision (i.e., produce more incorrect mappings). We propose two methods to select the most relevant mappings from the candidate ones: (1) based on a set of rules and (2) with Supervised Machine Learning. We experiment and evaluate our approach in the biomedical domain, thanks to the profusion of knowledge resources in biomedicine (ontologies, terminologies and existing alignments).We evaluated our approach with extensive experiments on two Ontology Alignment Evaluation Initiative (OAEI) benchmarks. Our results confirm the effectiveness and efficiency of our approach and overcome or compete with state-of-the-art matchers exploiting background knowledge resources.
|
406 |
Aplicações de Modelos Semânticos em Redes SociaisJardim, André Desessards 26 March 2010 (has links)
Made available in DSpace on 2016-03-22T17:26:25Z (GMT). No. of bitstreams: 1
Dissertaandreo II Final.pdf: 5215323 bytes, checksum: 78dc4aa3677577cccbd14cb124510b6a (MD5)
Previous issue date: 2010-03-26 / Until recently, the handling of large amounts of information was a task for specialists, is
now a need for people from all areas, in their professional and in the tasks of everyday
life. The quality in information retrieval is crucial in many professions, and
improvement of systems can have a major impact, especially when it comes to
heterogeneous collections of documents. The research on the Web has been an excellent
field for information retrieval and massive automatic indexing on a large scale. This
research proposes a general study on Semantic Web, Web 2.0, Social Networks and
Ontologies, its applications, languages and methodologies, with the main purpose of
creating of an Social Networks Ontology, in order to see how the social networks can be
enhanced through the Semantic Web, and see how in the future the Semantic Web and
Social Networks will be integrated. The big challenge is to mold this field in a manner
to facilitate the development of applications for it, using technologies and tools of the
Semantic Web. This work was also intended to systematize the study of Social
Networks, Web 2.0, Semantic Web and Ontologies in order to serve as a basis and
reference for future studies / Até recentemente, a manipulação de grandes quantidades de informação era uma tarefa
de especialistas, agora constitui uma necessidade para pessoas de todas as áreas, tanto
na sua atividade profissional como na maioria das tarefas do dia a dia. A qualidade na
recuperação de informação é crucial em muitas profissões, e a melhoria dos sistemas
pode ter um grande impacto, especialmente quando se trata de coleções de documentos
heterogêneos. A pesquisa na Web tem sido um excelente campo para a recuperação de
informação em grande escala e a indexação automática maciça. O presente trabalho
propõe um estudo geral sobre Web Semântica, Web 2.0, Redes Sociais e Ontologias,
suas aplicações, linguagens e metodologias, tendo como finalidade principal, a criação
de uma Ontologia do Domínio das Redes Sociais, com os objetivos de verificar como as
Redes Sociais podem ser potencializadas através da Web Semântica, e de como no
futuro a Web Semântica e as Redes Sociais irão se integrar. O grande desafio consiste
em modelar este domínio de uma forma a facilitar o desenvolvimento de aplicações para
ele, utilizando tecnologias e ferramentas da Web Semântica. Este trabalho teve também
como objetivo sistematizar o estudo das Redes Sociais, Web 2.0, Web Semântica e
Ontologias, de forma a servir de base e referência para estudos futuros
|
407 |
Anotação de imagens radiológicas usando a web semântica para colaboração científica e clínica / Annotation of radiological images using the semantic web for clinical and a scvientific collaborationSerique, Kleberson Junio do Amaral 04 June 2012 (has links)
Este trabalho faz parte de um projeto maior, o Annotation and Image Markup Project, que tem o objetivo de criar uma base de conhecimento médico sobre imagens radiológicas para identificação, acompanhamento e reasoning acerca de lesões tumorais em pesquisas sobre câncer e consultórios médicos. Esse projeto está sendo desenvolvido em conjunto com o Radiological Sciences Laboratory da Stanford University. O problema específico, que será abordado nesse trabalho, é que a maior parte das informações semânticas sobre imagens radiológicas não são capturados e relacionados às mesmas usando termos de ontologias biomédicas e padrões, como o RadLex e DICOM, o que impossibilita a sua avaliação automática por computadores, busca em arquivos médicos em hospitais, etc. Para tratar isso, os radiologistas precisam de uma solução computacional fácil, intuitiva e acessível para adicionar essas informações. Nesse trabalho foi desenvolvida uma solução Web para inclusão dessas anotações, o sistema ePAD. O aplicativo permite a recuperação de imagens médicas, como as imagens disponíveis em sistemas de informação hospitalares (PACS), o delineamento dos contornos de lesões tumorais, a associação de termos ontológicos a esses contornos e o armazenamento desses termos em uma base de conhecimento. Os principais desafios desse trabalho envolveram a aplicação de interfaces intuitivas baseadas em Rich Internet Applications e sua operação a partir de um navegador Web padrão. O primeiro protótipo funcional do ePAD atingiu seus objetivos ao demonstrar sua viabilidade técnica, sendo capaz de executar o mesmo trabalho básico de anotação de aplicações Desktop, como o OsiriX-iPad, sem o mesmo overhead. Também mostrou a sua utilidade a comunidade médica o que gerou o interesse de usuários potenciais / This work is a part of a larger project, the Annotation and Markup Project, which aims to create a medical knowledge base about radiological images to identify, monitor and reason about tumors in cancer research and medical practices. This project is being developed in conjunction with the Laboratory of Image Informatics at Stanford University. The specific problem that will be addressed in this work is that most of the semantic information about radiological images are not captured and related to them using terms of biomedical ontologies and standards, such as RadLex or DICOM, what makes it impossible to automatic evaluate them by computers, to search for them in hospital databases using semantic criteria, etc. To address this issue, radiologists need an easy, intuitive and affordable computational solution to add this semantic information. In this work, a web solution for adding the information was developed, the ePAD system. It allows the retrieval of medical images, such as images available in hospital information systems (PACS), the creation of contours around tumor lesions, the association of ontological terms to these contours, and the storage of this terms in a knowledge base. The main challenges of this work involved the creation of intuitive interfaces using Rich Internet Applications technology and the operation from a standard Web Browser. The first functional prototype of ePAD reached its goal of proving its technical feasibility. It was able to do the same basic annotation job of desktop applications, such as OsiriX-iPad, without the same overhead. It also showed to the medical community that it was a useful tool and that generated interest of potential early users
|
408 |
ONTO-Analyst: um método extensível para a identificação e visualização de anomalias em ontologias / ONTO-Analyst: An Extensible Method for the Identification and the Visualization of Anomalies in OntologiesOrlando, João Paulo 21 August 2017 (has links)
A Web Semântica é uma extensão da Web em que as informações tem um significado explícito, permitindo que computadores e pessoas trabalhem em cooperação. Para definir os significados explicitamente, são usadas ontologias na estruturação das informações. À medida que mais campos científicos adotam tecnologias da Web Semântica, mais ontologias complexas são necessárias. Além disso, a garantia de qualidade das ontologias e seu gerenciamento ficam prejudicados quanto mais essas ontologias aumentam em tamanho e complexidade. Uma das causas para essas dificuldades é a existência de problemas, também chamados de anomalias, na estrutura das ontologias. Essas anomalias englobam desde problemas sutis, como conceitos mal projetados, até erros mais graves, como inconsistências. A identificação e a eliminação de anomalias podem diminuir o tamanho da ontologia e tornar sua compreensão mais fácil. Contudo, métodos para identificar anomalias encontrados na literatura não visualizam anomalias, muitos não trabalham com OWL e não são extensíveis por usuários. Por essas razões, um novo método para identificar e visualizar anomalias em ontologias, o ONTO-Analyst, foi criado. Ele permite aos desenvolvedores identificar automaticamente anomalias, usando consultas SPARQL, e visualizá-las em forma de grafos. Esse método usa uma ontologia proposta, a METAdata description For Ontologies/Rules (MetaFOR), para descrever a estrutura de outras ontologias, e consultas SPARQL para identificar anomalias nessa descrição. Uma vez identificadas, as anomalias podem ser apresentadas na forma de grafos. Um protótipo de sistema, chamado ONTO-Analyst, foi criado para a validação desse método e testado em um conjunto representativo de ontologias, por meio da verificação de anomalias representativas. O protótipo testou 18 tipos de anomalias retirados da literatura científica, em um conjunto de 608 ontologias OWL de 4 repositórios públicos importantes e dois artigos. O sistema detectou 4,4 milhões de ocorrências de anomalias nas 608 ontologias: 3,5 milhões de ocorrências de um mesmo tipo e 900 mil distribuídas em 11 outros tipos. Essas anomalias ocorreram em várias partes das ontologias, como classes, propriedades de objetos e de dados, etc. Num segundo teste foi realizado um estudo de caso das visualizações geradas pelo protótipo ONTO-Analyst das anomalias encontradas no primeiro teste. Visualizações de 11 tipos diferentes de anomalias foram automaticamente geradas. O protótipo mostrou que cada visualização apresentava os elementos envolvidos na anomalia e que pelo menos uma solução podia ser deduzida a partir da visualização. Esses resultados demonstram que o método pode eficientemente encontrar ocorrências de anomalias em um conjunto representativo de ontologias OWL, e que as visualizações facilitam o entendimento e correção da anomalia encontrada. Para estender os tipos de anomalias detectáveis, usuários podem escrever novas consultas SPARQL. / The Semantic Web is an extension of the World Wide Web in which the information has explicit meaning, allowing computers and people to work in cooperation. In order to explicitly define meaning, ontologies are used to structure information. As more scientific fields adopt Semantic Web technologies, more complex ontologies are needed. Moreover, the quality assurance of the ontologies and their management are undermined as these ontologies increase in size and complexity. One of the causes for these difficulties is the existence of problems, also called anomalies, in the ontologies structure. These anomalies range from subtle problems, such as poorly projected concepts, to more serious ones, such as inconsistencies. The identification and elimination of anomalies can diminish the ontologies size and provide a better understanding of the ontologies. However, methods to identify anomalies found in the literature do not provide anomaly visualizations, many do not work on OWL ontologies or are not user extensible. For these reasons, a new method for anomaly identification and visualization, the ONTO-Analyst, was created. It allows ontology developers to automatically identify anomalies, using SPARQL queries, and visualize them as graph images. The method uses a proposed ontology, the METAdata description For Ontologies/Rules (MetaFOR), to describe the structure of other ontologies, and SPARQL queries to identify anomalies in this description. Once identified, the anomalies can be presented as graph images. A system prototype, the ONTO-Analyst, was created in order to validate this method and it was tested in a representative set of ontologies, trough the verification of representative anomalies. The prototype tested 18 types of anomalies, taken from the scientific literature, in a set of 608 OWL ontologies from major public repositories and two articles. The system detected 4.4 million anomaly occurrences in the 608 ontologies: 3.5 million occurrences from the same type and 900 thousand distributed in 11 other types. These anomalies occurred in various parts of the ontologies, such as classes, object and data properties, etc. In a second test, a case study was performed in the visualizations generated by the ONTO-Analyst prototype, from the anomalies found in the first test. It was shown that each visualization presented the elements involved in the anomaly and that at least one possible solution could be deduced from the visualization. These results demonstrate that the method can efficiently find anomaly occurrences in a representative set of OWL ontologies and that the visualization aids in the understanding and correcting of said anomalies. In order to extend the types of detectable anomalies, users can write new SPARQL queries.
|
409 |
OntoLP: construção semi-automática de ontologias a partir de textos da lingua portuguesaRibeiro Junior, Luiz Carlos 21 February 2008 (has links)
Made available in DSpace on 2015-03-05T13:59:42Z (GMT). No. of bitstreams: 0
Previous issue date: 21 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / O crescimento da Internet provoca a necessidade de estruturas mais consistentes de representação do conhecimento disponível na rede. Nesse contexto, a Web Semântica e as ontologias aparecem como resposta ao problema. Contudo, a construção de ontologias é extremamente custosa, o que estimula diversas pesquisas visando automatizar a tarefa. Em sua maioria, essas pesquisas partem do conhecimento disponível em textos. As ferramentas
e métodos são, nesse caso, dependentes de idioma. Para que todos tenham acesso aos benefícios da utilização de ontologias em larga escala, estudos específicos para cada
língua são necessários. Nesse sentido, pouco foi feito para o Português. Este trabalho procura avançar nas questões concernentes à tarefa para a língua portuguesa, abrangendo o desenvolvimento e a avaliação de métodos para a construção automática de ontologias a partir de textos. Além disso, foi desenvolvida uma ferramenta de auxílio à construção de ontologias para a língua portuguesa integrada ao ambiente largamente / The internet evolution is in need of more sophisticated knowledge management techniques. In this context, the Semantic Web and Ontologies are being developed as
a way to solve this problem. Ontology learning is, however, a dificult and expensive task. Research on ontology learning is usually based on natural language texts. Language specific tools have to be developed. There is no much research that considers specifically the portuguese language. This work advances in these questions and it considers portuguese in particular. The development and evaluation of methods are presented and discussed. Besides, the developed methods were integrated as a plug-in of the widely used ontology editor Protégé
|
410 |
Um modelo para integração de informações de bases de dados abertos, com uso de ontologiasTosin, Thyago de Melo 26 February 2016 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-05-09T13:21:17Z
No. of bitstreams: 1
Thyago de Melo Tosin_.pdf: 4027788 bytes, checksum: 005b4b30c3ee7d5ddc7a8365fa1917f4 (MD5) / Made available in DSpace on 2016-05-09T13:21:17Z (GMT). No. of bitstreams: 1
Thyago de Melo Tosin_.pdf: 4027788 bytes, checksum: 005b4b30c3ee7d5ddc7a8365fa1917f4 (MD5)
Previous issue date: 2016-02-26 / IFRR - Instituto Federal de Educação Ciências e Tecnologia de Roraima / Com a lei de Acesso à Informação (Lei 12527/2011), espera-se que nas esferas federais, estaduais e municipais estejam garantidas e facilitadas as atividades de acesso aos dados de interesse para o cidadão. As bases interligadas de dados abertos facilitam a aquisição desses dados, possibilitando que diversas aplicações sejam criadas e que consultas sejam realizadas. Entretanto observa-se uma carência de recursos para realizar o relacionamento das informações originadas em bases de dados abertas distintas. A integração de diferentes conjuntos de dados possibilita a criação de aplicações mais ricas e relevantes. A representação formal das relações entre os dados consultados permite o uso de mecanismos de inferência e mecanismos de consulta aos dados abertos e conectados. Este trabalho apresenta o desenvolvimento de recursos para inferir e relacionar tais informações no contexto de aplicações Web voltadas para a integração de bases de dados abertos e conectados. Um modelo foi desenvolvido como contribuição e um protótipo foi implementado como caso de uso. Neste protótipo foram utilizados os dados das compras governamentais que estavam armazenados em bases de dados relacionais, com o uso de uma ontologia, desenvolvida especificamente para este caso, os dados foram mapeados e importados para um triplestore Apache Fuseki em formato RDF, uma aplicação em Java EE com o uso do framework Apache Jena foi desenvolvida para visualização dos dados através de métodos de consulta utilizando SPARQL. Foram aplicadas três avaliações nesse protótipo: baseada em cenário, de usabilidade e da ontologia. Como resultados, verificou-se que o modelo implementado proporcionou a integração desejada e auxiliou os usuários a obterem uma melhor experiência na visualização dos dados interligados das compras governamentais com o orçamento federal. / With the Law of Access to Information and sanctioned in force, access to information, at least at the federal, state and local levels, make it easy for citizens. The bases linked open data, facilitate the acquisition of these data, however there is a lack of resources for inference of relationship information. This work aims at the development of these resources to infer and relate this information in the context of Web applications integrated with open and connected databases. The prototype implemented used the data from government purchases that was stored in relational databases, using an ontology, developed specifically for this case, the data have been mapped and imported into a triplestore Apache Fuseki in RDF format, a Java EE application using Apache Jena framework, was developed to display data through methods that consulted using SPARQL. Three evaluations were applied in this prototype: scenario-based, usability and ontology. As result, it was found that the model implemented helped people to have a better experience when viewing linked data of government purchases with the federal budget.
|
Page generated in 0.1152 seconds