• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 376
  • 36
  • 23
  • 22
  • 22
  • 22
  • 22
  • 5
  • 1
  • Tagged with
  • 427
  • 167
  • 148
  • 119
  • 102
  • 95
  • 93
  • 87
  • 83
  • 80
  • 73
  • 73
  • 69
  • 68
  • 64
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

IntegraWeb: uma proposta de arquitetura baseada em mapeamentos semânticos e técnicas de mineração de dados / IntegraWeb: an architectural proposal based on semantic mappings and data mining techniques

Felipe Lombardi Pierin 05 December 2017 (has links)
Atualmente uma grande quantidade de conteúdo é produzida e publicada todos os dias na Internet. São documentos publicados por diferentes pessoas, por diversas organizações e em inúmeros formatos sem qualquer tipo de padronização. Por esse motivo, a informação relevante sobre um mesmo domínio de interesse acaba espalhada pela Web nos diversos portais, o que dificulta uma visão ampla, centralizada e objetiva sobre esta informação. Nesse contexto, a integração dos dados espalhados na rede torna-se um problema de pesquisa relevante, para permitir a realização de consultas mais inteligentes, de modo a obter resultados mais ricos de significado e mais próximos do interesse do usuário. No entanto, tal integração não é trivial, sendo por muitas vezes custosa devido à dependência do desenvolvimento de sistemas e mão de obra especializados, visto que são poucos os modelos reaproveitáveis e facilmente integráveis entre si. Assim, a existência de um modelo padronizado para a integração dos dados e para o acesso à informação produzida por essas diferentes entidades reduz o esforço na construção de sistemas específicos. Neste trabalho é proposta uma arquitetura baseada em ontologias para a integração de dados publicados na Internet. O seu uso é ilustrado através de casos de uso reais para a integração da informação na Internet, evidenciando como o uso de ontologias pode trazer resultados mais relevantes. / A lot of content is produced and published every day on the Internet. Those documents are published by different people, organizations and in many formats without any type of established standards. For this reason, relevant information about a domain of interest is spread through the Web in various portals, which hinders a broad, centralized and objective view of this information. In this context, the integration of the data scattered in the network becomes a relevant research problem, to enable smarter queries, in order to obtain richer results of meaning and closer to the user\'s interest. However, such integration is not trivial, and is often costly because of the reliance on the development of specialized systems by professionals, since there are few reusable and easily integrable models. Thus, the existence of a standardized model for data integration and access to the information produced by these different entities reduces the effort in the construction of specific systems. In this work we propose an architecture based on ontologies for the integration of data published on the Internet. Its use is illustrated through experimental cases for the integration of information on the Internet, showing how the use of ontologies can bring more relevant results.
102

A abordagem POESIA para a integração de dados e serviços na Web semantica

Fileto, Renato 12 January 2003 (has links)
Orientador: Claudia Bauzer Medeiros / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-03T19:58:07Z (GMT). No. of bitstreams: 1 Fileto_Renato_D.pdf: 5888725 bytes, checksum: 998839af140b2e39d54ce60eeba063d8 (MD5) Previous issue date: 2003 / Resumo: POESIA (Processes for Open-Ended Systems for lnformation Analysis), a abordagem proposta neste trabalho, visa a construção de processos complexos envolvendo integração e análise de dados de diversas fontes, particularmente em aplicações científicas. A abordagem é centrada em dois tipos de mecanismos da Web semântica: workflows científicos, para especificar e compor serviços Web; e ontologias de domínio, para viabilizar a interoperabilidade e o gerenciamento semânticos dos dados e processos. As principais contribuições desta tese são: (i) um arcabouço teórico para a descrição, localização e composição de dados e serviços na Web, com regras para verificar a consistência semântica de composições desses recursos; (ii) métodos baseados em ontologias de domínio para auxiliar a integração de dados e estimar a proveniência de dados em processos cooperativos na Web; (iii) implementação e validação parcial das propostas, em urna aplicação real no domínio de planejamento agrícola, analisando os benefícios e as limitações de eficiência e escalabilidade da tecnologia atual da Web semântica, face a grandes volumes de dados / Abstract: POESIA (Processes for Open-Ended Systems for Information Analysis), the approach proposed in this work, supports the construction of complex processes that involve the integration and analysis of data from several sources, particularly in scientific applications. This approach is centered in two types of semantic Web mechanisms: scientific workflows, to specify and compose Web services; and domain ontologies, to enable semantic interoperability and management of data and processes. The main contributions of this thesis are: (i) a theoretical framework to describe, discover and compose data and services on the Web, inc1uding mIes to check the semantic consistency of resource compositions; (ii) ontology-based methods to help data integration and estimate data provenance in cooperative processes on the Web; (iii) partial implementation and validation of the proposal, in a real application for the domain of agricultural planning, analyzing the benefits and scalability problems of the current semantic Web technology, when faced with large volumes of data / Doutorado / Ciência da Computação / Doutor em Ciência da Computação
103

OntoBacen: uma ontologia para gestão de riscos do sistema financeiro brasileiro / OntoBacen: an ontology for risk management in the Brazilian financial system

Filipe Ricardo Polizel 17 March 2016 (has links)
A crise mundial de 2008 impulsionou o avanço das políticas de governança do sistema financeiro global. Parte dessas políticas envolve a reformulação de processos de gerenciamento de informações, e neste cenário de reestruturação tecnológica, várias iniciativas se propõem a solucionar alguns dos problemas já conhecidos. Para viabilizar a adoção de um sistema financeiro global integrado e robusto, grandes empresas de tecnologia e instituições financeiras somam esforços para atender melhor às necessidades do setor. A arquitetura da World Wide Web é uma constante nessas iniciativas, e parte delas buscam os benefícios previstos pelas tecnologias semânticas, tais como sua alta capacidade de integração de dados heterogêneos e utilização de algoritmos de inferência para a dedução de informações. O objetivo deste estudo é utilizar ontologias e tecnologias semânticas, tais como OWL, na gestão de riscos do sistema financeiro, particularmente para verificar a sua aplicabilidade nas políticas de gestão de riscos específicas do sistema financeiro brasileiro, estabelecidas pelas normas publicadas pelo Banco Central (BACEN). / The 2008 global crisis boosted the advancement of governance policies for the global financial system. Some of these policies involve reformulating information management processes; in this restructuring scenario, several initiatives are intended to address some of the well-known issues. To enable the adoption of an integrated and robust global financial system, large technology companies and financial institutions joined efforts to meet industry needs in a better way. The architecture of the World Wide Web is a constant in these initiatives, and some of these seek the benefits provided by semantic technologies, such as its high capacity for integration of heterogeneous databases and the use of inference algorithms for acquiring new information. The goal of this work is to use ontologies and semantic technologies such as OWL in the financial system risk management, particularly verifying the applicability of these techniques to the Brazilian financial system risk management policies, as published by the Brazil Central Bank (BACEN).
104

Integração entre múltiplas ontologias: reúso e gerência de conflitos / Multiple ontology integration: reuse and conflict management

Raphael Mendes de Oliveira Cobe 10 December 2014 (has links)
A reutilização de conhecimento é uma tarefa chave para qualquer sistema computacional. Entretanto, o reúso indiscriminado desse conhecimento pode gerar resultados conflitantes com o objetivo de uso do conhecimento, levando sistemas a se comportarem de maneira imprevisível. Neste trabalho estudamos as consequências do reúso de conhecimento em ontologias baseadas em lógicas de descrição. Focamos principalmente nos problemas que podem ser causados pela fusão de ontologias. Investigamos e comparamos a capacidade das ferramentas de desenvolvimento de ontologias atuais de lidarem com esses problemas e como a teoria se desenvolveu para resolver os mesmos problemas. Realizamos a construção de um arcabouço lógico e de software, organizado na forma de um processo, que tem como objetivo auxiliar o projetista de ontologias a resolver conflitos advindos da fusão. O processo agrupa tarefas descritas normalmente na literatura em separado. Acreditamos que a união dessas abordagens leva a uma melhor solução de conflitos. Durante o desenvolvimento deste trabalho, concentramos nossos esforços principalmente no desenvolvimento de algoritmos para a construção de sub-ontologias maximais, onde os conflitos não ocorram, bem como a ordenação desses conjuntos segundo critérios comuns discutidos na literatura. Tais estratégias foram implementadas em software e testadas utilizando dados gerados automaticamente e dados reais. / Knowledge reuse is a key task during any system development. Nevertheless, careless knowledge reuse may generate conflicting outcomes regarding the system goal, leading such systems to unpredictable behaviour. With that in mind, during this research we studied the consequences of knowledge reuse in ontologies based on description logics. We focused mainly on conflicts arising from ontology merging. We investigated and compared the features developed for this purpose on ontology development tools and how the theory field proposed to deal with the same issues. We developed both a logical and a software framework grouped into a process that aims to help the ontology designer solve conflicts arising from ontology merging. The process groups common tasks that are normally described separately. We believe that the unification of these approaches should result in a better solution for the merging conflicts. We concentrated our efforts during this work on building algorithms for building maximal sub-ontologies where such conflicts are non-existent as well as means for ordering such sets according to a few relevance criteria commonly described at the literature. Such algorithms were implemented and tested against automatically generated and real data.
105

[en] A UNIFIED PROCESS FRAMEWORK OF ONTOLOGY ENGINEERING / [pt] UM PROCESSO UNIFICADO PARA ENGENHARIA DE ONTOLOGIAS

DANIEL ABADI ORLEAN 12 March 2004 (has links)
[pt] A Web Semântica já está deixando de ser uma visão de Tim Berners-Lee para virar uma realidade. Diversos projetos em todo mundo já exploram as potencialidades dessa segunda geração da Web para tornar seu conteúdo processável por máquinas. Infelizmente (ou felizmente!), os computadores não são capazes de desenvolver por livre e espontânea vontade uma linguagem consensual de comunicação. É nesta etapa que entram em cena as ontologias. Conhecida no ramo da filosofia como teorias sobre a natureza da existência, as ontologias têm sido encaradas de maneira consideravelmente diferente no universo computacional. Representam um entendimento comum e compartilhado sobre um domínio específico e têm como o objetivo principal permitir a comunicação entre organizações, pessoas e o uso de metodologias, processos e/ ou métodos bem definidos. Com o aumento de sua importância, o projeto e desenvolvimento de ontologias vêm deixando de ser uma arte para se transformar em um processo de engenharia. Diversas propostas já foram apresentadas para o problema de engenharia de ontologias, muitas delas apoiadas por estudos acadêmicos e industriais. No entanto, é importante notar que nenhuma dessas metodologias - que em muitos casos resumem-se apenas a heurísticas extraídas da experiência de seus autores ou a orientações sobre como alcançar bons resultados - atende por completo aos requisitos potenciais do projeto de uma ontologia. O que se propõe neste trabalho é a unificação de disciplinas e atividades oriundas de metodologias distintas em um framework de processos abrangente, entitulado KUP - Knowldge Unified Process, que permite um adequado projeto e desenvolvimento de ontologias e bases de conhecimento. Entende-se como um processo um conjunto de atividades e resultados associados a essas atividades com o objetivo de garantir a geração de um produto final, seja este produto um software, uma ontologia ou uma ontologia associada a sua base de conhecimento. A unificação deste processo segue as melhores práticas em engenharia de software existentes na indústria e é apoiada por um framework de avaliação de metodologias consolidado na academia. Foram realizados dois estudos de caso para este framework de processos, um envolvendo o desenvolvimento de uma solução de gestão de conhecimento em segurança da informação e outro envolvendo a integração de uma ferramenta de gestão de competências para ambientes de educação a distância. / [en] The Semantic Web is now a reality. Several projects all around the world are already using tools technologies developed to support the second generation of the Web to provide machine-processable content for software agents, web services and applications. However, computers can not agree on a consesual language by themselves. Ontologies can be used as a way to provide this shared conceptualization, making posssible the desired communication among organizations, people and apllications. Several proposals have been already presented regarding ontology engineering - many supported by academic and industrial case studies. However, none of them encompasses all the requirements identified for an ontology construction project. This work describes the unification of different features extracted from those methodologies to build a process framework named KUP - the Knowledge Unified Process. This unified process is based on several industry best practices and on a well accepted ontology methodology evaluation framework. Two case studies were developed so as to support and validate this process framework. The first was the development of a semantic web solution for security information knowledge management and the second one was the integration of a skill management tool to a learning management system, through ontologies.
106

ONTO-Analyst: um método extensível para a identificação e visualização de anomalias em ontologias / ONTO-Analyst: An Extensible Method for the Identification and the Visualization of Anomalies in Ontologies

Orlando, João Paulo 21 August 2017 (has links)
A Web Semântica é uma extensão da Web em que as informações tem um significado explícito, permitindo que computadores e pessoas trabalhem em cooperação. Para definir os significados explicitamente, são usadas ontologias na estruturação das informações. À medida que mais campos científicos adotam tecnologias da Web Semântica, mais ontologias complexas são necessárias. Além disso, a garantia de qualidade das ontologias e seu gerenciamento ficam prejudicados quanto mais essas ontologias aumentam em tamanho e complexidade. Uma das causas para essas dificuldades é a existência de problemas, também chamados de anomalias, na estrutura das ontologias. Essas anomalias englobam desde problemas sutis, como conceitos mal projetados, até erros mais graves, como inconsistências. A identificação e a eliminação de anomalias podem diminuir o tamanho da ontologia e tornar sua compreensão mais fácil. Contudo, métodos para identificar anomalias encontrados na literatura não visualizam anomalias, muitos não trabalham com OWL e não são extensíveis por usuários. Por essas razões, um novo método para identificar e visualizar anomalias em ontologias, o ONTO-Analyst, foi criado. Ele permite aos desenvolvedores identificar automaticamente anomalias, usando consultas SPARQL, e visualizá-las em forma de grafos. Esse método usa uma ontologia proposta, a METAdata description For Ontologies/Rules (MetaFOR), para descrever a estrutura de outras ontologias, e consultas SPARQL para identificar anomalias nessa descrição. Uma vez identificadas, as anomalias podem ser apresentadas na forma de grafos. Um protótipo de sistema, chamado ONTO-Analyst, foi criado para a validação desse método e testado em um conjunto representativo de ontologias, por meio da verificação de anomalias representativas. O protótipo testou 18 tipos de anomalias retirados da literatura científica, em um conjunto de 608 ontologias OWL de 4 repositórios públicos importantes e dois artigos. O sistema detectou 4,4 milhões de ocorrências de anomalias nas 608 ontologias: 3,5 milhões de ocorrências de um mesmo tipo e 900 mil distribuídas em 11 outros tipos. Essas anomalias ocorreram em várias partes das ontologias, como classes, propriedades de objetos e de dados, etc. Num segundo teste foi realizado um estudo de caso das visualizações geradas pelo protótipo ONTO-Analyst das anomalias encontradas no primeiro teste. Visualizações de 11 tipos diferentes de anomalias foram automaticamente geradas. O protótipo mostrou que cada visualização apresentava os elementos envolvidos na anomalia e que pelo menos uma solução podia ser deduzida a partir da visualização. Esses resultados demonstram que o método pode eficientemente encontrar ocorrências de anomalias em um conjunto representativo de ontologias OWL, e que as visualizações facilitam o entendimento e correção da anomalia encontrada. Para estender os tipos de anomalias detectáveis, usuários podem escrever novas consultas SPARQL. / The Semantic Web is an extension of the World Wide Web in which the information has explicit meaning, allowing computers and people to work in cooperation. In order to explicitly define meaning, ontologies are used to structure information. As more scientific fields adopt Semantic Web technologies, more complex ontologies are needed. Moreover, the quality assurance of the ontologies and their management are undermined as these ontologies increase in size and complexity. One of the causes for these difficulties is the existence of problems, also called anomalies, in the ontologies structure. These anomalies range from subtle problems, such as poorly projected concepts, to more serious ones, such as inconsistencies. The identification and elimination of anomalies can diminish the ontologies size and provide a better understanding of the ontologies. However, methods to identify anomalies found in the literature do not provide anomaly visualizations, many do not work on OWL ontologies or are not user extensible. For these reasons, a new method for anomaly identification and visualization, the ONTO-Analyst, was created. It allows ontology developers to automatically identify anomalies, using SPARQL queries, and visualize them as graph images. The method uses a proposed ontology, the METAdata description For Ontologies/Rules (MetaFOR), to describe the structure of other ontologies, and SPARQL queries to identify anomalies in this description. Once identified, the anomalies can be presented as graph images. A system prototype, the ONTO-Analyst, was created in order to validate this method and it was tested in a representative set of ontologies, trough the verification of representative anomalies. The prototype tested 18 types of anomalies, taken from the scientific literature, in a set of 608 OWL ontologies from major public repositories and two articles. The system detected 4.4 million anomaly occurrences in the 608 ontologies: 3.5 million occurrences from the same type and 900 thousand distributed in 11 other types. These anomalies occurred in various parts of the ontologies, such as classes, object and data properties, etc. In a second test, a case study was performed in the visualizations generated by the ONTO-Analyst prototype, from the anomalies found in the first test. It was shown that each visualization presented the elements involved in the anomaly and that at least one possible solution could be deduced from the visualization. These results demonstrate that the method can efficiently find anomaly occurrences in a representative set of OWL ontologies and that the visualization aids in the understanding and correcting of said anomalies. In order to extend the types of detectable anomalies, users can write new SPARQL queries.
107

[en] STDTRIP: AN A PRIORI DESIGN PROCESS FOR PUBLISHING LINKED DATA / [pt] STDTRIP: UM PROCESSO DE PROJETO A PRIORI PARA PUBLICAÇÃO DE LINKED DATA

PERCY ENRIQUE RIVERA SALAS 30 January 2017 (has links)
[pt] A abordagem de Dados Abertos tem como objetivo promover a interoperabilidade de dados na Web. Consiste na publicação de informações em formatos que permitam seu compartilhamento, descoberta, manipulação e acesso por parte de usuários e outros aplicativos de software. Essa abordagem requer a triplificação de conjuntos de dados, ou seja, a conversão do esquema de bases de dados relacionais, bem como suas instâncias, em triplas RDF. Uma questão fundamental neste processo é decidir a forma de representar conceitos de esquema de banco de dados em termos de classes e propriedades RDF. Isto é realizado através do mapeamento das entidades e relacionamentos para um ou mais vocabulários RDF, usados como base para a geração das triplas. A construção destes vocabulários é extremamente importante, porque quanto mais padrões são utilizados, melhor o grau de interoperabilidade com outros conjuntos de dados. No entanto, as ferramentas disponíveis atualmente não oferecem suporte adequado ao reuso de vocabulários RDF padrão no processo de triplificação. Neste trabalho, apresentamos o processo StdTrip, que guia usuários no processo de triplificação, promovendo o reuso de vocabulários de forma a assegurar interoperabilidade dentro do espaço da Linked Open Data (LOD). / [en] Open Data is a new approach to promote interoperability of data in the Web. It consists in the publication of information produced, archived and distributed by organizations in formats that allow it to be shared, discovered, accessed and easily manipulated by third party consumers. This approach requires the triplification of datasets, i.e., the conversion of database schemata and their instances to a set of RDF triples. A key issue in this process is deciding how to represent database schema concepts in terms of RDF classes and properties. This is done by mapping database concepts to an RDF vocabulary, used as the base for generating the triples. The construction of this vocabulary is extremely important, because the more standards are reused, the easier it will be to interlink the result to other existing datasets. However, tools available today do not support reuse of standard vocabularies in the triplification process, but rather create new vocabularies. In this thesis, we present the StdTrip process that guides users in the triplification process, while promoting the reuse of standard, RDF vocabularies.
108

ONTO-Analyst: um método extensível para a identificação e visualização de anomalias em ontologias / ONTO-Analyst: An Extensible Method for the Identification and the Visualization of Anomalies in Ontologies

João Paulo Orlando 21 August 2017 (has links)
A Web Semântica é uma extensão da Web em que as informações tem um significado explícito, permitindo que computadores e pessoas trabalhem em cooperação. Para definir os significados explicitamente, são usadas ontologias na estruturação das informações. À medida que mais campos científicos adotam tecnologias da Web Semântica, mais ontologias complexas são necessárias. Além disso, a garantia de qualidade das ontologias e seu gerenciamento ficam prejudicados quanto mais essas ontologias aumentam em tamanho e complexidade. Uma das causas para essas dificuldades é a existência de problemas, também chamados de anomalias, na estrutura das ontologias. Essas anomalias englobam desde problemas sutis, como conceitos mal projetados, até erros mais graves, como inconsistências. A identificação e a eliminação de anomalias podem diminuir o tamanho da ontologia e tornar sua compreensão mais fácil. Contudo, métodos para identificar anomalias encontrados na literatura não visualizam anomalias, muitos não trabalham com OWL e não são extensíveis por usuários. Por essas razões, um novo método para identificar e visualizar anomalias em ontologias, o ONTO-Analyst, foi criado. Ele permite aos desenvolvedores identificar automaticamente anomalias, usando consultas SPARQL, e visualizá-las em forma de grafos. Esse método usa uma ontologia proposta, a METAdata description For Ontologies/Rules (MetaFOR), para descrever a estrutura de outras ontologias, e consultas SPARQL para identificar anomalias nessa descrição. Uma vez identificadas, as anomalias podem ser apresentadas na forma de grafos. Um protótipo de sistema, chamado ONTO-Analyst, foi criado para a validação desse método e testado em um conjunto representativo de ontologias, por meio da verificação de anomalias representativas. O protótipo testou 18 tipos de anomalias retirados da literatura científica, em um conjunto de 608 ontologias OWL de 4 repositórios públicos importantes e dois artigos. O sistema detectou 4,4 milhões de ocorrências de anomalias nas 608 ontologias: 3,5 milhões de ocorrências de um mesmo tipo e 900 mil distribuídas em 11 outros tipos. Essas anomalias ocorreram em várias partes das ontologias, como classes, propriedades de objetos e de dados, etc. Num segundo teste foi realizado um estudo de caso das visualizações geradas pelo protótipo ONTO-Analyst das anomalias encontradas no primeiro teste. Visualizações de 11 tipos diferentes de anomalias foram automaticamente geradas. O protótipo mostrou que cada visualização apresentava os elementos envolvidos na anomalia e que pelo menos uma solução podia ser deduzida a partir da visualização. Esses resultados demonstram que o método pode eficientemente encontrar ocorrências de anomalias em um conjunto representativo de ontologias OWL, e que as visualizações facilitam o entendimento e correção da anomalia encontrada. Para estender os tipos de anomalias detectáveis, usuários podem escrever novas consultas SPARQL. / The Semantic Web is an extension of the World Wide Web in which the information has explicit meaning, allowing computers and people to work in cooperation. In order to explicitly define meaning, ontologies are used to structure information. As more scientific fields adopt Semantic Web technologies, more complex ontologies are needed. Moreover, the quality assurance of the ontologies and their management are undermined as these ontologies increase in size and complexity. One of the causes for these difficulties is the existence of problems, also called anomalies, in the ontologies structure. These anomalies range from subtle problems, such as poorly projected concepts, to more serious ones, such as inconsistencies. The identification and elimination of anomalies can diminish the ontologies size and provide a better understanding of the ontologies. However, methods to identify anomalies found in the literature do not provide anomaly visualizations, many do not work on OWL ontologies or are not user extensible. For these reasons, a new method for anomaly identification and visualization, the ONTO-Analyst, was created. It allows ontology developers to automatically identify anomalies, using SPARQL queries, and visualize them as graph images. The method uses a proposed ontology, the METAdata description For Ontologies/Rules (MetaFOR), to describe the structure of other ontologies, and SPARQL queries to identify anomalies in this description. Once identified, the anomalies can be presented as graph images. A system prototype, the ONTO-Analyst, was created in order to validate this method and it was tested in a representative set of ontologies, trough the verification of representative anomalies. The prototype tested 18 types of anomalies, taken from the scientific literature, in a set of 608 OWL ontologies from major public repositories and two articles. The system detected 4.4 million anomaly occurrences in the 608 ontologies: 3.5 million occurrences from the same type and 900 thousand distributed in 11 other types. These anomalies occurred in various parts of the ontologies, such as classes, object and data properties, etc. In a second test, a case study was performed in the visualizations generated by the ONTO-Analyst prototype, from the anomalies found in the first test. It was shown that each visualization presented the elements involved in the anomaly and that at least one possible solution could be deduced from the visualization. These results demonstrate that the method can efficiently find anomaly occurrences in a representative set of OWL ontologies and that the visualization aids in the understanding and correcting of said anomalies. In order to extend the types of detectable anomalies, users can write new SPARQL queries.
109

Uma abordagem em paralelo para matching de grandes ontologias com balanceamento de carga. / A parallel approach for matching large ontologies with load balancing.

ARAÚJO, Tiago Brasileiro. 01 August 2018 (has links)
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-08-01T19:28:54Z No. of bitstreams: 1 TIAGO BRASILEIRO ARAÚJO - DISSERTAÇÃO PPGCC 2016..pdf: 18742851 bytes, checksum: 92b3eefe5e78ab27784255e850871df9 (MD5) / Made available in DSpace on 2018-08-01T19:28:54Z (GMT). No. of bitstreams: 1 TIAGO BRASILEIRO ARAÚJO - DISSERTAÇÃO PPGCC 2016..pdf: 18742851 bytes, checksum: 92b3eefe5e78ab27784255e850871df9 (MD5) Previous issue date: 2016-03-07 / Atualmente, o uso de grandes ontologias em diversos domínios do conhecimento está aumentando. Uma vez que estas ontologias podem apresentar sobreposição de conteúdo, a identificação de correspondências entre seus conceitos se torna necessária. Esse processo é chamado de Matching de Ontologias (MO). Um dos maiores desafios do matching de grandes ontologias é o elevado tempo de execução e o excessivo consumo de recursos de computacionais. Assim, para melhorar a eficiência, técnicas de particionamento de ontologias e paralelismo podem ser empregadas no processo de MO. Este trabalho apresenta uma abordagem para o Matching de Ontologias baseado em Particionamento e Paralelismo (MOPP) que particiona as ontologias de entrada em subontologias e executa as comparações entre conceitos em paralelo, usando o framework MapReduce como solução programável. Embora as técnicas de paralelização possam melhorar a eficiência do processo de MO, essas técnicas apresentam problemas referentes ao desbalanceamento de carga. Por essa razão, o presente trabalho propõe ainda duas técnicas para balanceamento de carga (básica e refinada) para serem aplicadas junto à abordagem MOPP, a fim de orientar a distribuição uniforme das comparações (carga de trabalho) entre os nós de uma infraestrutura computacional. O desempenho da abordagem proposta é avaliado em diferentes cenários (diferentes tamanhos de ontologias e graus de desbalanceamento de carga) utilizando uma infraestrutura computacional e ontologias reais e sintéticas. Os resultados experimentais indicam que a abordagem MOPP é escalável e capaz de reduzir o tempo de execução do processo de MO. No que diz respeito às técnicas de balanceamento de carga, os resultados obtidos mostram que a abordagem MOPP é robusta, mesmo em cenários com elevado grau de desbalanceamento de carga, com a utilização da técnica refinada de balanceamento de carga. / Currently, the use of large ontologies in various áreas of knowledge is increasing. Since, these ontologies can present contents overlap, the identification of correspondences among their concepts is necessary. This process is called Ontologies Matching (OM). One of the major challenges of the large ontologies matching is the high execution time and the computational resources consumption. Therefore, to get the efficiency better, partition and parallel techniques can be employed in the MO process. This work presents a Partition-Parallelbased Ontology Matching (PPOM) approach which partitions the input ontologies in subontologies and executes the comparisons between concepts in parallel, using the framework MapReduce as a programmable solution. Although the parallel techniques can get the MO efficiency process better, these techniques present problems concerning to the load imbalancing. For that reason, our work has proposed two techniques to the load balancing - the basic and the fine-grained one - which are supposed to be applied together with the PPOM approach, in order to orientate the uniform distribution of the comparisons (workload) between the nodes of a computing infrastructure. The performance of the proposed approach is assessed in different settings (different sizes of ontologies and degrees of load imbalancing) using a computing infrastructure and real and synthetic ontologies. The experimental results have indicated that the PPOM approach is scalable and able to reduce the OM process execution time. Referring to the load balancing techniques, the obtained results have shown that the PPOM approach is robust, even in settings with a high load imbalancing, with the fine-grained load balancing technique.
110

Abordagem de recomendação baseada em conteúdo utilizando ontologia fuzzy de domínio e ontologia crisp de preferência do usuário

Baldárrago, Arturo Elias Urquizo 30 July 2012 (has links)
Made available in DSpace on 2016-06-02T19:05:58Z (GMT). No. of bitstreams: 1 4477.pdf: 9424807 bytes, checksum: 7fc7288ca2c87d6b86aed1053e7d8903 (MD5) Previous issue date: 2012-07-30 / Financiadora de Estudos e Projetos / This paper presents an approach for developing content-based recommendation applications with focus on the use of a specific domain fuzzy ontology along with a user preference ontology. The approach falls into two stages: Ontology Engineering and Recommendation System Engineering. In the Ontology Engineering, a domain ontology with fuzzy relationships and a user ontology are built. The user ontology is set as an instance of the domain ontology, but it is modeled in a way that allows to store each user s preferences. The usage of the ontologies produced in Ontology Engineering provides a gain in precision for the results obtained by applications in the Recommendation System Engineering stage. For evaluation purposes, we instantiated the proposed approach in the development of a Recommender System for the field of electronic commerce, focusing on the mobile devices commerce domain. Following the experimental methodology, An evaluation was conducted in order to assess the approach s impact on the accuracy of results provided by the developed Recommender System. The results showed that the use of our approach contributed to increase the accuracy of the results, in terms of prediction, classification and ranking. The contributions of this work include: the approach for developing content-based recommendation applications by using a specific domain fuzzy ontology along with a user preference ontology; the definition of the UPFON methodology, which integrates the approach, to construct fuzzy ontologies; an instantiation of a fuzzy ontology for the mobile devices domain and a strategy to capture; and propagate the user preferences by means of ontologies. / Esta dissertação apresenta uma abordagem para o desenvolvimento de aplicações de recomendação baseadas em conteúdo utilizando ontologia específica de domínio e ontologia de preferência de usuário. Tal abordagem está dividida em duas etapas: a Engenharia de Ontologia e a Engenharia do Sistema de Recomendação. Na Engenharia de Ontologia são construídas: uma ontologia de domínio com relacionamentos difusos; e uma ontologia crisp de usuário definida como uma instância da ontologia de domínio, porém modelada de forma que permita refletir as preferências de cada usuário para o domínio instanciado. A utilização das ontologias produzidas na Engenharia de Ontologia proporciona um ganho de precisão nos resultados obtidos por aplicações desenvolvidas conforme a abordagem proposta. Para fins de avaliação, a abordagem proposta foi instanciada no domínio de comércio de dispositivos móveis. Seguindo a metodologia experimental, foi conduzida uma experimentação com o objetivo de avaliar o impacto da abordagem na precisão dos resultados fornecidos pelo Sistema de Recomendação. Os resultados evidenciaram que o uso da abordagem proposta colaborou para o incremento da precisão dos resultados. As contribuições deste trabalho incluem: a abordagem para o desenvolvimento de aplicações de recomendação baseadas em conteúdo utilizando ontologia fuzzy específica de domínio e ontologia de preferência de usuário; a definição da metodologia de construção de ontologias fuzzy chamada UPFON; a instanciação de uma ontologia fuzzy no domínio dos dispositivos móveis e a estratégia para capturar as preferências do usuário e propagá-las em uma ontologia crisp de usuário.

Page generated in 0.0472 seconds