• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 6
  • Tagged with
  • 40
  • 40
  • 40
  • 40
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

[en] MATERIALIZATION AND MAINTENANCE OF OWL: SAMEAS LINKS / [pt] MATERIALIZAÇÃO E MANUTENÇÃO DE LIGAÇÕES OWL: SAMEAS

CARLA GONCALVES OUROFINO 17 January 2017 (has links)
[pt] A Web de Dados cresceu significativamente nos últimos anos, tanto em quantidade de dados, quanto em fontes responsáveis por esses. A partir desse aumento no número de fontes de dados, ligações owl:sameAs têm sido cada vez mais utilizadas para conectar dados equivalentes e publicados por fontes distintas. Com isso, torna-se necessário haver uma rotina de identificação e manutenção dessas conexões. Com o objetivo de automatizar essa tarefa, desenvolvemos o Framework MsA – Materialização de sameAs para materializar e recomputar ligações do tipo owl:sameAs entre bancos de dados locais e dados publicados na Web. Essas ligações, uma vez identificadas, são materializadas juntamente aos dados locais e recomputadas apenas quando necessário. Para isso, a ferramenta monitora as operações (cadastramento, remoção e atualização) realizadas nos dados locais e remotos e, para cada tipo, implementa uma estratégia de manutenção das ligações envolvidas. / [en] The Web of Data has grown significantly in recent years, not only in the amount of data but also in the number of data sources. In parallel with this tendency, owl:sameAs links have been increasingly used to connect equivalent data published by different sources. As a consequence, it becomes necessary to have a routine for the identification and maintenance of these connections. In order to automate this task, we have developed the MsA Framework - sameAs Materialization to materialize and recompute owl:sameAs links between local databases and data published on the Web. These connections, once identified, are materialized along with the local data and recomputed only when necessary. To achieve this goal, the tool monitors the operations (insertion, update and deletion) performed on local and remote records, and for each type of operation it implements a maintenance strategy on the links involved.
32

[en] ONTOLOGY DRIVEN INTERFACE DEVELOPMENT FOR APPLICATIONS ON THE SEMANTIC WEB / [pt] DESENVOLVIMENTO DE INTERFACES GOVERNADAS POR ONTOLOGIAS PARA APLICAÇÕES NA WEB SEMÂNTICA

SABRINA SILVA DE MOURA 14 March 2005 (has links)
[pt] Atualmente, com a emergente Web Semântica, o volume de pesquisa relacionadas com o desenvolvimento de aplicações hipermídia (páginas na Web) nesta área tem aumentado. O objetivo comum é dar significado semântico ao conteúdo da Web. Isto é, há possibilidade de os dados contidos na Web serem definidos e relacionados de maneira que possam ser usados por máquinas não só para automação, integração e reuso de dados entre aplicações, mas também para permitir interações mais ricas com seres humanos. Este trabalho apresenta a aplicação dos conceitos da Web Semântica no desenvolvimento de interfaces para aplicações hipermídia, como parte do método SHDM (Semantic Hypermedia Design Method). Para isto, é proposto o uso de duas ontologias, uma representando elementos de interface concretos (ontologia de widgets concretos) e a outra representando elementos de interface abstratos (ontologia de widgets abstratos). Estes elementos abstratos são utilizados para descrever as interfaces abstratas e são mapeados em elementos de interface concreta, especificados como instância da ontologia de widgets concretos. Finalmente, para a geração da página concreta a partir de uma interface abstrata, definida como instância da ontologia de widgets abstratos, é proposta uma arquitetura de implementação baseada em JSP e Tag Libraries. / [en] The current emergence of the Semantic Web has increased the volume of research initiatives related to the development of hypermedia applications in this environment. The common goal is to give semantic meaning to the content of the Web. This means that it is now possible that the data contained in the Web to be defined and related in such a way that it can be used by machines not only for automation, integration and reuse of data among applications, but also to allow richer interaction with human beings. This work applies the concepts of the Semantic Web to the development of interfaces for hypermedia applications, in the context of the Semantic Hypermedia Design Method (SHDM). For this, two ontologies are proposed, one representing concrete interface elements (concrete widgets ontology) and another representing abstract interface element (abstract widgets ontology). These abstract elements are used to describe the abstract interfaces and are mapped to concrete interface elements, specified as instances of the concrete widgets ontology. An implementation architecture is proposed, based on JSP and Tag Libraries, allowing the generation of the concrete page based on a defined abstract interface.
33

[en] WEB LIFE - A MULTI-AGENT SYSTEMS IMPLEMENTATION ARCHITECTURE FOR THE WEB / [pt] WEB LIFE UMA ARQUITETURA PARA A IMPLEMENTAÇÃO DE SISTEMAS MULTI-AGENTES PARA A WEB

27 June 2003 (has links)
[pt] A resolução de problemas distribuídos com o uso de sistemas compostos de vários agentes, agrupados em organizações, e que visam objetivos comuns vem ganhando grande atenção da comunidade científica. Este interesse evidencia-se pelo número crescente de iniciativas para a criação de métodos de desenvolvimento e plataformas de implementação de sistema multi-agentes. Algumas plataformas concentram-se no suporte a aspectos específicos destes sistemas, enquanto outras preocupam-se com a criação de uma infra-estrutura completa que permita o desenvolvimento dos agentes e suas organizações. O Web Life é uma arquitetura para a implementação de sistemas multi-agentes para a Web, que auxilia a criação dos agentes e suas organizações, oferecendo toda a infra-estrutura de comunicação, coordenação, tomada de decisões e realização de tarefas necessária a atuação dos agentes. A arquitetura procura aproveitar diversas iniciativas de padronização e de criação de ferramentas para resolução de certos aspectos do problema, agrupando-as sob um framework integrado. A arquitetura promove a evolução da Web no sentido de se tornar uma Web de conteúdos semânticos aptos ao tratamento automático por mecanismos de software - a Web Semântica. / [en] The resolution of distributed problems by applying computer systems composed by agents and organized towards a common objective is attracting the scientific community s attention. This is shown by the increasing number of initiatives for the development of methods and platforms to help constructing multiagent systems. Some platforms concentrate efforts on supporting some multi-agent systems aspects while others try to offer a complete infrastructure for the agents and organizations development. The Web Life architecture offers an implementation platform for developing Web-based multi- agent systems. The architecture is focused on the provision of a complete multi-agent infrastructure with native support for communication, coordination, decision-taking and task-oriented behavior. The incorporation of current under development standards and tools for solving specific problems in multi-agent systems is one of the main objectives of this work. These standards and tools are integrated by the Web Life framework. The architecture try to help the evolution of the Web into a Web with semantic contents that may be automatically processed - the Semantic Web.
34

[en] HYPERDE: A FRAMEWORK AND DEVELOPMENT ENVIRONMENT DRIVEN BY ONTOLOGIES FOR HYPERMEDIA APPLICATIONS / [pt] HYPERDE: UM FRAMEWORK E AMBIENTE DE DESENVOLVIMENTO DIRIGIDO POR ONTOLOGIAS PARA APLICAÇÕES HIPERMÍDIA

DEMETRIUS ARRAES NUNES 26 December 2005 (has links)
[pt] O HyperDE, apresentado nesta dissertação, é a combinação de um framework no padrão Model-View-Controller e um ambiente de desenvolvimento visual para a construção de protótipos de aplicações hipermídia, modeladas através dos métodos OOHDM ou SHDM. Como framework MVC, o HyperDE fornece componentes reutilizáveis e extensíveis para as camadas de modelo, visão e controle, especificados como ontologias em RDFS. Como ambiente de desenvolvimento visual, o HyperDE fornece, através de sua interface gráfica e ferramentas auxiliares, uma forma interativa e dinâmica de construir e prototipar uma aplicação hipermídia, com a possibilidade de visualizar imediatamente o resultado de cada passo do processo de desenvolvimento. A arquitetura de desenvolvimento promovida pelo ambiente é orientada a modelos, onde a definição dos modelos navegacionais efetivamente gera a implementação da aplicação. Utilizando um modelo de dados baseado em RDF e RDFS, os modelos navegacionais produzidos no HyperDE podem ser utilizados como ontologias, fazendo-se uso de tecnologias e linguagens da Web Semântica. Além disso, a utilização de uma linguagem de programação dinâmica permite que o HyperDE construa dinamicamente linguagens específicas de domínio para cada aplicação desenvolvida, o que resulta em um modelo de programação mais conciso e natural. / [en] HyperDE, presented in this dissertation, is a combination of a Model-View- Controller framework and a visual development environment for building prototype applications modeled through the OOHDM and SHDM methods. As a MVC framework, HyperDE provides the reusable and extensible components for the model, vision and control layers, specified as ontologies in RDFS. As a visual development environment, HyperDE provides, through its graphical interface and support tools, an interactive and dynamic way for building and prototyping a hypermedia application, making it possible to visualize the results on each step of the development process. The development architecture promoted by the environment is model-driven, in which the definition of the navigational models effectively generate the application implementation. Using data models based on RDF and RDFS, the navigational models produced in HyperDE can be used as ontologies, through semantic web languages and technologies. Also, the use of a dynamic programming language makes it possible for HyperDE to dynamically generate domain-specific languages for each application built, which results in a programming model much more concise and natural.
35

[en] IMPROVING THE QUALITY OF THE USER EXPERIENCE BY QUERY ANSWER MODIFICATION / [pt] MELHORANDO A QUALIDADE DA EXPERIÊNCIA DO USUÁRIO ATRAVÉS DA MODIFICAÇÃO DA RESPOSTA DA CONSULTA

JOAO PEDRO VALLADAO PINHEIRO 30 June 2021 (has links)
[pt] A resposta de uma consulta, submetida a um banco de dados ou base de conhecimento, geralmente é longa e pode conter dados redundantes. O usuário é frequentemente forçado a navegar por uma longa resposta, ou refinar e repetir a consulta até que a resposta atinja um tamanho gerenciável. Sem o tratamento adequado, consumir a resposta da consulta pode se tornar uma tarefa tediosa. Este estudo, então, propõe um processo que modifica a apresentação da resposta da consulta para melhorar a qualidade de experiência do usuário, no contexto de uma base de conhecimento RDF. O processo reorganiza a resposta da consulta original aplicando heurísticas para comprimir os resultados. A consulta SPARQL original é modificada e uma exploração sobre o conjunto de resultados começa através de uma navegação guiada sobre predicados e suas facetas. O artigo também inclui experimentos baseados em versões RDF do MusicBrainz, enriquecido com dados do DBpedia, e IMDb, cada um com mais de 200 milhões de triplas RDF. Os experimentos utilizam exemplos de consultas de benchmarks conhecidos. / [en] The answer of a query, submitted to a database or a knowledge base, is often long and may contain redundant data. The user is frequently forced to browse thru a long answer, or to refine and repeat the query until the answer reaches a manageable size. Without proper treatment, consuming the query answer may indeed become a tedious task. This study then proposes a process that modifies the presentation of a query answer to improve the quality of the user s experience, in the context of an RDF knowledge base. The process reorganizes the original query answer by applying heuristics to summarize the results. The original SPARQL query is modified and an exploration over the result set starts thru a guided navigation over predicates and its facets. The article also includes experiments based on RDF versions of MusicBrainz, enriched with DBpedia data, and IMDb, each with over 200 million RDF triples. The experiments use sample queries from well-known benchmarks.
36

[en] W-RAY: AN APPROACH TO THE DEEP WEB DATA PUBLICATION / [pt] W-RAY: UMA ABORDAGEM PARA PUBLICAÇÃO DE DADOS DA DEEP WEB

HELENA SERRAO PICCININI 29 September 2014 (has links)
[pt] Deep Web é composta por dados armazenados em bases de dados, páginas dinâmicas, páginas com scripts e dados multimídia, dentre outros tipos de objetos. Os bancos de dados da Deep Web são geralmente sub-representados pelos motores de busca, devido aos desafios técnicos de localizar, acessar e indexar seus dados. A utilização de hyperlinks pelos motores de busca não é suficente para alcançar todos os dados da Deep Web, exigindo interação com interfaces de consultas complexas. Esta tese apresenta uma abordagem, denominada W-Ray, capaz de fornecer visibilidade aos dados da Deep Web. A abordagem baseia-se na descrição dos dados relevantes através de sentenças bem estruturadas, e na publicação dessas sentenças em páginas estáticas da Web. As sentenças podem ser geradas com RDFa embutido, mantendo a semântica do banco de dados. As páginas da Web assim geradas são passíveis de ser indexadas pelos motores de coleta de dados tradicionais e por motores mais sofisticados que suportam busca semântica. É apresentada também uma ferramenta que apóia a abordagem W-Ray. A abordagem foi implementada com sucesso para diferentes bancos de dados reais. / [en] The Deep Web comprises data stored in databases, dynamic pages, scripted pages and multimedia data, among other types of objects. The databases of the Deep Web are generally underrepresented by the search engines due to the technical challenges of locating, accessing and indexing them. The use of hyperlinks by search engines is not sufficient to achieve all the Deep Web data, requiring interaction with complex queries interfaces. This thesis presents an approach, called W-Ray, that provides visibility to Deep Web data. The approach relies on describing the relevant data through well-structured sentences, and on publishing the sentences as static Web pages. The sentences can be generated with embedded RDFa, keeping the semantics of the database. The Web pages thus generated are indexed by traditional Web crawlers and sophisticated crawlers that support semantic search. It is also presented a tool that supports the W-Ray approach. The approach has been successfully implemented for some real databases.
37

[en] DCD TOOL: A TOOLKIT FOR THE DISCOVERY AND TRIPLIFICATION OF STATISTICAL DATA CUBES / [pt] DCD TOOL: UM CONJUNTO DE FERRAMENTAS PARA DESCOBERTA E TRIPLIFICAÇÃO DE CUBOS DE DADOS ESTATÍSTICOS

SERGIO RICARDO BATULI MAYNOLDI ORTIGA 07 July 2015 (has links)
[pt] A produção de indicadores sociais e sua disponibilização na Web é uma importante iniciativa de democratização e transparência que os governos em todo mundo vêm realizando nas últimas duas décadas. No Brasil diversas instituições governamentais ou ligadas ao governo publicam indicadores relevantes para acompanhamento do desempenho do governo nas áreas de saúde, educação, meio ambiente entre outras. O acesso, a consulta e a correlação destes dados demanda grande esforço, principalmente, em um cenário que envolve diferentes organizações. Assim, o desenvolvimento de ferramentas com foco na integração e disponibilização das informações de tais bases, torna-se um esforço relevante. Outro aspecto que se destaca no caso particular do Brasil é a dificuldade em se identificar dados estatísticos dentre outros tipos de dados armazenados no mesmo banco de dados. Esta dissertação propõe um arcabouço de software que cobre a identificação das bases de dados estatísticas no banco de dados de origem e o enriquecimento de seus metadados utilizando ontologias padronizadas pelo W3C, como base para o processo de triplificação. / [en] The production of social indicators and their availability on the Web is an important initiative for the democratization and transparency that governments have been doing in the last two decades. In Brazil, several government or government-linked institutions publish relevant indicators to help assess the government performance in the areas of health, education, environment and others. The access, query and correlation of these data demand substantial effort, especially in a scenario involving different organizations. Thus, the development of tools, with a focus on the integration and availability of information stored in such bases, becomes a significant effort. Another aspect that requires attention, in the case of Brazil, is the difficulty in identifying statistical databases among others type of data that share the same database. This dissertation proposes a software framework which covers the identification of statistical data in the database of origin and the enrichment of their metadata using W3C standardized ontologies, as a basis for the triplification process.
38

[en] SEMANTIC WEB INTEROPERABILITY: ONE STRATEGY FOR THE TAXONOMIC ONTOLOGY ALIGNMENT / [pt] INTEROPERABILIDADE SEMÂNTICA NA WEB: UMA ESTRATÉGIA PARA O ALINHAMENTO TAXONÔMICO DE ONTOLOGIAS

CAROLINA HOWARD FELICISSIMO 07 January 2005 (has links)
[pt] Com a evolução da Web atual para a Web Semântica, acredita- se que as informações disponíveis estarão estruturadas de forma a permitir o processamento automático de seu conteúdo por máquinas. Além do processamento individual, deseja-se uma melhor troca de informações entre aplicações Web. Para estes propósitos, são necessários mecanismos que garantam a interoperabilidade semântica, i.e., identificação e compatibilidade de informações. Neste sentido, ontologias são utilizadas como um recurso para disponibilizar um vocabulário estruturado e livre de ambigüidades. Ontologias fornecem um padrão bem definido para a estruturação da informação e promovem um formalismo passível de processamento automático. Neste trabalho, propomos uma estratégia para interoperabilidade de ontologias. O Componente para Alinhamento Taxonômico de Ontologias - CATO, resultado da implementação desta estratégia proposta, alinha automaticamente as taxonomias de ontologias comparadas. O alinhamento realizado é obtido em três etapas executadas seqüencialmente. A primeira etapa compara lexicalmente os conceitos das ontologias entradas e usa um mecanismo de poda estrutural dos conceitos associados como condição de parada. A segunda etapa compara estruturalmente as hierarquias das ontologias identificando as similaridades entre suas sub-árvores comuns. A terceira etapa refina os resultados da etapa anterior classificando os conceitos identificados como similares em bem similares ou pouco similares, de acordo com um percentual de similaridade prédefinido. / [en] With the Web evolving towards a Semantic Web, it is believed that the available information will be presented in a meaningful way to allow machines to automatically process its content. Besides the individual processing, a better information exchange among Web applications is desired. For this purpose, mechanisms are called for guarantee the semantic interoperability, that is, the identification and compatibility of information. In this direction, ontologies are used as one resource to make available a structured vocabulary, free of ambiguities. Ontologies provide a well-defined standard to structure the information and to promote formalism for automatic processing. In this work, we propose one strategy for ontology interoperability. The Ontology Taxonomic Alignment Component - CATO, which is the result of the implementation of this proposed strategy, provides an automatic taxonomic ontologies alignment. In this way, the alignment is obtained by a three-step process. The first step is the lexical comparison between the concepts from the entries ontologies. It uses a trimming mechanism of the related associated concepts as a stop condition. The second step is the structural comparison of the ontologies structures used to identify the similarities between common sub-trees. The third step refines the results of the previous step, classifying the similar identified concepts as very similar or little similar, according to a pre-defined similarity measurement.
39

[en] A QUESTION-ANSWERING CONVERSATIONAL AGENT WITH RECOMMENDATIONS BASED ON A DOMAIN ONTOLOGY / [pt] UM AGENTE CONVERSACIONAL PERGUNTA-RESPOSTA COM RECOMENDAÇÕES BASEADAS EM UMA ONTOLOGIA DE DOMÍNIO

JESSICA PALOMA SOUSA CARDOSO 05 November 2020 (has links)
[pt] A oferta de serviços por meio de interfaces conversacionais, ou chatbots, tem se tornado cada vez mais popular, com aplicações que variam de aplicativos de bancos e reserva de bilheteria a consultas em um banco de dados. No entanto, dado a quantidade massiva de dados disponível em alguns domínios, o usuário pode ter dificuldade em formular as consultas e recuperar as informações desejadas. Esta dissertação tem como objetivo investigar e avaliar o uso de recomendações na busca de informações numa base de dados de filmes através de chatbots. Neste trabalho, implementamos um chatbot por meio do uso de frameworks e técnicas da área de processamento de linguagem natural (NLP - Natural Language Processing). Para o reconhecimento de entidades e intenções, utilizamos o framework RASA NLU. Para a identificação das relações entre essas entidades, utilizamos as redes Transformers. Além disso, propomos diferentes estratégias para recomendações feitas a partir da ontologia de domínio. Para avaliação deste trabalho, conduzimos um estudo com usuários para avaliar o impacto das recomendações no uso do chatbot e aceitação da tecnologia por meio de um questionário baseado no Technology Acceptance Model (TAM). Por fim, discutimos os resultados do estudo, suas limitações e oportunidades de futuras melhorias. / [en] The offer of services provided through conversational interfaces, or chatbots, has become increasingly popular, with applications that range from bank applications and ticket booking to database queries. However, given the massive amount of data available in some domains, the user may find it difficult to formulate queries and retrieve the desired information. This dissertation investigates and evaluates the use of the recommendations in the search for information on a movie database through a chatbot. In this work, we implement a chatbot with the use of frameworks and techniques from the area of natural language processing (NLP). For the recognition of entities and intents, we use the RASA NLU framework. For the identification of relations between those entities, we use the Transformers networks. In addition, we propose different strategies for the recommendation from the domain ontology. To evaluate this work, we have conducted an empirical study with volunteer users to assess the impact of the recommendations on chatbot use and the acceptance of the technology through a survey based on the Technology Acceptance Model (TAM). Lastly, we discuss the results of this study, its limitations, and avenues for future improvements.
40

[en] TOWARDS A WELL-INTERLINKED WEB THROUGH MATCHING AND INTERLINKING APPROACHES / [pt] INTERLIGANDO RECURSOS NA WEB ATRAVÉS DE ABORDAGENS DE MATCHING E INTERLINKING

BERNARDO PEREIRA NUNES 07 January 2016 (has links)
[pt] Com o surgimento da Linked (Open) Data, uma série de novos e importantes desafios de pesquisa vieram à tona. A abertura de dados, como muitas vezes a Linked Data é conhecida, oferece uma oportunidade para integrar e conectar, de forma homogênea, fontes de dados heterogêneas na Web. Como diferentes fontes de dados, com recursos em comum ou relacionados, são publicados por diferentes editores, a sua integração e consolidação torna-se um verdadeiro desafio. Outro desafio advindo da Linked Data está na criação de um grafo denso de dados na Web. Com isso, a identificação e interligação, não só de recursos idênticos, mas também dos recursos relacionadas na Web, provê ao consumidor (data consumer) uma representação mais rica dos dados e a possibilidade de exploração dos recursos conectados. Nesta tese, apresentamos três abordagens para enfrentar os problemas de integração, consolidação e interligação de dados. Nossa primeira abordagem combina técnicas de informação mútua e programação genética para solucionar o problema de alinhamento complexo entre fontes de dados, um problema raramente abordado na literatura. Na segunda e terceira abordagens, adotamos e ampliamos uma métrica utilizada em teoria de redes sociais para enfrentar o problema de consolidação e interligação de dados. Além disso, apresentamos um aplicativo Web chamado Cite4Me que fornece uma nova perspectiva sobre a pesquisa e recuperação de conjuntos de Linked Open Data, bem como os benefícios da utilização de nossas abordagens. Por fim, uma série de experimentos utilizando conjuntos de dados reais demonstram que as nossas abordagens superam abordagens consideradas como estado da arte. / [en] With the emergence of Linked (Open) Data, a number of novel and notable research challenges have been raised. The openness that often characterises Linked Data offers an opportunity to homogeneously integrate and connect heterogeneous data sources on the Web. As disparate data sources with overlapping or related resources are provided by different data publishers, their integration and consolidation becomes a real challenge. An additional challenge of Linked Data lies in the creation of a well-interlinked graph of Web data. Identifying and linking not only identical Web resources, but also lateral Web resources, provides the data consumer with richer representation of the data and the possibility of exploiting connected resources. In this thesis, we present three approaches that tackle data integration, consolidation and linkage problems. Our first approach combines mutual information and genetic programming techniques for complex datatype property matching, a rarely addressed problem in the literature. In the second and third approaches, we adopt and extend a measure from social network theory to address data consolidation and interlinking. Furthermore, we present a Web-based application named Cite4Me that provides a new perspective on search and retrieval of Linked Open Data sets, as well as the benefits of using our approaches. Finally, we validate our approaches through extensive evaluations using real-world datasets, reporting results that outperform state of the art approaches.

Page generated in 0.0244 seconds