31 |
[en] MATERIALIZATION AND MAINTENANCE OF OWL: SAMEAS LINKS / [pt] MATERIALIZAÇÃO E MANUTENÇÃO DE LIGAÇÕES OWL: SAMEASCARLA GONCALVES OUROFINO 17 January 2017 (has links)
[pt] A Web de Dados cresceu significativamente nos últimos anos, tanto em quantidade de dados, quanto em fontes responsáveis por esses. A partir desse aumento no número de fontes de dados, ligações owl:sameAs têm sido cada vez mais utilizadas para conectar dados equivalentes e publicados por fontes distintas. Com isso, torna-se necessário haver uma rotina de identificação e manutenção dessas conexões. Com o objetivo de automatizar essa tarefa, desenvolvemos o Framework MsA – Materialização de sameAs para materializar e recomputar ligações do tipo owl:sameAs entre bancos de dados locais e dados publicados na Web. Essas ligações, uma vez identificadas, são materializadas juntamente aos dados locais e recomputadas apenas quando necessário. Para isso, a ferramenta monitora as operações (cadastramento, remoção e atualização) realizadas nos dados locais e remotos e, para cada tipo, implementa uma estratégia de manutenção das ligações envolvidas. / [en] The Web of Data has grown significantly in recent years, not only in the amount of data but also in the number of data sources. In parallel with this tendency, owl:sameAs links have been increasingly used to connect equivalent data published by different sources. As a consequence, it becomes necessary to have a routine for the identification and maintenance of these connections. In order to automate this task, we have developed the MsA Framework - sameAs Materialization to materialize and recompute owl:sameAs links between local databases and data published on the Web. These connections, once identified, are materialized along with the local data and recomputed only when necessary. To achieve this goal, the tool monitors the operations (insertion, update and deletion) performed on local and remote records, and for each type of operation it implements a maintenance strategy on the links involved.
|
32 |
[en] ONTOLOGY DRIVEN INTERFACE DEVELOPMENT FOR APPLICATIONS ON THE SEMANTIC WEB / [pt] DESENVOLVIMENTO DE INTERFACES GOVERNADAS POR ONTOLOGIAS PARA APLICAÇÕES NA WEB SEMÂNTICASABRINA SILVA DE MOURA 14 March 2005 (has links)
[pt] Atualmente, com a emergente Web Semântica, o volume de
pesquisa
relacionadas com o desenvolvimento de aplicações hipermídia
(páginas na Web)
nesta área tem aumentado. O objetivo comum é dar
significado semântico ao
conteúdo da Web. Isto é, há possibilidade de os dados
contidos na Web serem
definidos e relacionados de maneira que possam ser usados
por máquinas não só
para automação, integração e reuso de dados entre
aplicações, mas também para
permitir interações mais ricas com seres humanos. Este
trabalho apresenta a
aplicação dos conceitos da Web Semântica no desenvolvimento
de interfaces para
aplicações hipermídia, como parte do método SHDM (Semantic
Hypermedia
Design Method). Para isto, é proposto o uso de duas
ontologias, uma
representando elementos de interface concretos (ontologia
de widgets concretos) e
a outra representando elementos de interface abstratos
(ontologia de widgets
abstratos). Estes elementos abstratos são utilizados para
descrever as interfaces
abstratas e são mapeados em elementos de interface
concreta, especificados como
instância da ontologia de widgets concretos. Finalmente,
para a geração da página
concreta a partir de uma interface abstrata, definida como
instância da ontologia
de widgets abstratos, é proposta uma arquitetura de
implementação baseada em
JSP e Tag Libraries. / [en] The current emergence of the Semantic Web has increased the
volume of
research initiatives related to the development of
hypermedia applications in this
environment. The common goal is to give semantic meaning to
the content of the
Web. This means that it is now possible that the data
contained in the Web to be
defined and related in such a way that it can be used by
machines not only for
automation, integration and reuse of data among
applications, but also to allow
richer interaction with human beings. This work applies the
concepts of the
Semantic Web to the development of interfaces for
hypermedia applications, in
the context of the Semantic Hypermedia Design Method
(SHDM). For this, two
ontologies are proposed, one representing concrete
interface elements (concrete
widgets ontology) and another representing abstract
interface element (abstract
widgets ontology). These abstract elements are used to
describe the abstract
interfaces and are mapped to concrete interface elements,
specified as instances of
the concrete widgets ontology. An implementation
architecture is proposed, based
on JSP and Tag Libraries, allowing the generation of the
concrete page based on a
defined abstract interface.
|
33 |
[en] WEB LIFE - A MULTI-AGENT SYSTEMS IMPLEMENTATION ARCHITECTURE FOR THE WEB / [pt] WEB LIFE UMA ARQUITETURA PARA A IMPLEMENTAÇÃO DE SISTEMAS MULTI-AGENTES PARA A WEB27 June 2003 (has links)
[pt] A resolução de problemas distribuídos com o uso de sistemas
compostos de vários agentes, agrupados em organizações, e
que visam objetivos comuns vem ganhando grande atenção da
comunidade científica. Este interesse evidencia-se pelo
número crescente de iniciativas para a criação de métodos
de desenvolvimento e plataformas de implementação de
sistema multi-agentes. Algumas plataformas concentram-se no
suporte a aspectos específicos destes sistemas, enquanto
outras preocupam-se com a criação de uma infra-estrutura
completa que permita o desenvolvimento dos agentes e suas
organizações. O Web Life é uma arquitetura para a
implementação de sistemas multi-agentes para a Web, que
auxilia a criação dos agentes e suas organizações,
oferecendo toda a infra-estrutura de comunicação,
coordenação, tomada de decisões e realização de tarefas
necessária a atuação dos agentes. A arquitetura procura
aproveitar diversas iniciativas de padronização e de
criação de ferramentas para resolução de certos aspectos do
problema, agrupando-as sob um framework integrado. A
arquitetura promove a evolução da Web no sentido de
se tornar uma Web de conteúdos semânticos aptos ao
tratamento automático por mecanismos de software - a Web
Semântica. / [en] The resolution of distributed problems by applying computer
systems composed by agents and organized towards a common
objective is attracting the scientific community s
attention. This is shown by the increasing number of
initiatives for the development of methods and platforms to
help constructing multiagent systems. Some platforms
concentrate efforts on supporting some multi-agent
systems aspects while others try to offer a complete
infrastructure for the agents and organizations
development. The Web Life architecture offers an
implementation platform for developing Web-based multi-
agent systems. The architecture is focused on the provision
of a complete multi-agent infrastructure with native
support for communication, coordination, decision-taking
and task-oriented behavior. The incorporation of current
under development standards and tools for solving specific
problems in multi-agent systems is one of the main
objectives of this work. These standards and tools are
integrated by the Web Life framework. The architecture try
to help the evolution of the Web into a Web with semantic
contents that may be automatically processed - the Semantic
Web.
|
34 |
[en] HYPERDE: A FRAMEWORK AND DEVELOPMENT ENVIRONMENT DRIVEN BY ONTOLOGIES FOR HYPERMEDIA APPLICATIONS / [pt] HYPERDE: UM FRAMEWORK E AMBIENTE DE DESENVOLVIMENTO DIRIGIDO POR ONTOLOGIAS PARA APLICAÇÕES HIPERMÍDIADEMETRIUS ARRAES NUNES 26 December 2005 (has links)
[pt] O HyperDE, apresentado nesta dissertação, é a combinação
de um
framework no padrão Model-View-Controller e um ambiente de
desenvolvimento
visual para a construção de protótipos de aplicações
hipermídia, modeladas
através dos métodos OOHDM ou SHDM. Como framework MVC, o
HyperDE
fornece componentes reutilizáveis e extensíveis para as
camadas de modelo, visão
e controle, especificados como ontologias em RDFS. Como
ambiente de
desenvolvimento visual, o HyperDE fornece, através de sua
interface gráfica e
ferramentas auxiliares, uma forma interativa e dinâmica de
construir e prototipar
uma aplicação hipermídia, com a possibilidade de
visualizar imediatamente o
resultado de cada passo do processo de desenvolvimento. A
arquitetura de
desenvolvimento promovida pelo ambiente é orientada a
modelos, onde a
definição dos modelos navegacionais efetivamente gera a
implementação da
aplicação. Utilizando um modelo de dados baseado em RDF e
RDFS, os modelos
navegacionais produzidos no HyperDE podem ser utilizados
como ontologias,
fazendo-se uso de tecnologias e linguagens da Web
Semântica. Além disso, a
utilização de uma linguagem de programação dinâmica
permite que o HyperDE
construa dinamicamente linguagens específicas de domínio
para cada aplicação
desenvolvida, o que resulta em um modelo de programação
mais conciso e
natural. / [en] HyperDE, presented in this dissertation, is a combination
of a Model-View-
Controller framework and a visual development environment
for building
prototype applications modeled through the OOHDM and SHDM
methods. As a
MVC framework, HyperDE provides the reusable and
extensible components for
the model, vision and control layers, specified as
ontologies in RDFS. As a visual
development environment, HyperDE provides, through its
graphical interface and
support tools, an interactive and dynamic way for building
and prototyping a
hypermedia application, making it possible to visualize
the results on each step of
the development process. The development architecture
promoted by the
environment is model-driven, in which the definition of
the navigational models
effectively generate the application implementation. Using
data models based on
RDF and RDFS, the navigational models produced in HyperDE
can be used as
ontologies, through semantic web languages and
technologies. Also, the use of a
dynamic programming language makes it possible for HyperDE
to dynamically
generate domain-specific languages for each application
built, which results in a
programming model much more concise and natural.
|
35 |
[en] IMPROVING THE QUALITY OF THE USER EXPERIENCE BY QUERY ANSWER MODIFICATION / [pt] MELHORANDO A QUALIDADE DA EXPERIÊNCIA DO USUÁRIO ATRAVÉS DA MODIFICAÇÃO DA RESPOSTA DA CONSULTAJOAO PEDRO VALLADAO PINHEIRO 30 June 2021 (has links)
[pt] A resposta de uma consulta, submetida a um banco de dados ou base de
conhecimento, geralmente é longa e pode conter dados redundantes. O usuário
é frequentemente forçado a navegar por uma longa resposta, ou refinar e repetir
a consulta até que a resposta atinja um tamanho gerenciável. Sem o tratamento
adequado, consumir a resposta da consulta pode se tornar uma tarefa tediosa.
Este estudo, então, propõe um processo que modifica a apresentação da
resposta da consulta para melhorar a qualidade de experiência do usuário, no
contexto de uma base de conhecimento RDF. O processo reorganiza a resposta
da consulta original aplicando heurísticas para comprimir os resultados. A
consulta SPARQL original é modificada e uma exploração sobre o conjunto
de resultados começa através de uma navegação guiada sobre predicados e
suas facetas. O artigo também inclui experimentos baseados em versões RDF
do MusicBrainz, enriquecido com dados do DBpedia, e IMDb, cada um com
mais de 200 milhões de triplas RDF. Os experimentos utilizam exemplos de
consultas de benchmarks conhecidos. / [en] The answer of a query, submitted to a database or a knowledge base, is often long and may contain redundant data. The user is frequently forced to browse thru a long answer, or to refine and repeat the query until the answer reaches a manageable size. Without proper treatment, consuming the query
answer may indeed become a tedious task. This study then proposes a process that modifies the presentation of a query answer to improve the quality of the user s experience, in the context of an RDF knowledge base. The process reorganizes the original query answer by applying heuristics to summarize the results. The original SPARQL query is modified and an exploration over the result set starts thru a guided navigation over predicates and its facets. The article also includes experiments based on RDF versions of MusicBrainz,
enriched with DBpedia data, and IMDb, each with over 200 million RDF triples. The experiments use sample queries from well-known benchmarks.
|
36 |
[en] W-RAY: AN APPROACH TO THE DEEP WEB DATA PUBLICATION / [pt] W-RAY: UMA ABORDAGEM PARA PUBLICAÇÃO DE DADOS DA DEEP WEBHELENA SERRAO PICCININI 29 September 2014 (has links)
[pt] Deep Web é composta por dados armazenados em bases de dados, páginas dinâmicas, páginas com scripts e dados multimídia, dentre outros tipos de objetos. Os bancos de dados da Deep Web são geralmente sub-representados pelos motores de busca, devido aos desafios técnicos de localizar, acessar e indexar seus dados. A utilização de hyperlinks pelos motores de busca não é suficente para alcançar todos os dados da Deep Web, exigindo interação com interfaces de consultas complexas. Esta tese apresenta uma abordagem, denominada W-Ray, capaz de fornecer visibilidade aos dados da Deep Web. A abordagem baseia-se na descrição dos dados relevantes através de sentenças bem estruturadas, e na publicação dessas sentenças em páginas estáticas da Web. As sentenças podem ser geradas com RDFa embutido, mantendo a semântica do banco de dados. As páginas da Web assim geradas são passíveis de ser indexadas pelos motores de coleta de dados tradicionais e por motores mais sofisticados que suportam busca semântica. É apresentada também uma ferramenta que apóia a abordagem W-Ray. A abordagem foi implementada com sucesso para diferentes bancos de dados reais. / [en] The Deep Web comprises data stored in databases, dynamic pages, scripted pages and multimedia data, among other types of objects. The databases of the Deep Web are generally underrepresented by the search engines due to the technical challenges of locating, accessing and indexing them. The use of hyperlinks by search engines is not sufficient to achieve all the Deep Web data, requiring interaction with complex queries interfaces. This thesis presents an approach, called W-Ray, that provides visibility to Deep Web data. The approach relies on describing the relevant data through well-structured sentences, and on publishing the sentences as static Web pages. The sentences can be generated with embedded RDFa, keeping the semantics of the database. The Web pages thus generated are indexed by traditional Web crawlers and sophisticated crawlers that support semantic search. It is also presented a tool that supports the W-Ray approach. The approach has been successfully implemented for some real databases.
|
37 |
[en] DCD TOOL: A TOOLKIT FOR THE DISCOVERY AND TRIPLIFICATION OF STATISTICAL DATA CUBES / [pt] DCD TOOL: UM CONJUNTO DE FERRAMENTAS PARA DESCOBERTA E TRIPLIFICAÇÃO DE CUBOS DE DADOS ESTATÍSTICOSSERGIO RICARDO BATULI MAYNOLDI ORTIGA 07 July 2015 (has links)
[pt] A produção de indicadores sociais e sua disponibilização na Web é uma importante iniciativa de democratização e transparência que os governos em todo mundo vêm realizando nas últimas duas décadas. No Brasil diversas instituições governamentais ou ligadas ao governo publicam indicadores relevantes para acompanhamento do desempenho do governo nas áreas de saúde, educação, meio ambiente entre outras. O acesso, a consulta e a correlação destes dados demanda grande esforço, principalmente, em um cenário que envolve diferentes organizações. Assim, o desenvolvimento de ferramentas com foco na integração e disponibilização das informações de tais bases, torna-se um esforço relevante. Outro aspecto que se destaca no caso particular do Brasil é a dificuldade em se identificar dados estatísticos dentre outros tipos de dados armazenados no mesmo banco de dados. Esta dissertação propõe um arcabouço de software que cobre a identificação das bases de dados estatísticas no banco de dados de origem e o enriquecimento de seus metadados utilizando ontologias padronizadas pelo W3C, como base para o processo de triplificação. / [en] The production of social indicators and their availability on the Web is an important initiative for the democratization and transparency that governments have been doing in the last two decades. In Brazil, several government or government-linked institutions publish relevant indicators to help assess the government performance in the areas of health, education, environment and others. The access, query and correlation of these data demand substantial effort, especially in a scenario involving different organizations. Thus, the development of tools, with a focus on the integration and availability of information stored in such bases, becomes a significant effort. Another aspect that requires attention, in the case of Brazil, is the difficulty in identifying statistical databases among others type of data that share the same database. This dissertation proposes a software framework which covers the identification of statistical data in the database of origin and the enrichment of their metadata using W3C standardized ontologies, as a basis for the triplification process.
|
38 |
[en] SEMANTIC WEB INTEROPERABILITY: ONE STRATEGY FOR THE TAXONOMIC ONTOLOGY ALIGNMENT / [pt] INTEROPERABILIDADE SEMÂNTICA NA WEB: UMA ESTRATÉGIA PARA O ALINHAMENTO TAXONÔMICO DE ONTOLOGIASCAROLINA HOWARD FELICISSIMO 07 January 2005 (has links)
[pt] Com a evolução da Web atual para a Web Semântica, acredita-
se que as informações disponíveis estarão estruturadas de
forma a permitir o processamento automático de seu conteúdo
por máquinas. Além do processamento individual, deseja-se
uma melhor troca de informações entre aplicações Web. Para
estes propósitos, são necessários mecanismos que garantam a
interoperabilidade semântica, i.e., identificação e
compatibilidade de informações. Neste sentido, ontologias
são utilizadas como um recurso para disponibilizar um
vocabulário estruturado e livre de ambigüidades. Ontologias
fornecem um padrão bem definido para a estruturação da
informação e promovem um formalismo passível de
processamento automático. Neste trabalho, propomos uma
estratégia para interoperabilidade de ontologias. O
Componente para Alinhamento Taxonômico de Ontologias -
CATO, resultado da implementação desta estratégia proposta,
alinha automaticamente as taxonomias de ontologias
comparadas. O alinhamento realizado é obtido em três etapas
executadas seqüencialmente. A primeira etapa compara
lexicalmente os conceitos das ontologias entradas e usa um
mecanismo de poda estrutural dos conceitos associados como
condição de parada. A segunda etapa compara estruturalmente
as hierarquias das ontologias identificando as
similaridades entre suas sub-árvores comuns. A terceira
etapa refina os resultados da etapa anterior classificando
os conceitos identificados como similares em bem similares
ou pouco similares, de acordo com um percentual de
similaridade prédefinido. / [en] With the Web evolving towards a Semantic Web, it is
believed that the available information will be presented
in a meaningful way to allow machines to automatically
process its content. Besides the individual processing, a
better information exchange among Web applications is
desired. For this purpose, mechanisms are called for
guarantee the semantic interoperability, that is, the
identification and compatibility of information. In this
direction, ontologies are used as one resource to make
available a structured vocabulary, free of ambiguities.
Ontologies provide a well-defined standard to structure the
information and to promote formalism for automatic
processing. In this work, we propose one strategy for
ontology interoperability. The Ontology Taxonomic Alignment
Component - CATO, which is the result of the implementation
of this proposed strategy, provides an automatic taxonomic
ontologies alignment. In this way, the alignment is
obtained by a three-step process. The first step is the
lexical comparison between the concepts from the entries
ontologies. It uses a trimming mechanism of the related
associated concepts as a stop condition. The second step
is the structural comparison of the ontologies structures
used to identify the similarities between common sub-trees.
The third step refines the results of the previous step,
classifying the similar identified concepts as very similar
or little similar, according to a pre-defined similarity
measurement.
|
39 |
[en] A QUESTION-ANSWERING CONVERSATIONAL AGENT WITH RECOMMENDATIONS BASED ON A DOMAIN ONTOLOGY / [pt] UM AGENTE CONVERSACIONAL PERGUNTA-RESPOSTA COM RECOMENDAÇÕES BASEADAS EM UMA ONTOLOGIA DE DOMÍNIOJESSICA PALOMA SOUSA CARDOSO 05 November 2020 (has links)
[pt] A oferta de serviços por meio de interfaces conversacionais, ou chatbots, tem se tornado cada vez mais popular, com aplicações que variam de aplicativos de bancos e reserva de bilheteria a consultas em um banco de dados. No entanto, dado a quantidade massiva de dados disponível em alguns domínios,
o usuário pode ter dificuldade em formular as consultas e recuperar as informações desejadas. Esta dissertação tem como objetivo investigar e avaliar o uso de recomendações na busca de informações numa base de dados de filmes através de chatbots. Neste trabalho, implementamos um chatbot por meio do
uso de frameworks e técnicas da área de processamento de linguagem natural (NLP - Natural Language Processing). Para o reconhecimento de entidades e intenções, utilizamos o framework RASA NLU. Para a identificação das relações entre essas entidades, utilizamos as redes Transformers. Além disso, propomos diferentes estratégias para recomendações feitas a partir da ontologia de domínio. Para avaliação deste trabalho, conduzimos um estudo com usuários para avaliar o impacto das recomendações no uso do chatbot e aceitação da tecnologia por meio de um questionário baseado no Technology Acceptance
Model (TAM). Por fim, discutimos os resultados do estudo, suas limitações e oportunidades de futuras melhorias. / [en] The offer of services provided through conversational interfaces, or chatbots, has become increasingly popular, with applications that range from bank applications and ticket booking to database queries. However, given the massive amount of data available in some domains, the user may find it difficult
to formulate queries and retrieve the desired information. This dissertation investigates and evaluates the use of the recommendations in the search for information on a movie database through a chatbot. In this work, we implement a chatbot with the use of frameworks and techniques from the area of natural language processing (NLP). For the recognition of entities and intents, we use the RASA NLU framework. For the identification of relations between those entities, we use the Transformers networks. In addition, we propose different strategies for the recommendation from the domain ontology. To evaluate this
work, we have conducted an empirical study with volunteer users to assess the impact of the recommendations on chatbot use and the acceptance of the technology through a survey based on the Technology Acceptance Model (TAM). Lastly, we discuss the results of this study, its limitations, and avenues for future improvements.
|
40 |
[en] TOWARDS A WELL-INTERLINKED WEB THROUGH MATCHING AND INTERLINKING APPROACHES / [pt] INTERLIGANDO RECURSOS NA WEB ATRAVÉS DE ABORDAGENS DE MATCHING E INTERLINKINGBERNARDO PEREIRA NUNES 07 January 2016 (has links)
[pt] Com o surgimento da Linked (Open) Data, uma série de novos e importantes
desafios de pesquisa vieram à tona. A abertura de dados, como muitas vezes a
Linked Data é conhecida, oferece uma oportunidade para integrar e conectar, de
forma homogênea, fontes de dados heterogêneas na Web. Como diferentes fontes
de dados, com recursos em comum ou relacionados, são publicados por diferentes
editores, a sua integração e consolidação torna-se um verdadeiro desafio. Outro
desafio advindo da Linked Data está na criação de um grafo denso de dados na
Web. Com isso, a identificação e interligação, não só de recursos idênticos, mas
também dos recursos relacionadas na Web, provê ao consumidor (data consumer)
uma representação mais rica dos dados e a possibilidade de exploração dos recursos
conectados. Nesta tese, apresentamos três abordagens para enfrentar os problemas
de integração, consolidação e interligação de dados. Nossa primeira abordagem
combina técnicas de informação mútua e programação genética para solucionar o
problema de alinhamento complexo entre fontes de dados, um problema raramente
abordado na literatura. Na segunda e terceira abordagens, adotamos e ampliamos
uma métrica utilizada em teoria de redes sociais para enfrentar o problema de
consolidação e interligação de dados. Além disso, apresentamos um aplicativo Web
chamado Cite4Me que fornece uma nova perspectiva sobre a pesquisa e recuperação
de conjuntos de Linked Open Data, bem como os benefícios da utilização de nossas
abordagens. Por fim, uma série de experimentos utilizando conjuntos de dados reais
demonstram que as nossas abordagens superam abordagens consideradas como
estado da arte. / [en] With the emergence of Linked (Open) Data, a number of novel and notable
research challenges have been raised. The openness that often characterises Linked
Data offers an opportunity to homogeneously integrate and connect heterogeneous
data sources on the Web. As disparate data sources with overlapping or related resources
are provided by different data publishers, their integration and consolidation
becomes a real challenge. An additional challenge of Linked Data lies in the creation
of a well-interlinked graph of Web data. Identifying and linking not only identical
Web resources, but also lateral Web resources, provides the data consumer with
richer representation of the data and the possibility of exploiting connected resources.
In this thesis, we present three approaches that tackle data integration, consolidation
and linkage problems. Our first approach combines mutual information and genetic
programming techniques for complex datatype property matching, a rarely addressed
problem in the literature. In the second and third approaches, we adopt and extend a
measure from social network theory to address data consolidation and interlinking.
Furthermore, we present a Web-based application named Cite4Me that provides
a new perspective on search and retrieval of Linked Open Data sets, as well as
the benefits of using our approaches. Finally, we validate our approaches through
extensive evaluations using real-world datasets, reporting results that outperform
state of the art approaches.
|
Page generated in 0.0244 seconds