Spelling suggestions: "subject:"[een] SEMANTIC WEB"" "subject:"[enn] SEMANTIC WEB""
251 |
Everything you always wanted to know about blank nodes (but were afraid to ask)Hogan, Aidan, Arenas, Macelo, Mallea, Alejandro, Polleres, Axel 06 May 2014 (has links) (PDF)
In this paper we thoroughly cover the issue of blank nodes, which have been defined in RDF as "existential variables". We
first introduce the theoretical precedent for existential blank nodes from first order logic and incomplete Information
in database theory. We then cover the different (and sometimes incompatible) treatment of blank nodes across the
W3C stack of RDF-related standards. We present an empirical survey of the blank nodes present in a large sample of
RDF data published on the Web (the BTC-2012 dataset), where we find that 25.7% of unique RDF terms are blank
nodes, that 44.9% of documents and 66.2% of domains featured use of at least one blank node, and that aside from
one Linked Data domain whose RDF data contains many "blank node cycles", the vast majority of blank nodes form
tree structures that are efficient to compute simple entailment over. With respect to the RDF-merge of the full data,
we show that 6.1% of blank-nodes are redundant under simple entailment. The vast majority of non-lean cases are
isomorphisms resulting from multiple blank nodes with no discriminating information being given within an RDF
document or documents being duplicated in multiple Web locations. Although simple entailment is NP-complete and
leanness-checking is coNP-complete, in computing this latter result, we demonstrate that in practice, real-world RDF
graphs are sufficiently "rich" in ground information for problematic cases to be avoided by non-naive algorithms.
|
252 |
Static analysis of semantic web queries with ShEx schema constraints / Analyse statique de requêtes au web sémantique avec des contraintes de schéma ShExAbbas, Abdullah 06 November 2017 (has links)
La disponibilité de gros volumes de données structurées selon le modèle Resource Description Framework (RDF) est en constante augmentation. Cette situation implique un intérêt scientifique et un besoin important de rechercher de nouvelles méthodes d’analyse et de compilation de requêtes pour tirer le meilleur parti de l’extraction de données RDF. SPARQL est le plus utilisé et le mieux supporté des langages de requêtes sur des données RDF. En parallèle des langages de requêtes, les langages de définition de schéma d’expression de contraintes sur des jeux de données RDF ont également évolués. Les Shape Expressions (ShEx) sont de plus en plus utilisées pour valider des données RDF et pour indiquer les motifs de graphes attendus. Les schémas sont importants pour les tâches d’analyse statique telles que l’optimisation ou l’injection de requêtes. Notre intention est d’examiner les moyens et méthodologies d’analyse statique et d’optimisation de requêtes associés à des contraintes de schéma.Notre contribution se divise en deux grandes parties. Dans la première, nous considérons le problème de l’injection de requêtes SPARQL en présence de contraintes ShEx. Nous proposons une procédure rigoureuse et complète pour le problème de l’injection de requêtes avec ShEx, en prenant en charge plusieurs fragments de SPARQL. Plus particulièrement, notre procédure gère les patterns de requêtes OPTIONAL, qui s’avèrent former un important fonctionnalité à étudier avec les schémas. Nous fournissons ensuite les limites de complexité de notre problème en considération des fragments gérés. Nous proposons également une méthode alternative pour l’injection de requêtes SPARQL avec ShEx. Celle-ci réduit le problème à une satisfiabilité de Logique de Premier Ordre, qui permet de considérer une extension du fragment SPARQL traité par la première méthode. Il s’agit de la première étude traitant l’injection de requêtes SPARQL en présence de contraintes ShEx.Dans la seconde partie de nos contributions, nous proposons une méthode d’analyse pour optimiser l’évaluation de requêtes SPARQL groupées, sur des graphes RDF, en tirant avantage des contraintes ShEx. Notre optimisation s’appuie sur le calcul et l’assignation de rangs aux triple patterns d’une requête, permettant de déterminer leur ordre d’exécution. La présence de jointures intermédiaires entre ces patterns est la raison pour laquelle l’ordonnancement est important pour gagner en efficicacité. Nous définissons un ensemble de schémas ShEx bien- formulés, qui possède d’intéressantes caractéristiques pour l’optimisation de requêtes SPARQL. Nous développons ensuite notre méthode d’optimisation par l’exploitation d’informations extraites d’un schéma ShEx. Enfin, nous rendons compte des résultats des évaluations effectuées, montrant les avantages de l’application de notre optimisation face à l’état de l’art des systèmes d’évaluation de requêtes. / Data structured in the Resource Description Framework (RDF) are increasingly available in large volumes. This leads to a major need and research interest in novel methods for query analysis and compilation for making the most of RDF data extraction. SPARQL is the widely used and well supported standard query language for RDF data. In parallel to query language evolutions, schema languages for expressing constraints on RDF datasets also evolve. Shape Expressions (ShEx) are increasingly used to validate RDF data, and to communicate expected graph patterns. Schemas in general are important for static analysis tasks such as query optimisation and containment. Our purpose is to investigate the means and methodologies for SPARQL query static analysis and optimisation in the presence of ShEx schema constraints.Our contribution is mainly divided into two parts. In the first part we consider the problem of SPARQL query containment in the presence of ShEx constraints. We propose a sound and complete procedure for the problem of containment with ShEx, considering several SPARQL fragments. Particularly our procedure considers OPTIONAL query patterns, that turns out to be an important feature to be studied with schemas. We provide complexity bounds for the containment problem with respect to the language fragments considered. We also propose alternative method for SPARQL query containment with ShEx by reduction into First Order Logic satisfiability, which allows for considering SPARQL fragment extension in comparison to the first method. This is the first work addressing SPARQL query containment in the presence of ShEx constraints.In the second part of our contribution we propose an analysis method to optimise the evaluation of conjunctive SPARQL queries, on RDF graphs, by taking advantage of ShEx constraints. The optimisation is based on computing and assigning ranks to query triple patterns, dictating their order of execution. The presence of intermediate joins between the query triple patterns is the reason why ordering is important in increasing efficiency. We define a set of well-formed ShEx schemas, that possess interesting characteristics for SPARQL query optimisation. We then develop our optimisation method by exploiting information extracted from a ShEx schema. We finally report on evaluation results performed showing the advantages of applying our optimisation on the top of an existing state-of-the-art query evaluation system.
|
253 |
Aperfeiçoamento de métricas de similaridade semântica entre serviços web / Enhancement of semanticweb services matchmaking metricsSantos, Pedro Bispo da Silva January 2012 (has links)
O presente trabalho apresenta uma abordagem aperfeiçoada para medir similaridade entre Serviços Web Semânticos através de um algoritmo baseado em ontologia. O trabalho se trata de um aperfeiçoamento por pegar como base o algoritmo de Liu (LIU et al., 2009) e nele fazer uma pequena mudança que resulta em melhorias significativas em certos cenários. Este algoritmo utiliza informação das categorias ESPE (Entradas, Saídas, Pré-condições, Efeitos), procurando por informações presentes nessas categorias, analisando como os conceitos estão relacionados na taxonomia da ontologia. A escolha do trabalho de Liu ocorreu devido a experimentos realizados em trabalhos anteriores ao desta dissertação (MAAMAR et al., 2011)(MAAMAR et al., 2011). Nesses experimentos, foi constatado que o algoritmo não antigia um desempenho satisfatório, foi então que se levantou uma hipótese de aperfeiçoamento deste algoritmo. Experimentos realizados utilizando um conjunto de dados contendo 1083 Serviços Web Semânticos em OWL-S mostram que essa abordagem aperfeiçoada aumenta a precisão do algoritmo, diminuindo desta forma o número de falsos positivos recuperados nos resultados, mantendo uma boa revocação. Nestes experimentos, foram implementados o algoritmo original de Liu e a versão modificada apresentada nesta dissertação. Além disso, este trabalho apresenta quais parâmetros utilizar para configurar o algoritmo e atingir melhor precisão, revocação e f-measure. / The current work presents an improved approach for an ontology-based semantic web service matchmaking assessment algorithm. This work is based on Liu’s algorithm LIU et al. (2009) providing a small change which results in a significant enhancement at some scenarios. The algorithm uses information from IOPE (Inputs, Outputs, Preconditions, Effects) categories, searching for information about the concepts located in these categories, analyzing how they are related in an ontology taxonomy. Liu’s work was chosen due to experiments that were done in works previous to this dissertation (MAAMAR et al., 2011)(MAAMAR et al., 2011). During those experiments, it was realized that Liu’s algorithm did not achieve good results. Then, an hypothesis was raised for improving this algorithm. Experiments performed using a data set containing 1083 OWL-S semantic web services show that the improved approach increases the algorithm precision, diminishing the number of false positives in the retrieved results, and still having a good recall. For doing these experiments, Liu’s algorithm and this dissertation version of it were implemented. Furthermore, this work presents the parameters that were used to achieve better precision, recall and f-measure.
|
254 |
Integração de dados e processos disponíveis em portais web baseada em ontologias de domínio / Web portal data and processes integration based on domain ontologiesMello, Marília Terra de January 2008 (has links)
A integração e a troca de informação na Web é uma necessidade reconhecida no mundo atual nos mais diversos domínios de aplicação. A Web constitui hoje o principal meio de acesso a informações, disponibilizando várias formas de acesso a esse conteúdo. No entanto, disponibilizar essa informação de forma integrada para o usuário ainda é um desafio. O Serviço Web Semântico é uma tecnologia de Inteligência Artificial promissora a qual pode contribuir significativamente com o processo de integração tanto de dados como de processos disponíveis em portais Web. O objetivo do presente trabalho é realizar a integração das diferentes funcionalidades oferecidas por portais disponibilizados na Web, fazendo uso de ontologias de domínio através de Serviços Web Semânticos. Para alcançar o objetivo proposto, um sistema de busca e integração, denominado W-KIS, foi projetado e desenvolvido, fornecendo uma visão unificada e transparente ao usuário de toda informação disponível em um determinado número de portais Web, contextualizados a um domínio de aplicação específico. Dois domínios de aplicação foram explorados neste trabalho através de dois estudos de caso: a Biomedicina e a Geologia, cada um fornecendo sua própria ontologia de domínio. Serviços Web Semânticos foram desenvolvidos para encapsular portais Web em ambos os domínios, permitindo ao sistema realizar a integração em cada domínio, separadamente. A aplicação proposta foi validada através da avaliação de sua atuação em ambos os domínios, além de testes com usuários finais e comparações com outras abordagens para integração na Web e motores de busca tradicionais. Através da utilização de Serviços Web Semânticos, W-KIS é capaz de localizar e executar os serviços de forma automática, além de lidar com a heterogeneidade semântica entre as fontes de informação por meio das ontologias de domínio. Desta forma, o sistema fornece apenas informação contextualizada ao interesse do usuário. / Integration and exchange of information across the Internet is a universally recognized need, in a wide variety of domains. Nowadays, the Web is the main source of information, providing many ways to access this content. However, making this information available to the user in an integrated way is still a challenge. New promising application fields such as Semantic Web Services can improve the integration process of data and processes available in Web portals. The goal of the present research is to accomplish the integration of the different functionalities offered by portals available in the Web, making use of domain ontologies through Semantic Web Services. In order to achieve the proposed goal, a search and integration system, named W-KIS, was designed and developed. The system provides the user with a unified and transparent view of the whole information available in a number of Web portals, related to a specific application domain. Two application domains were explored in this work through two case studies: the Biomedicine and the Geology, each one providing its own domain ontology. Semantic Web Services were designed to encapsulate Web portals in both domains, allowing the system to accomplish the integration in each domain, separately. The application proposed in this project was validated through the evaluation of its behavior in both domains, besides other tests with final users and comparisons with other approaches for integration in the Web, and traditional search engines. Making use of Semantic Web Services, W-KIS is able to find and execute the services in an automatic way, besides dealing with the semantic heterogeneity in the information sources by means of domain ontologies. This way, the system provides the user with information contextualized to its interest.
|
255 |
Uma abordagem para publicação de visões RDF de dados relacionais / One approach to publishing RDF views of relational dataTeixeira Neto, Luis Eufrasio January 2014 (has links)
TEIXEIRA NETO, Luis Eufrasio. Uma abordagem para publicação de visões RDF de dados relacionais. 2014. 97 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2014. / Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T18:31:26Z
No. of bitstreams: 1
2014_dis_leteixeiraneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-20T11:55:57Z (GMT) No. of bitstreams: 1
2014_dis_leteixeiraneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5) / Made available in DSpace on 2016-07-20T11:55:57Z (GMT). No. of bitstreams: 1
2014_dis_leteixeiraneto.pdf: 2039098 bytes, checksum: 476ca3810a4d9341414016b0440023ba (MD5)
Previous issue date: 2014 / The Linked Data initiative brought new opportunities for building the next generation of Web applications. However, the full potential of linked data depends on how easy it is to transform data stored in conventional, relational databases into RDF triples. Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called R2RML, to specify customized mappings between relational schemas and target RDF vocabularies. However, the generation of customized R2RML mappings is not an easy task. Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to terms from a RDF schema; (b) a process to support the publication of relational data into RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to formalize the mappings between relational schemas and RDF schemas. Views are created to publish data from a database to a new structure or schema. The definition of RDF views over relational data allows providing this data in terms of an OWL ontology structure without having to change the database schema. In this work, we propose a three-tier architecture – database, SQL views and RDF views – where the SQL views layer maps the database concepts into RDF terms. The creation of this intermediate layer facilitates the generation of R2RML mappings and prevents that changes in the data layer result in changes on R2RML mappings. Additionally, we define a three-step process to generate the RDF views of relational data. First, the user defines the schema of the relational database and the target OWL ontology. Then, he defines correspondence assertions that formally specify the relational database in terms of the target ontology. Using these assertions, an exported ontology is generated automatically. The second step produces the SQL views that perform the mapping defined by the assertions and a R2RML mapping between these views and the exported ontology. This dissertation describes a formalization of the correspondence assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a tool that supports the entire process and a case study to validate the results obtained. / A iniciativa Linked Data trouxe novas oportunidades para a construção da nova geração de aplicações Web. Entretanto, a utilização das melhores práticas estabelecidas por este padrão depende de mecanismos que facilitem a transformação dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propôs uma linguagem de mapeamento padrão, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulários RDF. No entanto, a geração de mapeamentos R2RML não é uma tarefa fácil. É imperativo, então, definir: (a) uma solução para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicação dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicação deste processo. Assertivas de correspondência são propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. Visões são usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A definição de visões RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessário alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em três camadas – de dados, de visões SQL e de visões RDF – onde a camada de visões SQL mapeia os conceitos da camada de dados nos termos da camada de visões RDF. A criação desta camada intermediária de visões facilita a geração dos mapeamentos R2RML e evita que alterações na camada de dados impliquem em alterações destes mapeamentos. Adicionalmente, definimos um processo em três etapas para geração das visões RDF. Na primeira etapa, o usuário define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondência que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada é gerada automaticamente. O segundo passo produz um esquema de visões SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visões para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visões RDF são publicadas em um SPARQL endpoint. Neste trabalho são detalhados as assertivas de correspondência, a arquitetura, o processo, os algoritmos necessários, uma ferramenta que suporta o processo e um estudo de caso para validação dos resultados obtidos.
|
256 |
Integração de recursos da web semântica e mineração de uso para personalização de sites / Integrating semantic web resources and web usage mining for websites personalizationRigo, Sandro Jose January 2008 (has links)
Um dos motivos para o crescente desenvolvimento da área de mineração de dados encontra-se no aumento da quantidade de documentos gerados e armazenados em formato digital, estruturados ou não. A Web contribui sobremaneira para este contexto e, de forma coerente com esta situação, observa-se o surgimento de técnicas específicas para utilização nesta área, como a mineração de estrutura, de conteúdo e de uso. Pode-se afirmar que esta crescente oferta de informação na Web cria o problema da sobrecarga cognitiva. A Hipermídia Adaptativa permite minorar este problema, com a adaptação de hiperdocumentos e hipermídia aos seus usuários segundo suas necessidades, preferências e objetivos. De forma resumida, esta adaptação é realizada relacionando-se informações sobre o domínio da aplicação com informações sobre o perfil de usuários. Um dos tópicos importantes de pesquisa em sistemas de Hipermídia Adaptativa encontra-se na geração e manutenção do perfil dos usuários. Dentre as abordagens conhecidas, existe um contínuo de opções, variando desde cadastros de informações preenchidos manualmente, entrevistas, até a aquisição automática de informações com acompanhamento do uso da Web. Outro ponto fundamental de pesquisa nesta área está ligado à construção das aplicações, sendo que recursos da Web Semântica, como ontologias de domínio ou anotações semânticas de conteúdo podem ser observados no desenvolvimento de sistemas de Hipermídia Adaptativa. Os principais motivos para tal podem ser associados com a inerente flexibilidade, capacidade de compartilhamento e possibilidades de extensão destes recursos. Este trabalho descreve uma arquitetura para a aquisição automática de perfis de classes de usuários, a partir da mineração do uso da Web e da aplicação de ontologias de domínio. O objetivo principal é a integração de informações semânticas, obtidas em uma ontologia de domínio descrevendo o site Web em questão, com as informações de acompanhamento do uso obtidas pela manipulação dos dados de sessões de usuários. Desta forma é possível identificar mais precisamente os interesses e necessidades de um usuário típico. Integra o trabalho a implementação de aplicação de Hipermídia Adaptativa a partir de conceitos de modelagem semântica de aplicações, com a utilização de recursos de serviços Web, para validação experimental da proposta. / One of the reasons for the increasing development observed in Data Mining area is the raising in the quantity of documents generated and stored in digital format, structured or not. The Web plays central role in this context and some specific techniques can be observed, as structure, content and usage mining. This increasing information offer in the Web brings the cognitive overload problem. The Adaptive Hypermedia permits a reduction of this problem, when the contents of selected documents are presented in accordance with the user needs, preferences and objectives. Briefly put, this adaptation is carried out on the basis of relationship between information concerning the application domain and information concerning the user profile. One of the important points in Adaptive Hypermedia systems research is to be found in the generation and maintenance of the user profiles. Some approaches seek to create the user profile from data obtained from registration, others incorporate the results of interviews, and some have the objective of automatic acquisition of information by following the usage. Another fundamental research point is related with the applications construction, where can be observed the use of Web semantic resources, such as semantic annotation and domain ontologies. This work describes the architecture for automatic user profile acquisition, using domain ontologies and Web usage mining. The main objective is the integration of usage data, obtained from user sessions, with semantic description, obtained from a domain ontology. This way it is possible to identify more precisely the interests and needs of a typical user. The implementation of an Adaptive Hypermedia application based on the concepts of semantic application modeling and the use of Web services resources that were integrated into the proposal permitted greater flexibility and experimentation possibilities.
|
257 |
Towards a comprehensive functional layered architecture for the Semantic WebGerber, Aurona J. 30 November 2006 (has links)
The Semantic Web, as the foreseen successor of the current Web, is
envisioned to be a semantically enriched information space usable by machines
or agents that perform sophisticated tasks on behalf of their users.
The realisation of the Semantic Web prescribe the development of a comprehensive
and functional layered architecture for the increasingly semantically
expressive languages that it comprises of. A functional architecture is
a model specified at an appropriate level of abstraction identifying system
components based on required system functionality, whilst a comprehensive
architecture is an architecture founded on established design principles
within Software Engineering.
Within this study, an argument is formulated for the development of a
comprehensive and functional layered architecture through the development
of a Semantic Web status model, the extraction of the function of
established Semantic Web technologies, as well as the development of an
evaluation mechanism for layered architectures compiled from design principles
as well as fundamental features of layered architectures. In addition,
an initial version of such a comprehensive and functional layered architecture
for the Semantic Web is constructed based on the building blocks
described above, and this architecture is applied to several scenarios to
establish the usefulness thereof.
In conclusion, based on the evidence collected as result of the research
in this study, it is possible to justify the development of an architectural
model, or more specifically, a comprehensive and functional layered architecture
for the languages of the Semantic Web. / Computing / PHD (Computer Science)
|
258 |
Ontology databasesLe Pendu, Paea Jean-Francois, 1974- 03 1900 (has links)
xi, 89 p. : ill. A print copy of this thesis is available through the UO Libraries. Search the library catalog for the location and call number. / On the one hand, ontologies provide a means of formally specifying complex descriptions and relationships about information in a way that is expressive yet amenable to automated processing and reasoning. When data are annotated using terms from an ontology, the instances inhere in formal semantics. Compared to an ontology, which may have as few as a dozen or as many as tens of thousands of terms, the annotated instances for the ontology are often several orders of magnitude larger, from millions to possibly trillions of instances. Unfortunately, existing reasoning techniques cannot scale to these sizes.
On the other hand, relational database management systems provide mechanisms for storing, retrieving, and maintaining the integrity of large amounts of data. Relational database management systems are well known for scaling to extremely large sizes of data, some claiming to manage over a quadrillion data.
This dissertation defines ontology databases as a mapping from ontologies to relational databases in order to combine the expressiveness of ontologies with the scalability of relational databases. This mapping is sound and, under certain conditions, complete. That is, the database behaves like a knowledge base which is faithful to the semantics of a given ontology. What distinguishes this work is the treatment of the relational database management system as an active reasoning component rather than as a passive storage and retrieval system.
The main contributions this dissertation will highlight include: (i) the theory and implementation particulars for mapping ontologies to databases, (ii) subsumption based reasoning, (iii) inconsistency detection, (iv) scalability studies, and (v) information integration (specifically, information exchange). This work is novel because it is the first attempt to embed a logical reasoning system, specified by a Semantic Web ontology, into a plain relational database management system using active database technologies. This work also introduces the not-gadget , which relaxes the closed-world assumption and increases the expressive power of the logical system without significant cost. This work also demonstrates how to deploy the same framework as an information integration system for data exchange scenarios, which is an important step toward semantic information integration over distributed data repositories. / Committee in charge: Dejing Dou, Chairperson, Computer & Information Science;
Zena Ariola, Member, Computer & Information Science;
Christopher Wilson, Member, Computer & Information Science;
Monte Westerfield, Outside Member, Biology
|
259 |
[en] ONTOLOGY-DRIVEN RIA INTERFACES GENERATION / [pt] GERAÇÃO DE INTERFACES RIA DIRIGIDA POR ONTOLOGIASANDREIA MIRANDA DE LUNA 28 May 2010 (has links)
[pt] Vivemos hoje na era da Web 2.0, onde os navegadores executam interfaces
gráficas cada vez mais ricas, permitindo que virtualmente todo tipo de aplicação possa
explorar a ubiqüidade dos navegadores Web sem comprometer a experiência do
usuário. Os modelos utilizados no desenvolvimento de software, além de mecanismos
de abstração e documentação, sob o paradigma do Desenvolvimento Dirigido por
Modelos, também são poderosas linguagens de especificação, que, aliadas a técnicas
de transformação, podem automatizar a tarefa repetitiva de gerar código de infraestrutura.
A proposta deste trabalho consiste em definir uma linguagem de descrição,
em alto nível, do funcionamento das interfaces RIA (Rich Internet Application), um
processador para esta descrição, capaz de gerar o código executável da interface, e a
respectiva máquina de runtime para executar as interfaces geradas. Por dar suporte
ao desenvolvimento Web baseado no método SHDM (Semantic Hypermedia Design
Method), o ambiente de prototipação HyperDE foi escolhido como a plataforma-alvo
para a geração de interfaces executáveis. O ambiente de modelagem e execução das
interfaces RIA também introduz um protocolo assíncrono baseado em fila de
mensagens como forma de implementar a comunicação entre as camadas de Modelo
e Visão. Se a tecnologia Ajax permite a comunicação assíncrona entre cliente e
servidor, de tal forma que diferentes componentes da interface possam ser atualizados
de forma independente, as interações entre Visão e Modelo, quando mediadas por um
sistema de fila de mensagens, tornam possível a atualização de interfaces com os
resultados parciais do processamento de uma requisição. / [en] In this Web 2.0 era, the browsers perform ever-richer graphical interfaces. Today,
virtually every type of application can benefit from the ubiquity of Web browsers without
compromising the user experience. Under the Model-Driven Development paradigm,
models represent more than abstraction and documentation tools; they can also
perform as powerful specification languages. When transformation rules are applied to
these models, this can automate the repetitive task of generating infrastructure code.
This work proposes an abstract RIA interface description language and a whole
software environment that can make it possible to the application designer to
automatically generate an executable interface from an abstract description. Being the
Semantic Hypermedia Design Method (SHDM) development environment, the
HyperDE framework became the target platform for the RIA interface code generation.
Our solution also introduces a message queue-based protocol as a way to implement
asynchronous communication between Model and View. It will make it possible to
update the interface with the partial results of a request processing and, therefore,
improve the user experience, enhancing what Ajax technology has accomplished so
far.
|
260 |
[en] EXPLORATOR: A TOOL FOR EXPLORING RDF DATA THROUGH DIRECT MANIPULATION / [pt] EXPLORATOR: UMA FERRAMENTA PARA EXPLORAÇÃO DE DADOS RDF BASEADO EM UMA INTERFACE DE MANIPULAÇÃO DIRETASAMUR FELIPE CARDOSO DE ARAUJO 15 June 2009 (has links)
[pt] Nessa dissertação propomos uma ferramenta destinada à exploração dos
dados na Web Semântica. Nosso objetivo foi desenvolver um modelo de
exploração que permitisse o usuário explorar uma base de dados RDF sem deter
qualquer conhecimento prévio de seu domínio. Para tanto, apresentamos um
modelo de operações que suportadas por uma interface baseada no paradigma de
manipulação direta e query-by-example, nos permite explorar uma base de dados
RDF semi-estruturada para ganhar conhecimento e responder questões específicas
sobre o domínio, através de navegação, busca e outros mecanismos de exploração.
Também desenvolvemos um modelo de especificação e geração automática de
facetas que pode ser utilizado na construção de mecanismos de navegação
facetada sobre dados RDF. O produto final desse trabalho é a ferramenta
Explorator, que propomos como um ambiente para Exploração dos dados na Web
Semântica. / [en] In this dissertation we propose a tool for Semantic Data exploration. We
developed an exploration model that allows users without any a prior knowledge
about the data domain to explore an RDF database. So that, we presented an
operation model, that supported by an interface based on the direct manipulation
and query-by-example paradigm, allows users to explore an RDF base to both
gain knowledge and answer questions about a domain, through navigation, search
and others exploration mechanisms. Also, we developed a facet specification
model and a mechanism for automatic facet extraction that can be used in the
development of facet navigation systems over RDF. The final product of this
work is a tool called Explorator that we are proposing as an environment for
Semantic Web data exploration.
|
Page generated in 0.0657 seconds