11 |
[en] ONTOLOGY-DRIVEN RIA INTERFACES GENERATION / [pt] GERAÇÃO DE INTERFACES RIA DIRIGIDA POR ONTOLOGIASANDREIA MIRANDA DE LUNA 28 May 2010 (has links)
[pt] Vivemos hoje na era da Web 2.0, onde os navegadores executam interfaces
gráficas cada vez mais ricas, permitindo que virtualmente todo tipo de aplicação possa
explorar a ubiqüidade dos navegadores Web sem comprometer a experiência do
usuário. Os modelos utilizados no desenvolvimento de software, além de mecanismos
de abstração e documentação, sob o paradigma do Desenvolvimento Dirigido por
Modelos, também são poderosas linguagens de especificação, que, aliadas a técnicas
de transformação, podem automatizar a tarefa repetitiva de gerar código de infraestrutura.
A proposta deste trabalho consiste em definir uma linguagem de descrição,
em alto nível, do funcionamento das interfaces RIA (Rich Internet Application), um
processador para esta descrição, capaz de gerar o código executável da interface, e a
respectiva máquina de runtime para executar as interfaces geradas. Por dar suporte
ao desenvolvimento Web baseado no método SHDM (Semantic Hypermedia Design
Method), o ambiente de prototipação HyperDE foi escolhido como a plataforma-alvo
para a geração de interfaces executáveis. O ambiente de modelagem e execução das
interfaces RIA também introduz um protocolo assíncrono baseado em fila de
mensagens como forma de implementar a comunicação entre as camadas de Modelo
e Visão. Se a tecnologia Ajax permite a comunicação assíncrona entre cliente e
servidor, de tal forma que diferentes componentes da interface possam ser atualizados
de forma independente, as interações entre Visão e Modelo, quando mediadas por um
sistema de fila de mensagens, tornam possível a atualização de interfaces com os
resultados parciais do processamento de uma requisição. / [en] In this Web 2.0 era, the browsers perform ever-richer graphical interfaces. Today,
virtually every type of application can benefit from the ubiquity of Web browsers without
compromising the user experience. Under the Model-Driven Development paradigm,
models represent more than abstraction and documentation tools; they can also
perform as powerful specification languages. When transformation rules are applied to
these models, this can automate the repetitive task of generating infrastructure code.
This work proposes an abstract RIA interface description language and a whole
software environment that can make it possible to the application designer to
automatically generate an executable interface from an abstract description. Being the
Semantic Hypermedia Design Method (SHDM) development environment, the
HyperDE framework became the target platform for the RIA interface code generation.
Our solution also introduces a message queue-based protocol as a way to implement
asynchronous communication between Model and View. It will make it possible to
update the interface with the partial results of a request processing and, therefore,
improve the user experience, enhancing what Ajax technology has accomplished so
far.
|
12 |
[en] EXPLORATOR: A TOOL FOR EXPLORING RDF DATA THROUGH DIRECT MANIPULATION / [pt] EXPLORATOR: UMA FERRAMENTA PARA EXPLORAÇÃO DE DADOS RDF BASEADO EM UMA INTERFACE DE MANIPULAÇÃO DIRETASAMUR FELIPE CARDOSO DE ARAUJO 15 June 2009 (has links)
[pt] Nessa dissertação propomos uma ferramenta destinada à exploração dos
dados na Web Semântica. Nosso objetivo foi desenvolver um modelo de
exploração que permitisse o usuário explorar uma base de dados RDF sem deter
qualquer conhecimento prévio de seu domínio. Para tanto, apresentamos um
modelo de operações que suportadas por uma interface baseada no paradigma de
manipulação direta e query-by-example, nos permite explorar uma base de dados
RDF semi-estruturada para ganhar conhecimento e responder questões específicas
sobre o domínio, através de navegação, busca e outros mecanismos de exploração.
Também desenvolvemos um modelo de especificação e geração automática de
facetas que pode ser utilizado na construção de mecanismos de navegação
facetada sobre dados RDF. O produto final desse trabalho é a ferramenta
Explorator, que propomos como um ambiente para Exploração dos dados na Web
Semântica. / [en] In this dissertation we propose a tool for Semantic Data exploration. We
developed an exploration model that allows users without any a prior knowledge
about the data domain to explore an RDF database. So that, we presented an
operation model, that supported by an interface based on the direct manipulation
and query-by-example paradigm, allows users to explore an RDF base to both
gain knowledge and answer questions about a domain, through navigation, search
and others exploration mechanisms. Also, we developed a facet specification
model and a mechanism for automatic facet extraction that can be used in the
development of facet navigation systems over RDF. The final product of this
work is a tool called Explorator that we are proposing as an environment for
Semantic Web data exploration.
|
13 |
[en] AN APPLICATION BUILDER FOR QUERING RDF/RDFS DATASETS / [pt] GERADOR DE APLICAÇÕES PARA CONSULTAS A BASES RDF/RDFSMARCELO COHEN DE AZEVEDO 27 July 2010 (has links)
[pt] Com o crescimento da web semântica, cada vez mais bases de dados em
RDF contendo todo tipo de informações, nos mais variados domínios, estão
disponíveis para acesso na Internet. Para auxiliar o acesso e a integração dessas
informações, esse trabalho apresenta uma ferramenta que permite a geração de
aplicações para consultas a bases em RDF e RDFS através da programação por
exemplo. Usuários podem criar casos de uso através de operações simples em
cima do modelo RFDS da própria base. Esses casos de uso podem ser
generalizados e compartilhados com outros usuários, que podem reutilizá-los.
Com esse compartilhamento, cria-se a possibilidade desses casos de uso serem
customizados e evoluídos colaborativamente no próprio ambiente em que foram
desenvolvidos. Novas operações também podem ser criadas e compartilhadas, o
que contribui para o aumento gradativo do poder da ferramenta. Finalmente,
utilizando um conjunto desses casos de uso, é possível gerar uma aplicação web
que abstraia o modelo RDF em que os dados estão representados, tornando
possível o acesso a essas informações por usuários que não conheçam o modelo
RDF. / [en] Due to increasing popularity of the semantic web, more data sets, containing
information about varied domains, have become available for access in the
Internet. This thesis proposes a tool to assist accessing and exploring this
information. This tool allows the generation of applications for querying databases
in RDF and RDFS through programming by example. Users are able to create use
cases through simple operations using the RDFS model. These use cases can be
generalized and shared with other users, who can reuse them. The shared use
cases can be customized and extended collaboratively in the environment which
they were developed. New operations can also be created and shared, making the
tool increasingly more powerful. Finally, using a set of use cases, it’s possible to
generate a web application that abstracts the RDF model where the data is
represented, making it possible for lay users to access this information without
any knowledge of the RDF model.
|
14 |
[en] A NEW APPROACH FOR MINING SOFTWARE REPOSITORIES USING SEMANTIC WEB TOOLS / [pt] UMA NOVA ABORDAGEM DE MINERAÇÃO DE REPOSITÓRIOS DE SOFTWARE UTILIZANDO FERRAMENTAS DA WEB SEMÂNTICAFERNANDO DE FREITAS SILVA 15 July 2015 (has links)
[pt] A Mineração de Repositórios de Software é um campo de pesquisa que extrai e analisa informações disponíveis em repositórios de software, como sistemas de controle de versão e gerenciadores de issues. Atualmente, diversos trabalhos nesta área de pesquisa têm utilizado as ferramentas da Web Semântica
durante o processo de extração a fim de superar algumas limitações que as abordagens tradicionais enfrentam. O objetivo deste trabalho é estender estas abordagens que utilizam a Web Semântica para minerar informações não consideradas atualmente. Uma destas informações é o relacionamento existente
entre as revisões do controle de versão e as mudanças que ocorrem no Abstract Syntax Trees dos arquivos modificados por essas revisões. Adicionalmente, esta nova abordagem também permite modelar a interdependência entre os projetos de software, suas licenças e extrair informações dos builds gerados por
ferramentas de integração contínua. A validação desta nova abordagem é demonstrada através de um conjunto de questões que são feitas por desenvolvedores e gerentes durante a execução de um projeto e que foram identificadas em vários trabalhos da literatura. Demonstramos como estas questões foram convertidas para consultas SPARQL e como este trabalho consegue responder às questões que não são respondidas ou são respondidas parcialmente em outras ferramentas. / [en] The Mining of Software Repositories is a field of research that extracts and analyzes information available in software repositories, such as version control systems and issue trackers. Currently, several research works in this area have used Semantic Web tools during the extraction process to overcome some limitations that traditional approaches face. The objective of this work is to extend the existing approaches that use Semantic Web tools to mine information not considered in these works. The objective of this work is to extend these
approaches using the Semantic Web to mine information not currently considered. One of these information is the relationship between revisions of version control and the changes that occur in the Abstract Syntax Trees of files modified by these revisions. Additionally, this new approach also allows modeling the interdependence of software projects, their licenses and extracting information from builds generated by continuous integration tools. The validation of this approach is demonstrated through a set of questions that are asked by developers and managers during the execution of a project and have been identified in various works in the literature. We show how these questions were translated into SPARQL queries and how this work can answer the questions that are not answered or are partially answered in other tools.
|
15 |
[en] BUILDING RELATION EXTRACTORS THROUGH DISTANT SUPERVISION / [pt] CONSTRUÇÃO DE EXTRATORES DE RELAÇÕES POR SUPERVISIONAMENTO À DISTÂNCIATHIAGO RIBEIRO NUNES 22 May 2013 (has links)
[pt] Um problema conhecido no processo de construção de extratores de relações semânticas supervisionados em textos em linguagem natural é a disponibilidade de uma quantidade suficiente de exemplos positivos para um conjunto amplo de relações-alvo. Este trabalho apresenta uma abordagem supervisionada a distância para construção de extratores de relações a um baixo custo combinando duas das maiores fontes de informação estruturada e não estruturada disponíveis na Web, o DBpedia e a Wikipedia. O método implementado mapeia relações da ontologia do DBpedia de volta para os textos da Wikipedia para montar um conjunto amplo de exemplos contendo mais de 100.000 sentenças descrevendo mais de 90 relações do DBpedia para os idiomas Inglês e Português. Inicialmente, são extraídas sentenças dos artigos da Wikipedia candidatas a expressar relações do DBpedia. Após isso, esses dados são pré-processados e normalizados através da filtragem de sentenças irrelevantes. Finalmente, extraem-se características dos exemplos para treinamento e avaliação de extratores de relações utilizando SVM. Os experimentos realizados nos idiomas Inglês e Português, através de linhas de base, mostram as melhorias alcançadas quando combinados diferentes tipos de características léxicas, sintáticas e semânticas. Para o idioma Inglês, o extrator construído foi treinado em um corpus constituído de 90 relações com 42.471 exemplos de treinamento, atingindo 81.08 por cento de medida F1 em um conjunto de testes contendo 28.773 instâncias. Para Português, o extrator foi treinado em um corpus de 50 relações com 200 exemplos por relação, resultando em um valor de 81.91 por cento de medida F1 em um conjunto de testes contendo 18.333 instâncias. Um processo de Extração de Relações (ER) é constituído de várias etapas, que vão desde o pré-processamento dos textos até o treinamento e a avaliação de detectores de relações supervisionados. Cada etapa pode admitir a implementação de uma ou várias técnicas distintas. Portanto, além da abordagem, este trabalho apresenta, também, detalhes da arquitetura de um framework para apoiar a implementação e a realização de experimentos em um processo de ER. / [en] A well known drawback in building machine learning semantic relation detectors for natural language is the availability of a large number of qualified training instances for the target relations. This work presents an automatic approach to build multilingual semantic relation detectors through distant supervision combining the two largest resources of structured and unstructured content available on the Web, the DBpedia and the Wikipedia resources. We map the DBpedia ontology back to the Wikipedia to extract more than 100.000 training instances for more than 90 DBpedia relations for English and Portuguese without human intervention. First, we mine the Wikipedia articles to find candidate instances for relations described at DBpedia ontology. Second, we preprocess and normalize the data filtering out irrelevant instances. Finally, we use the normalized data to construct SVM detectors. The experiments performed on the English and Portuguese baselines shows that the lexical and syntactic features extracted from Wikipedia texts combined with the semantic features extracted from DBpedia can significantly improve the performance of relation detectors. For English language, the SVM detector was trained in a corpus formed by 90 DBpedia relations and 42.471 training instances, achieving 81.08 per cent of F-Measure when applied to a test set formed by 28.773 instances. The Portuguese detector was trained with 50 DBpedia relations and 200 examples by relation, being evaluated in 81.91 per cent of F-Measure in a test set containing 18.333 instances. A Relation Extraction (RE) process has many distinct steps that usually begins with text pre-processing and finish with the training and the evaluation of relation detectors. Therefore, this works not only presents an RE approach but also an architecture of a framework that supports the implementation and the experiments of a RE process.
|
16 |
[pt] GESTÃO DO CONHECIMENTO NO GERENCIAMENTO DE SERVIÇOS DE TI: USO E AVALIAÇÃO / [en] KNOWLEDGE MANAGEMENT FOR IT SERVICE MANAGEMENT: USAGE AND EVALUATIONMATHEUS SALCEDO 07 June 2011 (has links)
[pt] Na atual economia, a vantagem competitiva das empresas pode ser
diretamente ligada à sua capacidade de utilizar o conhecimento detido por seus
membros. No entanto, para agregar valor a uma organização, este conhecimento
precisa ser compartilhado. Desta forma, a capacidade da organização de integrar e
aplicar os conhecimentos especializados de sua força de trabalho é fundamental
para obter e manter uma vantagem competitiva organizacional. Os sistemas de
gerenciamento de conhecimento auxiliam a criação, coleta, organização e
disseminação de conhecimento. Entretanto, esses sistemas possuem limitações
como, por exemplo, a grande dificuldade de integrar conhecimentos provenientes
de diferentes fontes, geralmente em virtude da ausência de Semântica nas suas
descrições. O principal objetivo desta dissertação é estudar as limitações
tecnológicas dos sistemas de gerenciamento de conhecimento existentes e propor
soluções através da adoção de formalismos da Web Semântica. Para atingir este
objetivo é usado, como estudo de caso, um sistema de gerenciamento de
conhecimento em produção de uma grande empresa brasileira que apóia a
operação da sua infraestrutura de TIC. Neste estudo, demonstra-se que esta
abordagem permite acrescentar Semântica adicional a dados já existentes,
integrando bases anteriormente isoladas, gerando um melhor resultado
operacional. / [en] In today s economy, the competitive advantage of companies can be directly
linked to its ability to utilize the knowledge held by its members. However, to add
value to an organization, this knowledge must be shared. Thus, the organization s
ability to integrate and apply the expertise of its workforce is essential to achieve
and maintain an organizational competitive advantage. The knowledge
management systems help to create, collect, organize and disseminate knowledge.
However, these systems have limitations, such as the difficulty of integrating
knowledge from different sources, usually because of the lack of semantics in his
descriptions. The main objective of this dissertation is to study the technological
limitations of existing knowledge management systems and propose solutions
through the adoption of Semantic Web formalisms. To achieve this goal, is used
as a study case the knowledge management system in production of a large
Brazilian company, which supports the operation of its IT infrastructure. This
study demonstrates that this approach can add additional semantics to existing
data, integrating previously isolated databases, creating a better operating result.
|
17 |
[en] SWELL: A SEMANTIC WEB-SERVICES SELECTION ENVIRONMENT / [pt] SWELL: UM AMBIENTE PARA SELEÇÃO DE WEB-SERVICES SEMÂNTICOSJOAO FELIPE SANTOS CONDACK 28 October 2004 (has links)
[pt] Inicialmente a Internet era um canal de comunicação e
distribuição de
conteúdo textual. Com o advento do comércio eletrônico e a
maturação da própria
Web, ela se tornou uma plataforma de implantação de
sistemas. Paralelamente, o
próprio desenvolvimento de software evoluiu, com aplicações
de novos conceitos
da engenharia de software, tais como componentes, reuso e
design patterns. No
intuito de desenvolver práticas e tecnologias que
aperfeiçoem a construção de
softwares decidiu-se, neste trabalho, por conciliar estas
duas tendências
evolutivas.
Swell é um ambiente para o auxílio no desenvolvimento de
Sistemas
Baseados na Web (SBWs), tendo como ponto forte a seleção
semântica de web services. Trata-se de uma ferramenta cujo
objetivo é ajudar nas tarefas de design e
construção de aplicações, visando atingir alto grau de
reuso. Este auxílio se dá
através da descrição, busca e escolha de serviços para
composição de aplicações.
O ambiente Swell foi pensado de modo a dar suporte à
evolução das tecnologias
de componentes para Web. Ele provê pontos de flexibilização
permitindo
adaptação a novas descrições de web services e refletindo
estas mudanças no
mecanismo de busca. / [en] Initially the Internet was a communication channel and a
text-based content
dissemination vehicle. With the advent of e-commerce and
Web's unfolding, it
became a systems deployment platform. At the same time,
software development
also evolved, through the use of new software engineering
concepts, such as
components, reuse and design patterns. This work aims at
helping to develop
practices and technologies that improve software
development by conciliating
these two evolution trends.
Swell is an environment that helps Web Based Systems
development,
having as a cornerstone the semantic selection of web-
services. It is a tool whose
objective is to help in the application design and
development tasks, aiming to
reach a high degree of reuse. This is achieved through the
support for the
description, search and selection of web services for
application composition. The
Swell environment was conceived as a framework with support
for the evolution
of web components technologies. It provides hot spots that
allow for adaptation of
new web services descriptions and reflection of these
changes in the search
engine.
|
18 |
[en] A UNIFIED PROCESS FRAMEWORK OF ONTOLOGY ENGINEERING / [pt] UM PROCESSO UNIFICADO PARA ENGENHARIA DE ONTOLOGIASDANIEL ABADI ORLEAN 12 March 2004 (has links)
[pt] A Web Semântica já está deixando de ser uma visão de Tim
Berners-Lee para virar uma realidade. Diversos projetos
em todo mundo já exploram as potencialidades dessa
segunda geração da Web para tornar seu conteúdo
processável por máquinas. Infelizmente (ou felizmente!),
os computadores não são capazes de desenvolver por livre
e espontânea vontade uma linguagem consensual de
comunicação. É nesta etapa que entram em cena as
ontologias. Conhecida no ramo da filosofia como teorias
sobre a natureza da existência, as ontologias têm sido
encaradas de maneira consideravelmente diferente no
universo computacional. Representam um entendimento comum
e compartilhado sobre um domínio específico e têm como o
objetivo principal permitir a comunicação entre
organizações, pessoas e o uso de metodologias, processos
e/ ou métodos bem definidos. Com o aumento de sua
importância, o projeto e desenvolvimento de ontologias
vêm deixando de ser uma arte para se transformar em um
processo de engenharia. Diversas propostas já foram
apresentadas para o problema de engenharia de ontologias,
muitas delas apoiadas por estudos acadêmicos e
industriais. No entanto, é importante notar que nenhuma
dessas metodologias - que em muitos casos resumem-se
apenas a heurísticas extraídas da experiência de seus
autores ou a orientações sobre como alcançar bons
resultados - atende por completo aos requisitos
potenciais do projeto de uma ontologia. O que se propõe
neste trabalho é a unificação de disciplinas e atividades
oriundas de metodologias distintas em um framework de
processos abrangente, entitulado KUP - Knowldge Unified
Process, que permite um adequado projeto e
desenvolvimento de ontologias e bases de conhecimento.
Entende-se como um processo um conjunto de atividades e
resultados associados a essas atividades com o objetivo
de garantir a geração de um produto final, seja este
produto um software, uma ontologia ou uma ontologia
associada a sua base de conhecimento. A unificação deste
processo segue as melhores práticas em engenharia de
software existentes na indústria e é apoiada por um
framework de avaliação de metodologias consolidado na
academia. Foram realizados dois estudos de caso para este
framework de processos, um envolvendo o desenvolvimento
de uma solução de gestão de conhecimento em segurança da
informação e outro envolvendo a integração de uma
ferramenta de gestão de competências para ambientes de
educação a distância. / [en] The Semantic Web is now a reality. Several projects all
around the world are already using tools technologies
developed to support the second generation of the Web to
provide machine-processable content for software agents,
web services and applications. However, computers can not
agree on a consesual language by themselves. Ontologies can
be used as a way to provide this shared conceptualization,
making posssible the desired communication among
organizations, people and apllications. Several proposals
have been already presented regarding ontology engineering -
many supported by academic and industrial case studies.
However, none of them encompasses all the requirements
identified for an ontology construction project. This work
describes the unification of different features extracted
from those methodologies to build a process framework
named KUP - the Knowledge Unified Process. This unified
process is based on several industry best practices and on
a well accepted ontology methodology evaluation framework.
Two case studies were developed so as to support and
validate this process framework. The first was the
development of a semantic web solution for security
information knowledge management and the second
one was the integration of a skill management tool to a
learning management system, through ontologies.
|
19 |
[en] CLUSTERING AND DATASET INTERLINKING RECOMMENDATION IN THE LINKED OPEN DATA CLOUD / [pt] CLUSTERIZAÇÃO E RECOMENDAÇÃO DE INTERLIGAÇÃO DE CONJUNTO DE DADOS NA NUVEM DE DADOS ABERTOS CONECTADOSALEXANDER ARTURO MERA CARABALLO 24 July 2017 (has links)
[pt] O volume de dados RDF publicados na Web aumentou consideravelmente, o que ressaltou a importância de seguir os princípios de dados interligados para promover a interoperabilidade. Um dos princípios afirma que todo novo conjunto de dados deve ser interligado com outros conjuntos de dados publicados na Web. Esta tese contribui para abordar este princípio de duas maneiras. Em primeiro lugar, utiliza algoritmos de detecção de comunidades e técnicas de criação de perfis para a criação e análise automática de um diagrama da nuvem da LOD (Linked Open Data), o qual facilita a localização de conjuntos de dados na nuvem da LOD. Em segundo lugar, descreve três abordagens, apoiadas por ferramentas totalmente implementadas, para recomendar conjuntos de dados a serem interligados com um novo conjunto de dados, um problema conhecido como problema de recomendação de interligação de conjunto de dados. A primeira abordagem utiliza medidas de previsão de links para produzir recomendações de interconexão. A segunda abordagem emprega algoritmos de aprendizagem supervisionado, juntamente com medidas de previsão de links. A terceira abordagem usa algoritmos de agrupamento e técnicas de criação de perfil para
produzir recomendações de interconexão. Essas abordagens são implementadas, respectivamente, pelas ferramentas TRT, TRTML e DRX. Por fim, a tese avalia extensivamente essas ferramentas, usando conjuntos de dados do mundo real. Os resultados mostram que estas ferramentas facilitam o processo de criação de links entre diferentes conjuntos de dados. / [en] The volume of RDF data published on the Web increased considerably,
which stressed the importance of following the Linked Data principles to foster
interoperability. One of the principles requires that a new dataset should be interlinked with other datasets published on the Web. This thesis contributes to addressing this principle in two ways. First, it uses community detection algorithms and profiling techniques for the automatic creation and analysis of a Linked Open Data (LOD) diagram, which facilitates locating datasets in the LOD cloud. Second, it describes three approaches, backed up by fully implemented tools, to recommend datasets to be interlinked with a new dataset, a problem known as the dataset interlinking recommendation problem. The first approach uses link prediction measures to provide a list of datasets recommendations for interlinking. The second approach employs supervised learning algorithms, jointly with link prediction measures. The third approach uses clustering algorithms and profiling techniques to produce dataset interlinking recommendations. These approaches are backed up, respectively, by the TRT, TRTML and DRX tools. Finally, the thesis extensively evaluates these tools, using real-world datasets, reporting results that show that they facilitate the process of creating links between disparate datasets.
|
20 |
[en] A METHOD AND AN ENVIRONMENT FOR THE SEMANTIC WEB APPLICATIONS DEVELOPMENT / [pt] UM MÉTODO E UM AMBIENTE PARA O DESENVOLVIMENTO DE APLICAÇÕES NA WEB SEMÂNTICAMAURICIO HENRIQUE DE SOUZA BOMFIM 29 July 2011 (has links)
[pt] A crescente disponibilização de dados e ontologias segundo os padrões da
Web Semântica tem levado à necessidade de criação de métodos e ferramentas
de desenvolvimento de aplicações que considerem a utilização e
disponibilização dos dados distribuídos na rede segundo estes padrões. O
objetivo desta dissertação é apresentar um método, incluindo processos e
modelos, e um ambiente para o desenvolvimento de aplicações na Web
Semântica. Mais especificamente, este trabalho apresenta a evolução do método
SHDM (Semantic Hypermedia Design Method), que é um método para o
desenvolvimento de aplicações hipermídia na Web Semântica e o Synth, que é
um ambiente de desenvolvimento de aplicações projetadas segundo o método
SHDM. / [en] The growing availability of data and ontologies according to the Semantic
Web standards has led to the need of methods and tools for applications
development that take account the use and availability of the data distributed
according to these standards. The goal of this dissertation is to present a
method, including processes and models, and an environment for the Semantic
Web applications development. More specifically, this work shows the
evolution of the SHDM (Semantic Hypermedia Design Method), which is a
method for the Semantic Web hypermedia application development and the
Synth, which is an environment to build applications designed according to the
SHDM.
|
Page generated in 0.0495 seconds