• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 6
  • Tagged with
  • 40
  • 40
  • 40
  • 40
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

[en] ONTOLOGY-DRIVEN RIA INTERFACES GENERATION / [pt] GERAÇÃO DE INTERFACES RIA DIRIGIDA POR ONTOLOGIAS

ANDREIA MIRANDA DE LUNA 28 May 2010 (has links)
[pt] Vivemos hoje na era da Web 2.0, onde os navegadores executam interfaces gráficas cada vez mais ricas, permitindo que virtualmente todo tipo de aplicação possa explorar a ubiqüidade dos navegadores Web sem comprometer a experiência do usuário. Os modelos utilizados no desenvolvimento de software, além de mecanismos de abstração e documentação, sob o paradigma do Desenvolvimento Dirigido por Modelos, também são poderosas linguagens de especificação, que, aliadas a técnicas de transformação, podem automatizar a tarefa repetitiva de gerar código de infraestrutura. A proposta deste trabalho consiste em definir uma linguagem de descrição, em alto nível, do funcionamento das interfaces RIA (Rich Internet Application), um processador para esta descrição, capaz de gerar o código executável da interface, e a respectiva máquina de runtime para executar as interfaces geradas. Por dar suporte ao desenvolvimento Web baseado no método SHDM (Semantic Hypermedia Design Method), o ambiente de prototipação HyperDE foi escolhido como a plataforma-alvo para a geração de interfaces executáveis. O ambiente de modelagem e execução das interfaces RIA também introduz um protocolo assíncrono baseado em fila de mensagens como forma de implementar a comunicação entre as camadas de Modelo e Visão. Se a tecnologia Ajax permite a comunicação assíncrona entre cliente e servidor, de tal forma que diferentes componentes da interface possam ser atualizados de forma independente, as interações entre Visão e Modelo, quando mediadas por um sistema de fila de mensagens, tornam possível a atualização de interfaces com os resultados parciais do processamento de uma requisição. / [en] In this Web 2.0 era, the browsers perform ever-richer graphical interfaces. Today, virtually every type of application can benefit from the ubiquity of Web browsers without compromising the user experience. Under the Model-Driven Development paradigm, models represent more than abstraction and documentation tools; they can also perform as powerful specification languages. When transformation rules are applied to these models, this can automate the repetitive task of generating infrastructure code. This work proposes an abstract RIA interface description language and a whole software environment that can make it possible to the application designer to automatically generate an executable interface from an abstract description. Being the Semantic Hypermedia Design Method (SHDM) development environment, the HyperDE framework became the target platform for the RIA interface code generation. Our solution also introduces a message queue-based protocol as a way to implement asynchronous communication between Model and View. It will make it possible to update the interface with the partial results of a request processing and, therefore, improve the user experience, enhancing what Ajax technology has accomplished so far.
12

[en] EXPLORATOR: A TOOL FOR EXPLORING RDF DATA THROUGH DIRECT MANIPULATION / [pt] EXPLORATOR: UMA FERRAMENTA PARA EXPLORAÇÃO DE DADOS RDF BASEADO EM UMA INTERFACE DE MANIPULAÇÃO DIRETA

SAMUR FELIPE CARDOSO DE ARAUJO 15 June 2009 (has links)
[pt] Nessa dissertação propomos uma ferramenta destinada à exploração dos dados na Web Semântica. Nosso objetivo foi desenvolver um modelo de exploração que permitisse o usuário explorar uma base de dados RDF sem deter qualquer conhecimento prévio de seu domínio. Para tanto, apresentamos um modelo de operações que suportadas por uma interface baseada no paradigma de manipulação direta e query-by-example, nos permite explorar uma base de dados RDF semi-estruturada para ganhar conhecimento e responder questões específicas sobre o domínio, através de navegação, busca e outros mecanismos de exploração. Também desenvolvemos um modelo de especificação e geração automática de facetas que pode ser utilizado na construção de mecanismos de navegação facetada sobre dados RDF. O produto final desse trabalho é a ferramenta Explorator, que propomos como um ambiente para Exploração dos dados na Web Semântica. / [en] In this dissertation we propose a tool for Semantic Data exploration. We developed an exploration model that allows users without any a prior knowledge about the data domain to explore an RDF database. So that, we presented an operation model, that supported by an interface based on the direct manipulation and query-by-example paradigm, allows users to explore an RDF base to both gain knowledge and answer questions about a domain, through navigation, search and others exploration mechanisms. Also, we developed a facet specification model and a mechanism for automatic facet extraction that can be used in the development of facet navigation systems over RDF. The final product of this work is a tool called Explorator that we are proposing as an environment for Semantic Web data exploration.
13

[en] AN APPLICATION BUILDER FOR QUERING RDF/RDFS DATASETS / [pt] GERADOR DE APLICAÇÕES PARA CONSULTAS A BASES RDF/RDFS

MARCELO COHEN DE AZEVEDO 27 July 2010 (has links)
[pt] Com o crescimento da web semântica, cada vez mais bases de dados em RDF contendo todo tipo de informações, nos mais variados domínios, estão disponíveis para acesso na Internet. Para auxiliar o acesso e a integração dessas informações, esse trabalho apresenta uma ferramenta que permite a geração de aplicações para consultas a bases em RDF e RDFS através da programação por exemplo. Usuários podem criar casos de uso através de operações simples em cima do modelo RFDS da própria base. Esses casos de uso podem ser generalizados e compartilhados com outros usuários, que podem reutilizá-los. Com esse compartilhamento, cria-se a possibilidade desses casos de uso serem customizados e evoluídos colaborativamente no próprio ambiente em que foram desenvolvidos. Novas operações também podem ser criadas e compartilhadas, o que contribui para o aumento gradativo do poder da ferramenta. Finalmente, utilizando um conjunto desses casos de uso, é possível gerar uma aplicação web que abstraia o modelo RDF em que os dados estão representados, tornando possível o acesso a essas informações por usuários que não conheçam o modelo RDF. / [en] Due to increasing popularity of the semantic web, more data sets, containing information about varied domains, have become available for access in the Internet. This thesis proposes a tool to assist accessing and exploring this information. This tool allows the generation of applications for querying databases in RDF and RDFS through programming by example. Users are able to create use cases through simple operations using the RDFS model. These use cases can be generalized and shared with other users, who can reuse them. The shared use cases can be customized and extended collaboratively in the environment which they were developed. New operations can also be created and shared, making the tool increasingly more powerful. Finally, using a set of use cases, it’s possible to generate a web application that abstracts the RDF model where the data is represented, making it possible for lay users to access this information without any knowledge of the RDF model.
14

[en] A NEW APPROACH FOR MINING SOFTWARE REPOSITORIES USING SEMANTIC WEB TOOLS / [pt] UMA NOVA ABORDAGEM DE MINERAÇÃO DE REPOSITÓRIOS DE SOFTWARE UTILIZANDO FERRAMENTAS DA WEB SEMÂNTICA

FERNANDO DE FREITAS SILVA 15 July 2015 (has links)
[pt] A Mineração de Repositórios de Software é um campo de pesquisa que extrai e analisa informações disponíveis em repositórios de software, como sistemas de controle de versão e gerenciadores de issues. Atualmente, diversos trabalhos nesta área de pesquisa têm utilizado as ferramentas da Web Semântica durante o processo de extração a fim de superar algumas limitações que as abordagens tradicionais enfrentam. O objetivo deste trabalho é estender estas abordagens que utilizam a Web Semântica para minerar informações não consideradas atualmente. Uma destas informações é o relacionamento existente entre as revisões do controle de versão e as mudanças que ocorrem no Abstract Syntax Trees dos arquivos modificados por essas revisões. Adicionalmente, esta nova abordagem também permite modelar a interdependência entre os projetos de software, suas licenças e extrair informações dos builds gerados por ferramentas de integração contínua. A validação desta nova abordagem é demonstrada através de um conjunto de questões que são feitas por desenvolvedores e gerentes durante a execução de um projeto e que foram identificadas em vários trabalhos da literatura. Demonstramos como estas questões foram convertidas para consultas SPARQL e como este trabalho consegue responder às questões que não são respondidas ou são respondidas parcialmente em outras ferramentas. / [en] The Mining of Software Repositories is a field of research that extracts and analyzes information available in software repositories, such as version control systems and issue trackers. Currently, several research works in this area have used Semantic Web tools during the extraction process to overcome some limitations that traditional approaches face. The objective of this work is to extend the existing approaches that use Semantic Web tools to mine information not considered in these works. The objective of this work is to extend these approaches using the Semantic Web to mine information not currently considered. One of these information is the relationship between revisions of version control and the changes that occur in the Abstract Syntax Trees of files modified by these revisions. Additionally, this new approach also allows modeling the interdependence of software projects, their licenses and extracting information from builds generated by continuous integration tools. The validation of this approach is demonstrated through a set of questions that are asked by developers and managers during the execution of a project and have been identified in various works in the literature. We show how these questions were translated into SPARQL queries and how this work can answer the questions that are not answered or are partially answered in other tools.
15

[en] BUILDING RELATION EXTRACTORS THROUGH DISTANT SUPERVISION / [pt] CONSTRUÇÃO DE EXTRATORES DE RELAÇÕES POR SUPERVISIONAMENTO À DISTÂNCIA

THIAGO RIBEIRO NUNES 22 May 2013 (has links)
[pt] Um problema conhecido no processo de construção de extratores de relações semânticas supervisionados em textos em linguagem natural é a disponibilidade de uma quantidade suficiente de exemplos positivos para um conjunto amplo de relações-alvo. Este trabalho apresenta uma abordagem supervisionada a distância para construção de extratores de relações a um baixo custo combinando duas das maiores fontes de informação estruturada e não estruturada disponíveis na Web, o DBpedia e a Wikipedia. O método implementado mapeia relações da ontologia do DBpedia de volta para os textos da Wikipedia para montar um conjunto amplo de exemplos contendo mais de 100.000 sentenças descrevendo mais de 90 relações do DBpedia para os idiomas Inglês e Português. Inicialmente, são extraídas sentenças dos artigos da Wikipedia candidatas a expressar relações do DBpedia. Após isso, esses dados são pré-processados e normalizados através da filtragem de sentenças irrelevantes. Finalmente, extraem-se características dos exemplos para treinamento e avaliação de extratores de relações utilizando SVM. Os experimentos realizados nos idiomas Inglês e Português, através de linhas de base, mostram as melhorias alcançadas quando combinados diferentes tipos de características léxicas, sintáticas e semânticas. Para o idioma Inglês, o extrator construído foi treinado em um corpus constituído de 90 relações com 42.471 exemplos de treinamento, atingindo 81.08 por cento de medida F1 em um conjunto de testes contendo 28.773 instâncias. Para Português, o extrator foi treinado em um corpus de 50 relações com 200 exemplos por relação, resultando em um valor de 81.91 por cento de medida F1 em um conjunto de testes contendo 18.333 instâncias. Um processo de Extração de Relações (ER) é constituído de várias etapas, que vão desde o pré-processamento dos textos até o treinamento e a avaliação de detectores de relações supervisionados. Cada etapa pode admitir a implementação de uma ou várias técnicas distintas. Portanto, além da abordagem, este trabalho apresenta, também, detalhes da arquitetura de um framework para apoiar a implementação e a realização de experimentos em um processo de ER. / [en] A well known drawback in building machine learning semantic relation detectors for natural language is the availability of a large number of qualified training instances for the target relations. This work presents an automatic approach to build multilingual semantic relation detectors through distant supervision combining the two largest resources of structured and unstructured content available on the Web, the DBpedia and the Wikipedia resources. We map the DBpedia ontology back to the Wikipedia to extract more than 100.000 training instances for more than 90 DBpedia relations for English and Portuguese without human intervention. First, we mine the Wikipedia articles to find candidate instances for relations described at DBpedia ontology. Second, we preprocess and normalize the data filtering out irrelevant instances. Finally, we use the normalized data to construct SVM detectors. The experiments performed on the English and Portuguese baselines shows that the lexical and syntactic features extracted from Wikipedia texts combined with the semantic features extracted from DBpedia can significantly improve the performance of relation detectors. For English language, the SVM detector was trained in a corpus formed by 90 DBpedia relations and 42.471 training instances, achieving 81.08 per cent of F-Measure when applied to a test set formed by 28.773 instances. The Portuguese detector was trained with 50 DBpedia relations and 200 examples by relation, being evaluated in 81.91 per cent of F-Measure in a test set containing 18.333 instances. A Relation Extraction (RE) process has many distinct steps that usually begins with text pre-processing and finish with the training and the evaluation of relation detectors. Therefore, this works not only presents an RE approach but also an architecture of a framework that supports the implementation and the experiments of a RE process.
16

[pt] GESTÃO DO CONHECIMENTO NO GERENCIAMENTO DE SERVIÇOS DE TI: USO E AVALIAÇÃO / [en] KNOWLEDGE MANAGEMENT FOR IT SERVICE MANAGEMENT: USAGE AND EVALUATION

MATHEUS SALCEDO 07 June 2011 (has links)
[pt] Na atual economia, a vantagem competitiva das empresas pode ser diretamente ligada à sua capacidade de utilizar o conhecimento detido por seus membros. No entanto, para agregar valor a uma organização, este conhecimento precisa ser compartilhado. Desta forma, a capacidade da organização de integrar e aplicar os conhecimentos especializados de sua força de trabalho é fundamental para obter e manter uma vantagem competitiva organizacional. Os sistemas de gerenciamento de conhecimento auxiliam a criação, coleta, organização e disseminação de conhecimento. Entretanto, esses sistemas possuem limitações como, por exemplo, a grande dificuldade de integrar conhecimentos provenientes de diferentes fontes, geralmente em virtude da ausência de Semântica nas suas descrições. O principal objetivo desta dissertação é estudar as limitações tecnológicas dos sistemas de gerenciamento de conhecimento existentes e propor soluções através da adoção de formalismos da Web Semântica. Para atingir este objetivo é usado, como estudo de caso, um sistema de gerenciamento de conhecimento em produção de uma grande empresa brasileira que apóia a operação da sua infraestrutura de TIC. Neste estudo, demonstra-se que esta abordagem permite acrescentar Semântica adicional a dados já existentes, integrando bases anteriormente isoladas, gerando um melhor resultado operacional. / [en] In today s economy, the competitive advantage of companies can be directly linked to its ability to utilize the knowledge held by its members. However, to add value to an organization, this knowledge must be shared. Thus, the organization s ability to integrate and apply the expertise of its workforce is essential to achieve and maintain an organizational competitive advantage. The knowledge management systems help to create, collect, organize and disseminate knowledge. However, these systems have limitations, such as the difficulty of integrating knowledge from different sources, usually because of the lack of semantics in his descriptions. The main objective of this dissertation is to study the technological limitations of existing knowledge management systems and propose solutions through the adoption of Semantic Web formalisms. To achieve this goal, is used as a study case the knowledge management system in production of a large Brazilian company, which supports the operation of its IT infrastructure. This study demonstrates that this approach can add additional semantics to existing data, integrating previously isolated databases, creating a better operating result.
17

[en] SWELL: A SEMANTIC WEB-SERVICES SELECTION ENVIRONMENT / [pt] SWELL: UM AMBIENTE PARA SELEÇÃO DE WEB-SERVICES SEMÂNTICOS

JOAO FELIPE SANTOS CONDACK 28 October 2004 (has links)
[pt] Inicialmente a Internet era um canal de comunicação e distribuição de conteúdo textual. Com o advento do comércio eletrônico e a maturação da própria Web, ela se tornou uma plataforma de implantação de sistemas. Paralelamente, o próprio desenvolvimento de software evoluiu, com aplicações de novos conceitos da engenharia de software, tais como componentes, reuso e design patterns. No intuito de desenvolver práticas e tecnologias que aperfeiçoem a construção de softwares decidiu-se, neste trabalho, por conciliar estas duas tendências evolutivas. Swell é um ambiente para o auxílio no desenvolvimento de Sistemas Baseados na Web (SBWs), tendo como ponto forte a seleção semântica de web services. Trata-se de uma ferramenta cujo objetivo é ajudar nas tarefas de design e construção de aplicações, visando atingir alto grau de reuso. Este auxílio se dá através da descrição, busca e escolha de serviços para composição de aplicações. O ambiente Swell foi pensado de modo a dar suporte à evolução das tecnologias de componentes para Web. Ele provê pontos de flexibilização permitindo adaptação a novas descrições de web services e refletindo estas mudanças no mecanismo de busca. / [en] Initially the Internet was a communication channel and a text-based content dissemination vehicle. With the advent of e-commerce and Web's unfolding, it became a systems deployment platform. At the same time, software development also evolved, through the use of new software engineering concepts, such as components, reuse and design patterns. This work aims at helping to develop practices and technologies that improve software development by conciliating these two evolution trends. Swell is an environment that helps Web Based Systems development, having as a cornerstone the semantic selection of web- services. It is a tool whose objective is to help in the application design and development tasks, aiming to reach a high degree of reuse. This is achieved through the support for the description, search and selection of web services for application composition. The Swell environment was conceived as a framework with support for the evolution of web components technologies. It provides hot spots that allow for adaptation of new web services descriptions and reflection of these changes in the search engine.
18

[en] A UNIFIED PROCESS FRAMEWORK OF ONTOLOGY ENGINEERING / [pt] UM PROCESSO UNIFICADO PARA ENGENHARIA DE ONTOLOGIAS

DANIEL ABADI ORLEAN 12 March 2004 (has links)
[pt] A Web Semântica já está deixando de ser uma visão de Tim Berners-Lee para virar uma realidade. Diversos projetos em todo mundo já exploram as potencialidades dessa segunda geração da Web para tornar seu conteúdo processável por máquinas. Infelizmente (ou felizmente!), os computadores não são capazes de desenvolver por livre e espontânea vontade uma linguagem consensual de comunicação. É nesta etapa que entram em cena as ontologias. Conhecida no ramo da filosofia como teorias sobre a natureza da existência, as ontologias têm sido encaradas de maneira consideravelmente diferente no universo computacional. Representam um entendimento comum e compartilhado sobre um domínio específico e têm como o objetivo principal permitir a comunicação entre organizações, pessoas e o uso de metodologias, processos e/ ou métodos bem definidos. Com o aumento de sua importância, o projeto e desenvolvimento de ontologias vêm deixando de ser uma arte para se transformar em um processo de engenharia. Diversas propostas já foram apresentadas para o problema de engenharia de ontologias, muitas delas apoiadas por estudos acadêmicos e industriais. No entanto, é importante notar que nenhuma dessas metodologias - que em muitos casos resumem-se apenas a heurísticas extraídas da experiência de seus autores ou a orientações sobre como alcançar bons resultados - atende por completo aos requisitos potenciais do projeto de uma ontologia. O que se propõe neste trabalho é a unificação de disciplinas e atividades oriundas de metodologias distintas em um framework de processos abrangente, entitulado KUP - Knowldge Unified Process, que permite um adequado projeto e desenvolvimento de ontologias e bases de conhecimento. Entende-se como um processo um conjunto de atividades e resultados associados a essas atividades com o objetivo de garantir a geração de um produto final, seja este produto um software, uma ontologia ou uma ontologia associada a sua base de conhecimento. A unificação deste processo segue as melhores práticas em engenharia de software existentes na indústria e é apoiada por um framework de avaliação de metodologias consolidado na academia. Foram realizados dois estudos de caso para este framework de processos, um envolvendo o desenvolvimento de uma solução de gestão de conhecimento em segurança da informação e outro envolvendo a integração de uma ferramenta de gestão de competências para ambientes de educação a distância. / [en] The Semantic Web is now a reality. Several projects all around the world are already using tools technologies developed to support the second generation of the Web to provide machine-processable content for software agents, web services and applications. However, computers can not agree on a consesual language by themselves. Ontologies can be used as a way to provide this shared conceptualization, making posssible the desired communication among organizations, people and apllications. Several proposals have been already presented regarding ontology engineering - many supported by academic and industrial case studies. However, none of them encompasses all the requirements identified for an ontology construction project. This work describes the unification of different features extracted from those methodologies to build a process framework named KUP - the Knowledge Unified Process. This unified process is based on several industry best practices and on a well accepted ontology methodology evaluation framework. Two case studies were developed so as to support and validate this process framework. The first was the development of a semantic web solution for security information knowledge management and the second one was the integration of a skill management tool to a learning management system, through ontologies.
19

[en] CLUSTERING AND DATASET INTERLINKING RECOMMENDATION IN THE LINKED OPEN DATA CLOUD / [pt] CLUSTERIZAÇÃO E RECOMENDAÇÃO DE INTERLIGAÇÃO DE CONJUNTO DE DADOS NA NUVEM DE DADOS ABERTOS CONECTADOS

ALEXANDER ARTURO MERA CARABALLO 24 July 2017 (has links)
[pt] O volume de dados RDF publicados na Web aumentou consideravelmente, o que ressaltou a importância de seguir os princípios de dados interligados para promover a interoperabilidade. Um dos princípios afirma que todo novo conjunto de dados deve ser interligado com outros conjuntos de dados publicados na Web. Esta tese contribui para abordar este princípio de duas maneiras. Em primeiro lugar, utiliza algoritmos de detecção de comunidades e técnicas de criação de perfis para a criação e análise automática de um diagrama da nuvem da LOD (Linked Open Data), o qual facilita a localização de conjuntos de dados na nuvem da LOD. Em segundo lugar, descreve três abordagens, apoiadas por ferramentas totalmente implementadas, para recomendar conjuntos de dados a serem interligados com um novo conjunto de dados, um problema conhecido como problema de recomendação de interligação de conjunto de dados. A primeira abordagem utiliza medidas de previsão de links para produzir recomendações de interconexão. A segunda abordagem emprega algoritmos de aprendizagem supervisionado, juntamente com medidas de previsão de links. A terceira abordagem usa algoritmos de agrupamento e técnicas de criação de perfil para produzir recomendações de interconexão. Essas abordagens são implementadas, respectivamente, pelas ferramentas TRT, TRTML e DRX. Por fim, a tese avalia extensivamente essas ferramentas, usando conjuntos de dados do mundo real. Os resultados mostram que estas ferramentas facilitam o processo de criação de links entre diferentes conjuntos de dados. / [en] The volume of RDF data published on the Web increased considerably, which stressed the importance of following the Linked Data principles to foster interoperability. One of the principles requires that a new dataset should be interlinked with other datasets published on the Web. This thesis contributes to addressing this principle in two ways. First, it uses community detection algorithms and profiling techniques for the automatic creation and analysis of a Linked Open Data (LOD) diagram, which facilitates locating datasets in the LOD cloud. Second, it describes three approaches, backed up by fully implemented tools, to recommend datasets to be interlinked with a new dataset, a problem known as the dataset interlinking recommendation problem. The first approach uses link prediction measures to provide a list of datasets recommendations for interlinking. The second approach employs supervised learning algorithms, jointly with link prediction measures. The third approach uses clustering algorithms and profiling techniques to produce dataset interlinking recommendations. These approaches are backed up, respectively, by the TRT, TRTML and DRX tools. Finally, the thesis extensively evaluates these tools, using real-world datasets, reporting results that show that they facilitate the process of creating links between disparate datasets.
20

[en] A METHOD AND AN ENVIRONMENT FOR THE SEMANTIC WEB APPLICATIONS DEVELOPMENT / [pt] UM MÉTODO E UM AMBIENTE PARA O DESENVOLVIMENTO DE APLICAÇÕES NA WEB SEMÂNTICA

MAURICIO HENRIQUE DE SOUZA BOMFIM 29 July 2011 (has links)
[pt] A crescente disponibilização de dados e ontologias segundo os padrões da Web Semântica tem levado à necessidade de criação de métodos e ferramentas de desenvolvimento de aplicações que considerem a utilização e disponibilização dos dados distribuídos na rede segundo estes padrões. O objetivo desta dissertação é apresentar um método, incluindo processos e modelos, e um ambiente para o desenvolvimento de aplicações na Web Semântica. Mais especificamente, este trabalho apresenta a evolução do método SHDM (Semantic Hypermedia Design Method), que é um método para o desenvolvimento de aplicações hipermídia na Web Semântica e o Synth, que é um ambiente de desenvolvimento de aplicações projetadas segundo o método SHDM. / [en] The growing availability of data and ontologies according to the Semantic Web standards has led to the need of methods and tools for applications development that take account the use and availability of the data distributed according to these standards. The goal of this dissertation is to present a method, including processes and models, and an environment for the Semantic Web applications development. More specifically, this work shows the evolution of the SHDM (Semantic Hypermedia Design Method), which is a method for the Semantic Web hypermedia application development and the Synth, which is an environment to build applications designed according to the SHDM.

Page generated in 0.0495 seconds