• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 239
  • 139
  • 42
  • 40
  • 35
  • 19
  • 15
  • 10
  • 8
  • 7
  • 5
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 621
  • 136
  • 119
  • 108
  • 108
  • 103
  • 99
  • 70
  • 62
  • 61
  • 54
  • 54
  • 53
  • 46
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Estratégia computacional para apoiar a reprodutibilidade e reuso de dados científicos baseado em metadados de proveniência. / Computational strategy to support the reproducibility and reuse of scientific data based on provenance metadata.

Silva, Daniel Lins da 17 May 2017 (has links)
A ciência moderna, apoiada pela e-science, tem enfrentado desafios de lidar com o grande volume e variedade de dados, gerados principalmente pelos avanços tecnológicos nos processos de coleta e processamento dos dados científicos. Como consequência, houve também um aumento na complexidade dos processos de análise e experimentação. Estes processos atualmente envolvem múltiplas fontes de dados e diversas atividades realizadas por grupos de pesquisadores geograficamente distribuídos, que devem ser compreendidas, reutilizadas e reproduzíveis. No entanto, as iniciativas da comunidade científica que buscam disponibilizar ferramentas e conscientizar os pesquisadores a compartilharem seus dados e códigos-fonte, juntamente com as publicações científicas, são, em muitos casos, insuficientes para garantir a reprodutibilidade e o reuso das contribuições científicas. Esta pesquisa objetiva definir uma estratégia computacional para o apoio ao reuso e a reprodutibilidade dos dados científicos, por meio da gestão da proveniência dos dados durante o seu ciclo de vida. A estratégia proposta nesta pesquisa é apoiada em dois componentes principais, um perfil de aplicação, que define um modelo padronizado para a descrição da proveniência dos dados, e uma arquitetura computacional para a gestão dos metadados de proveniência, que permite a descrição, armazenamento e compartilhamento destes metadados em ambientes distribuídos e heterogêneos. Foi desenvolvido um protótipo funcional para a realização de dois estudos de caso que consideraram a gestão dos metadados de proveniência de experimentos de modelagem de distribuição de espécies. Estes estudos de caso possibilitaram a validação da estratégia computacional proposta na pesquisa, demonstrando o seu potencial no apoio à gestão de dados científicos. / Modern science, supported by e-science, has faced challenges in dealing with the large volume and variety of data generated primarily by technological advances in the processes of collecting and processing scientific data. Therefore, there was also an increase in the complexity of the analysis and experimentation processes. These processes currently involve multiple data sources and numerous activities performed by geographically distributed research groups, which must be understood, reused and reproducible. However, initiatives by the scientific community with the goal of developing tools and sensitize researchers to share their data and source codes related to their findings, along with scientific publications, are often insufficient to ensure the reproducibility and reuse of scientific results. This research aims to define a computational strategy to support the reuse and reproducibility of scientific data through data provenance management during its entire life cycle. Two principal components support our strategy in this research, an application profile that defines a standardized model for the description of provenance metadata, and a computational architecture for the management of the provenance metadata that enables the description, storage and sharing of these metadata in distributed and heterogeneous environments. We developed a functional prototype for the accomplishment of two case studies that considered the management of provenance metadata during the experiments of species distribution modeling. These case studies enabled the validation of the computational strategy proposed in the research, demonstrating the potential of this strategy in supporting the management of scientific data.
252

Recherche intelligente d'informations géographiques à partir des toponymes, des métadonnées et d'une ontologie : application aux forêts du Bassin congolais / Smart search geographical information from names, metadata and ontologies : application to the forests of the Congo

Massala, Marius 25 January 2013 (has links)
Classées parmi les forêts tropicales, les forêts du bassin du Congo constituent un immense sanctuaire écologique digne de conservation que l'on classe juste derrière l'Amazonie en Amérique du sud. Le développement des États financé à grands budget, conjugué à l'urbanisation galopante et à l'augmentation de la population, s'accompagnent de problèmes environnementaux qui se posent avec acuité. C'est dans ce contexte que s'inscrivent nos travaux de thèse. Notre objectif a été de proposer une méthodologie qui vise à mettre en place un mécanisme de recherche des informations via internet pour les pays de cette région. L'utilisation des métadonnées, des toponymes et d'une ontologie a paru l'une des pistes potentielles pouvant aider à la résolution des problèmes rencontrés dans le suivi de la dynamique des objets spatiaux ainsi que l'accès efficace à des ressources informationnelles. A la différence des autres modèles, celui que nous proposons lie la dynamique spatio-temporelle des objets à celle de leurs toponymes et permet la description des ressources informationnelles à partir de mots clé provenant de l'ontologie et de l'index des toponymes. / Classified as tropical forests, the forests of the Congo basin is a huge of ecological sanctuary worthy of conservation that is second only to the Amazon in South America. States funded the development of big budget, combined with rapid urbanization and population growth, accompanied environmental problems are acute. It is in this context that our thesis comes. Our objective was to propose a methodology that aims to establish a mechanism for finding information on the internet for the countries of this region. The use of metadata, and ontology names appeared as one of the potential ways that can help in solving problems in the dynamic followed by space objects and efficient access to their information resources. Unlike other models, we propose that binds the spatiotemporal objects with those of their names and allows the description of information resources based on keywords from the ontology and the index of names.
253

Representação da informação dinâmica em ambientes digitais

Camila Ribeiro 09 August 2013 (has links)
Este trabalho é um estudo exploratório interdisciplinar, pois converge de duas áreas não pertencentes à mesma classe acadêmica, Ciência da Informação (CI) e Ciência da Computação. O objetivo é, além de estudar a representação no ambiente virtual, encontrar uma forma de representar a informação não textual (multimídia) que atenda essas \"novas necessidades\" e possibilidades que a Web Semântica requer no desenvolvimento de contextos com uso do XML. Conforme a complexidade dos documentos multimodais que envolvem textos, vídeos e imagens descritos em mais de um formato, a opção para a interoperabilidade da descrição foi representar o contexto destes documentos com uso de ontologia. Através de uma metodologia de pesquisa qualitativa de análise exploratória e descritiva, apresentam-se ontologias que permitam que esta descrição feita em padrões convencionais, mas interoperáveis, de formatos de descrição, e que possam atingir um conjunto de objetos multimodais. A descrição desta ontologia, em dois formatos interoperáveis, MARC21 e Dublin Core, foi criada utilizando o software Protégé; e para validação da ontologia, foram feitas 3 aplicações práticas com vídeos acadêmicos (uma aula, um trabalho de conclusão de curso e uma defesa de dissertação de mestrado), que possuem imagens retiradas dos slideshows e compostas num documento final. O resultado alcançado é uma representação dinâmica de vídeo, que faça as relações com os outros objetos que a vídeo trás além da interoperabilidade dos formatos de descrição, tais como: Dublin Core e MARC21. / This work is an exploratory interdisciplinary study, since it mixes two different academic areas: Information science (IS) and Computer Science. The search for a new way of represent non-textual information (media) that supplies the current needs and possibilities that semantic web requires on XML developed contexts is one of the aims of this study. According to the complexity of multimodal documents that converge text, videos and images described in more than one format, ontology use was choose to represent the description interoperability. Through a qualitative research using exploratory and descriptive analysis will be presented ontologies that allow the conventional patterns of description to be interoperable, being able to show a multimodal object set. This ontology description was made in two interoperable formats: MARC21 and Dublin Core. It was created using the Protégé software. To validate the ontologies, they will be applied in 3 academic videos (a lesson video, a graduation defense, and a masters defense), and all of three are composed with slideshows images that are attached in the final document. The result obtained is a dynamic video representation that can make relations with the other video objects beyond interoperability of description formats, such as Dublin Core and MARC21.
254

Estratégia computacional para apoiar a reprodutibilidade e reuso de dados científicos baseado em metadados de proveniência. / Computational strategy to support the reproducibility and reuse of scientific data based on provenance metadata.

Daniel Lins da Silva 17 May 2017 (has links)
A ciência moderna, apoiada pela e-science, tem enfrentado desafios de lidar com o grande volume e variedade de dados, gerados principalmente pelos avanços tecnológicos nos processos de coleta e processamento dos dados científicos. Como consequência, houve também um aumento na complexidade dos processos de análise e experimentação. Estes processos atualmente envolvem múltiplas fontes de dados e diversas atividades realizadas por grupos de pesquisadores geograficamente distribuídos, que devem ser compreendidas, reutilizadas e reproduzíveis. No entanto, as iniciativas da comunidade científica que buscam disponibilizar ferramentas e conscientizar os pesquisadores a compartilharem seus dados e códigos-fonte, juntamente com as publicações científicas, são, em muitos casos, insuficientes para garantir a reprodutibilidade e o reuso das contribuições científicas. Esta pesquisa objetiva definir uma estratégia computacional para o apoio ao reuso e a reprodutibilidade dos dados científicos, por meio da gestão da proveniência dos dados durante o seu ciclo de vida. A estratégia proposta nesta pesquisa é apoiada em dois componentes principais, um perfil de aplicação, que define um modelo padronizado para a descrição da proveniência dos dados, e uma arquitetura computacional para a gestão dos metadados de proveniência, que permite a descrição, armazenamento e compartilhamento destes metadados em ambientes distribuídos e heterogêneos. Foi desenvolvido um protótipo funcional para a realização de dois estudos de caso que consideraram a gestão dos metadados de proveniência de experimentos de modelagem de distribuição de espécies. Estes estudos de caso possibilitaram a validação da estratégia computacional proposta na pesquisa, demonstrando o seu potencial no apoio à gestão de dados científicos. / Modern science, supported by e-science, has faced challenges in dealing with the large volume and variety of data generated primarily by technological advances in the processes of collecting and processing scientific data. Therefore, there was also an increase in the complexity of the analysis and experimentation processes. These processes currently involve multiple data sources and numerous activities performed by geographically distributed research groups, which must be understood, reused and reproducible. However, initiatives by the scientific community with the goal of developing tools and sensitize researchers to share their data and source codes related to their findings, along with scientific publications, are often insufficient to ensure the reproducibility and reuse of scientific results. This research aims to define a computational strategy to support the reuse and reproducibility of scientific data through data provenance management during its entire life cycle. Two principal components support our strategy in this research, an application profile that defines a standardized model for the description of provenance metadata, and a computational architecture for the management of the provenance metadata that enables the description, storage and sharing of these metadata in distributed and heterogeneous environments. We developed a functional prototype for the accomplishment of two case studies that considered the management of provenance metadata during the experiments of species distribution modeling. These case studies enabled the validation of the computational strategy proposed in the research, demonstrating the potential of this strategy in supporting the management of scientific data.
255

Estratégias de computação para suportar interoperabilidade entre modelos processados por ferramentas de modelagem de distribuição de espécies. / Computational strategies to support interoperability between models processed by species distribution modeling tools.

Cleverton Ferreira Borba 15 August 2017 (has links)
A área de pesquisa denominada Informática para Biodiversidade enfrenta o desafio de suprir a demanda por tecnologia de apoio à conservação da biodiversidade. Dentre as áreas da ecologia que se beneficiam de recursos tecnológicos, a modelagem de distribuição de espécies se destaca pelo número de ferramentas e de algoritmos desenvolvidos para os pesquisadores da área. No entanto, estudos demostram que a modelagem tem se tornado mais complexa, bem como, a necessidade por melhorias da aplicação de novas técnicas e soluções computacionais. A interoperabilidade computacional para os dados de biodiversidade, que incluem os modelos gerados pelas ferramentas de modelagem, é citada pelos autores e pesquisadores da área como uma preocupação que demanda estudos, definição de melhores práticas e soluções de computação. Cada tópico que envolve a modelagem como, algoritmos, parâmetros, dados de ocorrência, camadas ambientais, ferramentas e técnicas para a elaboração de modelos, além dos padrões de metadados e perfis de aplicação, são objetos de estudo para que seja possível a interoperabilidade nesse campo de pesquisa. Este trabalho apresenta, portanto, uma estratégia computacional para apoiar a interoperabilidade entre os modelos gerados pelas ferramentas de modelagem de distribuição de espécies, através do uso de padrões de metadados e pelo desenvolvimento de um perfil de aplicação que apoie essa interoperabilidade. São apresentados dois estudos de caso com o objetivo de validar essas estratégias e uma arquitetura computacional para apoiar comunidades de desenvolvimento de ferramentas de modelagem a buscarem essa interoperabilidade entre os dados fornecidos e processados por elas. As contribuições deste trabalho envolvem a disponibilização de um perfil de aplicação voltado para a área de modelagem de distribuição de espécies, um protótipo de software para processar os modelos gerados pelas ferramentas de modelagem, o incentivo e o uso do digital objetct identification para disponibilização dos dados, além do processo de pesquisa e da validação de metodologias que foram utilizadas para se alcançarem os resultados desta pesquisa. / The research area called Informatics for Biodiversity faces the challenge of meeting the demand for technology to support biodiversity conservation. Among the areas of ecology that benefit from technological resources, the modeling of species distribution is notable for the number of tools and algorithms developed to researchers in this area. However, studies have shown that modeling has become more complex, as well as the need for improvements in the application of new techniques and computational solutions. The computational interoperability for biodiversity data, which includes models generated by modeling tools, is cited by authors and researchers in the field as a concern that demands studies, definition of best practices and computing solutions. Each topic that involves modeling such as algorithms, parameters, occurrence data, environmental layers, tools, techniques for the elaboration of models, standards of metadata and application profiles are objects of study of this dissertation. This thesis presents a computational strategy to support the interoperability between the models generated by the modeling tools of species distribution, through the use of metadata standards and the development of an application profile that supports this interoperability. Two case studies are presented with the objective of validating these strategies and we also present a computational architecture to support communities to develop of modeling tools to seek this interoperability between the data supplied and processed by them. The contributions of this work involve the provision of an application profile for the area of species distribution modeling, a software prototype to process the models generated by the modeling tools, the incentive and use of the digital objetct identification to make data available, and in addition to the process of research and validation of methodologies that were used to summarize the results of this research.
256

Arquitetura de sistemas orientada a serviços para análise de experimentos ambientais em Weblabs de abelhas. / System architecture service oriented for analisys with experiments at bee Weblabs.

Marcelo de Queiroz Leite 04 August 2011 (has links)
O processo de elaboração, execução, coleta e análise de dados de experimentos ambientais com abelhas utilizando meios computacionais como suporte a pesquisa, é uma atividade complexa por exigir do pesquisador conhecimentos específicos aos quais ele não foi preparado para atuar. Laboratórios virtuais conhecidos como Weblabs são ferramentas de apoio a pesquisa, pois permitem a realização de experimentos sem a necessidade da presença física da equipe de pesquisadores. O modelo matemático utilizado junto com a sua interpretação são partes do experimento, porém não são tratados dessa maneira atualmente nos Weblabs. Este trabalho propõe a especificação de uma arquitetura de referência a ser empregada como modelo para permitir o desenvolvimento de componentes que disponibilizem serviços com a capacidade de efetuar a integração de dados coletados por meio de experimentos científicos executados com o auxílio dos Weblabs com ferramentas especialistas voltadas a experimentos ambientais e de biodiversidade. A especificação é baseada no paradigma de arquitetura orientada a serviços, permitindo o gerenciamento de análise de experimentos utilizando Weblabs e disponibilizando os serviços especificados para funcionamento em ambientes distribuídos. Este modelo é a base para um estudo de caso com a elaboração de uma prova de conceito, por meio do desenvolvimento de um componente que publique, disponibilize e integre os dados coletados em um Weblab com uma ferramenta especialista em análises ambientais. / The preparation, execution, collection and closing of an experiment using computational means to support the research, is a complex activity because it requires specific knowledge of the researcher to whom he was not prepared to act. WebLabs are known support tools to researchers, because they allow performing experiments without the physical presence of the research team. Among the activities undertaken by the researcher, after collecting data, performs the analysis of data, in which mathematical and statistical models are applied to interpret the data. In a Weblab experiments are performed through web in remote laboratories, and also needed to analyze the data obtained with the data collection. The mathematical model used along with their interpretation are events that are part of the experiment, but are not treated that way today in Weblabs. This paper proposes the specification of reference architecture to be used as a template to allow the development of components that provide services with the ability to make the integration of data collected through scientific experiments carried out with the help of weblabs with tools aimed at environmental and biodiversity experiments. The specification is based on the paradigm of service oriented architecture, allowing management analysis using Weblab experiments and providing the services specified for operation in distributed environments. This model is the basis for a case study with the development of a proof of concept, through development of a component that publishes and distributes and integrates the data collected in a Weblab with a special tool in environmental analysis.
257

Um modelo para manutenção de esquema e de dados em data warehouses implementados em plataformas móveis. / A model to schema and data maintenance in data warehouses implemented at mobile platforms.

Isabel Cristina Italiano 11 June 2007 (has links)
O presente trabalho propõe uma arquitetura de utilização de Data Warehouses em computadores móveis, descreve os componentes desta arquitetura (dados e processos) que permite o sincronismo dos dados baseado em metadados e limitado ao escopo de acesso de cada usuário. As estruturas de dados e os processos que compõem a arquitetura proposta são reduzidos a problemas conhecidos e já solucionados, justificando sua viabilidade. Além disso, o presente trabalho também fornece diretrizes para avaliar a complexidade e o impacto causados por alterações de esquema no Data Warehouse central que devem ser refletidas nos data marts localizados nas plataformas móveis. A avaliação da complexidade e impacto das alterações nos esquemas do Data Warehouse pode auxiliar os administradores do ambiente a planejar a implementação destas alterações, propondo melhores alternativas no caso de alterações de esquema mais complexas e que causem um impacto maior no ambiente. A importância do trabalho está relacionada a casos reais de necessidade de evolução nas bases de dados analíticas (Data Warehouse) em computadores móveis, nos quais os usuários mantêm seu próprio subconjunto de dados do Data Warehouse para apoiar os processos de negócios. / This work presents an architecture for using Data Warehouses in mobile computers and describes the architecture components (data and processes) that allow the data synchronism based on metadata and restricted to the scope of access for each user. The data structures and the processes composing the architecture are reduced to already known and solved problems, justifying its feasibility. Besides, this work also provides the guidelines to evaluate the complexity and impact caused by changes of schema in the central Data Warehouse that must be reflected in the data marts located in the mobile platforms. The analysis of the complexity and impact of the changes made to the schemas may help environment administrators to plan these changes and propose better alternatives when dealing with more complex schema changes causing a greater impact on the environment. The relevance of this work is related to real cases that require evolution of analytical databases (Data Warehouse) in mobile computers in which the users keep their own subset of Data Warehouse information to support their business processes.
258

Arquitetura orientada a serviços para aquisição de dados de experimentos em Weblab de abelhas. / Service oriented architecture for data acquisition of experiments in bee Weblab.

Leandro Halle Najm 17 June 2011 (has links)
Experimentos ambientais são fundamentais para entender os efeitos das mudanças climáticas, como o decréscimo de polinizadores encontrados na natureza. Esses experimentos devem ser compartilhados com uma metodologia integrada. Desenvolver e aplicar ferramentas de tecnologia da informação em diferentes áreas de pesquisa é primordial para melhorar processos de controle e análise de dados, sem requisitar que pesquisadores de outras áreas tenham conhecimentos avançados em tecnologias da computação. Para isso, é importante a utilização de uma infraestrutura de hardware e software aberta e disponível aos pesquisadores, por meio de portais na web conhecidos como Weblabs, para aquisição e compartilhamento de dados obtidos através de sensores. Este trabalho apresenta uma arquitetura de sistemas de informação para a implementação de Weblabs a partir dos conceitos de SOA, para solucionar o problema de heterogeneidade e interoperabilidade de ambientes, visto que os dados são coletados por diferentes tecnologias de redes de sensores em suas bases de dados. Para tanto, fez-se necessária a modelagem de uma base de dados central capaz de armazenar dados oriundos de diferentes sistemas, acessíveis por meio do consumo de serviços disponibilizados pelo Weblab. / Environmental experiments are fundamental to understand the effects of climate change, such as the decline of pollinators in nature. These experiments should be shared with an integrated methodology. Develop and apply tools of information technology in different areas of research is essential for improving process control and data analysis, without requiring that researchers from other fields have advanced knowledge in computing technologies. For this it is important to use an open infrastructure of hardware and software made available to researchers through web portals, known as Weblab for acquisition and sharing of data obtained by sensors. This paper presents a model of information systems architecture for the implementation of a Weblab based on the concepts of SOA, to solve the problem of heterogeneity and interoperability of environments, since the data is collected by different network technologies of sensors in its databases. It was necessary for the modeling of central database capable of storing data from different systems accessible through the consumption of the service provided by the Weblab.
259

Extração de metadados utilizando uma ontologia de domínio / Metadata extraction using a domain ontology

Oliveira, Luis Henrique Gonçalves de January 2009 (has links)
O objetivo da Web Semântica é prover a descrição semântica dos recursos através de metadados processáveis por máquinas. Essa camada semântica estende a Web já existente agregando facilidades para a execução de pesquisas, filtragem, resumo ou intercâmbio de conhecimento de maior complexidade. Dentro deste contexto, as bibliotecas digitais são as aplicações que estão iniciando o processo de agregar anotações semânticas às informações disponíveis na Web. Uma biblioteca digital pode ser definida como uma coleção de recursos digitais selecionados segundo critérios determinados, com alguma organização lógica e de modo acessível para recuperação distribuída em rede. Para facilitar o processo de recuperação são utilizados metadados para descrever o conteúdo armazenado. Porém, a geração manual de metadados é uma tarefa complexa e que demanda tempo, além de sujeita a falhas. Portanto a extração automática ou semi-automática desses metadados seria de grande ajuda para os autores, subtraindo uma tarefa do processo de publicação de documentos. A pesquisa realizada nesta dissertação visou abordar esse problema, desenvolvendo um extrator de metadados que popula uma ontologia de documentos e classifica o documento segundo uma hierarquia pré-definida. A ontologia de documentos OntoDoc foi criada para armazenar e disponibilizar os metadados extraídos, assim como a classificação obtida para o documento. A implementação realizada focou-se em artigos científicos de Ciência da Computação e utilizou a classificação das áreas da ACM na tarefa de classificação dos documentos. Um conjunto de exemplos retirados da Biblioteca Digital da ACM foi gerado para a realização do treinamento e de experimentos sobre a implementação. As principais contribuições desta pesquisa são o modelo de extração de metadados e classificação de documentos de forma integrada e a descrição dos documentos através de metadados armazenados em um ontologia, a OntoDoc. / The main purpose of the Semantic Web is to provide machine processable metadata that describes the semantics of resources to facilitate the search, filter, condense, or negotiate knowledge for their human users. In this context, digital libraries are applications where the semantic annotation process of information available in the Web is beginning. Digital library can be defined as a collection of digital resources selected by some criteria, with some organization and available through distributed network retrieval. To facilitate the retrieval process, metadata are applied to describe stored content. However, manual metadata generation is a complex task, time-consuming and error-prone. Thus, automatic or semiautomatic metadata generation would be great help to the authors, subtracting this task from the document publishing process. The research in this work approached this problem through the developing of a metadata extractor that populates a document ontology and classify the document according to a predefined hierarchy. The document ontology OntoDoc was created to store and to make available all the extracted metadata, as well as the obtained document classification. The implementation aimed on Computer Science papers and used the ACM Computing Classification system in the document classification task. A sample set extracted from the ACM Digital Libray was generated for implementation training and validation. The main contributions of this work are the integrated metadata extraction and classification model and the description of documents through a metadata stored in an ontology.
260

Anotações colaborativas como hiperdocumentos de primeira classe na Web Semântica. / Collaborative annotations as first-class hyperdocuments in the Semantic Web.

Izeki, Claudia Akemi 25 October 2001 (has links)
Anotações têm sido associadas a documentos em todas as gerações de sistemas hipermídia. Este trabalho explora o uso de anotações como hiperdocumentos de primeira classe baseados em sua semântica. Nesse contexto, anotações são entidades próprias, na forma de hipertexto, possuindo seus próprios atributos e operações. A Web Semântica é uma extensão da Web atual na qual é dado um significado bem definido à informação, permitindo que informações sejam compreensíveis não só por humanos, mas também por computadores. Este trabalho possui como objetivo prover um serviço aberto, o GroupNote, de suporte a anotações colaborativas como hiperdocumentos de primeira classe na Web Semântica. Para prover esse serviço foram realizadas a modelagem conceitual e a definição e implementação de uma API, a API GroupNote. Como um estudo de caso do serviço GroupNote foi construída a aplicação WebNote, uma ferramenta que permite que usuários tenham seu próprio repositório de anotações na Web. / Annotations have been associated with documents in all the generations of hypermedia systems. This work investigates annotations as first class hyperdocuments based on their semantics: annotations are entities (with their own attributes and operations) in the hypertext form. The Semantic Web is an extension of the current Web in which a well-defined meaning is given to information, allowing the information to be comprehensible not only by humans, but also by machines. This work aims at providing an open service, GroupNote, to support collaborative annotations as first class hyperdocuments in the Semantic Web. The provision of the GroupNote service demanded the conceptual modeling, the definition and implementation of its API. As a case study of the GroupNote service, the WebNote application was built as a tool that allows users to have your own repository of annotations in the Web.

Page generated in 0.0653 seconds