• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 261
  • 16
  • 15
  • 15
  • 15
  • 14
  • 11
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 275
  • 275
  • 156
  • 98
  • 74
  • 65
  • 62
  • 51
  • 50
  • 49
  • 48
  • 38
  • 34
  • 31
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Uma abordagem interativa guiada por semântica para identificação e recuperação de imagens /

Gonçalves, Filipe Marcel Fernandes. January 2016 (has links)
Orientador: Ivan Rizzo Guilherme / Coorientador: Daniel Carlos G. Pedronette / Banca: João Paulo Papa / Banca: Jurandy Gomes de Almeida Junior / Resumo: O grande volume de imagens disponível na Web gerado em diferentes domínios requer um conhecimento especializado para sua a análise e identificação. Nesse sentido, recentes avanços ocorreram com desenvolvimento de técnicas de recuperação de imagens baseadas nas características visuais. Entretanto, o gap semântico entre as características de baixo-nível das imagens e aquilo que a imagem representa ainda é um grande desafio. Uma solução para diminuir o gap semântico consiste em combinar a informação de características visuais das imagens com o conhecimento do domínio de tais imagens. Nesse sentido, ontologias podem auxiliar, já que estruturam o conhecimento. Desse modo, o presente trabalho apresenta uma nova abordagem denominada Recuperação Interativa de Imagens Guiada por Semântica (Semantic Interactive Image Retrieval - SIIR) que combina técnicas de recuperação de imagens baseadas no conteúdo (Content Based Image Retrieval - CBIR) e aprendizado não supervisionado, com o conhecimento definido em ontologias. Desse modo, o trabalho em questão propõe uma nova abordagem a fim de simular o papel dos biólogos na classificação de famílias de Angiospermas a partir de uma imagem e seu conteúdo. Para tanto, foi desenvolvida uma ontologia de estruturas e propriedades de plantas com flor e fruto, de modo a conceitualizar e relacionar tais atributos visando a classificação de famílias de Angiospermas. Para análise das características visuais foram utilizados métodos de extração de características de baixo-nível das imagens. Com relação ao aprendizado não supervisionado foi utilizado o algoritmo RL-Sim a fim de melhorar a eficácia da recuperação das imagens. A abordagem combina técnicas CBIR com ontologias ao utilizar um grafo bipartido e um grafo discriminativo de atributos. O grafo discriminativo de atributos permite a análise semântica... / Abstract: A large amount of images is currently generated in many domains, thus requiring specialized knowledge on the identification and analysis. From one standpoint, many advances have been accomplished in the development of image retrieval techniques based on visual image properties. However, the semantic gap between low-level features and high level concepts still represents a challenge scenario. One another standpoint, knowledge has also been structured in many fields by ontologies. A promising solution for bridging the semantic gap consists in combining the information from low-level features with semantic knowledge. This work proposes a new approach denominated Semantic Interactive Image Retrieval (SIIR) which combines Content Based Image Retrieval (CBIR) and unsupervised learning with ontology techniques. We present a novel approach aiming to simulate the biologists role in the classification of Angiosperm families from image sources and their content. In order to achieve this goal, we developed a domain ontology from plant properties and structures, hence relating features from the Angiosperm families. In regard to Unsupervised Learning, we used the RL-Sim algorithm to improve image classification. The proposed approach combines CBIR techniques with ontologies using a bipartite graph and a discriminative attribute graph. Such graph structures allow a semantic analysis used for the selection of the attribute that best classify the plant. The selected attributes are used for formulating the user interactions, improving the effectiveness and reducing the user efforts required. The proposed method was evaluated on the popular Oxford Flowers 17 and 102 Classes datasets, yielding very high effectiveness results in both datasets when compared to other approaches / Mestre
192

Ontologia de notícias: um modelo para classificação do conteúdo dos jornais on-line brasileiros, segundo a lógica da Web Semântica / News ontology: a model for classifying the content of brazilian on-line newspapers, according to the semantic web

Leonardo Burlamaqui Lima da Rocha 31 August 2012 (has links)
Este trabalho tem por objetivo propor um modelo de ontologia simples e generalista, capaz de descrever os conceitos mais básicos que permeiam o domínio de conhecimento dos jornais on-line brasileiros não especializados, fundamentado tanto na prática quanto conceitualmente, em conformidade com os princípios da Web Semântica. A partir de uma nova forma de classificação e organização do conteúdo, a ontologia proposta deve ter condições de atender as necessidades comuns de ambas as partes, jornal e leitor, que são, resumidamente, a busca e a recuperação das informações. / This work aims to propose a simple and generalist ontology model, able to describe the most basic concepts that underlie the knowledge domain of general purpose Brazilian on-line newspapers, based both on practice and theory, in accordance with the principles of the Semantic Web. From a new way of classifying and organizing content, the given ontology should be able to meet the common needs of both parties, journalists and readers, which can be summarized as search and information retrieval.
193

Sistema de recomendação para bibliotecas digitais sob a perspectiva da web semântica / A recommender system to digital llibraries under semantic web perspective

Lopes, Giseli Rabello January 2007 (has links)
Atualmente, pesquisadores e acadêmicos têm beneficiado-se muito com o crescimento acelerado das tecnologias Web, pois os resultados de pesquisa podem ser publicados e acessados eletronicamente tão logo a mesma tenha sido realizada. Esta possibilidade é vantajosa na medida em que minimiza as barreiras de tempo e espaço associadas à publicação tradicional. Neste contexto, surgem as Bibliotecas Digitais como repositórios de dados que, além dos documentos digitais propriamente ditos, ou de apontadores para estes documentos, armazenam os metadados associados. Para permitir que diferentes Bibliotecas Digitais possam interoperar surgiu a Open Archives Initiative (OAI) e, para resolver a questão da padronização dos metadados utilizados pelos repositórios, foi criado o formato Dublin Core (DC). Por outro lado, a enorme quantidade de documentos digitais disponíveis na Web tem causado o fenômeno conhecido como “sobrecarga de informação”. Com o objetivo de suprir esta dificuldade, Sistemas de Recomendação têm sido propostos e desenvolvidos. Estes sistemas visam prover uma interface alternativa para tecnologias de filtragem e recuperação de informações, tendo como foco a predição daqueles itens ou partes da informação que o usuário acharia interessante e útil. Portanto, os Sistemas de Recomendação atuam baseados em personalização da informação sendo que as predições geralmente são realizadas utilizando-se um perfil de cada usuário. A personalização está relacionada com o modo pelo qual a informação e serviços podem ser ajustados às necessidades específicas de um usuário ou comunidade. Esta dissertação descreve um Sistema de Recomendação de artigos científicos, armazenados em bibliotecas digitais. Este sistema é dirigido à comunidade científica da área da Ciência da Computação. Tecnologicamente, o sistema proposto foi desenvolvido sob a perspectiva da Web Semântica, à medida que faz uso de suas tecnologias emergentes tais como: uso de metadados padrão para a descrição de documentos - Dublin Core, uso do padrão XML para a descrição do perfil do usuário - Currículo Lattes, e provedores de serviços e de dados (OAI) envolvidos no processo de geração das recomendações. Este trabalho ainda apresenta e discute alguns resultados de experimentos baseados em avaliações quantitativas e qualitativas de recomendações geradas pelo sistema. / Currently, researchers and academics have been benefited by the expressive growth of web technologies, due to the possibility of publishing and accessing research results as soon as they are achieved. This possibility is advantageous as it minimizes the time and space barriers that traditional publications present. In this context, Digital Libraries emerged as data repositories that, beyond digital documents or links to them, store associated metadata. To allow the interoperability among different Digital Libraries, the Open Archives Initiative (OAI) was defined and, to solve the problem of metadata standardization, the Dublin Core standard (DC) was created. On the other hand, the great amount of available digital documents in the Web has caused the phenomenon known as “information overload”. In order to avoid this difficulty, Recommender Systems have been proposed and developed. These systems intend to provide an alternative interface for information filtering and retrieval technologies, focusing on the prediction of items or information parts that are interesting and useful for the user. Therefore, Recommender Systems act based on information personalization, and the predictions are generally generated using each user’s profile. The personalization is related to the way the information and the provided services can be adjusted to the specific necessities of a user or community. This dissertation describes a Recommender System for scientific articles stored in digital libraries. This system is geared towards the Computer Science scientific community. Technologically, the proposed system was developed under the Semantic Web perspective, as it explores its emergent technologies such as: use of standard metadata for document description - Dublin Core, use of the XML standard for users’ profile description - Lattes Curriculum Vitae, and services and data providers (OAI) involved on the recommendations generation process. In addition, this work presents and discusses some experimental results; the experiments are based on quantitative and qualitative evaluations of recommendations generated by the system.
194

Anotação de imagens radiológicas usando a web semântica para colaboração científica e clínica / Annotation of radiological images using the semantic web for clinical and a scvientific collaboration

Kleberson Junio do Amaral Serique 04 June 2012 (has links)
Este trabalho faz parte de um projeto maior, o Annotation and Image Markup Project, que tem o objetivo de criar uma base de conhecimento médico sobre imagens radiológicas para identificação, acompanhamento e reasoning acerca de lesões tumorais em pesquisas sobre câncer e consultórios médicos. Esse projeto está sendo desenvolvido em conjunto com o Radiological Sciences Laboratory da Stanford University. O problema específico, que será abordado nesse trabalho, é que a maior parte das informações semânticas sobre imagens radiológicas não são capturados e relacionados às mesmas usando termos de ontologias biomédicas e padrões, como o RadLex e DICOM, o que impossibilita a sua avaliação automática por computadores, busca em arquivos médicos em hospitais, etc. Para tratar isso, os radiologistas precisam de uma solução computacional fácil, intuitiva e acessível para adicionar essas informações. Nesse trabalho foi desenvolvida uma solução Web para inclusão dessas anotações, o sistema ePAD. O aplicativo permite a recuperação de imagens médicas, como as imagens disponíveis em sistemas de informação hospitalares (PACS), o delineamento dos contornos de lesões tumorais, a associação de termos ontológicos a esses contornos e o armazenamento desses termos em uma base de conhecimento. Os principais desafios desse trabalho envolveram a aplicação de interfaces intuitivas baseadas em Rich Internet Applications e sua operação a partir de um navegador Web padrão. O primeiro protótipo funcional do ePAD atingiu seus objetivos ao demonstrar sua viabilidade técnica, sendo capaz de executar o mesmo trabalho básico de anotação de aplicações Desktop, como o OsiriX-iPad, sem o mesmo overhead. Também mostrou a sua utilidade a comunidade médica o que gerou o interesse de usuários potenciais / This work is a part of a larger project, the Annotation and Markup Project, which aims to create a medical knowledge base about radiological images to identify, monitor and reason about tumors in cancer research and medical practices. This project is being developed in conjunction with the Laboratory of Image Informatics at Stanford University. The specific problem that will be addressed in this work is that most of the semantic information about radiological images are not captured and related to them using terms of biomedical ontologies and standards, such as RadLex or DICOM, what makes it impossible to automatic evaluate them by computers, to search for them in hospital databases using semantic criteria, etc. To address this issue, radiologists need an easy, intuitive and affordable computational solution to add this semantic information. In this work, a web solution for adding the information was developed, the ePAD system. It allows the retrieval of medical images, such as images available in hospital information systems (PACS), the creation of contours around tumor lesions, the association of ontological terms to these contours, and the storage of this terms in a knowledge base. The main challenges of this work involved the creation of intuitive interfaces using Rich Internet Applications technology and the operation from a standard Web Browser. The first functional prototype of ePAD reached its goal of proving its technical feasibility. It was able to do the same basic annotation job of desktop applications, such as OsiriX-iPad, without the same overhead. It also showed to the medical community that it was a useful tool and that generated interest of potential early users
195

ONTO-Analyst: um método extensível para a identificação e visualização de anomalias em ontologias / ONTO-Analyst: An Extensible Method for the Identification and the Visualization of Anomalies in Ontologies

João Paulo Orlando 21 August 2017 (has links)
A Web Semântica é uma extensão da Web em que as informações tem um significado explícito, permitindo que computadores e pessoas trabalhem em cooperação. Para definir os significados explicitamente, são usadas ontologias na estruturação das informações. À medida que mais campos científicos adotam tecnologias da Web Semântica, mais ontologias complexas são necessárias. Além disso, a garantia de qualidade das ontologias e seu gerenciamento ficam prejudicados quanto mais essas ontologias aumentam em tamanho e complexidade. Uma das causas para essas dificuldades é a existência de problemas, também chamados de anomalias, na estrutura das ontologias. Essas anomalias englobam desde problemas sutis, como conceitos mal projetados, até erros mais graves, como inconsistências. A identificação e a eliminação de anomalias podem diminuir o tamanho da ontologia e tornar sua compreensão mais fácil. Contudo, métodos para identificar anomalias encontrados na literatura não visualizam anomalias, muitos não trabalham com OWL e não são extensíveis por usuários. Por essas razões, um novo método para identificar e visualizar anomalias em ontologias, o ONTO-Analyst, foi criado. Ele permite aos desenvolvedores identificar automaticamente anomalias, usando consultas SPARQL, e visualizá-las em forma de grafos. Esse método usa uma ontologia proposta, a METAdata description For Ontologies/Rules (MetaFOR), para descrever a estrutura de outras ontologias, e consultas SPARQL para identificar anomalias nessa descrição. Uma vez identificadas, as anomalias podem ser apresentadas na forma de grafos. Um protótipo de sistema, chamado ONTO-Analyst, foi criado para a validação desse método e testado em um conjunto representativo de ontologias, por meio da verificação de anomalias representativas. O protótipo testou 18 tipos de anomalias retirados da literatura científica, em um conjunto de 608 ontologias OWL de 4 repositórios públicos importantes e dois artigos. O sistema detectou 4,4 milhões de ocorrências de anomalias nas 608 ontologias: 3,5 milhões de ocorrências de um mesmo tipo e 900 mil distribuídas em 11 outros tipos. Essas anomalias ocorreram em várias partes das ontologias, como classes, propriedades de objetos e de dados, etc. Num segundo teste foi realizado um estudo de caso das visualizações geradas pelo protótipo ONTO-Analyst das anomalias encontradas no primeiro teste. Visualizações de 11 tipos diferentes de anomalias foram automaticamente geradas. O protótipo mostrou que cada visualização apresentava os elementos envolvidos na anomalia e que pelo menos uma solução podia ser deduzida a partir da visualização. Esses resultados demonstram que o método pode eficientemente encontrar ocorrências de anomalias em um conjunto representativo de ontologias OWL, e que as visualizações facilitam o entendimento e correção da anomalia encontrada. Para estender os tipos de anomalias detectáveis, usuários podem escrever novas consultas SPARQL. / The Semantic Web is an extension of the World Wide Web in which the information has explicit meaning, allowing computers and people to work in cooperation. In order to explicitly define meaning, ontologies are used to structure information. As more scientific fields adopt Semantic Web technologies, more complex ontologies are needed. Moreover, the quality assurance of the ontologies and their management are undermined as these ontologies increase in size and complexity. One of the causes for these difficulties is the existence of problems, also called anomalies, in the ontologies structure. These anomalies range from subtle problems, such as poorly projected concepts, to more serious ones, such as inconsistencies. The identification and elimination of anomalies can diminish the ontologies size and provide a better understanding of the ontologies. However, methods to identify anomalies found in the literature do not provide anomaly visualizations, many do not work on OWL ontologies or are not user extensible. For these reasons, a new method for anomaly identification and visualization, the ONTO-Analyst, was created. It allows ontology developers to automatically identify anomalies, using SPARQL queries, and visualize them as graph images. The method uses a proposed ontology, the METAdata description For Ontologies/Rules (MetaFOR), to describe the structure of other ontologies, and SPARQL queries to identify anomalies in this description. Once identified, the anomalies can be presented as graph images. A system prototype, the ONTO-Analyst, was created in order to validate this method and it was tested in a representative set of ontologies, trough the verification of representative anomalies. The prototype tested 18 types of anomalies, taken from the scientific literature, in a set of 608 OWL ontologies from major public repositories and two articles. The system detected 4.4 million anomaly occurrences in the 608 ontologies: 3.5 million occurrences from the same type and 900 thousand distributed in 11 other types. These anomalies occurred in various parts of the ontologies, such as classes, object and data properties, etc. In a second test, a case study was performed in the visualizations generated by the ONTO-Analyst prototype, from the anomalies found in the first test. It was shown that each visualization presented the elements involved in the anomaly and that at least one possible solution could be deduced from the visualization. These results demonstrate that the method can efficiently find anomaly occurrences in a representative set of OWL ontologies and that the visualization aids in the understanding and correcting of said anomalies. In order to extend the types of detectable anomalies, users can write new SPARQL queries.
196

Usando aplicações ricas para internet na criação de um ambiente para visualização e edição de regras SWRL / Using rich Internet applications to create an environment for viewing and editing SWRL rules

João Paulo Orlando 25 May 2012 (has links)
A Web Semântica é uma maneira de explorar a associação de significados explícitos aos conteúdos de documentos presentes na Web, para que esses possam ser processados diretamente ou indiretamente por máquinas. Para possibilitar esse processamento, os computadores necessitam ter acesso a coleções estruturadas de informações e a conjuntos de regras de inferência sobre esses conteúdos. O SWRL permite a combinação de regras e termos de ontologias (definidos por OWL) para aumentar a expressividade de ambos. Entretanto, conforme um conjunto de regras cresce, ele torna-se de difícil compreensão e sujeito a erros, especialmente quando mantido por mais de uma pessoa. Para que o SWRL se torne um verdadeiro padrão web, deverá ter a capacidade de lidar com grandes conjuntos de regras. Para encontrar soluções para este problema, primeiramente, foi realizado um levantamento sobre sistemas de regras de negócios, descobrindo os principais recursos e interfaces utilizados por eles, e então, com as descobertas, propusemos técnicas que usam novas representações visuais em uma aplicação web. Elas permitem detecção de erro, identificação de regras similares, agrupamento, visualização de regras e o reuso de átomos para novas regras. Estas técnicas estão implementadas no SWRL Editor, um plug-in open-source para o Web-Protégé (um editor de ontologias baseado na web) que utiliza ferramentas de colaboração para permitir que grupos de usuários possam não só ver e editar regras, mas também comentar e discutir sobre elas. Foram realizadas duas avaliações do SWRL Editor. A primeira avaliação foi um estudo de caso para duas ontologias da área biomédica (uma área onde regras SWRL são muito usadas) e a segunda uma comparação com os únicos três editores de regras SWRL encontrados na literatura. Nessa comparação foi mostrando que ele implementa mais recursos encontrados em sistemas de regras em geral / The Semantic Web is a way to associate explicitly meaning to the content of web documents to allow them to be processed directly by machines. To allow this processing, computers need to have access to structured collections of information and sets of rules to reason about these content. The Semantic Web Rule Language (SWRL) allows the combination of rules and ontology terms, defined using the Web Ontology Language (OWL), to increase the expressiveness of both. However, as rule sets grow, they become difficult to understand and error prone, especially when used and maintained by more than one person. If SWRL is to become a true web standard, it has to be able to handle big rule sets. To find answers to this problem, we first surveyed business rule systems and found the key features and interfaces they used and then, based on our finds, we proposed techniques and tools that use new visual representations to edit rules in a web application. They allow error detection, rule similarity analysis, rule clustering visualization and atom reuse between rules. These tools are implemented in the SWRL Editor, an open source plug-in for Web-Protégé (a web-based ontology editor) that leverages Web-Protégés collaborative tools to allow groups of users to not only view and edit rules but also comment and discuss about them. We have done two evaluations of the SWRL Editor. The first one was a case study of two ontologies from the biomedical domain, the second was a comparison with the SWRL editors available in the literature, there are only three. In this comparison, it has been shown that the SWRL Editor implements more of the key resources found on general rule systems than the other three editors
197

Uma infraestrutura semântica para integração de dados científicos sobre biodiversidade / A semantic infrastructure for integrating biodiversity scientific data

Kleberson Junio do Amaral Serique 21 December 2017 (has links)
Pesquisas na área de biodiversidade são, em geral, transdisciplinares por natureza. Essas pesquisas tentam responder problemas complexos que necessitam de conhecimento transdisciplinar e requerem a cooperação entre pesquisadores de diversas disciplinas. No entanto, é raro que duas ou mais disciplinas distintas tenham observações, dados e métodos em formatos que permitam a colaboração imediata sobre hipóteses complexas e transdisciplinares. Hoje, a velocidade com que qualquer disciplina obtêm avanços científicos depende de quão bem seus pesquisadores colaboram entre si e com tecnologistas das áreas de bancos de dados, gerenciamento de workflow, visualização e tecnologias, como computação em nuvem. Dentro desse cenário, a Web Semântica surge, não só como uma nova geração de ferramentas para a representação de informações, mais também para a automação, integração, interoperabilidade e reutilização de recursos. Neste trabalho, uma infraestrutura semântica é proposta para a integração de dados científicos sobre biodiversidade. Sua arquitetura é baseada na aplicação das tecnologias da Web Semântica para se desenvolver uma infraestrutura eficiente, robusta e escalável aplicada ao domínio da Biodiversidade. O componente central desse ambiente é a linguagem BioDSL, uma Linguagem de Domínio Especifico (DSL) para mapear dados tabulares para o modelo RDF, seguindo os princípios de Linked Open Data. Esse ambiente integrado também conta com uma interface Web, editores e outras facilidades para conversão/integração de conjuntos de dados sobre biodiversidade. Para o desenvolvimento desse ambiente, houve a participação de instituições de pesquisa parceiras que atuam na área de biodiversidade da Amazônia. A ajuda do Laboratório de Interoperabilidade Semântica do Instituto Nacional de Pesquisas da Amazônia (INPA) foi fundamental para a especificação e testes do ambiente. Foram pesquisados vários casos de uso com pesquisadores do INPA e realizados testes com o protótipo do sistema. Nesses testes, ele foi capaz de converter arquivos de dados reais sobre biodiversidade para RDF e interligar automaticamente entidades presentes nesses dados a entidades presentes na web (nuvem LOD). Num experimento envolvendo 1173 registros de espécies ameaçadas, o ambiente conseguiu recuperar automaticamente 967 (82,4%) entidades (URIs) da LOD referentes a essas espécies, com matching completo para o nome das espécies, 149 (12,7%) com matching parcial (apenas um dos nomes da espécie), 36 (3,1%) não tiveram correspondências (sem resultados nas buscas) e 21 (1,7%) sem registro das especies na LOD. / Research in the area of biodiversity is, in general, transdisciplinary in nature. This type of research attempts to answer complex problems that require transdisciplinary knowledge and require the cooperation between researchers of diverse disciplines. However, it is rare for two or more distinct disciplines to have observations, data, and methods in formats that allow immediate collaboration on complex and transdisciplinary hypotheses. Today, the speed which any discipline gets scientific advances depends on how well its researchers collaborate with each other and with technologists from the areas of databases, workflow management, visualization, and internet technologies. Within this scenario, the Semantic Web arises not only as a new generation of tools for information representation, but also for automation, integration, interoperability and resource reuse. In this work, a semantic infrastructure is proposed for the integration of scientific data on biodiversity. This architecture is based on the application of Semantic Web technologies to develop an efficient, robust and scalable infrastructure for use in the field of Biodiversity. The core component of this infrastructure is the BioDSL language, a Specific Domain Language (DSL) to map tabular data to the RDF model, following the principles of Linked Open Data. This integrated environment also has a Web interface, editors and other facilities for converting/integrating biodiversity datasets. For the development of this environment, we had the participation of partner research institutions that work with Amazon biodiversity. The help of the Laboratory of Semantic Interoperability of the National Institute of Amazonian Research (INPA) was fundamental for the specification and tests of this infrastructure. Several use cases were investigated with INPA researchers and tests were carried out with the system prototype. In these tests, the prototype was able to convert actual biodiversity data files to RDF and automatically interconnect entities present in these data to entities present on the web (LOD cloud). In an experiment involving 1173 records of endangered species, the environment was able to automatically retrieve 967 (82.4%) LOD entities (URIs) for these species, with complete matching for the species name, 149 (12.7%) with partial matching (only one of the species names), 36 (3,1%) with no matching and 21 (1,7%) no have records at LOD.
198

Sistema de recomendação para bibliotecas digitais sob a perspectiva da web semântica / A recommender system to digital llibraries under semantic web perspective

Lopes, Giseli Rabello January 2007 (has links)
Atualmente, pesquisadores e acadêmicos têm beneficiado-se muito com o crescimento acelerado das tecnologias Web, pois os resultados de pesquisa podem ser publicados e acessados eletronicamente tão logo a mesma tenha sido realizada. Esta possibilidade é vantajosa na medida em que minimiza as barreiras de tempo e espaço associadas à publicação tradicional. Neste contexto, surgem as Bibliotecas Digitais como repositórios de dados que, além dos documentos digitais propriamente ditos, ou de apontadores para estes documentos, armazenam os metadados associados. Para permitir que diferentes Bibliotecas Digitais possam interoperar surgiu a Open Archives Initiative (OAI) e, para resolver a questão da padronização dos metadados utilizados pelos repositórios, foi criado o formato Dublin Core (DC). Por outro lado, a enorme quantidade de documentos digitais disponíveis na Web tem causado o fenômeno conhecido como “sobrecarga de informação”. Com o objetivo de suprir esta dificuldade, Sistemas de Recomendação têm sido propostos e desenvolvidos. Estes sistemas visam prover uma interface alternativa para tecnologias de filtragem e recuperação de informações, tendo como foco a predição daqueles itens ou partes da informação que o usuário acharia interessante e útil. Portanto, os Sistemas de Recomendação atuam baseados em personalização da informação sendo que as predições geralmente são realizadas utilizando-se um perfil de cada usuário. A personalização está relacionada com o modo pelo qual a informação e serviços podem ser ajustados às necessidades específicas de um usuário ou comunidade. Esta dissertação descreve um Sistema de Recomendação de artigos científicos, armazenados em bibliotecas digitais. Este sistema é dirigido à comunidade científica da área da Ciência da Computação. Tecnologicamente, o sistema proposto foi desenvolvido sob a perspectiva da Web Semântica, à medida que faz uso de suas tecnologias emergentes tais como: uso de metadados padrão para a descrição de documentos - Dublin Core, uso do padrão XML para a descrição do perfil do usuário - Currículo Lattes, e provedores de serviços e de dados (OAI) envolvidos no processo de geração das recomendações. Este trabalho ainda apresenta e discute alguns resultados de experimentos baseados em avaliações quantitativas e qualitativas de recomendações geradas pelo sistema. / Currently, researchers and academics have been benefited by the expressive growth of web technologies, due to the possibility of publishing and accessing research results as soon as they are achieved. This possibility is advantageous as it minimizes the time and space barriers that traditional publications present. In this context, Digital Libraries emerged as data repositories that, beyond digital documents or links to them, store associated metadata. To allow the interoperability among different Digital Libraries, the Open Archives Initiative (OAI) was defined and, to solve the problem of metadata standardization, the Dublin Core standard (DC) was created. On the other hand, the great amount of available digital documents in the Web has caused the phenomenon known as “information overload”. In order to avoid this difficulty, Recommender Systems have been proposed and developed. These systems intend to provide an alternative interface for information filtering and retrieval technologies, focusing on the prediction of items or information parts that are interesting and useful for the user. Therefore, Recommender Systems act based on information personalization, and the predictions are generally generated using each user’s profile. The personalization is related to the way the information and the provided services can be adjusted to the specific necessities of a user or community. This dissertation describes a Recommender System for scientific articles stored in digital libraries. This system is geared towards the Computer Science scientific community. Technologically, the proposed system was developed under the Semantic Web perspective, as it explores its emergent technologies such as: use of standard metadata for document description - Dublin Core, use of the XML standard for users’ profile description - Lattes Curriculum Vitae, and services and data providers (OAI) involved on the recommendations generation process. In addition, this work presents and discusses some experimental results; the experiments are based on quantitative and qualitative evaluations of recommendations generated by the system.
199

Incorporação e recuperação de metadados semânticos em vídeos educacionais

Borges, Paulo Renato Soares 02 February 2016 (has links)
Made available in DSpace on 2016-03-15T19:38:03Z (GMT). No. of bitstreams: 1 PAULO RENATO SOARES BORGES.pdf: 12946347 bytes, checksum: faf0719c6de67db236de7761e202d9ed (MD5) Previous issue date: 2016-02-02 / Instituto Presbiteriano Mackenzie / The significant increase in the amount of information on web portals implied the appearance of semantic portals that use the representation standards of information from the World Wide Web Consortium (W3C), based on ontologies that assist in organizing, sharing and reusing the contents in these environments. Such technologies have helped incorporate semantics in varied contents made available on the Web, including educational portals that are repositories of differentiated Learning Objects (LO), including educational videos. The MPEG-7 standard supports this process by providing a range of standardized instruments for the design of audiovisual contents in several granularities. However, the literature review on this topic pointed out that the searches of those contents by the user still need to be facilitated. In this sense, this qualitative, exploratory and descriptive study aimed to investigate how the incorporation of metadata into audiovisual contents of an Educational Semantic Portal can help retrieve semantically those contents and ensure its reuse. Thus, a prototype of a Semantic Educational Portal that enables users to register and retrieve those semantic contents was designed and constructed. This portal was assessed as recommended for the user interaction design. The results of this study allow us to state that the incorporation of metadata in educational audiovisual contents through related descriptors makes easier and precise the semantic search and the retrieval of specific information contained in such contents. However, this registration done manually takes longer to be carried out than the registration of an audiovisual content that does not use metadata, which suggests future research that would consider the need for more efficient systems to facilitate the registration process of audiovisual contents on educational semantic portals. / O aumento significativo da quantidade de informações nos portais web implicou no surgimento dos portais semânticos, que se servem dos padrões de representação das informações da World Wide Web Consortium (W3C), fundamentados em ontologias que auxiliam na organização, compartilhamento e reutilização dos conteúdos nesses ambientes. Essas tecnologias têm auxiliado na incorporação de semântica em variados conteúdos disponibilizados na Web, inclusive em portais educacionais que se constituem em repositórios de diferenciados Objetos de Aprendizagem (OA), inclusive vídeos educacionais. O padrão MPEG-7 auxilia nesse processo, fornecendo uma gama de instrumentos padronizados para o delineamento de conteúdos audiovisuais em diversas granularidades. No entanto, a revisão da literatura sobre esse tema apontou que as buscas desses conteúdos pelo usuário ainda necessitam ser facilitadas. Nessa direção, este estudo qualitativo, exploratório e descritivo teve por objetivo investigar como a incorporação de metadados em conteúdos audiovisuais de um Portal Semântico Educacional pode auxiliar a recuperar semanticamente esses conteúdos e garantir a sua reutilização. Para tanto, foi arquitetado e construído um protótipo de um Portal Semântico Educacional que possibilita aos usuários o cadastro e a recuperação desses conteúdos semanticamente. Esse portal foi avaliado de acordo com o recomendado para o design de interação com o usuário. Os resultados deste estudo permitem afirmar que a incorporação de metadados em conteúdos audiovisuais educacionais por meio de descritores relacionados facilita e precisa a busca semântica e a recuperação de informações especificas presentes nesses conteúdos. No entanto, esse cadastro feito manualmente leva mais tempo para ser realizado do que o cadastro de um conteúdo audiovisual que não utiliza metadados, o que sugere futuras investigações que considerem a necessidade de sistemas mais eficientes que facilitem o processo de cadastro de conteúdos audiovisuais em portais semânticos educacionais.
200

SciProvMiner: captura e consulta de proveniência utilizando recursos Web semânticos para ampliação do conhecimento gerado e otimização do processo de coleta

Alves, Tatiane Ornelas Matins 06 September 2013 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-05-31T14:07:30Z No. of bitstreams: 1 tatianeornelasmartinsalves.pdf: 7124590 bytes, checksum: c53abf20bb1470077226587298efa22d (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-06-01T11:36:48Z (GMT) No. of bitstreams: 1 tatianeornelasmartinsalves.pdf: 7124590 bytes, checksum: c53abf20bb1470077226587298efa22d (MD5) / Made available in DSpace on 2017-06-01T11:36:48Z (GMT). No. of bitstreams: 1 tatianeornelasmartinsalves.pdf: 7124590 bytes, checksum: c53abf20bb1470077226587298efa22d (MD5) Previous issue date: 2013-09-06 / Prover informação histórica de experimentos científicos com o objetivo de tratar o problema de perda de conhecimento do cientista sobre o experimento tem sido o foco de diversas pesquisas. No entanto, o apoio computacional ao experimento científico em larga escala encontra-se ainda incipiente e é considerado um grande desafio. Este trabalho tem o intuito de colaborar para as pesquisas nessa área, apresentando a arquitetura SciProvMiner, cujo principal objetivo é coletar proveniência prospectiva e retrospectiva de experimentos científicos fazendo uso de recursos Web semânticos para otimizar o processo de captura das informações de proveniência e aumentar o conhecimento do cientista sobre o experimento realizado. Como contribuições específicas do SciProvMiner, podemos destacar: - Desenvolvimento de um modelo para contemplar a proveniência prospectiva e retrospectiva como uma extensão do Open Provenance Model (OPM), que em sua forma original modela somente proveniência retrospectiva. - Especificação e implementação de um coletor de proveniência que utiliza a tecnologia de serviços Web para capturar ambos os tipos de proveniência segundo o modelo acima; - Desenvolvimento de uma ontologia denominada OPMO-e, que estende a ontologia Open Provenance Model Ontology (OPMO) de forma a modelar o conhecimento acerca da proveniência prospectiva além da retrospectiva já contemplada na OPMO e onde são implementadas as regras de completude e inferência definidas na documentação do modelo OPM. Estas regras aumentam o conhecimento do cientista sobre o experimento realizado por inferir informações que não foram explicitamente fornecidas pelo usuário e tornando possível a otimização do processo de captura de proveniência e a consequente diminuição do trabalho do cientista para instrumentalizar o workflow; - Especificação de um banco de dados relacional onde são armazenadas as informações de proveniência capturadas pelo coletor, que pode ser utilizado para ser consultado a respeito da proveniência explicitamente capturada, além de fornecer dadosparaas demais funcionalidades do SciProvMiner. / To provide historical scientific information to deal with knowledge loss about scientific experiment has been the focus of several researches. However, the computational support for scientific experiment on a large scale is still incipient and is considered one of the challenges set by the Brazilian Computer Society for 2006 to 2016 period. This work aims to contribute in this area, presenting the SciProvMiner architecture, which main objective is to collect prospective and retrospective provenance of scientific experiments, using ontologies and inference engines to provide useful information in order to increase the knowledge of scientists about a given experiment. We can highlight as specific contributions of SciProvMiner: - Development of a model that encompass prospective and retrospective provenance as an extension of the Open Provenance Model (OPM), which originally onlydeals with retrospective provenance. - Specification and implementation of a provenance collector that uses Web services technology to capture both types of provenance (prospective and retrospective) according to the above model; - Development of an ontology,named Extended OPMO-e, that extends the Open Provenance Model Ontology (OPMO) in order to model prospective provenance beyond the retrospective provenance already covered in OPMO and where are implemented inference and completeness rules defined in OPM documentation. These rules increase the knowledge of scientists on the experiment inferring information that were not explicitly provided by the user and making it possible to optimize the provenance capture mechanism and the consequent decrease on scientist work in order to instrument the workflow. - A relational database specification, where captured provenance information are stored. These information can be used to formulate queries about the provenance explicitly captured, besides provide data to other functionalities of SciProvMiner.

Page generated in 0.1016 seconds