• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 6
  • 1
  • Tagged with
  • 65
  • 65
  • 41
  • 40
  • 10
  • 9
  • 9
  • 9
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

[en] AN ARCHITECTURE FOR ADAPTATION AND META-ADAPTATION IN HYPERMEDIA SYSTEMS / [pt] ARQUITETURA PARA ADAPTAÇÃO E META-ADAPTAÇÃO DE SISTEMAS HIPERMÍDIA

PATRICIA SEEFELDER DE ASSIS 24 March 2006 (has links)
[pt] Este trabalho define uma arquitetura para adaptação e meta- adaptação de sistemas hipermídia, utilizando modelos propostos para a Web Semântica. As aplicações adaptativas são capazes de alterar algumas de suas características, tais como modelo de navegação ou de apresentação, em função de um contexto de adaptação. Este contexto pode incluir informações sobre o usuário, tais como preferências, navegações prévias, etc., e sobre o ambiente de execução, tais como dispositivo de acesso, banda passante, etc. As aplicações meta-adaptativas são capazes de alterar tanto os modelos da aplicação quanto o próprio processo de adaptação, também em função do contexto. A partir do modelo SHDM, são definidas extensões para representar o contexto de adaptação, as regras de adaptação e a arquitetura de execução deste tipo de aplicação. Através de comparações, é mostrado como os principais modelos descritos na literatura são casos particulares do modelo e da arquitetura propostos nesta dissertação. / [en] This dissertation defines an architecture for adaptation and metaadaptation in hypermedia systems, using models proposed for the Semantic Web. Adaptive applications are able to alter some of their characteristics, such as its navigation model or presentation model, according to the adaptation context. This context may include information about the user, such as her preferences, navigation history, etc., and about the execution environment, such as access device, bandwidth, etc. Meta-adaptive applications are able to alter both its models and its adaptation process according to the adaptation context. The proposal extends the SHDM model with a context model, adaptation rules and execution architecture. It is shown, by comparison, that the major adaptation models described in the literature can be seen as particular cases of the proposed model and architecture.
52

[en] MATERIALIZATION AND MAINTENANCE OF OWL: SAMEAS LINKS / [pt] MATERIALIZAÇÃO E MANUTENÇÃO DE LIGAÇÕES OWL: SAMEAS

CARLA GONCALVES OUROFINO 17 January 2017 (has links)
[pt] A Web de Dados cresceu significativamente nos últimos anos, tanto em quantidade de dados, quanto em fontes responsáveis por esses. A partir desse aumento no número de fontes de dados, ligações owl:sameAs têm sido cada vez mais utilizadas para conectar dados equivalentes e publicados por fontes distintas. Com isso, torna-se necessário haver uma rotina de identificação e manutenção dessas conexões. Com o objetivo de automatizar essa tarefa, desenvolvemos o Framework MsA – Materialização de sameAs para materializar e recomputar ligações do tipo owl:sameAs entre bancos de dados locais e dados publicados na Web. Essas ligações, uma vez identificadas, são materializadas juntamente aos dados locais e recomputadas apenas quando necessário. Para isso, a ferramenta monitora as operações (cadastramento, remoção e atualização) realizadas nos dados locais e remotos e, para cada tipo, implementa uma estratégia de manutenção das ligações envolvidas. / [en] The Web of Data has grown significantly in recent years, not only in the amount of data but also in the number of data sources. In parallel with this tendency, owl:sameAs links have been increasingly used to connect equivalent data published by different sources. As a consequence, it becomes necessary to have a routine for the identification and maintenance of these connections. In order to automate this task, we have developed the MsA Framework - sameAs Materialization to materialize and recompute owl:sameAs links between local databases and data published on the Web. These connections, once identified, are materialized along with the local data and recomputed only when necessary. To achieve this goal, the tool monitors the operations (insertion, update and deletion) performed on local and remote records, and for each type of operation it implements a maintenance strategy on the links involved.
53

[en] ONTOLOGY DRIVEN INTERFACE DEVELOPMENT FOR APPLICATIONS ON THE SEMANTIC WEB / [pt] DESENVOLVIMENTO DE INTERFACES GOVERNADAS POR ONTOLOGIAS PARA APLICAÇÕES NA WEB SEMÂNTICA

SABRINA SILVA DE MOURA 14 March 2005 (has links)
[pt] Atualmente, com a emergente Web Semântica, o volume de pesquisa relacionadas com o desenvolvimento de aplicações hipermídia (páginas na Web) nesta área tem aumentado. O objetivo comum é dar significado semântico ao conteúdo da Web. Isto é, há possibilidade de os dados contidos na Web serem definidos e relacionados de maneira que possam ser usados por máquinas não só para automação, integração e reuso de dados entre aplicações, mas também para permitir interações mais ricas com seres humanos. Este trabalho apresenta a aplicação dos conceitos da Web Semântica no desenvolvimento de interfaces para aplicações hipermídia, como parte do método SHDM (Semantic Hypermedia Design Method). Para isto, é proposto o uso de duas ontologias, uma representando elementos de interface concretos (ontologia de widgets concretos) e a outra representando elementos de interface abstratos (ontologia de widgets abstratos). Estes elementos abstratos são utilizados para descrever as interfaces abstratas e são mapeados em elementos de interface concreta, especificados como instância da ontologia de widgets concretos. Finalmente, para a geração da página concreta a partir de uma interface abstrata, definida como instância da ontologia de widgets abstratos, é proposta uma arquitetura de implementação baseada em JSP e Tag Libraries. / [en] The current emergence of the Semantic Web has increased the volume of research initiatives related to the development of hypermedia applications in this environment. The common goal is to give semantic meaning to the content of the Web. This means that it is now possible that the data contained in the Web to be defined and related in such a way that it can be used by machines not only for automation, integration and reuse of data among applications, but also to allow richer interaction with human beings. This work applies the concepts of the Semantic Web to the development of interfaces for hypermedia applications, in the context of the Semantic Hypermedia Design Method (SHDM). For this, two ontologies are proposed, one representing concrete interface elements (concrete widgets ontology) and another representing abstract interface element (abstract widgets ontology). These abstract elements are used to describe the abstract interfaces and are mapped to concrete interface elements, specified as instances of the concrete widgets ontology. An implementation architecture is proposed, based on JSP and Tag Libraries, allowing the generation of the concrete page based on a defined abstract interface.
54

[en] WEB LIFE - A MULTI-AGENT SYSTEMS IMPLEMENTATION ARCHITECTURE FOR THE WEB / [pt] WEB LIFE UMA ARQUITETURA PARA A IMPLEMENTAÇÃO DE SISTEMAS MULTI-AGENTES PARA A WEB

27 June 2003 (has links)
[pt] A resolução de problemas distribuídos com o uso de sistemas compostos de vários agentes, agrupados em organizações, e que visam objetivos comuns vem ganhando grande atenção da comunidade científica. Este interesse evidencia-se pelo número crescente de iniciativas para a criação de métodos de desenvolvimento e plataformas de implementação de sistema multi-agentes. Algumas plataformas concentram-se no suporte a aspectos específicos destes sistemas, enquanto outras preocupam-se com a criação de uma infra-estrutura completa que permita o desenvolvimento dos agentes e suas organizações. O Web Life é uma arquitetura para a implementação de sistemas multi-agentes para a Web, que auxilia a criação dos agentes e suas organizações, oferecendo toda a infra-estrutura de comunicação, coordenação, tomada de decisões e realização de tarefas necessária a atuação dos agentes. A arquitetura procura aproveitar diversas iniciativas de padronização e de criação de ferramentas para resolução de certos aspectos do problema, agrupando-as sob um framework integrado. A arquitetura promove a evolução da Web no sentido de se tornar uma Web de conteúdos semânticos aptos ao tratamento automático por mecanismos de software - a Web Semântica. / [en] The resolution of distributed problems by applying computer systems composed by agents and organized towards a common objective is attracting the scientific community s attention. This is shown by the increasing number of initiatives for the development of methods and platforms to help constructing multiagent systems. Some platforms concentrate efforts on supporting some multi-agent systems aspects while others try to offer a complete infrastructure for the agents and organizations development. The Web Life architecture offers an implementation platform for developing Web-based multi- agent systems. The architecture is focused on the provision of a complete multi-agent infrastructure with native support for communication, coordination, decision-taking and task-oriented behavior. The incorporation of current under development standards and tools for solving specific problems in multi-agent systems is one of the main objectives of this work. These standards and tools are integrated by the Web Life framework. The architecture try to help the evolution of the Web into a Web with semantic contents that may be automatically processed - the Semantic Web.
55

[en] HYPERDE: A FRAMEWORK AND DEVELOPMENT ENVIRONMENT DRIVEN BY ONTOLOGIES FOR HYPERMEDIA APPLICATIONS / [pt] HYPERDE: UM FRAMEWORK E AMBIENTE DE DESENVOLVIMENTO DIRIGIDO POR ONTOLOGIAS PARA APLICAÇÕES HIPERMÍDIA

DEMETRIUS ARRAES NUNES 26 December 2005 (has links)
[pt] O HyperDE, apresentado nesta dissertação, é a combinação de um framework no padrão Model-View-Controller e um ambiente de desenvolvimento visual para a construção de protótipos de aplicações hipermídia, modeladas através dos métodos OOHDM ou SHDM. Como framework MVC, o HyperDE fornece componentes reutilizáveis e extensíveis para as camadas de modelo, visão e controle, especificados como ontologias em RDFS. Como ambiente de desenvolvimento visual, o HyperDE fornece, através de sua interface gráfica e ferramentas auxiliares, uma forma interativa e dinâmica de construir e prototipar uma aplicação hipermídia, com a possibilidade de visualizar imediatamente o resultado de cada passo do processo de desenvolvimento. A arquitetura de desenvolvimento promovida pelo ambiente é orientada a modelos, onde a definição dos modelos navegacionais efetivamente gera a implementação da aplicação. Utilizando um modelo de dados baseado em RDF e RDFS, os modelos navegacionais produzidos no HyperDE podem ser utilizados como ontologias, fazendo-se uso de tecnologias e linguagens da Web Semântica. Além disso, a utilização de uma linguagem de programação dinâmica permite que o HyperDE construa dinamicamente linguagens específicas de domínio para cada aplicação desenvolvida, o que resulta em um modelo de programação mais conciso e natural. / [en] HyperDE, presented in this dissertation, is a combination of a Model-View- Controller framework and a visual development environment for building prototype applications modeled through the OOHDM and SHDM methods. As a MVC framework, HyperDE provides the reusable and extensible components for the model, vision and control layers, specified as ontologies in RDFS. As a visual development environment, HyperDE provides, through its graphical interface and support tools, an interactive and dynamic way for building and prototyping a hypermedia application, making it possible to visualize the results on each step of the development process. The development architecture promoted by the environment is model-driven, in which the definition of the navigational models effectively generate the application implementation. Using data models based on RDF and RDFS, the navigational models produced in HyperDE can be used as ontologies, through semantic web languages and technologies. Also, the use of a dynamic programming language makes it possible for HyperDE to dynamically generate domain-specific languages for each application built, which results in a programming model much more concise and natural.
56

[en] IMPROVING THE QUALITY OF THE USER EXPERIENCE BY QUERY ANSWER MODIFICATION / [pt] MELHORANDO A QUALIDADE DA EXPERIÊNCIA DO USUÁRIO ATRAVÉS DA MODIFICAÇÃO DA RESPOSTA DA CONSULTA

JOAO PEDRO VALLADAO PINHEIRO 30 June 2021 (has links)
[pt] A resposta de uma consulta, submetida a um banco de dados ou base de conhecimento, geralmente é longa e pode conter dados redundantes. O usuário é frequentemente forçado a navegar por uma longa resposta, ou refinar e repetir a consulta até que a resposta atinja um tamanho gerenciável. Sem o tratamento adequado, consumir a resposta da consulta pode se tornar uma tarefa tediosa. Este estudo, então, propõe um processo que modifica a apresentação da resposta da consulta para melhorar a qualidade de experiência do usuário, no contexto de uma base de conhecimento RDF. O processo reorganiza a resposta da consulta original aplicando heurísticas para comprimir os resultados. A consulta SPARQL original é modificada e uma exploração sobre o conjunto de resultados começa através de uma navegação guiada sobre predicados e suas facetas. O artigo também inclui experimentos baseados em versões RDF do MusicBrainz, enriquecido com dados do DBpedia, e IMDb, cada um com mais de 200 milhões de triplas RDF. Os experimentos utilizam exemplos de consultas de benchmarks conhecidos. / [en] The answer of a query, submitted to a database or a knowledge base, is often long and may contain redundant data. The user is frequently forced to browse thru a long answer, or to refine and repeat the query until the answer reaches a manageable size. Without proper treatment, consuming the query answer may indeed become a tedious task. This study then proposes a process that modifies the presentation of a query answer to improve the quality of the user s experience, in the context of an RDF knowledge base. The process reorganizes the original query answer by applying heuristics to summarize the results. The original SPARQL query is modified and an exploration over the result set starts thru a guided navigation over predicates and its facets. The article also includes experiments based on RDF versions of MusicBrainz, enriched with DBpedia data, and IMDb, each with over 200 million RDF triples. The experiments use sample queries from well-known benchmarks.
57

[pt] O FENÔMENO BOOKTUBER: JUVENTUDE, LITERATURA E REDES SOCIAIS / [en] THE BOOKTUBER PHENOMENON: YOUTH, LITERATURE AND SOCIAL MEDIA

LIVIA FRANCA SALLES 28 January 2019 (has links)
[pt] Esta pesquisa propõe uma reflexão sobre um grupo específico e suas práticas sociais na internet: os booktubers. Booktubers são criadores de canais de vídeos dedicados ao tema livro na plataforma YouTube. Este trabalho tem como foco analisar as interações sociais nesses canais literários, criados inicialmente por jovens leitores, abrindo espaço para a discussão de literatura juvenil. Para isso, foram analisados os canais das booktubers Tatiana Feltrin, Pamela Gonçalves e Thereza Andrada. O trabalho se apoia nas noções de juventude e cultura juvenil, na leitura da cibercultura como cultura contemporânea, e nas de socialidade e interações no meio digital. Como resultado da análise, notamos que os booktubers nasceram como um movimento juvenil espontâneo na web, mas estão intrinsecamente vinculados às mídias de massa. Verificamos também que há uma regulação do espaço no YouTube, em que a principal estratégia de comunicação passa pela valorização da espontaneidade e do falar de si. / [en] This research broaches an specific group and it s social practices on the web: the booktubers, owners of YouTube channels dedicated to the theme books. This paper focuses on analysing the social interactions on these literary channels, created initially by young readers, and opening up the debate on young adult literature. To do so, the channels chosen for analysis are Tatiana Feltrin s, Pamela Gonçalves and Thereza Andrada s. This research supports itself on the notions of youth and youth culture, of cyberculture as contemporary culture and of sociability and digital interactions. As a result of this analysis, we noted that although booktubers have started as a spontaneous youth movement on the web, they are intrinsically tied to mass media. We also concluded that there s a regulation of YouTube cyberspace, in which the main strategy of communicating includes meriting spontaneity and talking about oneself.
58

[en] ALUMNI TOOL: INFORMATION RECOVERY OF PERSONAL DATA ON THE WEB IN AUTHENTICATED SOCIAL NETWORKS / [pt] ALUMNI TOOL: RECUPERAÇÃO DE DADOS PESSOAIS NA WEB EM REDES SOCIAIS AUTENTICADAS

LUIS GUSTAVO ALMEIDA 02 August 2018 (has links)
[pt] O uso de robôs de busca para coletar informações para um determinado contexto sempre foi um problema desafiante e tem crescido substancialmente nos últimos anos. Por exemplo, robôs de busca podem ser utilizados para capturar dados de redes sociais profissionais. Em particular, tais redes permitem estudar as trajetórias profissionais dos egressos de uma universidade, e responder diversas perguntas, como por exemplo: Quanto tempo um ex-aluno da PUC-Rio leva para chegar a um cargo de relevância? No entanto, um problema de natureza comum a este cenário é a impossibilidade de coletar informações devido a sistemas de autenticação, impedindo um robô de busca de acessar determinadas páginas e conteúdos. Esta dissertação aborda uma solução para capturar dados, que contorna o problema de autenticação e automatiza o processo de coleta de dados. A solução proposta coleta dados de perfis de usuários de uma rede social profissional para armazenamento em banco de dados e posterior análise. A dissertação contempla ainda a possibilidade de adicionar diversas outras fontes de dados dando ênfase a uma estrutura de armazém de dados. / [en] The use of search bots to collect information for a given context has grown substantially in recent years. For example, search bots may be used to capture data from professional social networks. In particular, such social networks facilitate studying the professional trajectory of the alumni of a given university, and answer several questions such as: How long does a former student of PUC-Rio take to arrive at a management position? However, a common problem in this scenario is the inability to collect information due to authentication systems, preventing a search robot from accessing certain pages and content. This dissertation addresses a solution to capture data, which circumvents the authentication problem and automates the data collection process. The proposed solution collects data from user profiles for later database storage and analysis. The dissertation also contemplates the possibility of adding several other sources of data giving emphasis to a data warehouse structure.
59

[en] W-RAY: AN APPROACH TO THE DEEP WEB DATA PUBLICATION / [pt] W-RAY: UMA ABORDAGEM PARA PUBLICAÇÃO DE DADOS DA DEEP WEB

HELENA SERRAO PICCININI 29 September 2014 (has links)
[pt] Deep Web é composta por dados armazenados em bases de dados, páginas dinâmicas, páginas com scripts e dados multimídia, dentre outros tipos de objetos. Os bancos de dados da Deep Web são geralmente sub-representados pelos motores de busca, devido aos desafios técnicos de localizar, acessar e indexar seus dados. A utilização de hyperlinks pelos motores de busca não é suficente para alcançar todos os dados da Deep Web, exigindo interação com interfaces de consultas complexas. Esta tese apresenta uma abordagem, denominada W-Ray, capaz de fornecer visibilidade aos dados da Deep Web. A abordagem baseia-se na descrição dos dados relevantes através de sentenças bem estruturadas, e na publicação dessas sentenças em páginas estáticas da Web. As sentenças podem ser geradas com RDFa embutido, mantendo a semântica do banco de dados. As páginas da Web assim geradas são passíveis de ser indexadas pelos motores de coleta de dados tradicionais e por motores mais sofisticados que suportam busca semântica. É apresentada também uma ferramenta que apóia a abordagem W-Ray. A abordagem foi implementada com sucesso para diferentes bancos de dados reais. / [en] The Deep Web comprises data stored in databases, dynamic pages, scripted pages and multimedia data, among other types of objects. The databases of the Deep Web are generally underrepresented by the search engines due to the technical challenges of locating, accessing and indexing them. The use of hyperlinks by search engines is not sufficient to achieve all the Deep Web data, requiring interaction with complex queries interfaces. This thesis presents an approach, called W-Ray, that provides visibility to Deep Web data. The approach relies on describing the relevant data through well-structured sentences, and on publishing the sentences as static Web pages. The sentences can be generated with embedded RDFa, keeping the semantics of the database. The Web pages thus generated are indexed by traditional Web crawlers and sophisticated crawlers that support semantic search. It is also presented a tool that supports the W-Ray approach. The approach has been successfully implemented for some real databases.
60

[en] DCD TOOL: A TOOLKIT FOR THE DISCOVERY AND TRIPLIFICATION OF STATISTICAL DATA CUBES / [pt] DCD TOOL: UM CONJUNTO DE FERRAMENTAS PARA DESCOBERTA E TRIPLIFICAÇÃO DE CUBOS DE DADOS ESTATÍSTICOS

SERGIO RICARDO BATULI MAYNOLDI ORTIGA 07 July 2015 (has links)
[pt] A produção de indicadores sociais e sua disponibilização na Web é uma importante iniciativa de democratização e transparência que os governos em todo mundo vêm realizando nas últimas duas décadas. No Brasil diversas instituições governamentais ou ligadas ao governo publicam indicadores relevantes para acompanhamento do desempenho do governo nas áreas de saúde, educação, meio ambiente entre outras. O acesso, a consulta e a correlação destes dados demanda grande esforço, principalmente, em um cenário que envolve diferentes organizações. Assim, o desenvolvimento de ferramentas com foco na integração e disponibilização das informações de tais bases, torna-se um esforço relevante. Outro aspecto que se destaca no caso particular do Brasil é a dificuldade em se identificar dados estatísticos dentre outros tipos de dados armazenados no mesmo banco de dados. Esta dissertação propõe um arcabouço de software que cobre a identificação das bases de dados estatísticas no banco de dados de origem e o enriquecimento de seus metadados utilizando ontologias padronizadas pelo W3C, como base para o processo de triplificação. / [en] The production of social indicators and their availability on the Web is an important initiative for the democratization and transparency that governments have been doing in the last two decades. In Brazil, several government or government-linked institutions publish relevant indicators to help assess the government performance in the areas of health, education, environment and others. The access, query and correlation of these data demand substantial effort, especially in a scenario involving different organizations. Thus, the development of tools, with a focus on the integration and availability of information stored in such bases, becomes a significant effort. Another aspect that requires attention, in the case of Brazil, is the difficulty in identifying statistical databases among others type of data that share the same database. This dissertation proposes a software framework which covers the identification of statistical data in the database of origin and the enrichment of their metadata using W3C standardized ontologies, as a basis for the triplification process.

Page generated in 0.1003 seconds