• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 217
  • 76
  • 44
  • 24
  • 20
  • 19
  • 18
  • 17
  • 14
  • 8
  • 7
  • 7
  • 6
  • 6
  • Tagged with
  • 839
  • 839
  • 249
  • 189
  • 176
  • 155
  • 139
  • 112
  • 108
  • 105
  • 105
  • 104
  • 102
  • 97
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Uncertainty-Sensitive Reasoning over the Web of Data / Modélisation et calcul de la confiance dans les réseaux pair à pair de partage de données

Bakri, Mustafa al 15 December 2014 (has links)
Dans cette thèse, nous étudions plusieurs approches destinées à aider les utilisateurs à trouver des informations utiles et fiables dans le Web de données, en utilisant les technologies du Web sémantique. Nous abordons pour cela deux thèmes de recherche: le liage de données dans le Linked-Data et la confiance dans les réseaux P2P sémantiques. Nous modélisons le problème de liage dans le Web de données comme un problème de raisonnement sur des données incomplètes, qu'il s'agit d'enrichir en interrogeant de façon précise et pertinente le cloud du Linked Data. Nous avons conçu et implémenté un nouvel algorithme qui, à partir d'une requête de liage (du type et d'une base de règles modélisant de manière uniforme diverses connaissances du domaine (contraintes du schéma, axiomes d'inclusion ou d'exclusion d'une ontologie, règles expertes, mappings), construit itérativement des requêtes SPARQL pour importer des sources externes pertinentes du Linked Data les données utiles pour répondre à la requête de liage. Les expérimentations que nous avons menées sur des données réelles ont démontré la faisabilité de cette approche et son utilité dans la pratique pour le liage de données et la résolution d'homonymie. En outre, nous proposons une adaptation de cette approche pour prendre en compte des données et des connaissances éventuellement incertaines, avec en résultat l'inférence de liens ‘sameAs' et ‘differentFrom' associés à des poids de probabilité. Dans cette adaptation nous modélisons l'incertitude comme des valeurs de probabilité. Nos expérimentations ont montré que notre approche passe à l'échelle pour des bases de connaissances constituées de plusieurs millions de faits RDF et produit des poids probabilistes fiables. Concernant la confiance, nous introduisons un mécanisme de confiance permettant de guider le processus de réponse aux requêtes dans des Réseaux P2P sémantiques. Les différents pairs dans les réseaux P2P sémantiques organisent leur information en utilisant des ontologies distinctes et d épendent d'alignements entre ontologies pour traduire leurs requêtes. La notion de confiance dans un tel contexte est subjective ; elle estime la probabilité qu'un pair apportera des réponses satisfaisantes pour les requêtes spécifiques dans les interactions futures. Le mécanisme proposé de calcul de valeurs de confiance combine les informations fournies par les alignements avec celles provenant des interactions passées entre pairs. Les valeurs de confiances calculées sont affinées progressivement à chaque cycle de requête/réponse en utilisant l'inférence bayésienne. Pour l'évaluation de notre mécanisme, nous avons construit un système P2P de partage de signets sémantiques (TrustMe) dans lequel il est possible de faire varier différents paramètres quantitatifs et qualitatifs. Les résultats expérimentaux montrent la convergence des valeurs de confiance ;.ils mettent également en évidence le gain en terme de qualité des réponses des pairs - mesurées selon la précision et le rappel- lorsque le processus de réponse aux requêtes est guidé par notre mécanisme de confiance. / In this thesis we investigate several approaches that help users to find useful and trustful informationin the Web of Data using the Semantic Web technologies. In this purpose, we tackle tworesearch issues: Data Linkage in Linked Data and Trust in Semantic P2P Networks. We model the problem of data linkage in Linked Data as a reasoning problem on possibly decentralized data. We describe a novel Import-by-Query algorithm that alternates steps of subquery rewriting and of tailored querying the Linked Data cloud in order to import data as specific as possible for inferring or contradicting given target same-as facts. Experiments conducted on real-world datasets have demonstrated the feasibility of this approach and its usefulness in practice for data linkage and disambiguation. Furthermore, we propose an adaptation of this approach to take into account possibly uncertain data and knowledge, with a result the inference of same-as and different-from links associated with probabilistic weights. In this adaptation we model uncertainty as probability values. Our experiments have shown that our adapted approach scales to large data sets and produces meaningful probabilistic weights. Concerning trust, we introduce a trust mechanism for guiding the query-answering process in Semantic P2P Networks. Peers in Semantic P2P Networks organize their information using separate ontologies and rely on alignments between their ontologies for translating queries. Trust is such a setting is subjective and estimates the probability that a peer will provide satisfactory answers for specific queries in future interactions. In order to compute trust, the mechanism exploits the information provided by alignments, along with the one that comes from peer's experiences. The calculated trust values are refined over time using Bayesian inference as more queries are sent and answers received. For the evaluation of our mechanism, we have built a semantic P2P bookmarking system (TrustMe) in which we can vary different quantitative and qualitative parameters. The experimental results show the convergence of trust, and highlight the gain in the quality of peers' answers —measured with precision and recall— when the process of query answering is guided by our trust mechanism.
272

Múltiplas visões coordenadas : uma técnica de coordenação com o apoio de ontologias /

Prates, Jorge Marques. January 2014 (has links)
Orientador: Rogério Eduardo Garcia / Banca: Maria Cristina Ferreira de Oliveira / Banca: Celso Olivete Júnior / Resumo: A exploração de múltiplas visões de conjuntos de dados pode auxiliar no processo de descoberta de associações ocultas entre os elementos desses conjuntos. O emprego de uma técnica de coordenação permite associar esses elementos em visões distintas. Normalmente, técnicas de coordenação que mapeiam os elementos apenas considerando os atributos dos dados limitam a descoberta de associações entre os elementos visuais. Neste trabalho é apresentada a técnica Semantic Coordination, um mecanismo de coordenação que utiliza ontologias para associar elementos de dados com base nos mapeamentos fornecidos pela semântica. Com isso, a visualização exploratória pode se beneficiar da representação semântica para criar os mapeamentos, pois são estabelecidas associações entre os elementos visuais além das existentes pela relação dos dados. Também, são apresentados e analisados os resultados de dois estudos de caso, aplicando a Semantic Coordination e técnicas tradicionais na exploração de coleções textuais. Após a análise, os resultados obtidos mostram que o mecanismo de coordenação proposto estende o processo de exploração de múltiplas visões de conjuntos de dados, em comparação a técnicas de coordenação tradicionais / Abstract: Exploring multiple views of data sets can provide assistance on discovering unforeseen associations among their elements. Employing a coordination technique creates associations among elements across related views. Usually, the coordination process uses a mapping among data elements, that are constrained by using data attributes, which is a constraint to user exploration process (only linked data can be usually associated). In this work it is presented Semantic Coordination, a mechanism that applies ontologies to link data elements based on mappings provided by semantic. Representing the underlying data into ontology, the exploratory visualization can be benefited from a semantic representation to create the mappings, what might be helpful to establish associations on multiple views. Also, it is shown the results of two case studies applying the Semantic Coordination and traditional techniques on exploring text collections. The analysis of the obtained results, have shown the proposed coordination mechanism improves the exploration using multiple views, in comparison with traditional techniques / Mestre
273

Wikis semânticos : da Web para a Web semântica /

Ferreira, Jaider Andrade. January 2014 (has links)
Orientador: Plácida Leopoldina Ventura Amorim da Costa Santos / Resumo: Com o desenvolvimento das Tecnologias de Informação e Comunicação, a Ciência da Informação precisou repensar a postura tradicional de gerenciamento informacional. O hipertexto, advindo principalmente por meio do ambiente Web, elevou ainda mais a complexidade do tratamento informacional. A popularização da Internet fez com que a Web se tornasse mais interativa e colaborativa tornando comum a utilização de sistemas wiki para o gerenciamento informacional. Idealizada por Tim Berners-Lee, surge a iniciativa da Web Semântica, na qual as máquinas são capazes de analisar os dados presentes na rede. Nesse contexto aparecem os wikis semânticos, caracterizados por fazerem uso das tecnologias da Web Semântica. Diante desse cenário, considera-se que a Ciência da Informação, que já se preocupa com o desenvolvimento da Web e da Web Semântica, deve também se preocupar com os wikis semânticos. Assim, por meio de uma pesquisa descritiva e exploratória, objetivou-se explorar, apresentar e descrever as características dos wikis semânticos com enfoque nas atividades de descrição, de recuperação e de intercâmbio de informações apoiadas em tecnologias da Web Semântica, visando a favorecer o entendimento, a discussão e o uso dessas tecnologias em ambientes informacionais digitais. Após uma apresentação sobre as raízes históricas da Web Semântica, são destacados os padrões de representação, codificação, descrição, relação e consulta de dados estruturados (URI, XML, RDF, RDFS, OWL e SPARQL) que, junto a outras tecnologias, formam a base da Web Semântica e apoiam o funcionamento dos wikis semânticos. Os wikis semânticos são apresentados e definidos como sistemas wiki que se utilizam de tecnologias da Web Semântica para incorporar conhecimento formalizado, conteúdo, estruturas e links em suas páginas. Após essa etapa, são descritas as principais atividades de descrição, de recuperação e de intercâmbio de... / Abstract: Due to the development of Information and Communication Technologies, Information Science has been forced to rethink the traditional posture of information management. Hypertext, arising mainly through the Web environment, further increased the complexity of the information handling. The popularization of the Internet has led the Web to a more interactive and a more collaborative environment, bringing wiki systems, for example, to manage information in a collaborative way. Conceived by Tim Berners-Lee, there is the Semantic Web initiative in which machines are able to analyze data on the network. In this context, semantic wikis arise: wikis characterized by the use of Semantic Web technologies. Therefore, we believe that Information Science, which cares about the development of the Web and the Semantic Web, should also care about semantic wikis. Thus, by a descriptive and an exploratory research, the objective is to explore, to present and to describe the characteristics of the semantic wikis on the activities of representation, retrieval and exchange of information supported by Semantic Web technologies in order to facilitate the understanding, the discussion, and the use of these technologies in digital information environments. After a presentation about the origins of the Semantic Web, we highlight the data representation, encoding, description, relation, and query standards (URI, XML, RDF, RDFS, OWL and SPARQL) which, with other technologies, form the basis of the Semantic Web and support the functioning of semantic wikis. Semantic wikis are presented and defined as wiki systems that use Semantic Web technologies in order to incorporate formalized knowledge, content, structure and links on their pages. After that, we describe the main activities for information description, retrieval and interchange on Semantic MediaWiki, the most popular and most used semantic wiki engine so far. As conclusion, we consider that semantic wikis can... / Mestre
274

Metodologia de avaliação de qualidade de dados no contexto do linked data / Data quality assessment methodology in the context of linked data

Melo, Jessica Oliveira de Souza Ferreira [UNESP] 09 May 2017 (has links)
Submitted by JESSICA OLIVEIRA DE SOUZA null (osz.jessica@gmail.com) on 2017-06-09T12:04:24Z No. of bitstreams: 1 Dissertação-Jessica-Melo.pdf: 5257476 bytes, checksum: 21d6468b47635a4df09d971c6c0bb581 (MD5) / Approved for entry into archive by LUIZA DE MENEZES ROMANETTO (luizamenezes@reitoria.unesp.br) on 2017-06-12T12:21:39Z (GMT) No. of bitstreams: 1 melo_josf_me_mar.pdf: 5257476 bytes, checksum: 21d6468b47635a4df09d971c6c0bb581 (MD5) / Made available in DSpace on 2017-06-12T12:21:39Z (GMT). No. of bitstreams: 1 melo_josf_me_mar.pdf: 5257476 bytes, checksum: 21d6468b47635a4df09d971c6c0bb581 (MD5) Previous issue date: 2017-05-09 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A Web Semântica sugere a utilização de padrões e tecnologias que atribuem estrutura e semântica aos dados, de modo que agentes computacionais possam fazer um processamento inteligente, automático, para cumprir tarefas específicas. Neste contexto, foi criado o projeto Linked Open Data (LOD), que consiste em uma iniciativa para promover a publicação de dados linkados (Linked Data). Com o evidente crescimento dos dados publicados como Linked Data, a qualidade tornou-se essencial para que tais conjuntos de dados (datasets) atendam os objetivos básicos da Web Semântica. Isso porque problemas de qualidade nos datasets publicados constituem em um empecilho não somente para a sua utilização, mas também para aplicações que fazem uso de tais dados. Considerando que os dados disponibilizados como Linked Data possibilitam um ambiente favorável para aplicações inteligentes, problemas de qualidade podem também dificultar ou impedir a integração dos dados provenientes de diferentes datasets. A literatura aplica diversas dimensões de qualidade no contexto do Linked Data, porém indaga-se a aplicabilidade de tais dimensões para avaliação de qualidade de dados linkados. Deste modo, esta pesquisa tem como objetivo propor uma metodologia para avaliação de qualidade nos datasets de Linked Data, bem como estabelecer um modelo do que pode ser considerado qualidade de dados no contexto da Web Semântica e do Linked Data. Para isso adotou-se uma abordagem exploratória e descritiva a fim de estabelecer problemas, dimensões e requisitos de qualidade e métodos quantitativos na metodologia de avaliação a fim de realizar a atribuição de índices de qualidade. O trabalho resultou na definição de sete dimensões de qualidade aplicáveis ao domínio do Linked Data e 14 fórmulas diferentes para a quantificação da qualidade de datasets sobre publicações científicas. Por fim realizou-se uma prova de conceito na qual a metodologia de avaliação de qualidade proposta foi aplicada em um dataset promovido pelo LOD. Conclui-se, a partir dos resultados da prova de conceito, que a metodologia proposta consiste em um meio viável para quantificação dos problemas de qualidade em datasets de Linked Data, e que apesar dos diversos requisitos para a publicação deste tipo de dados podem existir outros datasets que não atendam determinados requisitos de qualidade, e por sua vez, não deveriam estar inclusos no diagrama do projeto LOD. / The Semantic Web suggests the use of patterns and technologies that assign structure and semantics to the data, so that computational agents can perform intelligent, automatic processing to accomplish specific tasks. In this context, the Linked Open Data (LOD) project was created, which consists of an initiative to promote the publication of Linked Data. With the evident growth of data published as Linked Data, quality has become essential for such datasets to meet the basic goals of the Semantic Web. This is because quality problems in published datasets are a hindrance not only to their use but also to applications that make use of such data. Considering that data made available as Linked Data enables a favorable environment for intelligent applications, quality problems can also hinder or prevent the integration of data coming from different datasets. The literature applies several quality dimensions in the context of Linked Data, however, the applicability of such dimensions for quality evaluation of linked data is investigated. Thus, this research aims to propose a methodology for quality evaluation in Linked Data datasets, as well as to establish a model of what can be considered data quality in the Semantic Web and Linked Data context. For this, an exploratory and descriptive approach was adopted in order to establish problems, dimensions and quality requirements and quantitative methods in the evaluation methodology in order to perform the assignment of quality indexes. This work resulted in the definition of seven quality dimensions applicable to the Linked Data domain and 14 different formulas for the quantification of the quality of datasets on scientific publications. Finally, a proof of concept was developed in which the proposed quality assessment methodology was applied in a dataset promoted by the LOD. It is concluded from the proof of concept results that the proposed methodology consists of a viable means for quantification of quality problems in Linked Data datasets and that despite the diverse requirements for the publication of this type of data there may be other datasets that do not meet certain quality requirements, and in turn, should not be included in the LOD project diagram.
275

Uma arquitetura multiagentes para sistema educacional baseado na web semântica

De Rossi, Luís Henrique [UNESP] 04 February 2011 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2011-02-04Bitstream added on 2014-06-13T18:59:21Z : No. of bitstreams: 1 derossi_lh_me_sjrp.pdf: 1783577 bytes, checksum: 3017df90989f2b4b05b6bc1d87eb42ce (MD5) / Nas últimas duas décadas, diversos sistemas de ensino para Web foram desenvolvidos e amplamente utilizados. Com o surgimento da Web Semântica, a qual integra os conceitos da Web e da área de Inteligência Artificial, foi possível conceber novos sistemas de ensino, os Sistemas de Ensino Baseados na Web Semântica (Semantic Web-based Educational Systems - SWBES). Os SWBES são caracterizados por representar o conteúdo e o conhecimento na forma de ontologias e contar com agentes inteligentes que permitem às máquinas entenderem o conteúdo publicado na Web. Neste trabalho são apresentados e discutidos os padrões arquiteturais utilizados para desenvolvimento dos sistemas baseados na Web Semântica, em especial os sistemas educacionais. Como resultado do estudo é proposta uma arquitetura para os SWBES. As arquiteturas dos SWBES que utilizam a abordagem multiagente, normalmente, são concebidas de forma empírica, ou seja, apenas com a experiência do seu desenvolvedor. Neste trabalho, para a concepção do modelo multiagentes adotado na arquitetura do SWBES, foi utilizada uma metodologia de desenvolvimento de sistemas multiagentes, o framework Tropos. São apresentadas as fases do framework Tropos para o projeto de um modelo multiagentes utilizado na arquitetura de um SWBES. Utilizando a arquitetura desenvolvida foi implementado um SWBES. Para estudo de caso dessa arquitetura, foi realizada uma implementação de um Sistema de Ensino de Rochas Carbonáticas. Para esse sistema foram definidas três ontologias: ontologia de Domínio de Rochas Carbonáticas, ontologia de Perfil e ontologia de Material de Aprendizagem. Os comportamentos dos agentes e as interações entre eles são detalhadas. Finalmente, é apresentado um estudo de casos da utilização do sistema no ensino do curso de Rochas Carbonáticas / In the past two decades, several Web educational systems were designed and widely used. With the appearing of the Semantic Web, which integrates Web and Artificial Intelligence area concepts, it was possible to conceive new educational concepts, the Educational Systems Based on the Semantic Web (Semantic Web-based Educational Systems - SWBES). The SWBES represent the content and the knowledge in the form of ontology and count on intelligent agents that allow machines understand the content published on the web. In this work, architectural standards used to develop new systems based on the Semantic Web will be presented and discussed, especially the educational ones. As a result of this study, it is proposed the architecture for the SWBES. The architecture for the SWBES that use multi-agent approach generally is conceived empirically, that is, only with its developer experience. In this work, for the conception of the multi-agents model adopted in the architecture of the SWBES, a methodology of multi-agents systems development was used, the Tropos framework. The phases of Tropos framework for the project of a multi-agent model used in the architecture of SWBES are presented. A SWBES was implemented by using the architecture that was developed. For the study case of this architecture, it was held an implementation of the Educational System of Carbonate Rock. For this system, three ontologies were defined: Domain Ontology of Carbonate Rocks, Profile Ontology and Learning Material Ontology. The behavior of agents and interaction among them are detailed
276

Processamento analítico espacial e exploratório integrando dados estruturados e semiestruturados.

LEITE, Daniel Farias Batista. 21 May 2018 (has links)
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2018-05-21T11:48:24Z No. of bitstreams: 1 DANIEL FARIAS BATISTA LEITE - DISSERTAÇÃO (PPGCC) 2016.pdf: 7529591 bytes, checksum: a8834c11a656f9270356f33676b2aadc (MD5) / Made available in DSpace on 2018-05-21T11:48:24Z (GMT). No. of bitstreams: 1 DANIEL FARIAS BATISTA LEITE - DISSERTAÇÃO (PPGCC) 2016.pdf: 7529591 bytes, checksum: a8834c11a656f9270356f33676b2aadc (MD5) Previous issue date: 2016 / CNPq / Tecnologias de Business Intelligence (BI) têm sido utilizadas com sucesso para fins de análise de dados. Tradicionalmente, essa análise é realizada em um contexto restrito e bem controlado, onde as fontes de dados são estruturadas, periodicamente carregadas, estáticas e totalmente materializadas. Atualmente, há uma diversidade de dados nos mais diversos formatos, a exemplo de RDF (Resource Description Framework), um formato semiestruturado, semanticamente rico e externo à infraestrutura de BI. Embora tal formato seja enriquecido semanticamente, e muitas vezes possua um componente espacial, realizar a análise é um desafio. Nessa perspectiva, uma nova categoria de ferramentas analíticas vem surgindo. As ferramentas exploratórias (Exploratory OLAP), como são conhecidas, se caracterizam pela descoberta, aquisição e integração de dados externos em ambientes comuns de análise. Do nosso conhecimento, até a presente data, existem apenas duas ferramentas exploratórias propostas na literatura e elas apresentam duas grandes limitações: exploram apenas fontes de dados estruturadas; e não há exploração do componente espacial dos dados integrados. São ferramentas exploratórias OLAP, e não ferramentas exploratórias SOLAP. Baseando-se nessas ferramentas, este trabalho propõe uma abordagem exploratória SOLAP que integra dados semiestruturados espaciais semânticos com fontes de dados estruturados espaciais tradicionais. Um sistema, denominado ExpSOLAP, que dá suporte a consultas SOLAP on-line sob as duas fontes de dados foi desenvolvido. Por fim, o sistema ExpSOLAP é avaliado através de um exemplo prático, no contexto da base de dados obtida no Linked Movie Data Base, utilizando RDF e banco de dados relacional. Foram formuladas consultas que validaram a análise convencional e espacial na exploração de ambas fontes de dados. / Business Intelligence (BI) technologies have been successfully applied for data analysis purposes. Traditionally, such analysis is performed in well-controlled and restricted context, where data sources are structured, periodically loaded, static and fully materialized. Nowadays, there is a plenty of data in different formats such as the Resource Description Framework (RDF), a semi-structured and semantically rich format external to the BI infrastructure. Although such data formats are enriched by semantics and contains a spatial data component, performing data analysis is challenging. As a result, the Exploratory OLAP field has emerged for discovery, acquisition, integration and query such data, aiming at performing a complete and effective analysis on both internal and external data. To the best of our knowledge, there are only two exploratory tools proposed in the literature and they have two major limitations due to only structured data sources can be explored and there is no exploration of the spatial component of the integrated data. While they are exploratory OLAP tools, they are not exploratory SOLAP tools. Based on these tools, this work proposes an Exploratory SOLAP approach that integrates semantic spatial semi-structured data with traditional spatial structured data sources. A system named ExpSOLAP, which supports online SOLAP queries on both data sources, was developed. Finally, a case study was carried out in order to evaluate the ExpSOLAP system based on a dataset originating from the Linked Movie Data Base and using RDF and relational datasets. The formulated queries enabled to validate the conventional and spatial analysis from both data sources.
277

A framework for event classification in Tweets based on hybrid semantic enrichment / Um framework para classificação de eventos em tweets baseado em enriquecimento semântico híbrido

Romero, Simone Aparecida Pinto January 2017 (has links)
As plataformas de Mídias Sociais se tornaram um meio essencial para a disponibilização de informações. Dentre elas, o Twitter tem se destacado, devido ao grande volume de mensagens que são compartilhadas todos os dias, principalmente mencionando eventos ao redor do mundo. Tais mensagens são uma importante fonte de informação e podem ser utilizadas em diversas aplicações. Contudo, a classificação de texto em tweets é uma tarefa não trivial. Além disso, não há um consenso quanto à quais tarefas devem ser executadas para Identificação e Classificação de Eventos em tweets, uma vez que as abordagens existentes trabalham com tipos específicos de eventos e determinadas suposições, que dificultam a reprodução e a comparação dessas abordagens em eventos de natureza distinta. Neste trabalho, nós elaboramos um framework para a classificação de eventos de natureza distinta. O framework possui os seguintes elementos chave: a) enriquecimento externo a partir da exploração de páginas web relacionadas, como uma forma de complementar a extração de features conceituais do conteúdo dos tweets; b) enriquecimento semântico utilizando recursos da Linked Open Data cloud para acrescentar features semânticas relacionadas; e c) técnica de poda para selecionar as features semânticas mais discriminativas Nós avaliamos o framework proposto através de um vasto conjunto de experimentos, que incluem: a) sete eventos alvos de natureza distinta; b) diferentes combinações das features conceituais propostas (i.e. entidades, vocabulário, e a combinação de ambos); c) estratégias distintas para a extração de features (i.e. a partir do conteúdo dos tweets e das páginas web); d) diferentes métodos para a seleção das features semânticas mais relevantes de acordo com o domínio (i.e. poda, seleção de features, e a combinação de ambos); e) dois algoritmos de classificação. Nós também comparamos o desempenho do framework em relação a outro método utilização para o enriquecimento contextual, o qual tem como base word embeddings. Os resultados mostraram as vantagens da utilização do framework proposto e que a nossa solução é factível e generalizável, dando suporte a classificação de diferentes tipos de eventos. / Social Media platforms have become key as a means of spreading information, opinions or awareness about real-world events. Twitter stands out due to the huge volume of messages about all sorts of topics posted every day. Such messages are an important source of useful information about events, presenting many useful applications (e.g. the detection of breaking news, real-time awareness, updates about events). However, text classification on Twitter is by no means a trivial task that can be handled by conventional Natural Language Processing techniques. In addition, there is no consensus about the definition of which kind of tasks are executed in the Event Identification and Classification in tweets, since existing approaches often focus on specific types of events, based on specific assumptions, which makes it difficult to reproduce and compare these approaches in events of distinct natures. In this work, we aim at building a unifying framework that is suitable for the classification of events of distinct natures. The framework has as key elements: a) external enrichment using related web pages for extending the conceptual features contained within the tweets; b) semantic enrichment using the Linked Open Data cloud to add related semantic features; and c) a pruning technique that selects the semantic features with discriminative potential We evaluated our proposed framework using a broad experimental setting, that includes: a) seven target events of different natures; b) different combinations of the conceptual features proposed (i.e. entities, vocabulary and their combination); c) distinct feature extraction strategies (i.e. from tweet text and web related documents); d) different methods for selecting the discriminative semantic features (i.e. pruning, feature selection, and their combination); and e) two classification algorithms. We also compared the proposed framework against another kind of contextual enrichment based on word embeddings. The results showed the advantages of using the proposed framework, and that our solution is a feasible and generalizable method to support the classification of distinct event types.
278

Aperfeiçoamento de métricas de similaridade semântica entre serviços web / Enhancement of semanticweb services matchmaking metrics

Santos, Pedro Bispo da Silva January 2012 (has links)
O presente trabalho apresenta uma abordagem aperfeiçoada para medir similaridade entre Serviços Web Semânticos através de um algoritmo baseado em ontologia. O trabalho se trata de um aperfeiçoamento por pegar como base o algoritmo de Liu (LIU et al., 2009) e nele fazer uma pequena mudança que resulta em melhorias significativas em certos cenários. Este algoritmo utiliza informação das categorias ESPE (Entradas, Saídas, Pré-condições, Efeitos), procurando por informações presentes nessas categorias, analisando como os conceitos estão relacionados na taxonomia da ontologia. A escolha do trabalho de Liu ocorreu devido a experimentos realizados em trabalhos anteriores ao desta dissertação (MAAMAR et al., 2011)(MAAMAR et al., 2011). Nesses experimentos, foi constatado que o algoritmo não antigia um desempenho satisfatório, foi então que se levantou uma hipótese de aperfeiçoamento deste algoritmo. Experimentos realizados utilizando um conjunto de dados contendo 1083 Serviços Web Semânticos em OWL-S mostram que essa abordagem aperfeiçoada aumenta a precisão do algoritmo, diminuindo desta forma o número de falsos positivos recuperados nos resultados, mantendo uma boa revocação. Nestes experimentos, foram implementados o algoritmo original de Liu e a versão modificada apresentada nesta dissertação. Além disso, este trabalho apresenta quais parâmetros utilizar para configurar o algoritmo e atingir melhor precisão, revocação e f-measure. / The current work presents an improved approach for an ontology-based semantic web service matchmaking assessment algorithm. This work is based on Liu’s algorithm LIU et al. (2009) providing a small change which results in a significant enhancement at some scenarios. The algorithm uses information from IOPE (Inputs, Outputs, Preconditions, Effects) categories, searching for information about the concepts located in these categories, analyzing how they are related in an ontology taxonomy. Liu’s work was chosen due to experiments that were done in works previous to this dissertation (MAAMAR et al., 2011)(MAAMAR et al., 2011). During those experiments, it was realized that Liu’s algorithm did not achieve good results. Then, an hypothesis was raised for improving this algorithm. Experiments performed using a data set containing 1083 OWL-S semantic web services show that the improved approach increases the algorithm precision, diminishing the number of false positives in the retrieved results, and still having a good recall. For doing these experiments, Liu’s algorithm and this dissertation version of it were implemented. Furthermore, this work presents the parameters that were used to achieve better precision, recall and f-measure.
279

Representação semântica de perfil dinâmico de usuários em comunidades de prática / Semantic representation of dynamic user profiles in communities of practice

Pereira, Matheus January 2017 (has links)
Em comunidades de prática, a aprendizagem ocorre por meio da interação e colaboração constante de seus participantes, o caráter social destes ambientes é fundamental para a construção do conhecimento. Por este motivo, esta dissertação busca compreender a forma como os usuários interagem em comunidades de prática e propõe a estruturação destas informações em torno de um perfil dinâmico de usuário. A aplicação de perfis de usuário neste contexto permite entender o indivíduo, seus interesses e necessidades. A partir da representação dos participantes de comunidades de prática é possível desenvolver sistemas de aprendizagem inteligente, sistemas de recomendação, elementos de gamificação e sistemas de acesso e recuperação de informação personalizados. Estes mecanismos procuram estimular o engajamento dos participantes e promover a aprendizagem colaborativa. A representação das informações neste trabalho será apoiada pelo uso de tecnologias da web semântica e de ontologias para a formalização das relações em comunidades de prática. O desenvolvimento de softwares educacionais baseados na web semântica amplia a capacidade de implementação de novos mecanismos de aprendizagem, contribuindo para a análise das interações e a inferências sobre as informações dos usuários. O uso de ontologias permite a formalização das informações e torna possível a elaboração de uma rede de conhecimento que pode ser processada e consumida por agentes de software, contribuindo para a interoperabilidade do sistema. / In communities of practice, learning is built through constant interaction and collaboration of their participants, the social aspect of these environments is crucial for the knowledge construction. For this reason, this work intends to understand how users interact in communities of practice and proposes a dynamic user profile to structure this information. An user profile applied in this context allows us to understand the person, his interests and needs. The representation of participants in communities of practice allow us to develop intelligent learning systems, recommender systems, gamification elements and systems for personalized access and personalized information retrieval. Those mechanisms intend to stimulate participant engagement to promote collaborative learning. In this work, semantic web technologies and ontologies are used to represent this informations. The development of educational software based on the semantic web expands the capacity to implement new learning mechanisms, contributing to the analysis of the interactions and the inferences about user informations. The use of ontologies allows the formalization of information and enables the elaboration of a knowledge network that can be processed and consumed by software agents, contributing to the system interoperability.
280

Castor : a constraint-based SPARQL engine with active filter processing / Castor : un moteur SPARQL basé sur les contraintes avec exploitation actif de filtres

Le Clement de Saint-Marcq, Vianney 16 December 2013 (has links)
SPARQL est le langage de requête standard pour les graphes de données du Web Sémantique. L’évaluation de requêtes est étroitement liée aux problèmes d’appariement de graphes. Il a été démontré que l’évaluation est NP-difficile. Les moteurs SPARQLde l’état-de-l’art résolvent les requêtes SPARQL en utilisant des techniques de bases de données traditionnelles. Cette approche est efficace pour les requêtes simples qui fournissent un point de départ précis dans le graphe. Par contre, les requêtes couvrant tout le graphe et impliquant des conditions de filtrage complexes ne passent pas bien à l’échelle. Dans cette thèse, nous proposons de résoudre les requêtes SPARQL en utilisant la Programmation par Contraintes (CP). La CP résout un problème combinatoire enexploitant les contraintes du problème pour élaguer l’arbre de recherche quand elle cherche des solutions. Cette technique s’est montrée efficace pour les problèmes d’appariement de graphes. Nous reformulons la sémantique de SPARQL en termes deproblèmes de satisfaction de contraintes (CSPs). Nous appuyant sur cette sémantique dénotationnelle, nous proposons une sémantique opérationnelle qui peut être utilisée pour résoudre des requêtes SPARQL avec des solveurs CP génériques.Les solveurs CP génériques ne sont cependant pas conçus pour traiter les domaines immenses qui proviennent des base de données du Web Sémantique. Afin de mieux traiter ces masses de données, nous introduisons Castor, un nouveau moteurSPARQL incorporant un solveur CP léger et spécialisé. Nous avons apporté une attention particulière à éviter tant que possible les structures de données et algorithmes dont la complexité temporelle ou spatiale est proportionnelle à la taille de la base dedonnées. Des évaluations expérimentales sur des jeux d’essai connus ont montré la faisabilité et l’efficacité de l’approche. Castor est compétitif avec des moteurs SPARQL de l’état-de-l’art sur des requêtes simples, et les surpasse sur des requête. / SPARQL is the standard query language for graphs of data in the SemanticWeb. Evaluating queries is closely related to graph matching problems, and has been shown to be NP-hard. State-of-the-art SPARQL engines solve queries with traditional relational database technology. Such an approach works well for simple queries that provide a clearly defined starting point in the graph. However, queries encompassing the whole graph and involving complex filtering conditions do not scale well. In this thesis we propose to solve SPARQL queries with Constraint Programming (CP). CP solves a combinatorial problem by exploiting the constraints of the problem to prune the search tree when looking for solutions. Such technique has been shown to work well for graph matching problems. We reformulate the SPARQL semantics by means of constraint satisfaction problems (CSPs). Based on this denotational semantics, we propose an operational semantics that can be used by off-theshelf CP solvers. Off-the-shelf CP solvers are not designed to handle the huge domains that come with SemanticWeb databases though. To handle large databases, we introduce Castor, a new SPARQL engine embedding a specialized lightweight CP solver. Special care has been taken to avoid as much as possible data structures and algorithms whosetime or space complexity are proportional to the database size. Experimental evaluations on well-known benchmarks show the feasibility and efficiency of the approach. Castor is competitive with state-of-the-art SPARQL engines on simple queries, and outperforms them on complex queries where filters can be actively exploited during the search.

Page generated in 0.1059 seconds