• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 376
  • 218
  • 76
  • 53
  • 24
  • 20
  • 20
  • 18
  • 18
  • 16
  • 8
  • 7
  • 7
  • 6
  • 6
  • Tagged with
  • 917
  • 917
  • 270
  • 206
  • 192
  • 160
  • 156
  • 126
  • 112
  • 109
  • 107
  • 107
  • 107
  • 106
  • 104
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Processamento analítico espacial e exploratório integrando dados estruturados e semiestruturados.

LEITE, Daniel Farias Batista. 21 May 2018 (has links)
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2018-05-21T11:48:24Z No. of bitstreams: 1 DANIEL FARIAS BATISTA LEITE - DISSERTAÇÃO (PPGCC) 2016.pdf: 7529591 bytes, checksum: a8834c11a656f9270356f33676b2aadc (MD5) / Made available in DSpace on 2018-05-21T11:48:24Z (GMT). No. of bitstreams: 1 DANIEL FARIAS BATISTA LEITE - DISSERTAÇÃO (PPGCC) 2016.pdf: 7529591 bytes, checksum: a8834c11a656f9270356f33676b2aadc (MD5) Previous issue date: 2016 / CNPq / Tecnologias de Business Intelligence (BI) têm sido utilizadas com sucesso para fins de análise de dados. Tradicionalmente, essa análise é realizada em um contexto restrito e bem controlado, onde as fontes de dados são estruturadas, periodicamente carregadas, estáticas e totalmente materializadas. Atualmente, há uma diversidade de dados nos mais diversos formatos, a exemplo de RDF (Resource Description Framework), um formato semiestruturado, semanticamente rico e externo à infraestrutura de BI. Embora tal formato seja enriquecido semanticamente, e muitas vezes possua um componente espacial, realizar a análise é um desafio. Nessa perspectiva, uma nova categoria de ferramentas analíticas vem surgindo. As ferramentas exploratórias (Exploratory OLAP), como são conhecidas, se caracterizam pela descoberta, aquisição e integração de dados externos em ambientes comuns de análise. Do nosso conhecimento, até a presente data, existem apenas duas ferramentas exploratórias propostas na literatura e elas apresentam duas grandes limitações: exploram apenas fontes de dados estruturadas; e não há exploração do componente espacial dos dados integrados. São ferramentas exploratórias OLAP, e não ferramentas exploratórias SOLAP. Baseando-se nessas ferramentas, este trabalho propõe uma abordagem exploratória SOLAP que integra dados semiestruturados espaciais semânticos com fontes de dados estruturados espaciais tradicionais. Um sistema, denominado ExpSOLAP, que dá suporte a consultas SOLAP on-line sob as duas fontes de dados foi desenvolvido. Por fim, o sistema ExpSOLAP é avaliado através de um exemplo prático, no contexto da base de dados obtida no Linked Movie Data Base, utilizando RDF e banco de dados relacional. Foram formuladas consultas que validaram a análise convencional e espacial na exploração de ambas fontes de dados. / Business Intelligence (BI) technologies have been successfully applied for data analysis purposes. Traditionally, such analysis is performed in well-controlled and restricted context, where data sources are structured, periodically loaded, static and fully materialized. Nowadays, there is a plenty of data in different formats such as the Resource Description Framework (RDF), a semi-structured and semantically rich format external to the BI infrastructure. Although such data formats are enriched by semantics and contains a spatial data component, performing data analysis is challenging. As a result, the Exploratory OLAP field has emerged for discovery, acquisition, integration and query such data, aiming at performing a complete and effective analysis on both internal and external data. To the best of our knowledge, there are only two exploratory tools proposed in the literature and they have two major limitations due to only structured data sources can be explored and there is no exploration of the spatial component of the integrated data. While they are exploratory OLAP tools, they are not exploratory SOLAP tools. Based on these tools, this work proposes an Exploratory SOLAP approach that integrates semantic spatial semi-structured data with traditional spatial structured data sources. A system named ExpSOLAP, which supports online SOLAP queries on both data sources, was developed. Finally, a case study was carried out in order to evaluate the ExpSOLAP system based on a dataset originating from the Linked Movie Data Base and using RDF and relational datasets. The formulated queries enabled to validate the conventional and spatial analysis from both data sources.
342

A framework for event classification in Tweets based on hybrid semantic enrichment / Um framework para classificação de eventos em tweets baseado em enriquecimento semântico híbrido

Romero, Simone Aparecida Pinto January 2017 (has links)
As plataformas de Mídias Sociais se tornaram um meio essencial para a disponibilização de informações. Dentre elas, o Twitter tem se destacado, devido ao grande volume de mensagens que são compartilhadas todos os dias, principalmente mencionando eventos ao redor do mundo. Tais mensagens são uma importante fonte de informação e podem ser utilizadas em diversas aplicações. Contudo, a classificação de texto em tweets é uma tarefa não trivial. Além disso, não há um consenso quanto à quais tarefas devem ser executadas para Identificação e Classificação de Eventos em tweets, uma vez que as abordagens existentes trabalham com tipos específicos de eventos e determinadas suposições, que dificultam a reprodução e a comparação dessas abordagens em eventos de natureza distinta. Neste trabalho, nós elaboramos um framework para a classificação de eventos de natureza distinta. O framework possui os seguintes elementos chave: a) enriquecimento externo a partir da exploração de páginas web relacionadas, como uma forma de complementar a extração de features conceituais do conteúdo dos tweets; b) enriquecimento semântico utilizando recursos da Linked Open Data cloud para acrescentar features semânticas relacionadas; e c) técnica de poda para selecionar as features semânticas mais discriminativas Nós avaliamos o framework proposto através de um vasto conjunto de experimentos, que incluem: a) sete eventos alvos de natureza distinta; b) diferentes combinações das features conceituais propostas (i.e. entidades, vocabulário, e a combinação de ambos); c) estratégias distintas para a extração de features (i.e. a partir do conteúdo dos tweets e das páginas web); d) diferentes métodos para a seleção das features semânticas mais relevantes de acordo com o domínio (i.e. poda, seleção de features, e a combinação de ambos); e) dois algoritmos de classificação. Nós também comparamos o desempenho do framework em relação a outro método utilização para o enriquecimento contextual, o qual tem como base word embeddings. Os resultados mostraram as vantagens da utilização do framework proposto e que a nossa solução é factível e generalizável, dando suporte a classificação de diferentes tipos de eventos. / Social Media platforms have become key as a means of spreading information, opinions or awareness about real-world events. Twitter stands out due to the huge volume of messages about all sorts of topics posted every day. Such messages are an important source of useful information about events, presenting many useful applications (e.g. the detection of breaking news, real-time awareness, updates about events). However, text classification on Twitter is by no means a trivial task that can be handled by conventional Natural Language Processing techniques. In addition, there is no consensus about the definition of which kind of tasks are executed in the Event Identification and Classification in tweets, since existing approaches often focus on specific types of events, based on specific assumptions, which makes it difficult to reproduce and compare these approaches in events of distinct natures. In this work, we aim at building a unifying framework that is suitable for the classification of events of distinct natures. The framework has as key elements: a) external enrichment using related web pages for extending the conceptual features contained within the tweets; b) semantic enrichment using the Linked Open Data cloud to add related semantic features; and c) a pruning technique that selects the semantic features with discriminative potential We evaluated our proposed framework using a broad experimental setting, that includes: a) seven target events of different natures; b) different combinations of the conceptual features proposed (i.e. entities, vocabulary and their combination); c) distinct feature extraction strategies (i.e. from tweet text and web related documents); d) different methods for selecting the discriminative semantic features (i.e. pruning, feature selection, and their combination); and e) two classification algorithms. We also compared the proposed framework against another kind of contextual enrichment based on word embeddings. The results showed the advantages of using the proposed framework, and that our solution is a feasible and generalizable method to support the classification of distinct event types.
343

Aperfeiçoamento de métricas de similaridade semântica entre serviços web / Enhancement of semanticweb services matchmaking metrics

Santos, Pedro Bispo da Silva January 2012 (has links)
O presente trabalho apresenta uma abordagem aperfeiçoada para medir similaridade entre Serviços Web Semânticos através de um algoritmo baseado em ontologia. O trabalho se trata de um aperfeiçoamento por pegar como base o algoritmo de Liu (LIU et al., 2009) e nele fazer uma pequena mudança que resulta em melhorias significativas em certos cenários. Este algoritmo utiliza informação das categorias ESPE (Entradas, Saídas, Pré-condições, Efeitos), procurando por informações presentes nessas categorias, analisando como os conceitos estão relacionados na taxonomia da ontologia. A escolha do trabalho de Liu ocorreu devido a experimentos realizados em trabalhos anteriores ao desta dissertação (MAAMAR et al., 2011)(MAAMAR et al., 2011). Nesses experimentos, foi constatado que o algoritmo não antigia um desempenho satisfatório, foi então que se levantou uma hipótese de aperfeiçoamento deste algoritmo. Experimentos realizados utilizando um conjunto de dados contendo 1083 Serviços Web Semânticos em OWL-S mostram que essa abordagem aperfeiçoada aumenta a precisão do algoritmo, diminuindo desta forma o número de falsos positivos recuperados nos resultados, mantendo uma boa revocação. Nestes experimentos, foram implementados o algoritmo original de Liu e a versão modificada apresentada nesta dissertação. Além disso, este trabalho apresenta quais parâmetros utilizar para configurar o algoritmo e atingir melhor precisão, revocação e f-measure. / The current work presents an improved approach for an ontology-based semantic web service matchmaking assessment algorithm. This work is based on Liu’s algorithm LIU et al. (2009) providing a small change which results in a significant enhancement at some scenarios. The algorithm uses information from IOPE (Inputs, Outputs, Preconditions, Effects) categories, searching for information about the concepts located in these categories, analyzing how they are related in an ontology taxonomy. Liu’s work was chosen due to experiments that were done in works previous to this dissertation (MAAMAR et al., 2011)(MAAMAR et al., 2011). During those experiments, it was realized that Liu’s algorithm did not achieve good results. Then, an hypothesis was raised for improving this algorithm. Experiments performed using a data set containing 1083 OWL-S semantic web services show that the improved approach increases the algorithm precision, diminishing the number of false positives in the retrieved results, and still having a good recall. For doing these experiments, Liu’s algorithm and this dissertation version of it were implemented. Furthermore, this work presents the parameters that were used to achieve better precision, recall and f-measure.
344

Representação semântica de perfil dinâmico de usuários em comunidades de prática / Semantic representation of dynamic user profiles in communities of practice

Pereira, Matheus January 2017 (has links)
Em comunidades de prática, a aprendizagem ocorre por meio da interação e colaboração constante de seus participantes, o caráter social destes ambientes é fundamental para a construção do conhecimento. Por este motivo, esta dissertação busca compreender a forma como os usuários interagem em comunidades de prática e propõe a estruturação destas informações em torno de um perfil dinâmico de usuário. A aplicação de perfis de usuário neste contexto permite entender o indivíduo, seus interesses e necessidades. A partir da representação dos participantes de comunidades de prática é possível desenvolver sistemas de aprendizagem inteligente, sistemas de recomendação, elementos de gamificação e sistemas de acesso e recuperação de informação personalizados. Estes mecanismos procuram estimular o engajamento dos participantes e promover a aprendizagem colaborativa. A representação das informações neste trabalho será apoiada pelo uso de tecnologias da web semântica e de ontologias para a formalização das relações em comunidades de prática. O desenvolvimento de softwares educacionais baseados na web semântica amplia a capacidade de implementação de novos mecanismos de aprendizagem, contribuindo para a análise das interações e a inferências sobre as informações dos usuários. O uso de ontologias permite a formalização das informações e torna possível a elaboração de uma rede de conhecimento que pode ser processada e consumida por agentes de software, contribuindo para a interoperabilidade do sistema. / In communities of practice, learning is built through constant interaction and collaboration of their participants, the social aspect of these environments is crucial for the knowledge construction. For this reason, this work intends to understand how users interact in communities of practice and proposes a dynamic user profile to structure this information. An user profile applied in this context allows us to understand the person, his interests and needs. The representation of participants in communities of practice allow us to develop intelligent learning systems, recommender systems, gamification elements and systems for personalized access and personalized information retrieval. Those mechanisms intend to stimulate participant engagement to promote collaborative learning. In this work, semantic web technologies and ontologies are used to represent this informations. The development of educational software based on the semantic web expands the capacity to implement new learning mechanisms, contributing to the analysis of the interactions and the inferences about user informations. The use of ontologies allows the formalization of information and enables the elaboration of a knowledge network that can be processed and consumed by software agents, contributing to the system interoperability.
345

Castor : a constraint-based SPARQL engine with active filter processing / Castor : un moteur SPARQL basé sur les contraintes avec exploitation actif de filtres

Le Clement de Saint-Marcq, Vianney 16 December 2013 (has links)
SPARQL est le langage de requête standard pour les graphes de données du Web Sémantique. L’évaluation de requêtes est étroitement liée aux problèmes d’appariement de graphes. Il a été démontré que l’évaluation est NP-difficile. Les moteurs SPARQLde l’état-de-l’art résolvent les requêtes SPARQL en utilisant des techniques de bases de données traditionnelles. Cette approche est efficace pour les requêtes simples qui fournissent un point de départ précis dans le graphe. Par contre, les requêtes couvrant tout le graphe et impliquant des conditions de filtrage complexes ne passent pas bien à l’échelle. Dans cette thèse, nous proposons de résoudre les requêtes SPARQL en utilisant la Programmation par Contraintes (CP). La CP résout un problème combinatoire enexploitant les contraintes du problème pour élaguer l’arbre de recherche quand elle cherche des solutions. Cette technique s’est montrée efficace pour les problèmes d’appariement de graphes. Nous reformulons la sémantique de SPARQL en termes deproblèmes de satisfaction de contraintes (CSPs). Nous appuyant sur cette sémantique dénotationnelle, nous proposons une sémantique opérationnelle qui peut être utilisée pour résoudre des requêtes SPARQL avec des solveurs CP génériques.Les solveurs CP génériques ne sont cependant pas conçus pour traiter les domaines immenses qui proviennent des base de données du Web Sémantique. Afin de mieux traiter ces masses de données, nous introduisons Castor, un nouveau moteurSPARQL incorporant un solveur CP léger et spécialisé. Nous avons apporté une attention particulière à éviter tant que possible les structures de données et algorithmes dont la complexité temporelle ou spatiale est proportionnelle à la taille de la base dedonnées. Des évaluations expérimentales sur des jeux d’essai connus ont montré la faisabilité et l’efficacité de l’approche. Castor est compétitif avec des moteurs SPARQL de l’état-de-l’art sur des requêtes simples, et les surpasse sur des requête. / SPARQL is the standard query language for graphs of data in the SemanticWeb. Evaluating queries is closely related to graph matching problems, and has been shown to be NP-hard. State-of-the-art SPARQL engines solve queries with traditional relational database technology. Such an approach works well for simple queries that provide a clearly defined starting point in the graph. However, queries encompassing the whole graph and involving complex filtering conditions do not scale well. In this thesis we propose to solve SPARQL queries with Constraint Programming (CP). CP solves a combinatorial problem by exploiting the constraints of the problem to prune the search tree when looking for solutions. Such technique has been shown to work well for graph matching problems. We reformulate the SPARQL semantics by means of constraint satisfaction problems (CSPs). Based on this denotational semantics, we propose an operational semantics that can be used by off-theshelf CP solvers. Off-the-shelf CP solvers are not designed to handle the huge domains that come with SemanticWeb databases though. To handle large databases, we introduce Castor, a new SPARQL engine embedding a specialized lightweight CP solver. Special care has been taken to avoid as much as possible data structures and algorithms whosetime or space complexity are proportional to the database size. Experimental evaluations on well-known benchmarks show the feasibility and efficiency of the approach. Castor is competitive with state-of-the-art SPARQL engines on simple queries, and outperforms them on complex queries where filters can be actively exploited during the search.
346

Communication de crise en phase post-accidentelle nucléaire : organisation et partage des connaissances sur le Web / Crisis communication in a post-nuclear accident phase : knowledge organisation and sharing on the Web

Segault, Antonin 09 November 2017 (has links)
Les accidents nucléaires majeurs constituent des crises à grande échelle, susceptibles de contaminer de large territoires pour des décennies. Les habitants de ces territoires doivent alors acquérir de nouvelles connaissances et adapter leur mode de vie pour limiter l'impact sanitaire et sociétal des radiations. Si la France a développé un plan de gestion d'une telle situation, les stratégies de communication proposées laissent peu de place au dialogue entre les autorités et les citoyens ainsi qu'aux usages du Web social. Cette thèse s'inscrit dans le cadre du projet de recherche SCOPANUM (Stratégies de COmmunication de crise en gestion Post-Accident NUcléaire via les Médias Sociaux) soutenu par le CSFRS (Conseil Supérieur Pour la Formation et la Recherche Stratégique). Elle vise à examiner le potentiel des technologies de l'information et de la communication pour la mise en œuvre d'une communication de crise plus adaptée aux situations post-accidentelles nucléaires. Après l'accident nucléaire de Fukushima Daiichi, les mesures de la radioactivité ont fait l'objet de pratiques collaboratives de collecte et d’agrégation s’appuyant sur les médias sociaux. L'étude des usages de Twitter a révélé que les modalités de diffusion de ces mesures ne sont pas adaptées aux spécificités de la situation post-accidentelle nucléaire. Sur la base de ces résultats, nous avons proposé des recommandations et un prototype d'outil logiciel pour favoriser la réutilisabilité de mesures de la radioactivité ainsi partagées. Nos travaux portent également sur les connaissances pratiques susceptibles d'aider les personnes à adapter leur quotidien à la vie dans les territoires contaminés par un accident nucléaire. Plusieurs méthodes sont présentées pour faciliter l'identification de ces connaissances et leur représentation formelle à l'aide des technologies du Web Sémantique. À partir de ces modèles, nous décrivons la conception et l'évaluation d'une application web, Ginkgo, visant à faciliter l'appropriation et le partage des connaissances en matière de radioprotection. / Major nuclear accidents generate large scale crisis that may contaminate wide areas for decades. The inhabitants of these areas must then gain new knowledge and adapt their lifestyle to limit the health and social consequences of radioactivity. France developed a procedures to manage such a situation, but the communication stragies presented do not fully support neither dialogue between authorities and citizen nor the use of social Web tools. This thesis was part of the SCOPANUM (Stratégies de COmmunication de crise en gestion Post-Accident NUcléaire via les Médias Sociaux) research project, backed by a grant from CSFRS (Conseil Supérieur Pour la Formation et la Recherche Stratégique). It aims to assess the benefits of information-communication technologies to develop more suitable crisis communication strategies for post-nuclear-accident situations. After the Fukushima Daiichi nuclear disaster, collaborative practices have emerged to collect and aggregate radiation measurements thanks to social media. The analysis of Twitter uses revealed that the diffusion of these measurements is not well adapted to the post-nuclear-accident situation. We developed a set of guidelines and a software prototype to support the re-usability of the radiation measurements that are shared on social media. Our work also focused on the practical knowledge that may help people to adapt their life in the contaminated areas. We presented several methods to support the identification and the formal representation of this knowledge using Semantic Web technologies. From these models, we built and tested Ginkgo, a mobile web application designed to support knowledge sharing and appropriation.
347

Uma abordagem para publicaÃÃo de visÃes RDF de dados relacionais / One approach to publishing RDF views of relational data

Luis Eufrasio Teixeira Neto 21 January 2014 (has links)
nÃo hà / A iniciativa Linked Data trouxe novas oportunidades para a construÃÃo da nova geraÃÃo de aplicaÃÃes Web. Entretanto, a utilizaÃÃo das melhores prÃticas estabelecidas por este padrÃo depende de mecanismos que facilitem a transformaÃÃo dos dados armazenados em bancos relacionais em triplas RDF. Recentemente, o grupo de trabalho W3C RDB2RDF propÃs uma linguagem de mapeamento padrÃo, denominada R2RML, para especificar mapeamentos customizados entre esquemas relacionais e vocabulÃrios RDF. No entanto, a geraÃÃo de mapeamentos R2RML nÃo à uma tarefa fÃcil. à imperativo, entÃo, definir: (a) uma soluÃÃo para mapear os conceitos de um esquema relacional em termos de um esquema RDF; (b) um processo que suporte a publicaÃÃo dos dados relacionais no formato RDF; e (c) uma ferramenta para facilitar a aplicaÃÃo deste processo. Assertivas de correspondÃncia sÃo propostas para formalizar mapeamentos entre esquemas relacionais e esquemas RDF. VisÃes sÃo usadas para publicar dados de uma base de dados em uma nova estrutura ou esquema. A definiÃÃo de visÃes RDF sobre dados relacionais permite que esses dados possam ser disponibilizados em uma estrutura de termos de uma ontologia OWL, sem que seja necessÃrio alterar o esquema da base de dados. Neste trabalho, propomos uma arquitetura em trÃs camadas â de dados, de visÃes SQL e de visÃes RDF â onde a camada de visÃes SQL mapeia os conceitos da camada de dados nos termos da camada de visÃes RDF. A criaÃÃo desta camada intermediÃria de visÃes facilita a geraÃÃo dos mapeamentos R2RML e evita que alteraÃÃes na camada de dados impliquem em alteraÃÃes destes mapeamentos. Adicionalmente, definimos um processo em trÃs etapas para geraÃÃo das visÃes RDF. Na primeira etapa, o usuÃrio define o esquema do banco de dados relacional e a ontologia OWL alvo e cria assertivas de correspondÃncia que mapeiam os conceitos do esquema relacional nos termos da ontologia alvo. A partir destas assertivas, uma ontologia exportada à gerada automaticamente. O segundo passo produz um esquema de visÃes SQL gerado a partir da ontologia exportada e um mapeamento R2RML do esquema de visÃes para a ontologia exportada, de forma automatizada. Por fim, no terceiro passo, as visÃes RDF sÃo publicadas em um SPARQL endpoint. Neste trabalho sÃo detalhados as assertivas de correspondÃncia, a arquitetura, o processo, os algoritmos necessÃrios, uma ferramenta que suporta o processo e um estudo de caso para validaÃÃo dos resultados obtidos. / The Linked Data initiative brought new opportunities for building the next generation of Web applications. However, the full potential of linked data depends on how easy it is to transform data stored in conventional, relational databases into RDF triples. Recently, the W3C RDB2RDF Working Group proposed a standard mapping language, called R2RML, to specify customized mappings between relational schemas and target RDF vocabularies. However, the generation of customized R2RML mappings is not an easy task. Thus, it is mandatory to define: (a) a solution that maps concepts from a relational schema to terms from a RDF schema; (b) a process to support the publication of relational data into RDF, and (c) a tool that implements this process. Correspondence assertions are proposed to formalize the mappings between relational schemas and RDF schemas. Views are created to publish data from a database to a new structure or schema. The definition of RDF views over relational data allows providing this data in terms of an OWL ontology structure without having to change the database schema. In this work, we propose a three-tier architecture â database, SQL views and RDF views â where the SQL views layer maps the database concepts into RDF terms. The creation of this intermediate layer facilitates the generation of R2RML mappings and prevents that changes in the data layer result in changes on R2RML mappings. Additionally, we define a three-step process to generate the RDF views of relational data. First, the user defines the schema of the relational database and the target OWL ontology. Then, he defines correspondence assertions that formally specify the relational database in terms of the target ontology. Using these assertions, an exported ontology is generated automatically. The second step produces the SQL views that perform the mapping defined by the assertions and a R2RML mapping between these views and the exported ontology. This dissertation describes a formalization of the correspondence assertions, the three-tier architecture, the publishing process steps, the algorithms needed, a tool that supports the entire process and a case study to validate the results obtained.
348

Utilização de web semântica para seleção de informações de web services no registro UDDI uma abordagem com qualidade de serviço / The use of semantic web for selection of web services information in the UDDI registration an approach with quality service

Luis Hideo Vasconcelos Nakamura 15 February 2012 (has links)
Este projeto de mestrado aborda a utilização de recursos daWeb Semântica na seleção de informações sobre Web Services no registro UDDI (Universal Description, Discovery, and Integration). Esse registro possui a limitação de apenas armazenar informações funcionais de Web Services. As informações não funcionais que incluem as informações de qualidade de serviço (QoS - Quality of Service) não são contempladas e dessa forma dificulta a escolha do melhor serviço pelos clientes. Neste projeto, a representação da base de conhecimento com informações sobre os provedores, clientes, acordos, serviços e a qualidade dos serviços prestados foi feita por meio de uma ontologia. Essa ontologia é utilizada pelo módulo UDOnt-Q (Universal Discovery with Ontology and QoS) que foi projetado para servir de plataforma para algoritmos de busca e composição de serviços com qualidade. Embora a utilização de semântica possa ser empregada para a composição e automatização de serviços, o foco deste trabalho é a garantia de qualidade de serviço em Web Services. Os algoritmos desenvolvidos empregam recursos da Web Semântica para classificar e selecionar os Web Services adequados de acordo com as informações de qualidade que estão armazenados na ontologia. O módulo e os algoritmos foram submetidos a avaliações de desempenho que revelaram problemas de desempenho com relação a abordagem adotada durante o processo de inferência da ontologia. Tal processo é utilizado para a classificação das informações dos elementos presentes na ontologia. Contudo, uma vez que as informações foram inferidas, o processo de busca e seleção de serviços comprovou a viabilidade de utilização do módulo e de um dos seus algoritmos de seleção / This master project addresses the use of Semantic Web resources in the selection of information about Web Services in UDDI registry (Universal Description, Discovery, and Integration). This registry has the limitation of only storing functional information of Web Services. The nonfunctional information that includes the quality of service information (QoS - Quality of Service) is not covered and thus it is complicate to choose the best service for customers. In this project, the representation of the knowledge base with information about the providers, customers, agreements, services and quality of services has been made through an ontology. This ontology is used by the module UDOnt-Q (Universal Discovery with Ontology and QoS) that was designed to serve as a platform for search algorithms and composition of services with quality. Although the use of semantics can be adopted for the composition and automation of services, the focus of this work is to guarantee quality of service in Web Services. The developed algorithms employ SemanticWeb resources to classify and select the appropriate Web Services according to the quality information that is stored in the ontology. The module and the algorithms have been subjected to performance evaluations that revealed performance problems in relation to the approach taken during the ontology inference process. This process is used for classification of information of the elements present in the ontology. However, since the information was inferred, the process of search and selection services proved the viability of using the module and one of its selection algorithms
349

Aperfeiçoamento de métricas de similaridade semântica entre serviços web / Enhancement of semanticweb services matchmaking metrics

Santos, Pedro Bispo da Silva January 2012 (has links)
O presente trabalho apresenta uma abordagem aperfeiçoada para medir similaridade entre Serviços Web Semânticos através de um algoritmo baseado em ontologia. O trabalho se trata de um aperfeiçoamento por pegar como base o algoritmo de Liu (LIU et al., 2009) e nele fazer uma pequena mudança que resulta em melhorias significativas em certos cenários. Este algoritmo utiliza informação das categorias ESPE (Entradas, Saídas, Pré-condições, Efeitos), procurando por informações presentes nessas categorias, analisando como os conceitos estão relacionados na taxonomia da ontologia. A escolha do trabalho de Liu ocorreu devido a experimentos realizados em trabalhos anteriores ao desta dissertação (MAAMAR et al., 2011)(MAAMAR et al., 2011). Nesses experimentos, foi constatado que o algoritmo não antigia um desempenho satisfatório, foi então que se levantou uma hipótese de aperfeiçoamento deste algoritmo. Experimentos realizados utilizando um conjunto de dados contendo 1083 Serviços Web Semânticos em OWL-S mostram que essa abordagem aperfeiçoada aumenta a precisão do algoritmo, diminuindo desta forma o número de falsos positivos recuperados nos resultados, mantendo uma boa revocação. Nestes experimentos, foram implementados o algoritmo original de Liu e a versão modificada apresentada nesta dissertação. Além disso, este trabalho apresenta quais parâmetros utilizar para configurar o algoritmo e atingir melhor precisão, revocação e f-measure. / The current work presents an improved approach for an ontology-based semantic web service matchmaking assessment algorithm. This work is based on Liu’s algorithm LIU et al. (2009) providing a small change which results in a significant enhancement at some scenarios. The algorithm uses information from IOPE (Inputs, Outputs, Preconditions, Effects) categories, searching for information about the concepts located in these categories, analyzing how they are related in an ontology taxonomy. Liu’s work was chosen due to experiments that were done in works previous to this dissertation (MAAMAR et al., 2011)(MAAMAR et al., 2011). During those experiments, it was realized that Liu’s algorithm did not achieve good results. Then, an hypothesis was raised for improving this algorithm. Experiments performed using a data set containing 1083 OWL-S semantic web services show that the improved approach increases the algorithm precision, diminishing the number of false positives in the retrieved results, and still having a good recall. For doing these experiments, Liu’s algorithm and this dissertation version of it were implemented. Furthermore, this work presents the parameters that were used to achieve better precision, recall and f-measure.
350

Integração de dados e processos disponíveis em portais web baseada em ontologias de domínio / Web portal data and processes integration based on domain ontologies

Mello, Marília Terra de January 2008 (has links)
A integração e a troca de informação na Web é uma necessidade reconhecida no mundo atual nos mais diversos domínios de aplicação. A Web constitui hoje o principal meio de acesso a informações, disponibilizando várias formas de acesso a esse conteúdo. No entanto, disponibilizar essa informação de forma integrada para o usuário ainda é um desafio. O Serviço Web Semântico é uma tecnologia de Inteligência Artificial promissora a qual pode contribuir significativamente com o processo de integração tanto de dados como de processos disponíveis em portais Web. O objetivo do presente trabalho é realizar a integração das diferentes funcionalidades oferecidas por portais disponibilizados na Web, fazendo uso de ontologias de domínio através de Serviços Web Semânticos. Para alcançar o objetivo proposto, um sistema de busca e integração, denominado W-KIS, foi projetado e desenvolvido, fornecendo uma visão unificada e transparente ao usuário de toda informação disponível em um determinado número de portais Web, contextualizados a um domínio de aplicação específico. Dois domínios de aplicação foram explorados neste trabalho através de dois estudos de caso: a Biomedicina e a Geologia, cada um fornecendo sua própria ontologia de domínio. Serviços Web Semânticos foram desenvolvidos para encapsular portais Web em ambos os domínios, permitindo ao sistema realizar a integração em cada domínio, separadamente. A aplicação proposta foi validada através da avaliação de sua atuação em ambos os domínios, além de testes com usuários finais e comparações com outras abordagens para integração na Web e motores de busca tradicionais. Através da utilização de Serviços Web Semânticos, W-KIS é capaz de localizar e executar os serviços de forma automática, além de lidar com a heterogeneidade semântica entre as fontes de informação por meio das ontologias de domínio. Desta forma, o sistema fornece apenas informação contextualizada ao interesse do usuário. / Integration and exchange of information across the Internet is a universally recognized need, in a wide variety of domains. Nowadays, the Web is the main source of information, providing many ways to access this content. However, making this information available to the user in an integrated way is still a challenge. New promising application fields such as Semantic Web Services can improve the integration process of data and processes available in Web portals. The goal of the present research is to accomplish the integration of the different functionalities offered by portals available in the Web, making use of domain ontologies through Semantic Web Services. In order to achieve the proposed goal, a search and integration system, named W-KIS, was designed and developed. The system provides the user with a unified and transparent view of the whole information available in a number of Web portals, related to a specific application domain. Two application domains were explored in this work through two case studies: the Biomedicine and the Geology, each one providing its own domain ontology. Semantic Web Services were designed to encapsulate Web portals in both domains, allowing the system to accomplish the integration in each domain, separately. The application proposed in this project was validated through the evaluation of its behavior in both domains, besides other tests with final users and comparisons with other approaches for integration in the Web, and traditional search engines. Making use of Semantic Web Services, W-KIS is able to find and execute the services in an automatic way, besides dealing with the semantic heterogeneity in the information sources by means of domain ontologies. This way, the system provides the user with information contextualized to its interest.

Page generated in 0.0942 seconds