Spelling suggestions: "subject:"[een] SEMANTIC WEB"" "subject:"[enn] SEMANTIC WEB""
541 |
Modelo para extração da inteligência coletiva e suporte à decisão em ambientes de colaboração utilizando o referencial 5W1H. / Conceptual model based on 5W1H framework for mining the collective intelligence and supporting the decision-making in collaborative environments.Cardoso Júnior, Jarbas Lopes 03 May 2017 (has links)
O crescimento exponencial do uso das mídias sociais na Web está transformando a maneira de como as pessoas tratam as informações, interagem com elas e compartilham conhecimento. Da mesma forma, as organizações estão mudando a maneira de interagir com seus funcionários, parceiros e consumidores. Novas aplicações na Internet têm surgido para proporcionar confiança aos usuários e incentivá-los a interagir e conectá-los uns aos outros e a conteúdos disponibilizados. Essas aplicações podem identificar comportamentos, extrair opiniões e retornar informações de interesse dos usuários e das organizações de maneira a auxiliar a tomada de decisão. Essas aplicações proporcionam grande volume de dados e demandam complexos processos de análise. Essas análises abrem oportunidades para o desenvolvimento de novas soluções que agregam mais valor aos usuários de produtos e serviços disponibilizadas na Web. Empresas e instituições de pesquisa têm desenvolvidos meios para tratar o grande volume de dados e identificar oportunidades de negócio. O uso de modelos que permitem entender esse fenômeno coletivo tem aumentado nos últimos anos por, basicamente, duas razões: a necessidade de descobrir, organizar e representar o conhecimento empírico relacionado a um determinado domínio de interesse e a necessidade de disseminar mecanismos para auxiliar os tomadores de decisão. Nesse contexto, ontologias de domínio têm sido bastante utilizadas como forma de organização e representação do conhecimento. No entanto, são poucos os modelos ou aplicações que extraem, organizam e representam o conhecimento (implícito e explícito) contextualizado de grupos de pessoas que atuam coletivamente para resolver problemas comuns ou produzir algo novo. Este trabalho de pesquisa propõe um modelo de referência para extração da inteligência coletiva (IC) para suporte à tomada de decisão. O modelo foi inicialmente desenvolvido para caso do planejamento estratégico de TI para ser utilizada por órgãos de governo. Como parte do modelo, foi desenvolvida uma inovadora ontologia de domínio denominada ITMPvoc. De seu processo de construção e validação, o modelo extrai a IC que é contextualiza segundo o referencial 5W1H (What, Who, Why, Where, When, How) e aplicada para suporte à decisão em situações específicas. Outras instâncias do modelo para dois casos de uso são também apresentadas. São elas: extração da IC e suporte à decisão para alertas de doenças na agricultura e para alertas sobre adoção de software livre por municípios. Os resultados demonstram que os modelos de extração da IC de comunidades ou organizações humanas podem melhorar os complexos processos de tomada de decisão em colaboração. Verificou-se também que a melhoria do processo de tomada de decisão se dá de duas maneiras. A primeira pela compreensão mais ampla pela comunidade dos conceitos e seus relacionamentos de causa e efeito mapeados pelo referencial 5W1H. A segunda pela composição mais adequada dos componentes What, Who, Why, Where, When e How em função do contexto. Ambas maneiras contribuem para o enriquecimento do conhecimento sobre os domínios considerados. / The exponential growth in the use of social media on the Web is transforming the which people treat information, interact with it, and share knowledge. Similarly, organizations are changing the way they interact with their employees, partners, and consumers. New Internet applications have emerged to provide users with confidence and encourage them to interact and connect to each other and to access contents made available. These applications can identify behaviors, extract opinions, and return information of interest to users and organizations in order to support decision making. These applications provide large amounts of data and require complex analysis processes. These analyzes open opportunities for the development of new solutions that add value to users of products and services available on the Web. Companies and research institutions have developed means to handle the large volume of data and identify business opportunities. The use of models that allow to understand this collective phenomenon has increased in recent years for basically two reasons: the need to discover, organize and represent empirical knowledge related to a particular domain of interest and the need to disseminate mechanisms to support the decision-makers. In this context, domain ontologies have been widely used as a form of organization and representation of the knowledge. However, there are few models or applications that extract, organize, and represent the contextualized (implicit and explicit) knowledge of groups of people who act collectively to solve common problems or produce something new. This research proposes a reference model for extracting the collective intelligence (CI) for decision making support. The model was initially developed for strategic planning of IT to be used by government organizations. As part of the model, an innovative domain ontology called ITMPvoc was developed. From its construction and validation process, the model extracts the CI that is contextualized according to the 5W1H (What, Who, Why, Where, How) framework and it is applied for decision making support in specific situations. Other instances of the model are also presented for two use cases. They are: extraction and decision making support based on CI for (I) early warning disease in agriculture and (ii) early warning in adoption of free software by municipalities. The results demonstrate that the CI extraction model from human communities or organizations can improve complex collaborative decision-making processes. It was also found that the improvement of the decision-making process occurs in two ways. The first is by the community\'s broader understanding of concepts and their cause-and-effect relationships mapped by the 5W1H framework. The second is the most appropriate composition of the What, Who, Why, Where, When, and How components, according to the context. Both ways contribute to the enrichment of the knowledge about the considered domains.
|
542 |
Ontologias e DSLs na geração de sistemas de apoio à decisão, caso de estudo SustenAgro / Ontologies and DSLs in the generation of decision support systems, SustenAgro study caseSuarez, John Freddy Garavito 03 May 2017 (has links)
Os Sistemas de Apoio à Decisão (SAD) organizam e processam dados e informações para gerar resultados que apoiem a tomada de decisão em um domínio especifico. Eles integram conhecimento de especialistas de domínio em cada um de seus componentes: modelos, dados, operações matemáticas (que processam os dados) e resultado de análises. Nas metodologias de desenvolvimento tradicionais, esse conhecimento deve ser interpretado e usado por desenvolvedores de software para implementar os SADs. Isso porque especialistas de domínio não conseguem formalizar esse conhecimento em um modelo computável que possa ser integrado aos SADs. O processo de modelagem de conhecimento é realizado, na prática, pelos desenvolvedores, parcializando o conhecimento do domínio e dificultando o desenvolvimento ágil dos SADs (já que os especialistas não modificam o código diretamente). Para solucionar esse problema, propõe-se um método e ferramenta web que usa ontologias, na Web Ontology Language (OWL), para representar o conhecimento de especialistas, e uma Domain Specific Language (DSL), para modelar o comportamento dos SADs. Ontologias, em OWL, são uma representação de conhecimento computável, que permite definir SADs em um formato entendível e accessível a humanos e máquinas. Esse método foi usado para criar o Framework Decisioner para a instanciação de SADs. O Decisioner gera automaticamente SADs a partir de uma ontologia e uma descrição naDSL, incluindo a interface do SAD (usando uma biblioteca de Web Components). Um editor online de ontologias, que usa um formato simplificado, permite que especialistas de domínio possam modificar aspectos da ontologia e imediatamente ver as consequência de suasmudanças no SAD.Uma validação desse método foi realizada, por meio da instanciação do SAD SustenAgro no Framework Decisioner. O SAD SustenAgro avalia a sustentabilidade de sistemas produtivos de cana-de-açúcar na região centro-sul do Brasil. Avaliações, conduzidas por especialistas em sustentabilidade da Embrapa Meio ambiente (parceiros neste projeto), mostraram que especialistas são capazes de alterar a ontologia e DSL usadas, sem a ajuda de programadores, e que o sistema produz análises de sustentabilidade corretas. / Decision Support Systems (DSSs) organize and process data and information to generate results to support decision making in a specific domain. They integrate knowledge from domain experts in each of their components: models, data, mathematical operations (that process the data) and analysis results. In traditional development methodologies, this knowledge must be interpreted and used by software developers to implement DSSs. That is because domain experts cannot formalize this knowledge in a computable model that can be integrated into DSSs. The knowledge modeling process is carried out, in practice, by the developers, biasing domain knowledge and hindering the agile development of DSSs (as domain experts cannot modify code directly). To solve this problem, a method and web tool is proposed that uses ontologies, in the Web Ontology Language (OWL), to represent experts knowledge, and a Domain Specific Language (DSL), to model DSS behavior. Ontologies, in OWL, are a computable knowledge representations, which allow the definition of DSSs in a format understandable and accessible to humans and machines. This method was used to create the Decisioner Framework for the instantiation of DSSs. Decisioner automatically generates DSSs from an ontology and a description in its DSL, including the DSS interface (using a Web Components library). An online ontology editor, using a simplified format, allows that domain experts change the ontology and immediately see the consequences of their changes in the in the DSS. A validation of this method was done through the instantiation of the SustenAgro DSS, using the Decisioner Framework. The SustenAgro DSS evaluates the sustainability of sugarcane production systems in the center-south region of Brazil. Evaluations, done by by sustainability experts from Embrapa Environment (partners in this project), showed that domain experts are capable of changing the ontology and DSL program used, without the help of software developers, and that the system produced correct sustainability analysis.
|
543 |
Marcação de regiões de interesse em 3d sobre imagens radiológicas utilizando a web / Markup of regions of interest in 3d on radiological images using the webHage, Cleber Castro 24 September 2014 (has links)
Este trabalho faz parte de um projeto maior, o electronic Physician Annotation Device (ePAD). O ePAD permite a criação de uma base de conhecimento médico usando anotações semânticas sobre lesões em imagens radiológicas, usando uma plataforma Web. Essas anotações servirão para identificar, acompanhar e reason sobre lesões tumorais em pesquisas médicas (especialmente sobre câncer). A informação adquirida e persistida pelo sistema permite avaliação automática por computadores; recuperação de imagens hospitalares e outros serviços relacionados a exames médicos. O ePAD é um desenvolvimento conjunto de grupos de pesquisas do ICMC-USP e do Department of Radiology da Stanford University. O principal trabalho, apresentado neste texto, é um novo conjunto de funcionalidades na Web para adicionar a marcação de lesões em imagens radiológicas em três dimensões ao ePAD. Elas permitirão a obtenção de dados mais precisos acerca de medidas tridimensionais de lesões como volume, posição e cálculo de maior diâmetro. O objetivo é facilitar o trabalho dos profissionais de radiologia na análise de diagnósticos e acompanhamento de lesões produzindo um acompanhamento mais acurado da evolução de doenças como o câncer. Anotações podem ser conectadas a lesões e conter informações semânticas, usando termos biomédicos da ontologia RadLex. Essas novas funcionalidades são baseadas em HTML5, com o auxílio de WebGL para visualização e manipulação de objetos 3D. As maiores contribuições deste trabalho são o software para visualização de séries de imagens radiológicas em 3D usando planos ortogonais, os protótipos de vídeo mostrando as três possíveis interfaces para marcação de lesões em 3D, a pesquisa com radiologistas (usando os protótipos de vídeo) para determinar que o cursor esférico era a melhor interface para marcar lesões em 3D e o protótipo dessa interface no ePAD. Este trabalho contou com a ajuda de usuários do Department. of Radiology da Stanford University e do Hospital das Clínicas da Universidade de São Paulo em Ribeirão Preto. / This work is part of a larger project, the electronic Physician Annotation Device (ePAD) project. The ePAD allows the creation of a medical knowledge base using semantic annotation on lesions found on radiological images using the Web platform. The annotation will serve to identify, follow-up and reason about tumor lesions in medical research projects (specially about cancer). The information acquired and persisted by the system allows automatic evaluation by computers; retrieval of hospital images and other services related to medical exams. ePAD is a joint development of the ICMC-USP and the Department of Radiology of the Stanford University research groups. The main work, presented here, is a new set of functionalities on the Web to add recording of lesions on radiological images in three dimensions to ePAD. They will lead to more accurate data about three dimensional lesion measurements, such as volume, position and longest diameter calculations. The objective is to ease the work of radiology professionals doing diagnostic analysis and lesion tracking producing more accurate follow-ups of disease evolution, such as of cancer. Annotation can be attached to lesions and hold semantic information, using biomedical ontology terms from RadLex. These new functionalities are based on HTML5 with the help of WebGL for visualization and manipulation of 3D objects. The main contributions of this work are the software for visualization of radiological image series in 3D using orthogonal planes, the video prototypes showing the three possible interfaces to mark lesions in 3D, the survey with radiologists (using the video prototypes) to determine that the spherical cursor was the best interface to mark lesions in 3D and the prototype of this interface in ePAD. This work received help from users of the Department of Radiology of the Stanford University and the Clinics Hospital of Ribeirão Preto of the University of São Paulo.
|
544 |
[en] MODELING AND IMPLEMENTATION OF ONTOLOGY DRIVEN HYPERMEDIA APPLICATIONS FOR THE SEMANTIC WEB / [pt] MODELAGEM E IMPLEMENTAÇÃO DE APLICAÇÕES HIPERMÍDIA GOVERNADAS POR ONTOLOGIAS PARA A WEB SEMÂNTICAGUILHERME DE ARAUJO SZUNDY 15 June 2005 (has links)
[pt] Essa dissertação propõe um modelo para o desenvolvimento de
aplicações
hipermídia na Web Semântica estendendo o método SHDM
(Semantic
Hypermedia Design Method), e apresenta uma arquitetura de
implementação
deste modelo. Na extensão proposta, as aplicações são
visões navegacionais
especificadas sobre modelos conceituais definidos por
quaisquer ontologias da
Web Semântica. As classes navegacionais são caracterizadas
por um padrão para
recuperação de dados da ontologia conceitual a partir de um
recurso específico,
podendo incorporar regras para filtragem de instâncias.
Estruturas de acesso
passam a se distinguir quanto à origem de seus dados,
podendo ser arbitrárias,
derivadas de consultas, derivadas de contextos ou
facetadas. Elos especializam um
relacionamento com base nos tipos de sua origem e destino,
e podem ser definidos
a partir de uma composição de relacionamentos conceituais.
A especificação do
modelo navegacional é dada através de um vocabulário
definido como uma
ontologia, tornando-a independente do ambiente de
inferência e consulta
empregado em qualquer implementação do modelo. Os modelos
propostos são
utilizados como dados para a geração de aplicações, com
suporte na arquitetura de
implementação definida e implementada. / [en] This dissertation proposes a development model for
hypermedia
applications on the Semantic Web extending the Semantic
Hypermedia Design
Method (SHDM), and presents an implementation architecture
for this model. In
the proposed extension applications are seen as
navigational views over
conceptual models defined by any Semantic Web ontology.
Navigational classes
are characterized by a retrieval pattern of conceptual
ontology data from a specific
resource, and can also incorporate rules for instances
filtering. Access structures
are now distinguished by their data source, and are
categorized as arbitrary, query
based, context based or faceted. Links specialize
conceptual relationships based
on the data types of its origin and destination, and can
also map relationship
compositions. A vocabulary defined as an ontology is used
for the specification of
the navigational model, making it independent from the
query and inference
environment used by any implementation of the model. The
implementation
architecture specified and implemented generates
applications directly from the
data contained in the proposed models.
|
545 |
Un wiki sémantique pour la gestion des connaissances décisionnelles : application à la cancérologie / A Semantic Wiki for Decision Knowledge Management : Application in OncologyMeilender, Thomas 28 June 2013 (has links)
Les connaissances décisionnelles sont un type particulier de connaissances dont le but est de décrire des processus de prise de décision. En cancérologie, ces connaissances sont généralement regroupées dans des guides de bonnes pratiques cliniques. Leur publication est assurée par des organismes médicaux suite à un processus d'édition collaboratif complexe. L'informatisation des guides a conduit à la volonté de formaliser l'ensemble des connaissances contenues de manière à pouvoir alimenter des systèmes d'aide à la décision. Ainsi, leur édition peut être vue comme une problématique d'acquisition des connaissances. Dans ce contexte, le but de cette thèse est de proposer des méthodes et des outils permettant de factoriser l'édition des guides et leur formalisation. Le premier apport de cette thèse est l'intégration des technologies du Web social et sémantique dans le processus d'édition. La création du wiki sémantique OncoLogiK a permis de mettre en oeuvre cette proposition. Ainsi, un retour d'expérience et des méthodes sont présentés pour la migration depuis une solution Web statique. Le deuxième apport consiste à proposer une solution pour exploiter les connaissances décisionnelles présentes dans les guides. Ainsi, le framework KCATOS définit un langage d'arbres de décision simple pour lequel une traduction reposant sur les technologies du Web sémantique est développée. KCATOS propose en outre un éditeur d'arbres, permettant l'édition collaborative en ligne. Le troisième apport consiste à concilier dans un même système les approches pour la création des guides de bonnes pratiques informatisés : l'approche s'appuyant sur les connaissances symbolisée par KCATOS et l'approche documentaire d'OncoLogiK. Leur fonctionnement conjoint permet de proposer une solution bénéficiant des avantages des deux approches. De nombreuses perspectives sont exposées. La plupart d'entre elles visent à améliorer les services aux utilisateurs et l'expressivité de la base de connaissances. En prenant en compte le travail effectué et les perspectives, un modèle réaliste visant à faire du projet Kasimir un système d'aide à la décision complet est proposé / Decision knowledge is a particular type of knowledge that aims at describing the processes of decision making. In oncology, this knowledge is generally grouped into clinical practice guidelines. The publication of the guidelines is provided by medical organizations as a result of complex collaborative editing processes. The computerization of guides has led to the desire of formalizing the knowledge so as to supply decision-support systems. Thus, editing can be seen as a knowledge acquisition issue. In this context, this thesis aims at proposing methods and tools for factorizing editing guides and their formalization. The first contribute on of this thesis is the integration of social semantic web technologies in the editing process. The creation of the semantic wiki OncoLogiK allows to implement this proposal. Thus, a feedback and methods are presented for the migration from a static web solution. The second contribution consists in a solution to exploit the knowledge present in the decision-making guides. Thus, KcatoS framework defines a simple decision tree language for which a translation based on semantic web technologies is developed. KcatoS also proposes an editor of trees, allowing collaborative editing online. The third contribution is to combine in a single system approaches for the creation of clinical guidelines: the approach based on the knowledge symbolized by KcatoS and the documentary approach symbolized by OncoLogiK. Their joint operation can propose a solution benefiting from the advantages of both approaches. Many future works are proposed. Most of them aim at improving services to users and the expressiveness of the knowledge base. Taking into account the work and prospects, a realistic model to create a decision-support system based on clinical guidelines is proposed
|
546 |
Apport des ontologies de domaine pour l'extraction de connaissances à partir de données biomédicales / Contribution of domain ontologies for knowledge discovery in biomedical dataPersoneni, Gabin 09 November 2018 (has links)
Le Web sémantique propose un ensemble de standards et d'outils pour la formalisation et l'interopérabilité de connaissances partagées sur le Web, sous la forme d'ontologies. Les ontologies biomédicales et les données associées constituent de nos jours un ensemble de connaissances complexes, hétérogènes et interconnectées, dont l'analyse est porteuse de grands enjeux en santé, par exemple dans le cadre de la pharmacovigilance. On proposera dans cette thèse des méthodes permettant d'utiliser ces ontologies biomédicales pour étendre les possibilités d'un processus de fouille de données, en particulier, permettant de faire cohabiter et d'exploiter les connaissances de plusieurs ontologies biomédicales. Les travaux de cette thèse concernent dans un premier temps une méthode fondée sur les structures de patrons, une extension de l'analyse formelle de concepts pour la découverte de co-occurences de événements indésirables médicamenteux dans des données patients. Cette méthode utilise une ontologie de phénotypes et une ontologie de médicaments pour permettre la comparaison de ces événements complexes, et la découverte d'associations à différents niveaux de généralisation, par exemple, au niveau de médicaments ou de classes de médicaments. Dans un second temps, on utilisera une méthode numérique fondée sur des mesures de similarité sémantique pour la classification de déficiences intellectuelles génétiques. On étudiera deux mesures de similarité utilisant des méthodes de calcul différentes, que l'on utilisera avec différentes combinaisons d'ontologies phénotypiques et géniques. En particulier, on quantifiera l'influence que les différentes connaissances de domaine ont sur la capacité de classification de ces mesures, et comment ces connaissances peuvent coopérer au sein de telles méthodes numériques. Une troisième étude utilise les données ouvertes liées ou LOD du Web sémantique et les ontologies associées dans le but de caractériser des gènes responsables de déficiences intellectuelles. On utilise ici la programmation logique inductive, qui s'avère adaptée pour fouiller des données relationnelles comme les LOD, en prenant en compte leurs relations avec les ontologies, et en extraire un modèle prédictif et descriptif des gènes responsables de déficiences intellectuelles. L'ensemble des contributions de cette thèse montre qu'il est possible de faire coopérer avantageusement une ou plusieurs ontologies dans divers processus de fouille de données / The semantic Web proposes standards and tools to formalize and share knowledge on the Web, in the form of ontologies. Biomedical ontologies and associated data represents a vast collection of complex, heterogeneous and linked knowledge. The analysis of such knowledge presents great opportunities in healthcare, for instance in pharmacovigilance. This thesis explores several ways to make use of this biomedical knowledge in the data mining step of a knowledge discovery process. In particular, we propose three methods in which several ontologies cooperate to improve data mining results. A first contribution of this thesis describes a method based on pattern structures, an extension of formal concept analysis, to extract associations between adverse drug events from patient data. In this context, a phenotype ontology and a drug ontology cooperate to allow a semantic comparison of these complex adverse events, and leading to the discovery of associations between such events at varying degrees of generalization, for instance, at the drug or drug class level. A second contribution uses a numeric method based on semantic similarity measures to classify different types of genetic intellectual disabilities, characterized by both their phenotypes and the functions of their linked genes. We study two different similarity measures, applied with different combinations of phenotypic and gene function ontologies. In particular, we investigate the influence of each domain of knowledge represented in each ontology on the classification process, and how they can cooperate to improve that process. Finally, a third contribution uses the data component of the semantic Web, the Linked Open Data (LOD), together with linked ontologies, to characterize genes responsible for intellectual deficiencies. We use Inductive Logic Programming, a suitable method to mine relational data such as LOD while exploiting domain knowledge from ontologies by using reasoning mechanisms. Here, ILP allows to extract from LOD and ontologies a descriptive and predictive model of genes responsible for intellectual disabilities. These contributions illustrates the possibility of having several ontologies cooperate to improve various data mining processes
|
547 |
La recommandation des jeux de données basée sur le profilage pour le liage des données RDF / Profile-based Datas and Recommendation for RDF Data LinkingBen Ellefi, Mohamed 01 December 2016 (has links)
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées. / With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community.
|
548 |
[en] A MULTI-AGENT FRAMEWORK FOR SEARCH AND FLEXIBILIZATION OF DOCUMENT CLASSIFICATION ALGORITHMS / [pt] UM FRAMEWORK MULTI-AGENTES PARA BUSCA E FLEXIBILIZAÇÃO DE ALGORITMOS DE CLASSIFICAÇÃO DE DOCUMENTOSJOAO ALFREDO PINTO DE MAGALHAES 18 June 2003 (has links)
[pt] Vivemos na era da informação, onde o conhecimento é criado
numa velocidade nunca antes vista. Esse aumento de
velocidade teve como principalrazão a Internet, que alterou
os paradigmas até então existentes de troca de informações
entre as pessoas. Através da rede, trabalhos inteiros podem
ser publicados, atingindo um público alvo impossível de ser
alcançado através dos meios existentes anteriormente.
Porém, o excesso de informação também pode agir no sentido
contrário: muita informação pode ser igual a nenhuma
informação. Nosso trabalho foi o de produzir um sistema
multi-agentes para busca e classificação de documentos
textuais de um domínio específico. Foi construída
uma infra-estrutura que separa as questões referentes à
busca e seleção dos documentos (plataforma) das referentes
ao algoritmo de classificação utilizado (uma aplicação do
conceito de separation of concerns). Dessa forma, é possível
não só acoplar algoritmos já existentes, mas também gerar
novos algoritmos levando em consideração características
específicas do domínio de documentos abordado. Foram
geradas quatro instâncias a partir do framework, uma
aplicação de webclipping, um componente para auxílio a
knowledge management, um motor de busca para websites e uma
aplicação para a web semântica. / [en] We are living in the information age, where knowledge is
constantly being created in a rate that was never seen
before. This is mainly due to Internet, that changed all
the information exchange paradigms between people. Through
the net, it is possible to publish or exchange whole works,
reaching an audience impossible to be reached through other
means. However, excess of information can be harmful:
having too much information can be equal to having no
information at all. Our work was to build a multi-agent
framework for search and flexibilization of textual
document classification algorithms of a specific domain.
We have built an infra-structure that separates the
concerns of document search and selection (platform) from
the concerns of document classification (an application of
the separation of concerns concept). It is possible not
only to use existing algorithms, but also to generate new
ones that consider domain-specific characteristics of
documents. We generated four instances of the framework, a
webclipping application, a knowledge management component,
a search engine for websites and an application for the
semantic web.
|
549 |
Geração de perguntas em linguagem natural a partir de bases de dados abertos e conectados: um estudo exploratórioRodrigues, Emílio Luiz Faria 04 December 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-04-04T14:31:00Z
No. of bitstreams: 1
Emílio Luiz Faria Rodrigues_.pdf: 2764513 bytes, checksum: b34f808a0eff24f3a2360d875e08e1f2 (MD5) / Made available in DSpace on 2018-04-04T14:31:00Z (GMT). No. of bitstreams: 1
Emílio Luiz Faria Rodrigues_.pdf: 2764513 bytes, checksum: b34f808a0eff24f3a2360d875e08e1f2 (MD5)
Previous issue date: 2017-12-04 / Nenhuma / O crescimento acelerado das bases de dados abertas e conectadas vem sendo observado recentemente. Existem diversas motivações para tal, envolvendo desde a geração destas bases de forma automática a partir de textos, até a sua construção diretamente a partir de sistemas de informação. Este crescimento gerou um conjunto numeroso de bases de dados com grande volume de informações. Deste modo observa-se a possibilidade de sua utilização em larga escala, em sistemas de pergunta e resposta. Os sistemas de pergunta e resposta dependem da existência de uma estrutura de informações a ser usada como apoio na geração de frases e na conferência das respostas. O atual contexto das bases de dados abertas e conectadas proporciona este suporte necessário. A partir de estudos da literatura, observou-se a oportunidade de maior utilização, em aplicações diversas, das possibilidades de geração de frases em linguagem natural a partir de bases de dados abertas conectadas. Além disso, foram identificados diversos desafios para a efetiva utilização destes recursos com esta finalidade. Desta forma, esse trabalho objetiva verificar quais os aspectos da estrutura de bases de dados abertas conectadas que podem ser utilizados como apoio na geração de perguntas em linguagem natural. Para tal foi desenvolvido um estudo exploratório e definida uma abordagem geral, testada em um protótipo que permitiu gerar frases de perguntas em linguagem natural com apoio em bases de dados abertas e conectadas. Os resultados foram avaliados por um especialista em linguística e foram considerados promissores. / The accelerated growth of open and connected databases has recently been observed. There are several motivations leading to it, some bases generate data from texts automatically, other bases are built straightaway from information systems. Therefore, a numerous set of data base with a huge volume of information is now available. Thus, the possibility of its use in large scale, in systems of question and answer is observed. The question and answer systems depend on the existence of an information structure to be used as support in generating sentences and checking the answers. The current background of open and connected data provides the essential support. From literature studies, it was observed the opportunity to use more the possibilities of generating sentences in natural language from connected open databases, in different kinds of applications. In addition, several challenges have been identified to realize the effective use of this resource. So, this work aims to verify which aspects of the structure of connected open databases can be used as the support to generate questions in natural language. Since, an exploratory study was developed, and a general approach was established. Which was tested on a prototype that was able to generate natural language question sentences, supported by open and connected databases. The results were evaluated by a specialist in linguistics and were considered promising.
|
550 |
Melhorias para um sistema de recomendação baseado em conhecimento a partir da representação semântica de conteúdosGóis, Marcos de Meira 04 August 2015 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2015-10-21T12:12:38Z
No. of bitstreams: 1
Marcos de Meira Góis_.pdf: 1916593 bytes, checksum: e5b2eae456a204d1173418cd2ed3480f (MD5) / Made available in DSpace on 2015-10-21T12:12:38Z (GMT). No. of bitstreams: 1
Marcos de Meira Góis_.pdf: 1916593 bytes, checksum: e5b2eae456a204d1173418cd2ed3480f (MD5)
Previous issue date: 2015-08-04 / Nenhuma / Os Sistemas de Recomendação já estão consolidados como ferramentas que apoiam os usuários a superar as dificuldades geradas pelo volume excessivo de conteúdos disponíveis em formato digital, tendo sido projetados para realizar de forma automatizada as tarefas de classificação de conteúdos e de relacionamento deste com interesses e necessidades dos usuários. Um dos problemas ainda observados nestes sistemas está relacionado com a fragilidade de algumas abordagens de classificação e relacionamento de conteúdo que se baseiam principalmente em aspectos sintáticos dos conteúdos tratados. Os sistemas de recomendação baseados em conhecimento buscam mitigar este problema a partir da incorporação de elementos semânticos nos processos de indexação e relacionamento dos materiais. Apesar de bons resultados observados, ainda são identificadas necessidades de investigação, tanto nas atividades de classificação dos conteúdos, como na representação e tratamento dos relacionamentos entre conteúdos e possíveis interessados. Este trabalho busca colaborar com o desenvolvimento nesta área a partir da proposta de um sistema de recomendação baseado em conhecimento e voltado para a recomendação de materiais educacionais em um contexto de pequenos grupos de estudantes. O diferencial deste sistema se dá através de um processo de incorporação da semântica associada com os assuntos tratados e também com a utilização de aspectos semânticos para representar as necessidades e relacionamentos originados pelos usuários do sistema. O principal diferencial deste sistema está localizado na utilização de um algoritmo de recomendação híbrido, no qual tanto aspectos sintáticos como semânticos são empregados. Para avaliar o sistema de recomendação proposto, foi realizada a sua prototipação e teste em um ambiente controlado. / The Recommendation systems are already established as tools that support users to overcome the difficulties caused by the excessive volume of content available in digital format and was designed to conduct automated the content classification tasks and relationship of this with wins users. One of the problems observed in these systems is related to the weakness of some classification approaches and content relationship rely mainly on methodical aspects of the discussed subjects. Recommendation systems based on knowledge seek to mitigate this problem from the incorporation of semantic elements in the indexing processes and material relationship. Despite good results observed, research needs are also identified, both used to classify content activities, such as the representation and treatment of relationships between content and potential stakeholders. This paper seeks to contribute to the development in this area from the proposal for a recommendation system based on knowledge and facing the recommendation of educational materials in a context of small groups of students. The spread of this system is through a semantics of the merger process associated with these types of concerns and also with the use of semantic aspects to represent the needs and relationships originated by system users. The main distinguishing feature of this system is located in the use of a hybrid recommendation algorithm in which both syntactic and semantic aspects are employed. To evaluate the proposed recommendation system, it is due for prototyping and testing in a controlled environment.
|
Page generated in 0.0365 seconds