• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 328
  • 217
  • 76
  • 44
  • 24
  • 20
  • 19
  • 18
  • 17
  • 14
  • 8
  • 7
  • 7
  • 6
  • 6
  • Tagged with
  • 839
  • 839
  • 249
  • 189
  • 176
  • 155
  • 139
  • 112
  • 108
  • 105
  • 105
  • 104
  • 102
  • 97
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
541

Modelo para extração da inteligência coletiva e suporte à decisão em ambientes de colaboração utilizando o referencial 5W1H. / Conceptual model based on 5W1H framework for mining the collective intelligence and supporting the decision-making in collaborative environments.

Cardoso Júnior, Jarbas Lopes 03 May 2017 (has links)
O crescimento exponencial do uso das mídias sociais na Web está transformando a maneira de como as pessoas tratam as informações, interagem com elas e compartilham conhecimento. Da mesma forma, as organizações estão mudando a maneira de interagir com seus funcionários, parceiros e consumidores. Novas aplicações na Internet têm surgido para proporcionar confiança aos usuários e incentivá-los a interagir e conectá-los uns aos outros e a conteúdos disponibilizados. Essas aplicações podem identificar comportamentos, extrair opiniões e retornar informações de interesse dos usuários e das organizações de maneira a auxiliar a tomada de decisão. Essas aplicações proporcionam grande volume de dados e demandam complexos processos de análise. Essas análises abrem oportunidades para o desenvolvimento de novas soluções que agregam mais valor aos usuários de produtos e serviços disponibilizadas na Web. Empresas e instituições de pesquisa têm desenvolvidos meios para tratar o grande volume de dados e identificar oportunidades de negócio. O uso de modelos que permitem entender esse fenômeno coletivo tem aumentado nos últimos anos por, basicamente, duas razões: a necessidade de descobrir, organizar e representar o conhecimento empírico relacionado a um determinado domínio de interesse e a necessidade de disseminar mecanismos para auxiliar os tomadores de decisão. Nesse contexto, ontologias de domínio têm sido bastante utilizadas como forma de organização e representação do conhecimento. No entanto, são poucos os modelos ou aplicações que extraem, organizam e representam o conhecimento (implícito e explícito) contextualizado de grupos de pessoas que atuam coletivamente para resolver problemas comuns ou produzir algo novo. Este trabalho de pesquisa propõe um modelo de referência para extração da inteligência coletiva (IC) para suporte à tomada de decisão. O modelo foi inicialmente desenvolvido para caso do planejamento estratégico de TI para ser utilizada por órgãos de governo. Como parte do modelo, foi desenvolvida uma inovadora ontologia de domínio denominada ITMPvoc. De seu processo de construção e validação, o modelo extrai a IC que é contextualiza segundo o referencial 5W1H (What, Who, Why, Where, When, How) e aplicada para suporte à decisão em situações específicas. Outras instâncias do modelo para dois casos de uso são também apresentadas. São elas: extração da IC e suporte à decisão para alertas de doenças na agricultura e para alertas sobre adoção de software livre por municípios. Os resultados demonstram que os modelos de extração da IC de comunidades ou organizações humanas podem melhorar os complexos processos de tomada de decisão em colaboração. Verificou-se também que a melhoria do processo de tomada de decisão se dá de duas maneiras. A primeira pela compreensão mais ampla pela comunidade dos conceitos e seus relacionamentos de causa e efeito mapeados pelo referencial 5W1H. A segunda pela composição mais adequada dos componentes What, Who, Why, Where, When e How em função do contexto. Ambas maneiras contribuem para o enriquecimento do conhecimento sobre os domínios considerados. / The exponential growth in the use of social media on the Web is transforming the which people treat information, interact with it, and share knowledge. Similarly, organizations are changing the way they interact with their employees, partners, and consumers. New Internet applications have emerged to provide users with confidence and encourage them to interact and connect to each other and to access contents made available. These applications can identify behaviors, extract opinions, and return information of interest to users and organizations in order to support decision making. These applications provide large amounts of data and require complex analysis processes. These analyzes open opportunities for the development of new solutions that add value to users of products and services available on the Web. Companies and research institutions have developed means to handle the large volume of data and identify business opportunities. The use of models that allow to understand this collective phenomenon has increased in recent years for basically two reasons: the need to discover, organize and represent empirical knowledge related to a particular domain of interest and the need to disseminate mechanisms to support the decision-makers. In this context, domain ontologies have been widely used as a form of organization and representation of the knowledge. However, there are few models or applications that extract, organize, and represent the contextualized (implicit and explicit) knowledge of groups of people who act collectively to solve common problems or produce something new. This research proposes a reference model for extracting the collective intelligence (CI) for decision making support. The model was initially developed for strategic planning of IT to be used by government organizations. As part of the model, an innovative domain ontology called ITMPvoc was developed. From its construction and validation process, the model extracts the CI that is contextualized according to the 5W1H (What, Who, Why, Where, How) framework and it is applied for decision making support in specific situations. Other instances of the model are also presented for two use cases. They are: extraction and decision making support based on CI for (I) early warning disease in agriculture and (ii) early warning in adoption of free software by municipalities. The results demonstrate that the CI extraction model from human communities or organizations can improve complex collaborative decision-making processes. It was also found that the improvement of the decision-making process occurs in two ways. The first is by the community\'s broader understanding of concepts and their cause-and-effect relationships mapped by the 5W1H framework. The second is the most appropriate composition of the What, Who, Why, Where, When, and How components, according to the context. Both ways contribute to the enrichment of the knowledge about the considered domains.
542

Ontologias e DSLs na geração de sistemas de apoio à decisão, caso de estudo SustenAgro / Ontologies and DSLs in the generation of decision support systems, SustenAgro study case

Suarez, John Freddy Garavito 03 May 2017 (has links)
Os Sistemas de Apoio à Decisão (SAD) organizam e processam dados e informações para gerar resultados que apoiem a tomada de decisão em um domínio especifico. Eles integram conhecimento de especialistas de domínio em cada um de seus componentes: modelos, dados, operações matemáticas (que processam os dados) e resultado de análises. Nas metodologias de desenvolvimento tradicionais, esse conhecimento deve ser interpretado e usado por desenvolvedores de software para implementar os SADs. Isso porque especialistas de domínio não conseguem formalizar esse conhecimento em um modelo computável que possa ser integrado aos SADs. O processo de modelagem de conhecimento é realizado, na prática, pelos desenvolvedores, parcializando o conhecimento do domínio e dificultando o desenvolvimento ágil dos SADs (já que os especialistas não modificam o código diretamente). Para solucionar esse problema, propõe-se um método e ferramenta web que usa ontologias, na Web Ontology Language (OWL), para representar o conhecimento de especialistas, e uma Domain Specific Language (DSL), para modelar o comportamento dos SADs. Ontologias, em OWL, são uma representação de conhecimento computável, que permite definir SADs em um formato entendível e accessível a humanos e máquinas. Esse método foi usado para criar o Framework Decisioner para a instanciação de SADs. O Decisioner gera automaticamente SADs a partir de uma ontologia e uma descrição naDSL, incluindo a interface do SAD (usando uma biblioteca de Web Components). Um editor online de ontologias, que usa um formato simplificado, permite que especialistas de domínio possam modificar aspectos da ontologia e imediatamente ver as consequência de suasmudanças no SAD.Uma validação desse método foi realizada, por meio da instanciação do SAD SustenAgro no Framework Decisioner. O SAD SustenAgro avalia a sustentabilidade de sistemas produtivos de cana-de-açúcar na região centro-sul do Brasil. Avaliações, conduzidas por especialistas em sustentabilidade da Embrapa Meio ambiente (parceiros neste projeto), mostraram que especialistas são capazes de alterar a ontologia e DSL usadas, sem a ajuda de programadores, e que o sistema produz análises de sustentabilidade corretas. / Decision Support Systems (DSSs) organize and process data and information to generate results to support decision making in a specific domain. They integrate knowledge from domain experts in each of their components: models, data, mathematical operations (that process the data) and analysis results. In traditional development methodologies, this knowledge must be interpreted and used by software developers to implement DSSs. That is because domain experts cannot formalize this knowledge in a computable model that can be integrated into DSSs. The knowledge modeling process is carried out, in practice, by the developers, biasing domain knowledge and hindering the agile development of DSSs (as domain experts cannot modify code directly). To solve this problem, a method and web tool is proposed that uses ontologies, in the Web Ontology Language (OWL), to represent experts knowledge, and a Domain Specific Language (DSL), to model DSS behavior. Ontologies, in OWL, are a computable knowledge representations, which allow the definition of DSSs in a format understandable and accessible to humans and machines. This method was used to create the Decisioner Framework for the instantiation of DSSs. Decisioner automatically generates DSSs from an ontology and a description in its DSL, including the DSS interface (using a Web Components library). An online ontology editor, using a simplified format, allows that domain experts change the ontology and immediately see the consequences of their changes in the in the DSS. A validation of this method was done through the instantiation of the SustenAgro DSS, using the Decisioner Framework. The SustenAgro DSS evaluates the sustainability of sugarcane production systems in the center-south region of Brazil. Evaluations, done by by sustainability experts from Embrapa Environment (partners in this project), showed that domain experts are capable of changing the ontology and DSL program used, without the help of software developers, and that the system produced correct sustainability analysis.
543

Marcação de regiões de interesse em 3d sobre imagens radiológicas utilizando a web / Markup of regions of interest in 3d on radiological images using the web

Hage, Cleber Castro 24 September 2014 (has links)
Este trabalho faz parte de um projeto maior, o electronic Physician Annotation Device (ePAD). O ePAD permite a criação de uma base de conhecimento médico usando anotações semânticas sobre lesões em imagens radiológicas, usando uma plataforma Web. Essas anotações servirão para identificar, acompanhar e reason sobre lesões tumorais em pesquisas médicas (especialmente sobre câncer). A informação adquirida e persistida pelo sistema permite avaliação automática por computadores; recuperação de imagens hospitalares e outros serviços relacionados a exames médicos. O ePAD é um desenvolvimento conjunto de grupos de pesquisas do ICMC-USP e do Department of Radiology da Stanford University. O principal trabalho, apresentado neste texto, é um novo conjunto de funcionalidades na Web para adicionar a marcação de lesões em imagens radiológicas em três dimensões ao ePAD. Elas permitirão a obtenção de dados mais precisos acerca de medidas tridimensionais de lesões como volume, posição e cálculo de maior diâmetro. O objetivo é facilitar o trabalho dos profissionais de radiologia na análise de diagnósticos e acompanhamento de lesões produzindo um acompanhamento mais acurado da evolução de doenças como o câncer. Anotações podem ser conectadas a lesões e conter informações semânticas, usando termos biomédicos da ontologia RadLex. Essas novas funcionalidades são baseadas em HTML5, com o auxílio de WebGL para visualização e manipulação de objetos 3D. As maiores contribuições deste trabalho são o software para visualização de séries de imagens radiológicas em 3D usando planos ortogonais, os protótipos de vídeo mostrando as três possíveis interfaces para marcação de lesões em 3D, a pesquisa com radiologistas (usando os protótipos de vídeo) para determinar que o cursor esférico era a melhor interface para marcar lesões em 3D e o protótipo dessa interface no ePAD. Este trabalho contou com a ajuda de usuários do Department. of Radiology da Stanford University e do Hospital das Clínicas da Universidade de São Paulo em Ribeirão Preto. / This work is part of a larger project, the electronic Physician Annotation Device (ePAD) project. The ePAD allows the creation of a medical knowledge base using semantic annotation on lesions found on radiological images using the Web platform. The annotation will serve to identify, follow-up and reason about tumor lesions in medical research projects (specially about cancer). The information acquired and persisted by the system allows automatic evaluation by computers; retrieval of hospital images and other services related to medical exams. ePAD is a joint development of the ICMC-USP and the Department of Radiology of the Stanford University research groups. The main work, presented here, is a new set of functionalities on the Web to add recording of lesions on radiological images in three dimensions to ePAD. They will lead to more accurate data about three dimensional lesion measurements, such as volume, position and longest diameter calculations. The objective is to ease the work of radiology professionals doing diagnostic analysis and lesion tracking producing more accurate follow-ups of disease evolution, such as of cancer. Annotation can be attached to lesions and hold semantic information, using biomedical ontology terms from RadLex. These new functionalities are based on HTML5 with the help of WebGL for visualization and manipulation of 3D objects. The main contributions of this work are the software for visualization of radiological image series in 3D using orthogonal planes, the video prototypes showing the three possible interfaces to mark lesions in 3D, the survey with radiologists (using the video prototypes) to determine that the spherical cursor was the best interface to mark lesions in 3D and the prototype of this interface in ePAD. This work received help from users of the Department of Radiology of the Stanford University and the Clinics Hospital of Ribeirão Preto of the University of São Paulo.
544

[en] MODELING AND IMPLEMENTATION OF ONTOLOGY DRIVEN HYPERMEDIA APPLICATIONS FOR THE SEMANTIC WEB / [pt] MODELAGEM E IMPLEMENTAÇÃO DE APLICAÇÕES HIPERMÍDIA GOVERNADAS POR ONTOLOGIAS PARA A WEB SEMÂNTICA

GUILHERME DE ARAUJO SZUNDY 15 June 2005 (has links)
[pt] Essa dissertação propõe um modelo para o desenvolvimento de aplicações hipermídia na Web Semântica estendendo o método SHDM (Semantic Hypermedia Design Method), e apresenta uma arquitetura de implementação deste modelo. Na extensão proposta, as aplicações são visões navegacionais especificadas sobre modelos conceituais definidos por quaisquer ontologias da Web Semântica. As classes navegacionais são caracterizadas por um padrão para recuperação de dados da ontologia conceitual a partir de um recurso específico, podendo incorporar regras para filtragem de instâncias. Estruturas de acesso passam a se distinguir quanto à origem de seus dados, podendo ser arbitrárias, derivadas de consultas, derivadas de contextos ou facetadas. Elos especializam um relacionamento com base nos tipos de sua origem e destino, e podem ser definidos a partir de uma composição de relacionamentos conceituais. A especificação do modelo navegacional é dada através de um vocabulário definido como uma ontologia, tornando-a independente do ambiente de inferência e consulta empregado em qualquer implementação do modelo. Os modelos propostos são utilizados como dados para a geração de aplicações, com suporte na arquitetura de implementação definida e implementada. / [en] This dissertation proposes a development model for hypermedia applications on the Semantic Web extending the Semantic Hypermedia Design Method (SHDM), and presents an implementation architecture for this model. In the proposed extension applications are seen as navigational views over conceptual models defined by any Semantic Web ontology. Navigational classes are characterized by a retrieval pattern of conceptual ontology data from a specific resource, and can also incorporate rules for instances filtering. Access structures are now distinguished by their data source, and are categorized as arbitrary, query based, context based or faceted. Links specialize conceptual relationships based on the data types of its origin and destination, and can also map relationship compositions. A vocabulary defined as an ontology is used for the specification of the navigational model, making it independent from the query and inference environment used by any implementation of the model. The implementation architecture specified and implemented generates applications directly from the data contained in the proposed models.
545

Un wiki sémantique pour la gestion des connaissances décisionnelles : application à la cancérologie / A Semantic Wiki for Decision Knowledge Management : Application in Oncology

Meilender, Thomas 28 June 2013 (has links)
Les connaissances décisionnelles sont un type particulier de connaissances dont le but est de décrire des processus de prise de décision. En cancérologie, ces connaissances sont généralement regroupées dans des guides de bonnes pratiques cliniques. Leur publication est assurée par des organismes médicaux suite à un processus d'édition collaboratif complexe. L'informatisation des guides a conduit à la volonté de formaliser l'ensemble des connaissances contenues de manière à pouvoir alimenter des systèmes d'aide à la décision. Ainsi, leur édition peut être vue comme une problématique d'acquisition des connaissances. Dans ce contexte, le but de cette thèse est de proposer des méthodes et des outils permettant de factoriser l'édition des guides et leur formalisation. Le premier apport de cette thèse est l'intégration des technologies du Web social et sémantique dans le processus d'édition. La création du wiki sémantique OncoLogiK a permis de mettre en oeuvre cette proposition. Ainsi, un retour d'expérience et des méthodes sont présentés pour la migration depuis une solution Web statique. Le deuxième apport consiste à proposer une solution pour exploiter les connaissances décisionnelles présentes dans les guides. Ainsi, le framework KCATOS définit un langage d'arbres de décision simple pour lequel une traduction reposant sur les technologies du Web sémantique est développée. KCATOS propose en outre un éditeur d'arbres, permettant l'édition collaborative en ligne. Le troisième apport consiste à concilier dans un même système les approches pour la création des guides de bonnes pratiques informatisés : l'approche s'appuyant sur les connaissances symbolisée par KCATOS et l'approche documentaire d'OncoLogiK. Leur fonctionnement conjoint permet de proposer une solution bénéficiant des avantages des deux approches. De nombreuses perspectives sont exposées. La plupart d'entre elles visent à améliorer les services aux utilisateurs et l'expressivité de la base de connaissances. En prenant en compte le travail effectué et les perspectives, un modèle réaliste visant à faire du projet Kasimir un système d'aide à la décision complet est proposé / Decision knowledge is a particular type of knowledge that aims at describing the processes of decision making. In oncology, this knowledge is generally grouped into clinical practice guidelines. The publication of the guidelines is provided by medical organizations as a result of complex collaborative editing processes. The computerization of guides has led to the desire of formalizing the knowledge so as to supply decision-support systems. Thus, editing can be seen as a knowledge acquisition issue. In this context, this thesis aims at proposing methods and tools for factorizing editing guides and their formalization. The first contribute on of this thesis is the integration of social semantic web technologies in the editing process. The creation of the semantic wiki OncoLogiK allows to implement this proposal. Thus, a feedback and methods are presented for the migration from a static web solution. The second contribution consists in a solution to exploit the knowledge present in the decision-making guides. Thus, KcatoS framework defines a simple decision tree language for which a translation based on semantic web technologies is developed. KcatoS also proposes an editor of trees, allowing collaborative editing online. The third contribution is to combine in a single system approaches for the creation of clinical guidelines: the approach based on the knowledge symbolized by KcatoS and the documentary approach symbolized by OncoLogiK. Their joint operation can propose a solution benefiting from the advantages of both approaches. Many future works are proposed. Most of them aim at improving services to users and the expressiveness of the knowledge base. Taking into account the work and prospects, a realistic model to create a decision-support system based on clinical guidelines is proposed
546

Apport des ontologies de domaine pour l'extraction de connaissances à partir de données biomédicales / Contribution of domain ontologies for knowledge discovery in biomedical data

Personeni, Gabin 09 November 2018 (has links)
Le Web sémantique propose un ensemble de standards et d'outils pour la formalisation et l'interopérabilité de connaissances partagées sur le Web, sous la forme d'ontologies. Les ontologies biomédicales et les données associées constituent de nos jours un ensemble de connaissances complexes, hétérogènes et interconnectées, dont l'analyse est porteuse de grands enjeux en santé, par exemple dans le cadre de la pharmacovigilance. On proposera dans cette thèse des méthodes permettant d'utiliser ces ontologies biomédicales pour étendre les possibilités d'un processus de fouille de données, en particulier, permettant de faire cohabiter et d'exploiter les connaissances de plusieurs ontologies biomédicales. Les travaux de cette thèse concernent dans un premier temps une méthode fondée sur les structures de patrons, une extension de l'analyse formelle de concepts pour la découverte de co-occurences de événements indésirables médicamenteux dans des données patients. Cette méthode utilise une ontologie de phénotypes et une ontologie de médicaments pour permettre la comparaison de ces événements complexes, et la découverte d'associations à différents niveaux de généralisation, par exemple, au niveau de médicaments ou de classes de médicaments. Dans un second temps, on utilisera une méthode numérique fondée sur des mesures de similarité sémantique pour la classification de déficiences intellectuelles génétiques. On étudiera deux mesures de similarité utilisant des méthodes de calcul différentes, que l'on utilisera avec différentes combinaisons d'ontologies phénotypiques et géniques. En particulier, on quantifiera l'influence que les différentes connaissances de domaine ont sur la capacité de classification de ces mesures, et comment ces connaissances peuvent coopérer au sein de telles méthodes numériques. Une troisième étude utilise les données ouvertes liées ou LOD du Web sémantique et les ontologies associées dans le but de caractériser des gènes responsables de déficiences intellectuelles. On utilise ici la programmation logique inductive, qui s'avère adaptée pour fouiller des données relationnelles comme les LOD, en prenant en compte leurs relations avec les ontologies, et en extraire un modèle prédictif et descriptif des gènes responsables de déficiences intellectuelles. L'ensemble des contributions de cette thèse montre qu'il est possible de faire coopérer avantageusement une ou plusieurs ontologies dans divers processus de fouille de données / The semantic Web proposes standards and tools to formalize and share knowledge on the Web, in the form of ontologies. Biomedical ontologies and associated data represents a vast collection of complex, heterogeneous and linked knowledge. The analysis of such knowledge presents great opportunities in healthcare, for instance in pharmacovigilance. This thesis explores several ways to make use of this biomedical knowledge in the data mining step of a knowledge discovery process. In particular, we propose three methods in which several ontologies cooperate to improve data mining results. A first contribution of this thesis describes a method based on pattern structures, an extension of formal concept analysis, to extract associations between adverse drug events from patient data. In this context, a phenotype ontology and a drug ontology cooperate to allow a semantic comparison of these complex adverse events, and leading to the discovery of associations between such events at varying degrees of generalization, for instance, at the drug or drug class level. A second contribution uses a numeric method based on semantic similarity measures to classify different types of genetic intellectual disabilities, characterized by both their phenotypes and the functions of their linked genes. We study two different similarity measures, applied with different combinations of phenotypic and gene function ontologies. In particular, we investigate the influence of each domain of knowledge represented in each ontology on the classification process, and how they can cooperate to improve that process. Finally, a third contribution uses the data component of the semantic Web, the Linked Open Data (LOD), together with linked ontologies, to characterize genes responsible for intellectual deficiencies. We use Inductive Logic Programming, a suitable method to mine relational data such as LOD while exploiting domain knowledge from ontologies by using reasoning mechanisms. Here, ILP allows to extract from LOD and ontologies a descriptive and predictive model of genes responsible for intellectual disabilities. These contributions illustrates the possibility of having several ontologies cooperate to improve various data mining processes
547

La recommandation des jeux de données basée sur le profilage pour le liage des données RDF / Profile-based Datas and Recommendation for RDF Data Linking

Ben Ellefi, Mohamed 01 December 2016 (has links)
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées. / With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community.
548

[en] A MULTI-AGENT FRAMEWORK FOR SEARCH AND FLEXIBILIZATION OF DOCUMENT CLASSIFICATION ALGORITHMS / [pt] UM FRAMEWORK MULTI-AGENTES PARA BUSCA E FLEXIBILIZAÇÃO DE ALGORITMOS DE CLASSIFICAÇÃO DE DOCUMENTOS

JOAO ALFREDO PINTO DE MAGALHAES 18 June 2003 (has links)
[pt] Vivemos na era da informação, onde o conhecimento é criado numa velocidade nunca antes vista. Esse aumento de velocidade teve como principalrazão a Internet, que alterou os paradigmas até então existentes de troca de informações entre as pessoas. Através da rede, trabalhos inteiros podem ser publicados, atingindo um público alvo impossível de ser alcançado através dos meios existentes anteriormente. Porém, o excesso de informação também pode agir no sentido contrário: muita informação pode ser igual a nenhuma informação. Nosso trabalho foi o de produzir um sistema multi-agentes para busca e classificação de documentos textuais de um domínio específico. Foi construída uma infra-estrutura que separa as questões referentes à busca e seleção dos documentos (plataforma) das referentes ao algoritmo de classificação utilizado (uma aplicação do conceito de separation of concerns). Dessa forma, é possível não só acoplar algoritmos já existentes, mas também gerar novos algoritmos levando em consideração características específicas do domínio de documentos abordado. Foram geradas quatro instâncias a partir do framework, uma aplicação de webclipping, um componente para auxílio a knowledge management, um motor de busca para websites e uma aplicação para a web semântica. / [en] We are living in the information age, where knowledge is constantly being created in a rate that was never seen before. This is mainly due to Internet, that changed all the information exchange paradigms between people. Through the net, it is possible to publish or exchange whole works, reaching an audience impossible to be reached through other means. However, excess of information can be harmful: having too much information can be equal to having no information at all. Our work was to build a multi-agent framework for search and flexibilization of textual document classification algorithms of a specific domain. We have built an infra-structure that separates the concerns of document search and selection (platform) from the concerns of document classification (an application of the separation of concerns concept). It is possible not only to use existing algorithms, but also to generate new ones that consider domain-specific characteristics of documents. We generated four instances of the framework, a webclipping application, a knowledge management component, a search engine for websites and an application for the semantic web.
549

Geração de perguntas em linguagem natural a partir de bases de dados abertos e conectados: um estudo exploratório

Rodrigues, Emílio Luiz Faria 04 December 2017 (has links)
Submitted by JOSIANE SANTOS DE OLIVEIRA (josianeso) on 2018-04-04T14:31:00Z No. of bitstreams: 1 Emílio Luiz Faria Rodrigues_.pdf: 2764513 bytes, checksum: b34f808a0eff24f3a2360d875e08e1f2 (MD5) / Made available in DSpace on 2018-04-04T14:31:00Z (GMT). No. of bitstreams: 1 Emílio Luiz Faria Rodrigues_.pdf: 2764513 bytes, checksum: b34f808a0eff24f3a2360d875e08e1f2 (MD5) Previous issue date: 2017-12-04 / Nenhuma / O crescimento acelerado das bases de dados abertas e conectadas vem sendo observado recentemente. Existem diversas motivações para tal, envolvendo desde a geração destas bases de forma automática a partir de textos, até a sua construção diretamente a partir de sistemas de informação. Este crescimento gerou um conjunto numeroso de bases de dados com grande volume de informações. Deste modo observa-se a possibilidade de sua utilização em larga escala, em sistemas de pergunta e resposta. Os sistemas de pergunta e resposta dependem da existência de uma estrutura de informações a ser usada como apoio na geração de frases e na conferência das respostas. O atual contexto das bases de dados abertas e conectadas proporciona este suporte necessário. A partir de estudos da literatura, observou-se a oportunidade de maior utilização, em aplicações diversas, das possibilidades de geração de frases em linguagem natural a partir de bases de dados abertas conectadas. Além disso, foram identificados diversos desafios para a efetiva utilização destes recursos com esta finalidade. Desta forma, esse trabalho objetiva verificar quais os aspectos da estrutura de bases de dados abertas conectadas que podem ser utilizados como apoio na geração de perguntas em linguagem natural. Para tal foi desenvolvido um estudo exploratório e definida uma abordagem geral, testada em um protótipo que permitiu gerar frases de perguntas em linguagem natural com apoio em bases de dados abertas e conectadas. Os resultados foram avaliados por um especialista em linguística e foram considerados promissores. / The accelerated growth of open and connected databases has recently been observed. There are several motivations leading to it, some bases generate data from texts automatically, other bases are built straightaway from information systems. Therefore, a numerous set of data base with a huge volume of information is now available. Thus, the possibility of its use in large scale, in systems of question and answer is observed. The question and answer systems depend on the existence of an information structure to be used as support in generating sentences and checking the answers. The current background of open and connected data provides the essential support. From literature studies, it was observed the opportunity to use more the possibilities of generating sentences in natural language from connected open databases, in different kinds of applications. In addition, several challenges have been identified to realize the effective use of this resource. So, this work aims to verify which aspects of the structure of connected open databases can be used as the support to generate questions in natural language. Since, an exploratory study was developed, and a general approach was established. Which was tested on a prototype that was able to generate natural language question sentences, supported by open and connected databases. The results were evaluated by a specialist in linguistics and were considered promising.
550

Melhorias para um sistema de recomendação baseado em conhecimento a partir da representação semântica de conteúdos

Góis, Marcos de Meira 04 August 2015 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2015-10-21T12:12:38Z No. of bitstreams: 1 Marcos de Meira Góis_.pdf: 1916593 bytes, checksum: e5b2eae456a204d1173418cd2ed3480f (MD5) / Made available in DSpace on 2015-10-21T12:12:38Z (GMT). No. of bitstreams: 1 Marcos de Meira Góis_.pdf: 1916593 bytes, checksum: e5b2eae456a204d1173418cd2ed3480f (MD5) Previous issue date: 2015-08-04 / Nenhuma / Os Sistemas de Recomendação já estão consolidados como ferramentas que apoiam os usuários a superar as dificuldades geradas pelo volume excessivo de conteúdos disponíveis em formato digital, tendo sido projetados para realizar de forma automatizada as tarefas de classificação de conteúdos e de relacionamento deste com interesses e necessidades dos usuários. Um dos problemas ainda observados nestes sistemas está relacionado com a fragilidade de algumas abordagens de classificação e relacionamento de conteúdo que se baseiam principalmente em aspectos sintáticos dos conteúdos tratados. Os sistemas de recomendação baseados em conhecimento buscam mitigar este problema a partir da incorporação de elementos semânticos nos processos de indexação e relacionamento dos materiais. Apesar de bons resultados observados, ainda são identificadas necessidades de investigação, tanto nas atividades de classificação dos conteúdos, como na representação e tratamento dos relacionamentos entre conteúdos e possíveis interessados. Este trabalho busca colaborar com o desenvolvimento nesta área a partir da proposta de um sistema de recomendação baseado em conhecimento e voltado para a recomendação de materiais educacionais em um contexto de pequenos grupos de estudantes. O diferencial deste sistema se dá através de um processo de incorporação da semântica associada com os assuntos tratados e também com a utilização de aspectos semânticos para representar as necessidades e relacionamentos originados pelos usuários do sistema. O principal diferencial deste sistema está localizado na utilização de um algoritmo de recomendação híbrido, no qual tanto aspectos sintáticos como semânticos são empregados. Para avaliar o sistema de recomendação proposto, foi realizada a sua prototipação e teste em um ambiente controlado. / The Recommendation systems are already established as tools that support users to overcome the difficulties caused by the excessive volume of content available in digital format and was designed to conduct automated the content classification tasks and relationship of this with wins users. One of the problems observed in these systems is related to the weakness of some classification approaches and content relationship rely mainly on methodical aspects of the discussed subjects. Recommendation systems based on knowledge seek to mitigate this problem from the incorporation of semantic elements in the indexing processes and material relationship. Despite good results observed, research needs are also identified, both used to classify content activities, such as the representation and treatment of relationships between content and potential stakeholders. This paper seeks to contribute to the development in this area from the proposal for a recommendation system based on knowledge and facing the recommendation of educational materials in a context of small groups of students. The spread of this system is through a semantics of the merger process associated with these types of concerns and also with the use of semantic aspects to represent the needs and relationships originated by system users. The main distinguishing feature of this system is located in the use of a hybrid recommendation algorithm in which both syntactic and semantic aspects are employed. To evaluate the proposed recommendation system, it is due for prototyping and testing in a controlled environment.

Page generated in 0.0365 seconds