• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 199
  • 187
  • 118
  • 26
  • 15
  • 8
  • 7
  • 6
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • Tagged with
  • 621
  • 167
  • 161
  • 159
  • 135
  • 116
  • 98
  • 96
  • 94
  • 87
  • 82
  • 70
  • 63
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

COMPUTATIONAL TOOLS FOR THE DYNAMIC CATEGORIZATION AND AUGMENTED UTILIZATION OF THE GENE ONTOLOGY

Hinderer, Eugene Waverly, III 01 January 2019 (has links)
Ontologies provide an organization of language, in the form of a network or graph, which is amenable to computational analysis while remaining human-readable. Although they are used in a variety of disciplines, ontologies in the biomedical field, such as Gene Ontology, are of interest for their role in organizing terminology used to describe—among other concepts—the functions, locations, and processes of genes and gene-products. Due to the consistency and level of automation that ontologies provide for such annotations, methods for finding enriched biological terminology from a set of differentially identified genes in a tissue or cell sample have been developed to aid in the elucidation of disease pathology and unknown biochemical pathways. However, despite their immense utility, biomedical ontologies have significant limitations and caveats. One major issue is that gene annotation enrichment analyses often result in many redundant, individually enriched ontological terms that are highly specific and weakly justified by statistical significance. These large sets of weakly enriched terms are difficult to interpret without manually sorting into appropriate functional or descriptive categories. Also, relationships that organize the terminology within these ontologies do not contain descriptions of semantic scoping or scaling among terms. Therefore, there exists some ambiguity, which complicates the automation of categorizing terms to improve interpretability. We emphasize that existing methods enable the danger of producing incorrect mappings to categories as a result of these ambiguities, unless simplified and incomplete versions of these ontologies are used which omit problematic relations. Such ambiguities could have a significant impact on term categorization, as we have calculated upper boundary estimates of potential false categorizations as high as 121,579 for the misinterpretation of a single scoping relation, has_part, which accounts for approximately 18% of the total possible mappings between terms in the Gene Ontology. However, the omission of problematic relationships results in a significant loss of retrievable information. In the Gene Ontology, this accounts for a 6% reduction for the omission of a single relation. However, this percentage should increase drastically when considering all relations in an ontology. To address these issues, we have developed methods which categorize individual ontology terms into broad, biologically-related concepts to improve the interpretability and statistical significance of gene-annotation enrichment studies, meanwhile addressing the lack of semantic scoping and scaling descriptions among ontological relationships so that annotation enrichment analyses can be performed across a more complete representation of the ontological graph. We show that, when compared to similar term categorization methods, our method produces categorizations that match hand-curated ones with similar or better accuracy, while not requiring the user to compile lists of individual ontology term IDs. Furthermore, our handling of problematic relations produces a more complete representation of ontological information from a scoping perspective, and we demonstrate instances where medically-relevant terms--and by extension putative gene targets--are identified in our annotation enrichment results that would be otherwise missed when using traditional methods. Additionally, we observed a marginal, yet consistent improvement of statistical power in enrichment results when our methods were used, compared to traditional enrichment analyses that utilize ontological ancestors. Finally, using scalable and reproducible data workflow pipelines, we have applied our methods to several genomic, transcriptomic, and proteomic collaborative projects.
192

[en] AN ACCESS CONTROL MODEL FOR THE DESIGN OF SEMANTIC WEB APPLICATIONS / [pt] MODELO DE CONTROLE DE ACESSO NO PROJETO DE APLICAÇÕES NA WEB SEMÂNTICA

MAIRON DE ARAUJO BELCHIOR 27 April 2012 (has links)
[pt] O modelo Role-based Access Control (RBAC) fornece uma maneira para gerenciar o acesso às informações de uma organização, reduzindo-se a complexidade e os custos administrativos e minimizandose os erros. Atualmente existem diversos métodos de desenvolvimento de aplicações na Web Semântica e na Web em geral, porém nenhum dos modelos produzidos por estes métodos abrange a descrição de diretivas relacionadas ao controle de acesso de forma integrada com os outros modelos produzidos por estes métodos. O objetivo desta dissertação é integrar o controle de acesso no projeto de aplicações na Web Semântica (e na Web em geral). Mais especificamente, este trabalho apresenta uma extensão do método SHDM (Semantic Hypermedia Design Method) para a inclusão do modelo RBAC e de um modelo de políticas baseada em regras de forma integrada com os outros modelos deste método. O método SHDM é um método para o projeto de aplicações hipermídia para a web semântica. Uma arquitetura de software modular foi proposta e implementada no Synth, que é um ambiente de desenvolvimento de aplicações projetadas segundo o método SHDM. / [en] The Role-based Access Control (RBAC) model provides a way to manage access to information of an organization, while reducing the complexity and cost of security administration in large networked applications. Currently, several design method of Semantic Web (and Web in general) applications was proposed, but none of these methods produces an specialize and integrated model for describing access control policies. The goal of this dissertation is to integrate the access control in design method of Semantic Web applications. More specifically, this work presents an extension of SHDM method (Semantic Hypermedia Design Method) in order to include RBAC model and an rule based policy Model integrated with the other models of this method. SHDM is a model-driven approach to design web applications for the semantic web. A modular software architecture was proposed and implemented in Synth, which is an application development environment according to SHDM method.
193

Da information findability à image findability : aportes da polirrepresentação, recuperação e comportamento de busca /

Roa-Martínez, Sandra Milena. January 2019 (has links)
Orientador: Silvana Aparecida Borsetti Gregorio Vidotti / Coorientador: Juan Antonio Pastor-Sánchez / Banca: Silvana Drumon Monteiro / Banca: Ana Carolina Simionato Arakaki / Banca: Fernando Luiz Vechiato / Banca: José Eduardo Santarém Segundo / Resumo: Os avanços tecnológicos na sociedade têm possibilitado a inusitada geração e disponibilização de informação nos diversos âmbitos pelos múltiplos dispositivos e em diferentes formatos. A informação para ser acessada e usada pelos usuários nos ambientes digitais deverá previamente ser recuperada e encontrada. Diante disso, destaca-se que a Recuperação da Informação é amplamente discutida em múltiplos estudos desde a origem da Ciência da Informação e da Ciência da Computação, enquanto que a Findability torna-se foco de estudos nos últimos anos. Nesse contexto, com o intuito de esclarecer a relação entre a Recuperação da Informação e a Findability, e como esses processos acontecem nas imagens digitais - consideradas recursos imagéticos de natureza complexa pelas camadas de conteúdo que devem ser analisadas no processo de representação -, objetiva-se contribuir no aprimoramento da Recuperação e Findability com foco nas imagens digitais mediante o uso da polirrepresentação e das tecnologias da Web Semântica. Diante disto, a Ciência da Informação oferece subsídios que possibilitam trabalhos nessas temáticas com uma abordagem cientifica e tecnológica desde a integração dos diferentes conteúdos e informações dos recursos imagéticos e das necessidades informacionais do usuário. Para tanto, a metodologia desta pesquisa se caracteriza por ser de natureza básica que se tornou aplicada, quali-quantitativa e de tipo exploratória e descritiva, com um delineamento baseado no uso do método qua... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: Technological advances in society have made possible the unusual generation and availability of information in the various scopes by multiple devices and in different formats. Information to be accessed and used by users in digital environments must first be retrieved and found. Therefore, it is important to highlight that Information Retrieval is widely discussed in multiple studies since the origin of Information Science and Computer Science, while Findability has become a focus of studies in recent years. In this context, in order to clarify the relationship between Information Retrieval and Findability, and how these processes take place in digital images - considered imagery resources of a complex nature by the content layers that must be analyzed in the representation process - aims to contribute to the enhancement of Retrieval and Findability focusing on digital images through the use of polyrepresentation and Semantic Web technologies. Faced with this, Information Science offers subsidies that enable work on these issues with a scientific and technological approach since the integration of different contents and information of the imagery resources and informational needs of the user. For this, the methodology of this research is characterized by being basic nature that has become applied, qualitative-quantitative and exploratory and descriptive, with a design based on the use of the quadripolar method using techniques such as bibliographic survey and document analysi... (Complete abstract click electronic access below) / Doutor
194

OntoDB2 : un système flexible et efficient de base de données à base ontologique pour le web sémantique et les données techniques

Fankam, Chimène 10 December 2009 (has links) (PDF)
Le besoin d'expliciter la sémantique des données dans différents domaines scientifiques (biologie, médecine, géographie, ingénierie, etc.) s'est traduit par la définition de données faisant référence à des ontologies, encore appelées données à base ontologique. Avec la multiplication des ontologies de domaine, et le volume important de données à manipuler, est apparu le besoin de systèmes susceptibles de gérer des données à base ontologique de grande taille. De tels systèmes sont appelés des systèmes de gestion de Bases de Données à Base Ontologique (BDBO). Les principales limitations des systèmes de gestion de BDBO existants sont (1) leur rigidité, due à la prise en compte des constructions d'un unique formalisme d'expression d'ontologies, (2) l'absence de support pour les données non standard (spatiales, temporelles, etc.) et, (3) leur manque d'efficacité pour gérer efficacement les données de grande taille. Nous proposons dans cette thèse un nouveau système de gestion de BDBO permettant (1) de supporter des ontologies basées sur différents formalismes d'ontologies, (2) l'extension de son formalisme d'ontologie pour répondre aux besoins spécifiques des applications, et (3) une gestion originale des données facilitant le passage à grande échelle. Le système que nous proposons dans cette thèse, ontodb2, se fonde sur l'existence d'un ensemble de constructions communes aux différents formalismes d'expression d'ontologies, susceptible de constituer une ontologie noyau, et sur les techniques de gestion des modèles pour permettre l'extension flexible de ce noyau. Nous proposons également une approche originale de gestion des données à base ontologique. Cette approche part du fait que les données à base ontologique peuvent se classifier en données canoniques (instances de classes primitives) et noncanoniques (instances de classes définies). Les instances de classes définies peuvent, sous certaines hypothèses, s'exprimer en termes d'instances de classes primitives. Nous proposons donc de ne représenter que les données canoniques, en transformant sous certaines conditions, toute donnée non-canonique en donnée canonique. Enfin, nous proposons d'exploiter l'interpréteur de requêtes ontologiques pour permettre (1) l'accès aux données non-canoniques ainsi transformées et, (2) d'indexer et pré-calculer les raisonnements en se basant sur les mécanismes du SGBD support. L'ensemble de ces propositions est validé (1) à travers une implémentation sur le SGBD PostgreSQL basée sur les formalismes d'ontologies PLIB, RDFS et OWL Lite, (2) des tests de performances sur des ensembles de données issus de la géographie et du Web.
195

Indexation de documents pédagogiques : fusionner les approches du Web Sémantique et du Web Participatif

Huynh-Kim-Bang, Benjamin 29 October 2009 (has links) (PDF)
Les techniques actuelles d'indexation sur le Web ne sont pas satisfaisantes pour les ressources pédagogiques. En effet, l'indexation automatique, e.g. Google, peut difficilement dépasser le niveau syntaxique des contenus tandis que l'indexation par des documentalistes est coûteuse en main d'oeuvre. Or de récentes approches telles que les techniques du Web Sémantique ou la tendance du Web Participatif (Web 2.0) offrent des solutions prometteuses. Une première partie de nos travaux porte ainsi sur l'étude du Web Sémantique appliqué aux ressources pédagogiques. Nous y explorons les possibilités de raisonnements automatisés appliqués à des ontologies pédagogiques. Une seconde partie porte sur l'étude des fonctionnalités des sites participatifs, facilitant l'ajout de contenus et de métadonnées par les visiteurs. Nous proposons alors un modèle de site participatif adapté aux communautés d'enseignants. Néanmoins, Web Sémantique et Web Participatif sont souvent opposés. Aux ontologies formelles généralement réalisées par quelques experts s'opposent les tags hétérogènes ajoutés par de nombreux utilisateurs aux profils variés. Dans une troisième partie, nous proposons donc un modèle fusionnant Sémantique et Participatif. Ce modèle vise à développer des applications de partage de ressources, principalement pour des communautés de pratique. Il se fonde sur une Indexation Progressive et Multi-points de vue (modèle IPM) consistant à : - permettre aux utilisateurs de structurer progressivement les métadonnées, pour finalement favoriser des raisonnements sémantiques par les machines ; - permettre aux utilisateurs de collaborer progressivement, pour finalement favoriser une vision partagée du domaine par les humains. Ce modèle est implémenté dans un outil de partage de signets, nommé SemanticScuttle, proposant des fonctionnalités originales comme des tags structurés par des relations d'inclusion et de synonymie, ou des espaces wiki pour décrire des tags. L'outil a été développé et expérimenté avec des documentalistes en sociologie sur plusieurs mois. Diffusé, l'outil est employé par des utilisateurs dans plusieurs pays. Finalement, nos travaux nous permettent de formuler des hypothèses sur un modèle socio-technique soutenant le partage entre enseignants. Ils sont aussi une contribution à des modèles intégrant différentes formes d'indexation : automatique et par des humains, faisant intervenir des experts et les utilisateurs, fondée sur des modèles structurés (e.g. ontologies) et sur des métadonnées flexibles (e.g. tags).
196

Similarité sémantique inter ontologies basée sur le contexte

Hoffmann, Patrick 16 December 2008 (has links) (PDF)
Cette thèse étudie l'intérêt du contexte pour améliorer l'interopérabilité entre ontologies hétérogènes, d'une manière qui permette leur évolution indépendante. Lors de collaborations, les organisations échangent leurs données, qui sont décrites par des concepts définis dans des ontologies. L'objectif est d'obtenir un service d'évaluation de tels concepts, basé sur le contexte.<br />Nous proposons une méthodologie pour déterminer, modeler et utiliser le contexte. En l'appliquant, nous découvrons trois usages du contexte qui contribuent à améliorer la réconciliation d'ontologies : Nous proposons de désambiguïser les sens pragmatiques possibles des concepts en comparant les "perspectives" avec lesquelles les concepts ont été développés ; de personnaliser en considérant le contexte des agents, constitué d'une sélection pertinente parmi les domaines et tâches de l'organisation ; d'évaluer la pertinence des données associées au concept pour la tâche qui a suscité le besoin en interopérabilité.
197

Ontologies de domaine pour la modélisation du contexte en Recherche d'information

Hernandez, Nathalie 06 December 2005 (has links) (PDF)
Afin de faciliter la mise en place de systèmes pouvant gérer de grandes quantités d'information et de s'adresser à un maximum d'utilisateurs, le fonctionnement du noyau des Systèmes de Recherche d'Information (SRI) est généralement indépendant du contexte. La Recherche d'Information contextuelle vise à replacer l'utilisateur au coeur des SRI en rendant explicites certains éléments du contexte qui peuvent influencer sur les performances des systèmes. Dans ce cadre, nous proposons un modèle à base de deux ontologies dont l'objectif est de représenter deux aspects primordiaux du contexte d'une recherche : le thème du besoin et la tâche de recherche choisie par l'utilisateur. Des ontologies légères de domaine sont utilisées pour représenter la connaissance associée à ces deux aspects du contexte. L'originalité de notre modèle repose sur le fait que les deux aspects distincts mais complémentaires du contexte sont liés par l'utilisation d'éléments communs aux deux ontologies. L'intégration du modèle dans le SRI intervient dans deux phases du processus de recherche. Par la proposition d'un mécanisme d'indexation sémantique utilisant l'ensemble de la connaissance représentée dans les deux ontologies, il est intégré à la phase de représentation des documents. De plus, le modèle est intégré à la phase d'accès aux documents via la navigation dans les ontologies. Cette navigation repose sur deux niveaux d'accès à l'information. Le niveau concept donne à l'utilisateur une vue globale sur la collection de documents et sur la connaissance associée, alors que le niveau instance donne un accès aux informations spécifiques contenues dans les documents. L'utilisation d'ontologies en RI pose une autre problématique qui est la réutilisation de la connaissance déjà modélisée. En effet, de nombreuses ressources terminologiques (comme les thésaurus) ou conceptuelles (ontologies) existent dans différents domaines. Nous avons étudié la réutilisabilité de telles ressources selon deux perspectives : le choix d'une ontologie légère en fonction de son adéquation au corpus à indexer et l'élaboration d'une ontologie légère à partir d'un thésaurus normalisé et d'un corpus de référence. Une originalité de nos travaux concernant l'évaluation de l'adéquation réside dans la prise en compte de l'ensemble des relations définies dans les ontologies et non pas seulement des relations taxonomiques. Concernant l'élaboration d'une ontologie légère à partir d'un thésaurus, une de nos contributions est de proposer un mécanisme semi-automatique pour capturer la connaissance représentée dans le thésaurus et la mettre à jour à partir de documents de référence. Dans le cadre d'un projet en coopération avec des astronomes (Masses de Données en Astronomie), nous avons pu évaluer un certain nombre des techniques que nous proposons. Un prototype illustre également l'apport de nos contributions.
198

Web sémantique et Mémoire d expériences sur l analyse du transcriptome

Khelif, Khaled 04 April 2006 (has links) (PDF)
Cette thèse rentre dans le cadre du projet MEAT (Mémoire d´Expériences pour l´Analyse du Transcriptome) dont le but est d´assister les biologistes travaillant dans le domaine des puces à ADN, pour l´interprétation et la validation de leurs résultats. Nous proposons une aide méthodologique et logicielle pour construire une mémoire d´expériences pour ce domaine. Notre approche, basée sur les technologies du web sémantique, repose sur l´utilisation des ontologies et des annotations sémantiques sur des articles scientifiques et d´autres sources de connaissances du domaine. Dans une première partie, nous proposons une ontologie modulaire pour la description des connaissances du domaine des puces à ADN (base de données d´expériences, articles scientifiques, entités biomédicales...). Cette ontologie intègre entre autres, le réseau sémantique déjà existant d´UMLS, ce qui nous a permis d´approfondir le problème de réutilisation de ressources termino-ontologiques et leur adaptation à une nouvelle application. Ensuite, nous proposons une méthodologie générique pour la génération d´annotations sémantiques basées sur cette ontologie en exploitant les connaissances contenues dans les textes. Cette méthodologie a l´originalité d´utiliser des techniques de traitement automatique de la langue et des grammaires d´extraction de relations pour extraire automatiquement des articles scientifiques les relations reliant des termes d´UMLS reconnus dans le texte. Un système supportant cette méthodologie a été implémenté et validé par nos collègues biologistes. Enfin, pour faciliter la diffusion des connaissances contenues dans la mémoire, nous proposons un prototype qui se base sur un moteur de recherche sémantique (Corese) et qui exploite la base d´annotations que nous avons constituée. Cette partie du travail a permis d´améliorer la tâche de recherche d´informations en la rendant plus efficace et en offrant des mécanismes de raisonnement sur les connaissances du domaine.
199

Immersion dans des documents scientifiques et techniques : unités, modèles théoriques et processus

Andreani, Vanessa 23 September 2011 (has links) (PDF)
Cette thèse aborde la problématique de l'accès à l'information scientifique et technique véhiculée par de grands ensembles documentaires. Pour permettre à l'utilisateur de trouver l'information qui lui est pertinente, nous avons oeuvré à la définition d'un modèle répondant à l'exigence de souplesse de notre contexte applicatif industriel ; nous postulons pour cela la nécessité de segmenter l'information tirée des documents en plans ontologiques. Le modèle résultant permet une immersion documentaire, et ce grâce à trois types de processus complémentaires : des processus endogènes (exploitant le corpus pour analyser le corpus), exogènes (faisant appel à des ressources externes) et anthropogènes (dans lesquels les compétences de l'utilisateur sont considérées comme ressource) sont combinés. Tous concourent à l'attribution d'une place centrale à l'utilisateur dans le système, en tant qu'agent interprétant de l'information et concepteur de ses connaissances, dès lors qu'il est placé dans un contexte industriel ou spécialisé.
200

De nouveaux facteurs pour l'exploitation de la sémantique d'un texte en Recherche d'Information

Mallak, Ihab 11 July 2011 (has links) (PDF)
Les travaux présentés dans ce mémoire se situent dans le contexte de la recherche d'information. Plus précisément, nous proposons de nouveaux facteurs " centralité, fréquence conceptuelle" permettant à notre sens, de mieux caractériser la dimension sémantique du contenu des textes, allant au-delà des méthodes d'indexation classiques basées exclusivement sur les statistiques. Ces facteurs devraient tirer parti de l'identification de différents types de relations telles que -est-une partie-de, liés à, synonymie, domaine, etc.- qui existent entre les mots d'un texte.

Page generated in 3.952 seconds