• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1883
  • 1034
  • 644
  • 222
  • 209
  • 69
  • 61
  • 31
  • 31
  • 29
  • 25
  • 24
  • 24
  • 24
  • 24
  • Tagged with
  • 5078
  • 822
  • 523
  • 518
  • 487
  • 437
  • 435
  • 392
  • 367
  • 339
  • 326
  • 323
  • 323
  • 321
  • 316
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Joint Biomedical Event Extraction and Entity Linking via Iterative Collaborative Training

Li, Xiaochu 05 1900 (has links)
Biomedical entity linking and event extraction are two crucial tasks to support text understanding and retrieval in the biomedical domain. These two tasks intrinsically benefit each other: entity linking disambiguates the biomedical concepts by referring to external knowledge bases and the domain knowledge further provides additional clues to understand and extract the biological processes, while event extraction identifies a key trigger and entities involved to describe each biological process which also captures the structural context to better disambiguate the biomedical entities. However, previous research typically solves these two tasks separately or in a pipeline, leading to error propagation. What's more, it's even more challenging to solve these two tasks together as there is no existing dataset that contains annotations for both tasks. To solve these challenges, we propose joint biomedical entity linking and event extraction by regarding the event structures and entity references in knowledge bases as latent variables and updating the two task-specific models in an iterative training framework: (1) predicting the missing variables for each partially annotated dataset based on the current two task-specific models, and (2) updating the parameters of each model on the corresponding pseudo completed dataset. Experimental results on two benchmark datasets: Genia 2011 for event extraction and BC4GO for entity linking, show that our joint framework significantly improves the model for each individual task and outperforms the strong baselines for both tasks. We will make the code and model checkpoints publicly available once the paper is accepted. / M.S. / Biomedical entity linking and event extraction are essential tasks in understanding and retrieving information from biomedical texts. These tasks mutually benefit each other, as entity linking helps disambiguate biomedical concepts by leveraging external knowledge bases, while domain knowledge provides valuable insights for understanding and extracting biological processes. Event extraction, on the other hand, identifies triggers and entities involved in describing biological processes, capturing their contextual relationships for improved entity disambiguation. However, existing approaches often address these tasks separately or in a sequential manner, leading to error propagation. Furthermore, the joint solution becomes even more challenging due to the lack of datasets with annotations for both tasks. To overcome these challenges, we propose a novel approach for jointly performing biomedical entity linking and event extraction. Our method treats the event structures and entity references in knowledge bases as latent variables and employs an iterative training framework. This framework involves predicting missing variables in partially annotated datasets based on the current task-specific models and updating the model parameters using the completed datasets. Experimental results on benchmark datasets, namely Genia 2011 for event extraction and BC4GO for entity linking, demonstrate the effectiveness of our joint framework. It significantly improves the performance of each individual task and outperforms strong baselines for both tasks.
22

Solvent extraction of selected transition metals with diethylacetic acid /

Mencis, Inara January 1963 (has links)
No description available.
23

Solvent extraction of some lanthanides with 2,2,6,6-tetramethyl 3,5-heptanedione /

Parlett, Henry Wisner January 1967 (has links)
No description available.
24

Solvent extraction studies of the lanthanides with two sterically hindered [beta]-diketones.

Brengartner, Dennis Alvin January 1970 (has links)
No description available.
25

Apprentissage interactif de règles d'extraction d'information textuelle / Iteractive learning of textual information extraction rules

Bannour, Sondes 16 June 2015 (has links)
L’Extraction d’Information est une discipline qui a émergé du Traitement Automatique des Langues afin de proposer des analyses fines d’un texte écrit en langage naturel et d’améliorer la recherche d’informations spécifiques. Les techniques d’extraction d’information ont énormément évolué durant les deux dernières décennies.Les premiers systèmes d’extraction d’information étaient des systèmes à base de règles écrites manuellement. L’écriture manuelle des règles étant devenue une tâche fastidieuse, des algorithmes d’apprentissage automatique de règles ont été développés.Ces algorithmes nécessitent cependant la rédaction d’un guide d’annotation détaillé, puis l’annotation manuelle d’une grande quantité d’exemples d’entraînement. Pour minimiser l’effort humain requis dans les deux familles d’approches de mise au point de règles, nous avons proposé, dans ce travail de thèse, une approche hybride qui combine les deux en un seul système interactif qui procède en plusieurs itérations.Ce système que nous avons nommé IRIES permet à l’utilisateur de travailler de manière duale sur les règles d’extraction d’information et les exemples d’apprentissage.Pour mettre en place l’approche proposée, nous avons proposé une chaîne d’annotation linguistique du texte et l’utilisation d’un langage de règles expressif pour la compréhensibilité et la généricité des règles écrites ou inférées, une stratégie d’apprentissage sur un corpus réduit pour ne pas discriminer les exemples positifs non encore annotés à une itération donnée, la mise en place d’un concordancier pour l’écriture de règles prospectives et la mise en place d’un module d’apprentissage actif(IAL4Sets) pour une sélection intelligente d’exemples.Ces propositions ont été mises en place et évaluées sur deux corpus : le corpus de BioNLP-ST 2013 et le corpus SyntSem. Une étude de différentes combinaisons de traits linguistiques utilisés dans les expressions des règles a permis de voir l’impactde ces traits sur les performances des règles. L’apprentissage sur un corpus réduit a permis un gain considérable en temps d’apprentissage sans dégradationde performances. Enfin, le module d’apprentissage actif proposé (IAL4Sets) a permis d’améliorer les performances de l’apprentissage actif de base de l’algorithme WHISK grâce à l’introduction de la notion de distance ou de similarité distributionnelle qui permet de proposer à l’utilisateur des exemples sémantiquement proches des exemples positifs déjà couverts. / Non communiqué
26

The chemistry of the alkali-induced solubilisation of coal

Shoko, Lay. January 2005 (has links)
Thesis (M.Sc.)(Chemistry)--University of Pretoria, 2005. / Abstract in English. Includes bibliography. Available on the Internet via the World Wide Web.
27

Approches supervisées et faiblement supervisées pour l’extraction d’événements et le peuplement de bases de connaissances / Supervised and weakly-supervised approaches for complex-event extraction and knowledge base population

Jean-Louis, Ludovic 15 December 2011 (has links)
La plus grande partie des informations disponibles librement sur le Web se présentent sous une forme textuelle, c'est-à-dire non-structurée. Dans un contexte comme celui de la veille, il est très utile de pouvoir présenter les informations présentes dans les textes sous une forme structurée en se focalisant sur celles jugées pertinentes vis-à-vis du domaine d'intérêt considéré. Néanmoins, lorsque l'on souhaite traiter ces informations de façon systématique, les méthodes manuelles ne sont pas envisageables du fait du volume important des données à considérer.L'extraction d'information s'inscrit dans la perspective de l'automatisation de ce type de tâches en identifiant dans des textes les informations concernant des faits (ou événements) afin de les stocker dans des structures de données préalablement définies. Ces structures, appelées templates (ou formulaires), agrègent les informations caractéristiques d'un événement ou d'un domaine d'intérêt représentées sous la forme d'entités nommées (nom de lieux, etc.).Dans ce contexte, le travail de thèse que nous avons mené s'attache à deux grandes problématiques : l'identification des informations liées à un événement lorsque ces informations sont dispersées à une échelle textuelle en présence de plusieurs occurrences d'événements de même type;la réduction de la dépendance vis-à-vis de corpus annotés pour la mise en œuvre d'un système d'extraction d'information.Concernant la première problématique, nous avons proposé une démarche originale reposant sur deux étapes. La première consiste en une segmentation événementielle identifiant dans un document les zones de texte faisant référence à un même type d'événements, en s'appuyant sur des informations de nature temporelle. Cette segmentation détermine ainsi les zones sur lesquelles le processus d'extraction doit se focaliser. La seconde étape sélectionne à l'intérieur des segments identifiés comme pertinents les entités associées aux événements. Elle conjugue pour ce faire une extraction de relations entre entités à un niveau local et un processus de fusion global aboutissant à un graphe d'entités. Un processus de désambiguïsation est finalement appliqué à ce graphe pour identifier l'entité occupant un rôle donné vis-à-vis d'un événement lorsque plusieurs sont possibles.La seconde problématique est abordée dans un contexte de peuplement de bases de connaissances à partir de larges ensembles de documents (plusieurs millions de documents) en considérant un grand nombre (une quarantaine) de types de relations binaires entre entités nommées. Compte tenu de l'effort représenté par l'annotation d'un corpus pour un type de relations donné et du nombre de types de relations considérés, l'objectif est ici de s'affranchir le plus possible du recours à une telle annotation tout en conservant une approche par apprentissage. Cet objectif est réalisé par le biais d'une approche dite de supervision distante prenant comme point de départ des exemples de relations issus d'une base de connaissances et opérant une annotation non supervisée de corpus en fonction de ces relations afin de constituer un ensemble de relations annotées destinées à la construction d'un modèle par apprentissage. Cette approche a été évaluée à large échelle sur les données de la campagne TAC-KBP 2010. / The major part of the information available on the web is provided in textual form, i.e. in unstructured form. In a context such as technology watch, it is useful to present the information extracted from a text in a structured form, reporting only the pieces of information that are relevant to the considered field of interest. Such processing cannot be performed manually at large scale, given the large amount of data available. The automated processing of this task falls within the Information extraction (IE) domain.The purpose of IE is to identify, within documents, pieces of information related to facts (or events) in order to store this information in predefined data structures. These structures, called templates, aggregate fact properties - often represented by named entities - concerning an event or an area of interest.In this context, the research performed in this thesis addresses two problems:identifying information related to a specific event, when the information is scattered across a text and several events of the same type are mentioned in the text;reducing the dependency to annotated corpus for the implementation of an Information Extraction system.Concerning the first problem, we propose an original approach that relies on two steps. The first step operates an event-based text segmentation, which identifies within a document the text segments on which the IE process shall focus to look for the entities associated with a given event. The second step focuses on template filling and aims at selecting, within the segments identified as relevant by the event-based segmentation, the entities that should be used as fillers, using a graph-based method. This method is based on a local extraction of relations between entities, that are merged in a relation graph. A disambiguation step is then performed on the graph to identify the best candidates to fill the information template.The second problem is treated in the context of knowledge base (KB) population, using a large collection of texts (several millions) from which the information is extracted. This extraction also concerns a large number of relation types (more than 40), which makes the manual annotation of the collection too expensive. We propose, in this context, a distant supervision approach in order to use learning techniques for this extraction, without the need of a fully annotated corpus. This distant supervision approach uses a set of relations from an existing KB to perform an unsupervised annotation of a collection, from which we learn a model for relation extraction. This approach has been evaluated at a large scale on the data from the TAC-KBP 2010 evaluation campaign.
28

SOLVENT EXTRACTION OF MOLYBDENUM.

TRUJILLO REBOLLO, ANDRES. January 1987 (has links)
The equilibrium and the kinetics of the reaction of Mo (VI) with 8-hydroxyquinoline; 8-hydroxyquinaldine; KELEX 100; LIX63; and LIX65N were studied by solvent extraction. From the equilibrium studies it was concluded that in weakly acidic solution (pH 5 to 6) the overall extraction reaction is (UNFORMATTED TABLE FOLLOWS) MoO₄²⁻ + 2H⁺ + 2HL(o) ↔ (K(ex)) MoO₂L ₂(o) + 2H₂O (TABLE ENDS) where HL is the monoprotic bidentate ligand, "(o)" refers to the organic phase, and K(,ex) is the extraction constant. It was concluded that the complexation reaction requires four protons to convert molybdate into molybdenyl. The extractions constants for LIX63 and 8-hydroxyquinaldine, corrected for the side reaction of the ligand and metal, are 10¹⁶·⁴³ and 10¹⁴·⁴⁰, respectively. In the case of LIX65N, the plot of log(D) vs pH has a maximum at pH 1.0, which was explained qualitatively in terms of protonation of the ligand and molybdic acid at low pH. The extraction constant for the reaction of molybdic acid and the neutral ligand was estimated to be 100,000. The kinetics of extraction Mo (VI) with LIX63, 8-hydroxyquinoline, 8-hydroxyquinaldine, and Kelex 100 were studied in this work. In all cases, except 8-hydroxyquinoline, the rate-determining step of the reaction involves the formation of a 1:1 complex between the neutral ligand and several Mo(VI) species differing in the degree of protonation. The rate-determining step for the reaction of Mo(VI) with 8-hydroxyquinoline involves the formation of a 1:2 complex. The rate constant for the reaction of HMoO₄ with 8-hydroxyquinaldine is four orders of magnitude smaller than the corresponding value reported in the literature for 8-hydroxyquinoline. The slower reaction with 8-hydroxyquinaldine was attributed to the presence of the methyl group next to the nitrogen atom of the ligand which hinders its binding with molybdenum in the rate determining step of the reaction.
29

Extraction par solvant étude et modélisation du système tributylphosphate-acides monocarboxyliques /

Idrissi Bouraqadi, Azeddine Albet, Joël. January 2006 (has links)
Reproduction de : Thèse de doctorat : Génie des procédés et Sciences des agroressources : Toulouse, INPT : 2006. / Titre provenant de l'écran-titre. Bibliogr. 110 réf.
30

Reactions and process separations in environmentally benign media

McCarney, Jonathan Paul 08 1900 (has links)
No description available.

Page generated in 0.127 seconds