Spelling suggestions: "subject:"[een] COREFERENCE RESOLUTION"" "subject:"[enn] COREFERENCE RESOLUTION""
11 |
[en] COREFERENCE RESOLUTION USING LATENT TREES WITH CONTEXTUAL EMBEDDING / [pt] RESOLUÇÃO DE CORREFERÊNCIA UTILIZANDO ÁRVORES LATENTES COM REPRESENTAÇÃO CONTEXTUALLEONARDO BARBOSA DE OLIVEIRA 19 January 2021 (has links)
[pt] A tarefa de resolução de correferência consiste em identificar e agrupar
trechos de um texto de acordo com as entidades do mundo real a que se
referem. Apesar de já ter sido abordada em outras conferências, a CoNLL
de 2012 é um marco pela qualidade das bases de dados, das métricas e
das soluções apresentadas. Naquela edição, o modelo vencedor utilizou um
perceptron estruturado para otimizar uma árvore latente de antecedentes,
atingindo a pontuação de 63.4 na métrica oficial para o dataset de teste em
inglês. Nos anos seguintes, as bases e métricas apresentadas na conferência
se tornaram o benchmark para a tarefa de correferência. Com novas técnicas
de aprendizado de máquina desenvolvidas, soluções mais elaboradas foram
apresentadas. A utilização de redes neurais rasas atingiu a pontuação de 68.8;
a adição de representação contextual elevou o estado da arte para 73.0; redes
neurais profundas melhoraram o baseline para 76.9 e o estado da arte atual,
que é uma combinação de várias dessas técnicas, está em 79.6. Neste trabalho
é apresentado uma análise de como as técnicas de representação de palavras
Bag of Words, GloVe, BERT e SpanBERT utilizadas com árvores latentes de
antecedentes se comparam com o modelo original de 2012. O melhor modelo
encontrado foi o que utiliza SpanBERT com uma margem muito larga, o qual
atingiu pontuação de 61.3 na métrica da CoNLL 2012, utilizando o dataset
de teste. Com estes resultados, mostramos que é possível utilizar técnicas
avançadas em estruturas mais simples e ainda obter resultados competitivos
na tarefa de correferência. Além disso, melhoramos a performance de um
framework de código aberto para correferência, a fim de contemplar soluções
com maior demanda de memória e processamento. / [en] The coreference resolution task consists of to identify and group spans of
text related to the same real-world entity. Although it has been approached
in other conferences, the 2012 CoNLL is a milestone due to the improvement
in the quality of its dataset, metrics, and the presented solutions. In that
edition, the winning model used a structured perceptron to optimize an
antecedent latent tree, achieving 63.4 on the official metric for the English
test dataset. During the following years, the metrics and dataset presented
in that conference became the benchmark for the coreference task. With new
machine learning techniques, more elaborated solutions were presented. The
use of shallow neural networks achieved 68.8; adding contextual representation
raised the state-of-the-art to 73.0; deep neural networks improved the baseline
to 76.9 and the current state-of-the-art, which is a combination of many of
these techniques, is at 79.6. This work presents an analysis of how the word
embedding mechanisms Bag of Words, GloVe, BERT and SpanBERT, used
with antecedent latent trees, are compared to the original model of 2012. The
best model found used SpanBERT with a very large margin, achieving 61.3 in
the CoNLL 2012 metric using the test dataset. With these results, we show
that it is possible to use advanced techniques in simpler structures and still
achieve competitive results in the coreference task. Besides that, we improved
the performance of an open source framework for coreference, so it can manage
solution that demand more memory and processing.
|
12 |
[en] COREFERENCE RESOLUTION FOR THE ENGLISH LANGUAGE / [pt] RESOLUÇÃO DE CO-REFERÊNCIA PARA A LÍNGUA INGLESAADRIEL GARCIA HERNANDEZ 28 July 2017 (has links)
[pt] Um dos problemas encontrados nos sistemas de processamento de linguagem natural é a dificuldade em identificar elementos textuais que se referem à mesma entidade. Este fenômeno é chamado de correferência. Resolver esse problema é parte integrante da compreensão do discurso, permitindo que os usuários da linguagem conectem as partes da informação de fala relativas à mesma entidade. Por conseguinte, a resolução de correferência é um importante foco de atenção no processamento da linguagem natural.Apesar da riqueza das pesquisas existentes, o desempenho atual dos sistemas de resolução de correferência ainda não atingiu um nível satisfatório. Neste trabalho, descrevemos um sistema de aprendizado estruturado para resolução de correferências em restrições que explora duas técnicas: árvores de correferência latente e indução automática de atributos guiadas por entropia. A modelagem de árvore latente torna o problema de aprendizagem computacionalmente viável porque incorpora uma estrutura escondida relevante. Além disso, utilizando um método automático de indução de recursos, podemos construir eficientemente modelos não-lineares, usando algoritmos de aprendizado de modelo linear como, por exemplo, o algoritmo de perceptron estruturado e esparso.Nós avaliamos o sistema para textos em inglês, utilizando o conjunto de dados da CoNLL-2012 Shared Task. Para a língua inglesa, nosso sistema obteve um valor de 62.24 por cento no score oficial dessa competição. Este resultado está abaixo do desempenho no estado da arte para esta tarefa que é de 65.73 por cento. No entanto, nossa solução reduz significativamente o tempo de obtenção dos clusters dos documentos, pois, nosso sistema leva 0.35 segundos por documento no conjunto de testes, enquanto no estado da arte, leva 5 segundos para cada um. / [en] One of the problems found in natural language processing systems, is the difficulty to identify textual elements referring to the same entity, this task is called coreference. Solving this problem is an integral part of discourse comprehension since it allows language users to connect the pieces of speech information concerning to the same entity. Consequently, coreference resolution is a key task in natural language processing.Despite the large efforts of existing research, the current performance of coreference resolution systems has not reached a satisfactory level yet. In this work, we describe a structure learning system for unrestricted coreferencere solution that explores two techniques: latent coreference trees and automatic entropy-guided feature induction. The latent tree modeling makes the learning problem computationally feasible,since it incorporates are levant hidden structure. Additionally,using an automatic feature induction method, we can efciently build enhanced non-linear models using linear model learning algorithms, namely, the structure dandsparse perceptron algorithm. We evaluate the system on the CoNLL-2012 Shared Task closed track data set, for the English portion. The proposed system obtains a 62.24 per cent value on the competition s official score. This result is be low the 65.73 per cent, the state-of-the-art performance for this task. Nevertheless, our solution significantly reduces the time to obtain the clusters of adocument, since, our system takes 0.35 seconds per document in the testing set, while in the state-of-the-art, it takes 5 seconds for each one.
|
Page generated in 0.0307 seconds