1 |
[pt] SUMARIZAÇÃO AUTOMÁTICA DE MULTIPLAS AVALIAÇÕES UTILIZANDO AJUSTE FINO DE MODELOS DE LINGUAGEM TRANSFORMERS / [en] UNSUPERVISED MULTI-REVIEW SUMMARIZATION USING FINE-TUNED TRANSFORMER LANGUAGE MODELSLUCAS ROBERTO DA SILVA 05 July 2021 (has links)
[pt] Sumarização automática é a tarefa de gerar resumos concisos, corretos e
com consistência factual. A tarefa pode ser aplicada a diversos estilos textuais,
dentre eles notícias, publicações acadêmicas e avaliações de produtos ou
lugares. A presente dissertação aborda a sumarização de múltiplas avaliações.
Esse tipo de aplicação se destaca por sua natureza não supervisionada e
pela necessidade de lidar com a redundância das informações presentes nas
avaliações. Os trabalhos de sumarização automática são avaliados utilizando
a métrica ROUGE, que se baseia na comparação de n-gramas entre o texto
de referência e o resumo gerado. A falta de dados supervisionados motivou a
criação da arquitetura MeanSum, que foi a primeira arquitetura de rede neural
baseada em um modelo não supervisionado para essa tarefa. Ela é baseada
em auto-encoder e foi estendida por outros trabalhos, porém nenhum deles
apresentou os efeitos do uso do mecanismo de atenção e tarefas auxiliares
durante o treinamento do modelo. O presente trabalho é dividido em duas
etapas. A primeira trata de um experimento no qual extensões à arquitetura
do MeanSum foram propostas para acomodar mecanismos de atenção e tarefas
auxiliares de classificação de sentimento. Ainda nessa etapa, explora-se o
uso de dados sintéticos para adaptar modelos supervisionados a tarefas não
supervisionadas. Na segunda etapa, os resultados obtidos anteriormente foram
utilizados para realizar um estudo sobre o uso de ajuste fino (fine-tuning)
de modelos de linguagem Transformers pré-treinados. A utilização desses
modelos mostrou ser uma alternativa promissora para enfrentar a natureza não
supervisionada do problema, apresentando um desempenho de + 4 ROUGE
quando comparado a trabalhos anteriores. / [en] Automatic summarization is the task of generating concise, correct, and
factual summaries. The task can be applied to different textual styles, including
news, academic publications, and product or place reviews. This dissertation
addresses the summary of multiple evaluations. This type of application stands
out for its unsupervised nature and the need to deal with the redundancy of
the information present in the reviews. The automatic summarization works
are evaluated using the ROUGE metric, which is based on the comparison of
n-grans between the reference text and the generated summary. The lack of
supervised data motivated the creation of the MeanSum architecture, which
was the first neural network architecture based on an unsupervised model for
this task. It is based on auto-encoder and has been extended to other works,
but none explored the effects of using the attention mechanism and auxiliary
tasks during training. The present work is divided into two parts: the first deals
with an experiment in which we make extensions to the MeanSum architecture,
adding attention mechanisms and auxiliary sentiment classification tasks. In
the same experiment, we explore synthetic data to adapt supervised models
for unsupervised tasks. In the second part, we used the results previously
obtained to carry out a second study on fine-tuning pre-trained Transformer
language models. The use of these models showed a promising alternative to
the unsupervised nature of the problem, outperforming previous works by +
4 ROUGE.
|
Page generated in 0.0361 seconds