• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Sequential Knowledge Tracing with Transformer Models

Segala, Nino Yan-Nick Lucien January 2022 (has links)
Transformer models, delivering big improvement in AI text-models (NLP), are now being applied in Knowledge Tracing to track the knowledge of students over time. One of the first, SAINT, showed quite some improvement over the then SOTA results on the public EdNet dataset and caused an increase in research based on transformer-based models. In this paper, we firstly aim to reproduce the SAINT results on the EdNet dataset but are unable to report a similar performance as the original paper. This might be due to implementation details, which we were not able to completely reconstruct. We hope to pave the road for further reproducibility, as an increasingly important part of AI research. Furthermore, we apply the model to a company dataset much larger than any public dataset (more interactions, more exercises and more skills). Such a dataset is on the one hand more challenging (more skills mixed), and on the other hand, provides much more data (which should help our models). We compare the SAINT model and the seminal IRT model, and find that the SAINT model performance is 4% better in AUC but 1.7% worse in RMSE. Our experiments on window size suggest that transformer models still struggle with modelling beyond recent performance, and do not yet deliver the step-change observed in NLP. / Transformermodeller, som ger stora förbättringar av AI-textmodeller (NLP), används nu i Knowledge Tracing för att spåra elevernas kunskaper över tid. En av de första, SAINT, visade en hel del förbättring jämfört med de dåvarande SOTA-resultaten på den offentliga EdNet-datauppsättningen och orsakade en ökning av forskning baserad på transformerbaserade modeller. I denna artikeln siktar vi först efter att återskapa SAINT-resultaten på EdNet-datauppsättningen, men vi kan inte rapportera liknande prestanda som den ursprungliga uppsatsen. Detta kan bero på implementeringsdetaljer som vi inte kunde rekonstruera helt. Vi hoppas kunna bana väg för ytterligare reproduktioner, som en allt viktigare del av AI-forskningen. Dessutom tillämpar vi modellen på en företagsdatauppsättning som är mycket större än någon offentlig datauppsättning (fler interaktioner, fler övningar och fler färdigheter). En sådan datauppsättning är å ena sidan mer utmanande (mer blandad kompetens), men å andra sidan ger den mycket mer data (vilket borde hjälpa våra modeller). Vi jämför SAINT-modellen och den framträdande IRT-modellen och finner att SAINT-modellens prestanda är 4% bättre i AUC men 1,7% sämre i RMSE. Våra experiment på fönsterstorlek tyder på att transformermodeller fortfarande kämpar med modellering utöver de senaste prestanda och ännu inte levererar den stegförändring som observerats i NLP.

Page generated in 0.0787 seconds