Spelling suggestions: "subject:"exercise recommendation"" "subject:"exercise ecommendation""
1 |
Sequential Knowledge Tracing with Transformer ModelsSegala, Nino Yan-Nick Lucien January 2022 (has links)
Transformer models, delivering big improvement in AI text-models (NLP), are now being applied in Knowledge Tracing to track the knowledge of students over time. One of the first, SAINT, showed quite some improvement over the then SOTA results on the public EdNet dataset and caused an increase in research based on transformer-based models. In this paper, we firstly aim to reproduce the SAINT results on the EdNet dataset but are unable to report a similar performance as the original paper. This might be due to implementation details, which we were not able to completely reconstruct. We hope to pave the road for further reproducibility, as an increasingly important part of AI research. Furthermore, we apply the model to a company dataset much larger than any public dataset (more interactions, more exercises and more skills). Such a dataset is on the one hand more challenging (more skills mixed), and on the other hand, provides much more data (which should help our models). We compare the SAINT model and the seminal IRT model, and find that the SAINT model performance is 4% better in AUC but 1.7% worse in RMSE. Our experiments on window size suggest that transformer models still struggle with modelling beyond recent performance, and do not yet deliver the step-change observed in NLP. / Transformermodeller, som ger stora förbättringar av AI-textmodeller (NLP), används nu i Knowledge Tracing för att spåra elevernas kunskaper över tid. En av de första, SAINT, visade en hel del förbättring jämfört med de dåvarande SOTA-resultaten på den offentliga EdNet-datauppsättningen och orsakade en ökning av forskning baserad på transformerbaserade modeller. I denna artikeln siktar vi först efter att återskapa SAINT-resultaten på EdNet-datauppsättningen, men vi kan inte rapportera liknande prestanda som den ursprungliga uppsatsen. Detta kan bero på implementeringsdetaljer som vi inte kunde rekonstruera helt. Vi hoppas kunna bana väg för ytterligare reproduktioner, som en allt viktigare del av AI-forskningen. Dessutom tillämpar vi modellen på en företagsdatauppsättning som är mycket större än någon offentlig datauppsättning (fler interaktioner, fler övningar och fler färdigheter). En sådan datauppsättning är å ena sidan mer utmanande (mer blandad kompetens), men å andra sidan ger den mycket mer data (vilket borde hjälpa våra modeller). Vi jämför SAINT-modellen och den framträdande IRT-modellen och finner att SAINT-modellens prestanda är 4% bättre i AUC men 1,7% sämre i RMSE. Våra experiment på fönsterstorlek tyder på att transformermodeller fortfarande kämpar med modellering utöver de senaste prestanda och ännu inte levererar den stegförändring som observerats i NLP.
|
2 |
Attention based Knowledge Tracing in a language learning settingVergunst, Sebastiaan January 2022 (has links)
Knowledge Tracing aims to predict future performance of users of learning platforms based on historical data, by modeling their knowledge state. In this task, the target is a binary variable representing the correctness of the exercise, where an exercise is a word uttered by the user. Current state-of-the-art models add attention layers to autoregressive models or rely on self-attention networks. However, these models are built on publicly available datasets that lack useful information about the interactions users have with exercises. In this work, various techniques are introduced that allow for the incorporation of additional information made available in a dataset provided by Astrid Education. They consist of encoding a time dimension, modeling the skill needed for each exercise explicitly, and adjusting the length of the interaction sequence. Introducing new information to the Knowledge Tracing framework allows Astrid to craft a more personalized experience for its users; thus fulfilling the purpose and goal of the thesis. Additionally, we perform experiments to understand what aspects influence the models. Results show that modeling the skills needed to solve an exercise using an encoding strategy and reducing the length of the interaction sequence lead to improvements in terms of both accuracy and AUC. The time-encoding did not lead to better results, further experimentation is needed to include the time dimension successfully. / Mänsklig kunskap är ett försök att förutsäga användarnas framtida prestanda på lärandeplattformar baserat på historiska data, genom att modellera deras kunskaps tillstånd. I denna uppgift är målet en binär variabel som representerar överensstämmelsen av övningen. Nuvarande state-of-the-art-modeller lägger till uppmärksamhetslager på autoregressiva modeller eller förlitar sig på self-attention-nätverk. Dessa modeller bygger dock på offentligt tillgängliga databaser som saknar användbar information om de interaktioner som användare har med övningar. I detta arbete introduceras olika tekniker som gör det möjligt att inkludera ytterligare information som görs tillgänglig i en databas som tillhandahålls av Astrid Education AB. De består av att koda en tidsdimension, modellera färdigheten som krävs för varje övning explicit och justera interaktionssekvenslängden. Genom att introducera ny information i ramverket för kunskapstracing tillåter Astrid att skapa en mer personlig upplevelse för sina användare; därmed uppfyller syftet och målet med denna avhandling. Dessutom genomför vi experiment för att förstå vilka aspekter som påverkar modellerna. Resultaten visar att modellering av färdigheter med en kodningsstrategi och reducering av interaktionssekvenslängden leder till förbättringar både vad gäller noggrannhet och AUC. Tidskodningen ledde inte till bättre resultat, ytterligare experimentering krävs för att inkludera tidsdimensionen på ett framgångsrikt sätt.
|
3 |
Dynamic Student Embeddings for a Stable Time Dimension in Knowledge TracingTump, Clara January 2020 (has links)
Knowledge tracing is concerned with tracking a student’s knowledge as she/he engages with exercises in an (online) learning platform. A commonly used state-of-theart knowledge tracing model is Deep Knowledge Tracing (DKT) which models the time dimension as a sequence of completed exercises per student by using a Long Short-Term Memory Neural Network (LSTM). However, a common problem in this sequence-based model is too much instability in the time dimension of the modelled knowledge of a student. In other words, the student’s knowledge on a skill changes too quickly and unreliably. We propose dynamic student embeddings as a stable method for encoding the time dimension of knowledge tracing systems. In this method the time dimension is encoded in time slices of a fixed size, while the model’s loss function is designed to smoothly align subsequent time slices. We compare the dynamic student embeddings to DKT on a large-scale real-world dataset, and we show that dynamic student embeddings provide a more stable knowledge tracing while retaining good performance. / Kunskapsspårning handlar om att modellera en students kunskaper då den arbetar med uppgifter i en (online) lärplattform. En vanlig state-of-the-art kunskapsspårningsmodell är Deep Knowledge Tracing (DKT) vilken modellerar tidsdimensionen som en sekvens av avslutade uppgifter per student med hjälp av ett neuronnät kallat Long Short-Term Memory Neural Network (LSTM). Ett vanligt problem i dessa sekvensbaserade modeller är emellertid en för stor instabilitet i tidsdimensionen för studentens modellerade kunskap. Med andra ord, studentens kunskaper förändras för snabbt och otillförlitligt. Vi föreslår därför Dynamiska Studentvektorer som en stabil metod för kodning av tidsdimensionen för kunskapsspårningssystem. I denna metod kodas tidsdimensionen i tidsskivor av fix storlek, medan modellens förlustfunktion är utformad för att smidigt justera efterföljande tidsskivor. I denna uppsats jämför vi de Dynamiska Studentvektorer med DKT i en storskalig verklighetsbaserad dataset, och visar att Dynamiska Studentvektorer tillhandahåller en stabilare kunskapsspårning samtidigt som prestandan bibehålls.
|
Page generated in 0.1155 seconds