• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 59
  • 4
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 93
  • 93
  • 30
  • 21
  • 19
  • 17
  • 16
  • 13
  • 13
  • 11
  • 10
  • 10
  • 10
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Automatic Distractor Generation for Spanish Reading Comprehension Questions : Using language models to generate wrong, but plausible answers for multiple choice questions in Spanish / Automatisk Generering av Distraktorer för Spanska Läsförståelsefrågor : Användning av språkmodeller för att generera felaktiga men trovärdiga svar på flervalsfrågor på spanska

Santiago Roman Avila, Jorge January 2023 (has links)
A common evaluation method for students in the context of reading comprehension is the use of Multiple Choice Questions. A student must read a text and a question, and then choose the correct answer from a set of options, one of which one is the correct answer, and the other options are wrong. The wrong options are called distractors. Creating Multiple Choice Question exams is time-consuming, and a task that is open for automation. Distractor Generation is the task of generating wrong, but plausible options for Multiple Choice Questions. It is a task that can be addressed with Machine Learning and Large Language Models. As this task has been addressed in languages such as English, and Swedish, this work addresses the task for the Spanish language. This work achieves 3 objectives. The first one is the creation of a Multiple Choice Question dataset in Spanish with distractors, by manually tagging distractors from the dataset SQuAD-es. The newly created dataset with distractors is called SQuAD-es-dist. The second one is automatically generating distractors with machine learning methods. A BERT model is fine-tuned to generate distractors, and a GPT model is used through zero-shot learning to generate distractors. The third one is a human study on the generated distractors to evaluate the plausibility and usability of the distractors. Although both methods show to be effective, yet not perfect, at generating distractors, the GPT model shows better applicability and a higher capacity to confuse students in the task of Distractor Generation. / En vanlig utvärderingsmetod för studenter i samband med läsförståelse är användningen av flervalsfrågor. En elev måste läsa en text och en fråga, och sedan välja rätt svar från en uppsättning alternativ, varav ett är rätt svar och de andra alternativen är fel. De felaktiga alternativen kallas distraktorer. Att skapa prov med flervalsfrågor är tidskrävande och en uppgift som är öppen för automatisering. Distraktorgenerering är uppgiften att generera felaktiga, men rimliga alternativ för flervalsfrågor. Det är en uppgift som kan lösas med maskininlärning och stora språkmodeller. Eftersom denna uppgift har behandlats på språk som engelska och svenska, behandlar detta arbete uppgiften för det spanska språket. Detta arbete uppnår 3 mål. Den första är skapandet av ett dataset med flervalsfrågor på spanska med distraktorer, genom manuell taggning av distraktorer från datasetet SQuAD-es. Det nyskapade datasetet med distraktorer kallas SQuAD-es-dist. Den andra metoden är att automatiskt generera distraktorer med maskininlärningsmetoder. En BERT-modell finjusteras för att generera distraktorer, och en GPT-modell används genom zero-shot-inlärning för att generera distraktorer. Den tredje metoden är en mänsklig studie av de genererade distraktorerna för att utvärdera hur rimliga och användbara distraktorerna är. Även om båda metoderna visar sig vara effektiva, men inte perfekta, för att generera distraktorer, visar GPT-modellen bättre tillämpbarhet och en högre kapacitet att förvirra studenter i uppgiften att generera distraktorer / Para evaluar a alumnos en el contexto de comprensión de lectura se usan las preguntas de opción múltiple. El alumno debe leer un texto y una pregunta y, a continuación, elegir la respuesta correcta entre un conjunto de opciones, una de las cuales es la respuesta correcta y las demás opciones son incorrectas. Las opciones incorrectas se denominan distractores. La creación de exámenes con preguntas de opción múltiple requiere mucho tiempo, y es una tarea susceptible a la automatización. La Generación de Distractores es la tarea de generar opciones erróneas, pero plausibles, para Preguntas de Elección Múltiple. Es una tarea que puede abordarse con Aprendizaje Automático y Grandes Modelos de Lenguaje. Dado que esta tarea ha sido explorada en idiomas como el inglés, y el sueco, este trabajo aplica la tarea para el idioma español. Este trabajo alcanza 3 objetivos. El primero es la creación de un conjunto de datos de preguntas de respuesta múltiple en español con distractores, etiquetando manualmente los distractores del conjunto de datos SQuAD-es. El nuevo conjunto de datos con distractores se denomina SQuAD-es-dist. La segunda consiste en generar distractores automáticamente con métodos de aprendizaje automático. Se entrena y ajusta un modelo BERT para generar distractores y se utiliza un modelo GPT mediante ”zeroshot learning” para generar distractores. El tercero es un estudio humano sobre los distractores generados para evaluar la aplicabilidad y usabilidad de los distractores. Aunque ambos métodos muestran ser eficaces, pero no perfectos, en la generación de distractores, el modelo GPT muestra una mejor aplicabilidad y una mayor capacidad para confundir a los estudiantes en la tarea de Generación de Distractores.
92

The effective use of multiple-choice questions in assessing scientific calculations

Terblanche, Hester Aletta 02 1900 (has links)
This study investigated the effective use of online Multiple-Choice Questions (MCQs) with immediate formative feedback, and the granting of partial credit for correct second or third chance answers when assessing and assisting students’ conceptual learning at higher cognitive levels. The research sample comprised first year engineering science students at the Tshwane University of Technology (TUT), Pretoria campus. The differences between using online MCQ-assessment for problem-solving calculations and using constructed written questions (CRQs)1 in the assessment of problem-solving calculations were explored. Furthermore, the differences between the assessment of problem-solving calculations using online MCQs without immediate formative feedback, and with immediate formative feedback and the granting of partial credit were analysed. The findings revealed that students’ marks were lower when answering problem-solving calculations using online MCQs without immediate formative feedback than when answering the same questions using CRQs. This clearly indicates that using online MCQs without immediate formative feedback is not effective in assessing scientific problem-solving calculations. Alternatively, online MCQs proved effective in assessing problem-solving calculations when immediate formative feedback and partial credit were employed. The statistical analysis showed that students performed significantly better when immediate formative feedback was given and partial credit was granted for correct second or third attempts. This was due to online MCQs utilising immediate formative feedback, which made it possible to grant partial credit when students chose the correct answers after feedback. This showed that online MCQs with immediate formative feedback and partial credit being granted can be an effective assessment tool for scientific problem-solving calculations. It increases performance and supports learning from assessment. Students can thus correct their calculations whilst in the process of doing them. / Science and Technology Education / M. Ed. (Science Education)
93

Steigerung selbstregulierten Lernens durch computerbasiertes Feedback beim Erwerb von Experimentierkompetenz im Fach Biologie / Individually adapted computerbased feedback for supporting self-regulated learning processes in school-age children / A computer-based learning program developed to help pupils practice strategies of controlling experimental variables.

Lange, Silke Dorothee 31 October 2012 (has links)
Feedback ist ein wichtiger Faktor für erfolgreiches Lernen – vorausgesetzt, dass es rich-tig eingesetzt wird (Hattie & Timperley, 2007). Dies gilt insbesondere, wenn es um den Erwerb neuer Kompetenzen geht. Die vorliegende Studie soll dazu beitragen, eine empirisch begründete kompetenzorientierte Brücke zwischen dem Konzept des negativen Wissens (Oser & Spychiger, 2005) und psychologischen Theorien zum Thema Feedback als Instruktionsmethode im Rahmen des selbstregulierten Lernens bei Schülern zu bilden und dazu anregen, den selbstregulierten Lernprozess von Schülern durch individuell angepasstes Feedback zu fördern. Dazu wurden zwei Hypothesen expliziert: Zum einen, dass Lernende, die Feedback über die konkrete Lokalisation des Fehlers erhalten, die dargebotenen Biologieaufgaben besser lösen können (prozessbezogene methodische Kompetenzen), als Lernende, die auf einer Metaebene eine Begründung für die Ursache des Fehlers in Kombination mit einer Frage zur kognitiven Aktivierung erhalten haben. Zum anderen, dass auf der im Rahmen der Intervention nicht trainierten strategischer Ebene das Feedback mit kognitiver Aktivierung effektiver ist. Um diese Hypothesen zu prüfen, wurde der Einfluss zweier Feedbackvarianten untersucht. In einem 2x2 Prä-Post-Test Design wurden dazu die Feedbackvarianten „Lokalisation des Fehlers“ und „Begründung des Fehlers mit kognitiver Aktivierung“ einzeln oder in Kombination einer Kontrollbedingung ohne Feedback gegenüber gestellt. Lernende der 7. Klasse bearbeiteten im Rahmen von zwei Doppelstunden ein webbasiertes interaktives Lernprogramm zum Thema „Experimentieren“. Die darin enthaltenen Multiple-Choice-Aufgaben (Hammann, 2007) umfassten die für das Experimentieren einschlägigen Kompetenzbereiche „Suche im Hypothesenraum“, „Testen von Hypothesen“ und „Analyse von Evidenzen“ (Klahr, 2000). Als abhängige Variablen haben wir jeweils in einer Prä-Post-Test-Messung den Zuwachs an prozessbezogenen methodischen Kompetenzen (operationalisiert über die korrekte Lösung der verwendeten Biologie-Aufgaben) und den strategischen Lernzuwachs (operationalisiert über die Bearbeitung des EEST-2, Marschner, 2010) untersucht. Um den möglichen Einfluss individueller Unterschiede in Bezug auf die Transferwirksamkeit des erworbenen Wissens zu erheben, wurden auch Daten zu Intelligenz, Persönlichkeitsfaktoren, zum Umgang mit Fehlern, zur Selbstwirksamkeitserwartung und zum selbstregulierten Lernen erhoben. Durch die Bearbeitung des Lernprogramms konnten die getesteten Schüler (N=355) über alle Versuchsgruppen hinweg signifikante Lernzuwächse auf der im Rahmen der Intervention trainierten Aufgabeneben (prozessbezogene methodische Kompetenzen) erzielen, nicht aber auf der nicht trainierten strategischen Ebene. Die verschiedenen Feedbackarten hatten jedoch keinen Einfluss auf den Lernzuwachs der untersuchten Stichprobe. Auf strategischer Ebene konnte sogar eine Verschlechterung des Ergebnisses vom Prä- zum Posttest beobachtet werden. Dieses könnte darauf zurückzuführen sein, dass die metakognitive Entwicklung der getesteten Schüler noch nicht ausgereift genug war, um das Feedback auf der intendierten Ebene verarbeiten zu können. In der Diskussion dieser Arbeit wird das Konzept des negativen Wissens (Oser & Spychiger, 2005) theoretisch mit den Ergebnissen aus der kognitionspsychologischen Forschung verknüpft und aufgezeigt, welche Parallelen zwischen diesen beiden Ansätzen bestehen. Die für diese Studie konzipierte computerbasierte Lerneinheit hat sich in der Praxis zur Einübung der Variablenkontrollstrategie bei Lehramtsstudierenden bewährt.

Page generated in 0.0405 seconds