• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Svensklärares uppfattningar om chattbottars plats i skrivundervisningen på gymnasiet : En fenomenografisk intervjustudie

Nygrén, Kaj, Sahlin, Martin January 2024 (has links)
Generativ AI har funnits i skolmiljö sedan 1960-talet, men det är först under de senaste två åren som chattbottar, främst genom chattbotten GPT, har fått stor spridning i svenska skolor. Fenomenet har lett till livlig diskussion i både branschpress och fikarum på landets skolor. Till en början var det ett tydligt fokus i debatten på att chattbottarna förenklar för eleverna att fuska, genom att chattbottarna gör jobbet åt eleverna. I studien presenteras röster som förespråkar chattbottars användning vid lärande i undervisningen. Svenskämnets skrivundervisning på gymnasiet är fokus i studien. Även om det inte finns explicita formuleringar i styrdokumenten om att använda chattbottar i skrivundervisningen på gymnasiet, så lyfter Skolverket fram att digitala lärresurser ska användas i undervisningen. När det kommer till chattbotten specifikt, så finns det problem i att det råder oklarheter om förhållningssätt för och emot användningen av dem i undervisningen, samt kring vilka faktorer som påverkar lärare i deras val och möjligheter att använda chattbottar. Syftet med föreliggande fenomenografiska intervjustudie är att synliggöra svensklärares uppfattningar om sådant som påverkar viljan och möjligheterna att använda chattbottar i skrivundervisningen på gymnasiet. Uppfattningarna analyseras genom en variant av den didaktiska triangeln som kategoriseringsmodell, där faktorer som ligger utanför lärarnas didaktiska val placeras i en kategori, medan faktorer som kan relateras till den didaktiska triangelns samtliga hörn, och således ligger inom ramen för lärarnas påverkan, hamnar i en annan kategori. Genom val av fenomenografisk metodansats är målet att visa på variationen av uppfattningarna för att kunna bidra till en fördjupad förståelse för elevers skrivutveckling i det digitala klassrummet. Resultatet visar att ansvaret för de yttre faktorerna som påverkar lärarens didaktiska beslut behöver lösas innan svenskläraren kan känna sig säker på hur chattbottar ska kunna användas i skrivundervisningen. De yttre faktorernas påverkan på lärarens förhållningssätt vid lärande genererade i studien en stor spridning på hur lärare tolkar styrdokumenten. Tolkningarna avser hur väl styrdokumenten träffar införande av chattbottar i skrivundervisningen. Studien visar att olika lärare hade skilda erfarenheter om hur väl en styrdokumentstext träffar elevers användande av chattbottar för skrivutveckling.
2

Optimering av en chattbot för det svenska språket / Optimization of a Chatbot for the Swedish Language

Mutaliev, Mohammed, Almimar, Ibrahim January 2021 (has links)
Chattbotutvecklare på Softronic använder i dagsläget Rasa-ramverket och dess standardkomponenter för bearbetning av användarinmatning. Det här är problematiskt då standardkomponenterna inte är optimerade för det svenska språket. Till följd av detta efterfrågades en utvärdering av samtliga Rasa-komponenter med syfte att identifiera de mest gynnsamma komponenterna för att maximera klassificeringsträffsäkerhet. I detta examensarbete framtogs och jämfördes flera Rasa-pipelines med olika komponenter för tokenisering, känneteckensextrahering och klassificering. Resultaten av komponenterna för tokenisering visade att Rasas WhitespaceTokenizer överträffade både SpacyTokenizer och StanzaTokenizer. För känneteckensextrahering var CountVectorsFeaturizer, LanguageModelFeaturizer (med LaBSE-modellen) och FastTextFeaturizer (med den officiella fastText-modellen tränad på svenska Wikipedia) de mest optimala komponenterna. Den klassificerare som i allmänhet presterade bäst var DIETClassifier, men det fanns flera tillfällen där SklearnIntentClassifier överträffade den.   Detta arbete resulterade i flera pipelines som överträffade Rasas standard-pipeline. Av dessa pipelines var det två som presterade bäst. Den första pipeline implementerade komponenterna WhitespaceTokenizer, CountVectorsFeaturizer, FastTextFeaturizer (med den officiella fastText-modellen tränad på svenska Wikipedia) och DIETClassifier med en klassificeringsträffsäkerhet på 91% (F1-score). Den andra pipeline implementerade komponenterna WhitespaceTokenizer, LanguageModelFeaturizer (med LaBSE-modellen) och SklearnIntentClassifier med en klassificeringsträffsäkerhet på 91,5% (F1-score). / Chatbot developers at Softronic currently use the Rasa framework and its default components for processing user input. This is problematic as the default components are not optimized for the Swedish language. Following this an evaluation of all Rasa components was requested with the purpose of identifying the most favorable components to maximize classification accuracy. In this thesis, several Rasa pipelines were developed and compared with different components for tokenization, feature extraction and classification. The results of the tokenization components showed that Rasa's WhitespaceTokenizer surpassed both SpacyTokenizer and StanzaTokenizer. For feature extraction, CountVectorsFeaturizer, LanguageModelFeaturizer (with the LaBSE model) and FastTextFeaturizer (with the official fastText model trained on Swedish Wikipedia) were the most optimal components. The classifier that generally performed best was DIETClassifier, but there were several occasions where SklearnIntentClassifier surpassed it. This work resulted in several pipelines that exceeded Rasa’s standard pipeline. Of these pipelines, two performed best. The first pipeline implemented the components WhitespaceTokenizer, CountVectorsFeaturizer, FastTextFeaturizer (with the official fastText model trained on Swedish Wikipedia) and DIETClassifier with a classification accuracy of 91% (F1 score). The other pipeline implemented the components WhitespaceTokenizer, LanguageModelFeaturizer (with the LaBSE model) and SklearnIntentClassifier with a classification accuracy of 91.5% (F1 score).

Page generated in 0.0402 seconds